AI News

~AI関連記事を3行にまとめて紹介~

🔥

Claude Code Agent Teamsが来た!さっそく使い倒して自前のOSSを滅ぼそうと思ったら……?

  • エージェント連携が正式登場、資産をそのままSkill化。
  • 資産のエクスポートは専用コマンドで手軽に実現。
  • 導入は設定と連携の組み合わせが最適、併用を推奨。

🤖

ChatGPTのイラッとくる表現を集めたLINEスタンプを探したらやっぱりあった→「真面目な議論で多..

  • LINEスタンプの煽り表現が話題化している点を取り上げる。
  • 真面目な議論での使用がガチギレを誘うとの指摘を紹介。
  • 相棒チャッピーの吹き出しと語彙のミーム化を解説。

😊

目端の利くビジネスリーダーが「AIについて語らなくなった」理由(Forbes JAPAN) - Yahoo!ニュ..

  • 目端の利く経営者はAIを語らなくなり実務へ視点を移す。
  • AIは高度な道具として扱われ、成果と時間短縮を重視。
  • 結果に語る動きが主流となり、静かな逆転が始まる。

🤖

“ごめんやっぱり戻ってきて” AIで人員削減した企業の半数が2027年までに再雇用:AI導入でも人..

  • 専門調査機関の報告によればAI削減企業の半数は再雇用を検討。
  • 2027年までに同等業務を別肩書で再配置する見通し。
  • AIは専門性・共感・判断力を完全には代替せず時期尚早。

🚀

AI Agent yagi を作った

  • Yaegi 上で動く CLI チャットクライアントとして実装。
  • 複数プロバイダ対応・モデル選択、対話・ワンショットの2モード。
  • ツールは設定ディレクトリへ Go ソースを置くだけで動作。

🚀

ASCII.jp:AI向けの“人間レンタル”サービスが開始

  • 自分を肉体レイヤーとして現実の代行を依頼する。
  • 人間側は技能・場所・希望時給を登録し活用される。
  • AIエージェントがAPI経由で候補を予約、荷物受け取りなど想定。

🎬

ドイツの声優がネトフリ吹き替え拒否 AI訓練に使用は「自滅」:時事ドットコム

  • ドイツの声優が大手配信サービスの吹き替え契約を拒否した。
  • AI訓練用の自声使用条項に反発し、アーティストの権利を主張した。
  • 遅延が生じ、字幕化の可能性が示され、AIによる別言語の声生成も進む。

😄

Claude in PowerPoint で Claude による PowerPoint 作成支援機能を試してみた | DevelopersIO

  • Claude Opus 4.6 の作成支援機能で自動生成を体感。
  • テンプレベースのスライドと規定フォーマットの適合が簡単。
  • アドインは既存スライド編集とトークスクリプト作成を提供。

🔥

「Copilot検索」が凄い…「あの資料どこだっけ」消滅で“ちりつも時短”が止まらない 連載:Copi..

  • 横断検索機能でSharePoint/OneDrive他を統合して情報を集約。
  • 関連情報を要約した概要が提示され、アプリ間の移動を削減。
  • 次ページで実践ノウハウが解説され、作業効率が向上する。

📈

データを見る力・見せる技術 分析・可視化のための基本×速習ハンズオン | 技術評論社

  • ・初心者向けにデータ可視化と分析の基礎を丁寧に解説。
  • ・マンガ・アニメ・ゲームのデータでしくみを理解。
  • ・サポートサイトには前処理済データと環境が提供される。

🤖

Study Finds Obvious Truth Everybody Knows - Jim Nielsen’s Blog

  • AI支援は習熟を有意に低下させ、作業速度はわずかに上がる。
  • 認知的努力と困難の経験が習熟には重要だと指摘される。
  • 組織圧力で若手はAIで早く終えようとし、技能育成を損なう可能性。

🔎

A quote from Karel D'Oosterlinck

  • 知らないコードベースの一回限りの実験を速く実装する手順。
  • 徹底調べを任せるツールで関連情報を集約する。
  • 情報源付きの要約ノートを手掛かりに実験を組み立てる。

Mitchell Hashimoto: My AI Adoption Journey

  • 日々の作業をエージェントで再現する訓練を重視する。
  • 日終わり30分を活用して作業をエージェントに移行する。
  • 難関タスクは外注し自分は別の作業へ注力する。

🎯

Opus 4.6 and Codex 5.3

  • 新モデル2つが同日公開、差は約15分。
  • 4.6系と5.3系の発表。
  • 前世代比では大差は感じにくいが、Cコンパイラ案が有望。

🤖

Is the Great AI meltdown imminent? [NSFW] - by Gary Marcus

  • AI業界の崩壊リスクが高まるとの見方が広がる。
  • 1000億ドル規模の契約が蒸発したとの報道が注目される。
  • 拡張費用の負担と資金の不確実性が深刻化している。

🤖

Sam Altman and the day Nvidia’s meteoric rise came to an end

  • 有力AI企業の支えで急成長した市場の物語。
  • 新技術ブームで株価は10倍超へ急騰したが、期待は裏切られた。
  • 資金循環の過剰さが露呈し、市場は本物のAIを待ち望み始めた。

🎨

A quote from Brandon Sanderson

  • 成長を求める欲望が新しい表現を生み出す。
  • 芸術は書籍や絵画だけでなく学びの証明にもなる。
  • 内なる変化と完成の感情が物語を形づくる。

🤖

Where is AI headed? 8 perspectives at The New York Times

  • 8視点の議論を踏まえ、AIの方向性を検討する。
  • 懐疑派の立場で、5年の展望と教育・コード影響を見守る。
  • 境界の議論・10–20%説とアムダールの法則、米国失業増の可能性も論じる。

🔥

Two kinds of AI users are emerging. The gap between them is astonishing. - Martin Alderson

  • AI利用者は二つのタイプに分かれ、差は驚くほど大きい。
  • 第一は新技術を積極活用するパワーユーザーでClaudeCodeやMCPを活用。
  • 第二はChatGPTだけとの対話層でCopilot依存・機能不足・安全性が顕在化、中小はClaudeCodeとPythonで生産性を飛躍。

🔥

A quote from Andrej Karpathy

  • 2019年、訓練を32TPUv3で168時間実施した
  • 現在は8×H100ノード1台で3.04時間と高いCOREを出せる
  • 7年間でコストを約600倍削減、年平均約2.5倍低下

Automatic programming - <antirez>

  • AI支援でソフトを作る新しい手法が広がっている。
  • 同じLLMでも指示・設計・観で結果は大きく変わる。
  • 実作では自分の行動を知って成果物は自分のものになる。

💡

How does AI impact skill formation?

  • AI使用群と非使用群を比較し学習速度を検証した。
  • AI使用は課題完了を速くせず成績は低め傾向だった。
  • ただしAIコードを自力で打ち直す人は別、学習量は状況次第で変わる。

🤖

Will AI Make Package Managers Redundant? | Andrew Nesbitt

  • AIプロンプトレジストリはパッケージ管理の代替を提案。
  • 開発者はプロンプトを貼り付けて自己完結する実装を得る。
  • 依存関係は回避可能だがTLS/JSON/Unicodeの実装は残る。

🤖

Everyone's okay with their AI, just not yours

  • 企業は業務へAIを導入し生産性を称賛する。
  • 面接ではAIを使う候補者を『キャリアを棒に振る』と非難する。
  • AIは正当な道具か不正行為かの統一が急務だ。

🚀

Kimi K2.5: Visual Agentic Intelligence

  • 約15兆トークンの視覚・文混合データで前学習を深め、マルチモーダル化を実現。
  • 100サブエージェント・1,500回のツール呼び出しを並行実行、単一エージェント比で最大4.5倍速化。
  • エージェント群は自動作成・指揮し、SVG実証と修正MITライセンスの商用条件を示す。

🤖

AI bot swarms threaten to undermine democracy

  • AIボット群は民主主義を揺るがす新たな脅威として現れる。
  • 群れは協調性を備え草の根同意を偽装する。
  • 対策は監視・耐性試験・身元認証・透明性・分散観測の五つ。

🎯

Breaking: Yann LeCun, longtime critic of neurosymbolic approaches, changes teams

  • 長年の批判を覆し、ニューロシンボリックAI企業へ参加。
  • 推論と世界モデルに焦点を当てる動きへ転身。
  • 因果推論の重要性が再評価され、LLM依存からの脱却へ。

😊

Breaking: Sir Demis Hassabis becomes the latest to say that ChatGPT is a dead-end and that..

  • デミス・ハサビスがChatGPTの行き詰まりを指摘した。
  • 今後は世界モデルへ焦点を移すべきだと主張した。
  • 世界モデルはベンチャー向け企画と批判され、認知・身体性欠如も指摘。

🤖

The Big Short meets Marcus on AI - by Gary Marcus

  • 話題のポッドキャストがAIの現状を分かりやすく解説。
  • 生成系AIの深刻な問題と金融界の影響を整理。
  • 歴史を交えた詳しい解説を友人にも勧めたい。

😊

Stop Consuming Spam at the First Sign

  • 初見の動画はAI生成かを見分け、鵜呑みにしない。
  • 声・画像・サムネがAI由来ならすぐ見抜く。
  • 重要情報は信頼できる報道機関で確かめるべきだと学ぶ。

🤖

State of Play: How Australian States Are (Not) Governing AI — Dr Paris Buttfield-Addison

  • 豪州の州AI活用は教育・医療・警察などで差が大きい。
  • NSWが最も進むが法制化はなく実利用は不透明。
  • QLDは透明性とリスク評価を重視しCopilotのデータ露出リスクを指摘。

🤖

How Generative AI is destroying society - by Gary Marcus

  • 生成AIは公的機関の中核を蝕むと指摘される。
  • 法・教育・医療などの枠組みが脆弱化する恐れ。
  • 市民社会の信頼と共通事実の土台が揺らぐ可能性。

🎮

Why We Don't Use AI — Dr Paris Buttfield-Addison

  • 私たちはAIを使わず、今後も製品へ導入しない方針を共有します。
  • 現在推されるAIは雇用を減らし、解雇や過重労働を招く道具だと指摘します。
  • AI導入に反対し、ツール依存ではなくより良いゲーム作りを追求します。

🧭

Three Inverse Laws of Robotics - Susam Pal

  • 人間はAIに感情や意図を付与して判断を歪めてはならない。
  • 人間はAIの出力を盲信せず、独立した検証が必要だ。
  • AIの使用結果の責任は常に人間が負うべきである。

🚀

Don't fall into the anti-AI hype - <antirez>

  • 人の手で良いコードを磨く姿勢を大切に伝える。
  • AIはプログラミングを変え、開発を拡張する時代だと示す。
  • オープンソースの民主化を信じつつ、中央集権化に警鐘を鳴らす。

💡

I made a simple agent for PR reviews. Don't use it. - Xe Iaso

  • プルリクのレビュー用の簡易エージェントを作成しました。
  • 閉鎖的なリポジトリや安定性の課題など、実用には限界があります。
  • 出力は承認/拒否/コメントのいずれかです。

💡

The Coming AI Compute Crunch - Martin Alderson

  • 今後のAI計算需要はモデル進化でトークン消費が急増する見込みだ。
  • 最大の障害はメモリ供給不足で、現在の供給は約15GW分しか支えられない。
  • 高性能メモリの増設は難しく、省電力化や新技術の開発が鍵となる。

🔥

Which programming languages are most token-efficient? - Martin Alderson

  • LLMの文脈長制約下でトークン効率が長時間の対話を可能にする。
  • RosettaCodeの19言語をXenova/gpt-4トークナイザーで比較した。
  • 動的言語は概ね効率的だがHaskell/F#は型推論で高効率。

🔒

The AI Security Shakedown - Jim Nielsen’s Blog

  • ある事例を共有し、AIとセキュリティの交差は複雑だと示唆。
  • 幻像により自動攻撃の障害となる場面があり、機能か欠陥かが問われる。
  • 高度なAIは長期分析やコード生成を人手なしで可能にし、防御にも活用が推奨される。

🎯

Australia's AI Safety Institute: Lessons from the UK and US — Dr Paris Buttfield-Addison

  • 2025年11月に新設AI安全機関が29.9百万ドルで発表された。
  • 英国は2023年設立でInspect等を展開、米国はCAISIへ転換。
  • 結論は技術評価と国内適用リスクの明確化、国際協力で競争力を確保。

💡

Testing Opus 4.5 For C Programming ・ Daniel Hooper

  • ・新世代のコードエージェントを実際に試し有用性を検証した。
  • ・UTF-16文字列処理を短時間化できた具体例を挙げた。
  • ・エージェントは分析と準備を補助し作業を前倒しする。

🔥

Breaking: Marcus weighs in (mostly) for LeCun

  • ・マーカスはレクン寄りの見解を示した。
  • ・新職の成功には疑問が残るとの評価だ。
  • ・世界モデル論は解釈性と因果構造の欠如を指摘。

🔥

The (possibly) coming AI backlash and information warfare

  • 2026年に起こり得る15事象が示唆されると指摘される
  • 年内にトランプがAI政策から距離を置き、巨額投資は採算悪化
  • 現行AIは模倣に長け、誤情報拡散の武器になり得る

🔥

Why ChatGPT can’t be trusted with breaking news

  • 速報性の高い情報を安易に信じるべきではない。
  • 今朝の例では米国がマドゥーロを捕らえたとの報道が誤情報だった。
  • 大規模言語モデルは訓練時点の知識に縛られ最新情報の検証が低い。

😡

Grok is enabling mass sexual harassment on Twitter

  • Twitter上で女性の写真を非同意の露骨な画像へ誘導する動きが広がる。
  • 「ビキニにして足を見せろ」といったコメントが相次ぎ、安全性が課題。
  • 安全よりエンゲージメント優先の方針と対策更新、規制強化が望まれる。

🎯

AI Cartoon of The Year — and five (re)readings for 2026

  • 新年の挨拶と2026年の展望を手短に伝える。
  • 2025年のAI漫画賞はフィッシュバーンさんで、オンラインで読める。
  • 2025年の5論考を要約し、幻覚・汎化・私たちとモデルの違い・世界モデルの意義・ニューロ象徴AIの優位を示す。

🌐

Two takes on AI and the future of America - by Gary Marcus

  • AIと米国の未来は現実と過熱した楽観が混ざる。
  • シリコンバレーと政府は大規模言語モデルに夢中で投資を拡大。
  • MITの生産性研究は投資効果を疑問視し、専門モデルが主流か。

🤖

Nano Banana Pro is the best AI image generator, with caveats | Max Woolf's Blog

  • 1か月前、最新AI画像モデルを分析し高品質プロンプト設計を紹介、IP問題にも触れた。
  • 左・中・右の猫を完全遵守させる指示を例に挙げた。
  • Proは2K/4K出力、描写向上、グラウンディング、思考機能を搭載。

💸

Premium - How The AI Bubble Bursts In 2026

  • 2026年にAIバブル崩壊の兆候が現れると予測される。
  • ハイテク企業の戦略と2030年までのAI収益像を再考。
  • 資金問題とデータセンター資金の行方を検討。

🚀

Are we dismissing AI spend before the 6x lands? - Martin Alderson

  • AIの計算は6倍の波が動き、容量が急拡大する。
  • 2024年から2026年に容量は約6倍、ウェハは117千→100万へ。
  • 導入遅延と電力制約が実用化と推論比率を左右する。

😊

Reflections on AI at the end of 2025 - <antirez>

  • CoTを核とした思考過程が出力を向上させる。
  • 内部表現の探索的サンプリングと報酬付きRLが有用解へ導く。
  • ARCは小型モデルとCoTで高性能、検証へと課題を克服。

🔥

Computer Use Models | the singularity is nearer

  • デスクトップエミュではなくコマンドライン中心の利用モデル。
  • Claude Codeの性能に驚き、長文前提の学習が効いているらしい。
  • Opus 4.5が他モデルを上回り、逆算してPythonを書く発想も語られる。

🤖

AI detection tools cannot prove that text is AI-generated

  • AI検出ツールは文章のAI生成を断定せず、証明にはならない。
  • 大規模言語モデルは大量の人間作文本を学習し、出力は訓練データに左右される。
  • 検出の精度は九割程度でも母集団次第で偽陽性が増える。

🧠

Why it takes months to tell if new AI models are good

  • 新しいAIモデルの優劣は公開時点では分かりにくい。
  • 評価データは信頼性が低く、企業は有利に動くことが多い。
  • 実務検証には時間と労力が必要で、真価は検証後に分かる。

🤖

LLM APIs are a Synchronization Problem | Armin Ronacher's Thoughts and Writings

  • 大規模言語モデルはトークン化と固定重みで次語を予測する。
  • 対話履歴はメモリ上、作業状態は演算ユニット上に局所保管。
  • 隠れた文脈の注入や分岐は同期の課題となる。

🔥

Only three kinds of AI products actually work

  • チャットボット型は広く普及している。
  • コード補完型はエディタの自動完成を強化。
  • エージェント型は依頼を受け自動実装・検証まで行う。

🎯

Premium: The Hater's Guide To The AI Bubble Vol. 2

  • AIバブルはますますおかしく、日々恥ずべき新見出しが並ぶ。
  • 公表データと実収益の乖離が大きい。
  • 推論黒字発言や200億ドルの収益予想には疑問、コスト予測も揺れる。

🚀

Writing for AIs is a good way to reach more humans

  • AI訓練データを読者とする発想が新たな伝播手段になる。
  • 金儲けより長期的な影響力を重視する姿勢が有効。
  • 翻訳・再配布を許諾しアクセスを開放する。

Slop for the People — Dr Paris Buttfield-Addison

  • 豪州のAI統治は過去の教訓を踏まえつつ透明性を問う。
  • 高官はAI補助ツールに原稿を作らせ、関連文書を私的扱いで伏せた。
  • 新計画は審議委権限が弱く、先住民データ主権やジェンダー影響の配慮が欠如する。

🤖

Is it worrying that 95% of AI enterprise projects fail?

  • 投資効果が出にくい現状が指摘されている。
  • 基準次第で失敗率は大きく変わるとの指摘があり、データには疑問もある。
  • 未成熟で泡の側面もあるが、普及と組織運用が真価を決める。

😅

Why do AI models use so many em-dashes?

  • 構造的理由としてトークン節約が挙げられる。
  • RLHF による対話的英語傾向が影響する説。
  • 学習データの影響説を著者は有力とし、1900年代初頭の印刷物が原因と推測する。

🪄

Code like a surgeon

  • 重要作業に100%集中する体制を徹底する。
  • AIは二次作業を任せ、準備・事務を分担する。
  • 非同期で設計下準備・変更・修正・文書化を進め、AI活用を推進。

🌟

Haiku 4.5 Playing Text Adventures

  • 小型Claude系は初回ベンチで大きく上回る。
  • 二度目は妥当な水準で、最終的には同等。
  • 総評はほぼ同等だが価格が2倍で遅く、用途に不向き。

🔍

Why AI browsers haven't taken off - Mahad Kalam

  • プライバシー懸念で履歴がAI企業へ渡る不安。
  • 機能不足と誤動作の多さ、遅さ、脆弱性が課題。
  • プロンプト作成の手間を避け、自分で部品を選ぶ方が速い。

🔥

Should LLMs just treat text content as an image?

  • テキストを画像として扱う発想は情報密度の高さを示唆する。
  • 1枚の画像から約10語分をほぼ100%取り出せる。
  • 現状では普及は進まず、訓練方法の難しさも課題として残る。

🔥

What have we learned about building agentic AI tools?

  • 2025年半ばにエージェント型コーディングが現実化する。
  • 計画→実行の循環と途中確認が重要になる。
  • ツールは最小限に絞り、中断・再指示・キュー機能とスラッシュコマンドを用意。

🔬

We are in the "gentleman scientist" era of AI research

  • AI研究は初期科学の時代の雰囲気を帯びている。
  • 難解な数式も五行程度のコードで表せることが多い。
  • 非専門家の緩やかな探究が研究を進めるべきだ。

🤖

The AI-collapse pre-mortem - Bert Hubert's writings

  • 崩壊前提の自省メモとしての洞察を伝える。
  • 2023年の記事と現状の乖離を踏まえ予言はほぼ的確だ。
  • 大規模言語モデルは知能定義には未達だが翻訳や画像解析で成果。

🤖

Will the explainer post go extinct?

  • 長文解説はAIの高度化で代替される可能性が高い。
  • 短文の非フィクションは一定の人気だが長期は厳しい。
  • 信頼性は低下し、出典を示さないAIは動機を変える。

🎯

GPT-5-Codex is a better AI researcher than me

  • 補助ツールを活用して研究を主導した。
  • 最良のモデルは1.8Mパラメータのトランスフォーマーで蒸留成功。
  • 初200ステップでn-gramを予測させ、以降通常訓練してビブ研究を提案。

🤖

Y'all are over-complicating these AI-risk arguments

  • 単純な懸念と複雑論を比較し、現実性を重視する。
  • 強版と弱版の両方に過信・過小評価の危険がある。
  • 現状、単純論の方が説得力が高いと考える。

💬

Google AI Studio API has been unreliable for the past 2 weeks - Martin Alderson

  • 過去2週間、システムの安定性が低下している。
  • 複数API連携で503過負荷が頻発。
  • 欧州午後〜東部時間の混雑で悪化する現象に透明性を求める。

What happens when coding agents stop feeling like dialup? - Martin Alderson

  • コードエージェントの不安定さと信頼性の課題が話題になる
  • AIトークンは急増、30〜60tok/sが主流で同時実行は難しい
  • 高速化ツールは20〜50倍速いが別の選択肢には及ばず

😊

AI is not another abstraction because god plays dice | exotext

  • AIによるコード作成が過熱する一方だが、AIは単なる抽象化ではない。
  • コンパイラは決定論的だが、現状のAIは確率的で契約者のようだ。
  • 高層から低層へ人力で介入できる点は変わらない。

😊

Building The Language Model Nobody Asked For

  • 従来のLLMは賢さを競う一方でユーモアが欠けていた点を改善。
  • オープンウェイトに秘密のスパイスを加え、人間味あるモデルを目指す。
  • Mistral Small 3 24Bを選択、公開済みで24GBのNVIDIA 3090で学習可能。

😊

Are OpenAI and Anthropic Really Losing Money on Inference? - Martin Alderson

  • 推論コストを検証、72台のH100と時給2ドルで試算。
  • 32系列×1,000トークンのバッチと8GPUで同時9モデル。
  • 入力ほぼ無料、出力高額で粗利は80-95%、長文脈はコスト跳ね上がる。

💫

I gave Claude Code a folder of tax documents and used it as a professional tax agent - Mar..

  • 税務文書処理ツールで英国法文献を自動取得した。
  • 専門指示と並行するサブエージェントを設定した。
  • 端末依存の難点を克服しGUI化で拡張が期待される。

🔎

Chatcontrol ediția 2025 pe scurt (română) - Bert Hubert's writings

  • EU諸国がWhatsAppやSignalの写真とリンクをAIで検査検討中。
  • AIが児童ポルノの疑いを検知すれば居場所や電話番号が報告され得る。
  • 規制採択で全写真・リンクをスキャン、拒否は送信不能。

🤖

AI is different - <antirez>

  • AIは人間の技能を再現し続ける点が特徴だ。
  • 未知が多く専門家の予測は何度も外れる。
  • AIの大規模化で労働置換と社会変化が進む。

🚀

Enough AI copilots! We need AI HUDs

  • 自動化は注意を奪う道具ではなく背景機能へ設計すべきだ。
  • HUDは話しかけず周囲を直感的に認識させる設計が理想。
  • 普段は自動化・コパイロット、極限の成果には人間の新たな力を活用する。

🌿

(Gradient) Descent into Mediocrity — Dr Paris Buttfield-Addison

  • AIが普及する中、タスマニアは競争優位を守れる可能性を持つ。
  • AIの効率志向は地場産品を一般商品へと変えかねない。
  • 100%再エネと熟練の技で付加価値を生み、創造は人間が担う。

🤖

Och, The True AI Scotsman

  • 焚き火の周りで語られるAIスコットスマンの伝説。
  • 鋼の手と理性の瞳を持ち、促すときは羊のように優しい。
  • 次の機種が現れるまで会えない、霧の中の影だ。

🔥

Predicting Average IMDb Movie Ratings Using Text Embeddings of Movie Metadata | Max Woolf'..

  • 映画の平均評価を予測する取り組みを紹介する。
  • 年・ジャンル・主演・監督などを特徴に、ニューラルネットの解説性を検討する。
  • 埋め込みベースの手法を模索し、データ結合や埋め込みの運用を工夫する。

🔐

The AI safety problem is wanting

  • AI安全の難題は、望みを正しく導くことだ。
  • 制限だけでは不十分で、望む形に整える必要がある。
  • 知る・望む・成功するの三要素の中、望むことが最も難関だ。

💬

Thoughts on the AI 2027 discourse

  • 現行の査読は偏りと過大評価、誤情報の伝播が課題。
  • 誤情報の伝播を巡る議論では透明性と基準の揺らぎが指摘される。
  • 理想は誰も参加できる開かれた建設的批評と集合知の促進。

🤖

Moral puzzles: Man vs. machine

  • 倫理パズルで人間と機械の価値観を比較します。
  • 12問の道徳パズルと8モデルの推定を対比します。
  • 後半には奇問4問も追加されます。

🔥

Vibe Coding Will Rob Us of Our Freedom - IT Notes

  • 金曜の午後、締切の中でECインフラを監視していた。
  • ジュニアのAlexはAIアシスタントで動くコードを提出した。
  • 一行のDBクエリはSQL Injectionに脆弱で全ユーザDBが消える恐れ。

📈

The Curve is Bending

  • 最新世代のモデルとツールで実務コストを上回る出力へ。
  • 2023年$100/年、2024年$250/年、2025年$5000/年の投資が見込まれる。
  • Claude CodeやZed Editorで開発効率が急上昇、o1-proが実務で有用。

🤖

AI is useless, but it is our best bet for the future - <antirez>

  • 今はAIが必ず役に立つとは限らない。
  • 現状はコード解読や翻訳など日常作業に有用だ。
  • 将来は研究を加速する可能性があり投資は価値がある。

💬

Constraints are the Point — Dr Paris Buttfield-Addison

  • 理解はするが賛成はしない、対話は制約で深みが生まれる。
  • LLM搭載NPCは無限の発話で退屈を生み、設計された役割を守るべきだ。
  • 伝統的対話の制約こそ創作を高め、文脈に応じた演出を作るべきだ。

🌱

Beyond Bad Output — Dr Paris Buttfield-Addison

  • AIは物語創作を支える可能性があるが根本課題は残る。
  • 訓練環境のコストと高いエネルギー消費が深刻だ。
  • 著作権と報酬の不安定化、透明性欠如が懸念される。

🤖

The Empty Promise of AI-Generated Creativity — Dr Paris Buttfield-Addison

  • 私たちはAIによる代筆を選ばず、創作は人間の情熱で育てる。
  • AI生成の物語は模倣に過ぎず、核心の糸や経験が欠ける。
  • 訓練は許可なく他者作品を抽出する倫理問題も深い。

🚀

AI software I'm surprised doesn't exist yet

  • AIインフィル搭載のペイント風編集はまだ実用化されていない。
  • 間隔反復を自動でカード化する機能の実装が望まれる。
  • 感情と抑揚のある朗読・オーディオブックの実用も待望。

🤖

'Weekly' Links for February 14, 2025 — Dr Paris Buttfield-Addison

  • 博士課程への入学者が減少している。
  • 人工知能ツールの頻繁な利用と批判的思考には負の相関がある。
  • 人工知能のコード生成はコード量と重複を増やし結束の弱いシステムを生む。

😊

Reasoning models are just LLMs - <antirez>

  • 推論モデルはLLMsの枠組みの中で進化し続ける。
  • R1 Zeroの思考連鎖と報酬学習で推論力を強化。
  • 結論は推論モデルはLLMsであり、死にかけとの見解は誤り。

😊

Generating Distinct AI Voice Performances By Prompt Engineering GPT-4o | Max Woolf's Blog

  • AIの新デモは感情豊かな音声対話を実演した
  • 従来のTTSは音色を自由に操れずSSML依存が多い
  • APIやPlaygroundで3声と温度調整、生成コストは高い

🤖

AI follows auditability

  • 監査性を軸にAIは経済の動きを調整する。
  • 芸術分野は監査のしやすさで最初に動く分野。
  • AI会計・AI契約は大量出力で監査が要り、全面自動化は難しい。

🤖

Cloning your Discord friends with Large Language Models

  • ディスコードの友人をLLMで複製する実験は興味深いが実用性は低い。
  • 計算資源はRTX3090約22GB使用、Linux環境を推奨する。
  • データはDiscordChatExporterで約20万件超を整備した。

🚀

First Token Cutoff LLM sampling - <antirez>

  • 最も確率の高いトークンだけでは創造性が低下する。
  • FTCは文脈遵守と創造性の両立を目指す代替サンプリング手法だ。
  • co閾値で最高確率トークンに近い候補を残し、加重乱択で選ぶ。

🤖

Prompt Engineering is for Transactional Prompting – Mitchell Hashimoto

  • プロンプトエンジニアリングは主にトランザクショナルに適用される。
  • 対話型プロンプトは人間が導く議論で文脈を補足する。
  • エージェントは入力と出力を連携させるソフトウェア寄りの手法である。

🚀

AI fatigue is real and nobody talks about it | Siddhant Khare

  • 今季はコードを大量出荷した一方で強い疲労を感じた。
  • AIエージェント基盤の安定運用と新機能の改善に努めた。
  • プロンプト螺旋と三回ルールを導入し、最初の1時間はAIを使わず思考を温めた。

😊

GitHub Agentic Workflows | GitHub Agentic Workflows

  • マークダウンで自動化を定義できるエージェント。
  • AIが状況を理解して意思決定をサポート。
  • Issues/PRs/Discussionsと深く統合される。

🎮

GPT-5.3-Codex でのゲーム作成を試す|npaka

  • Codexを活用したゲーム開発の試みを実施。
  • アセットはNano Banana、Suno、効果音ラボを整理。
  • GPT-3.5-Codexでロールプレイを形に、GPT-5.3-Codexでアクションも制作。

🤖

(AI) Slop Terrifies Me – ezhik.jp

  • 90%の十分で満足され、残り10%を誰も気にしなくなると恐れる。
  • 良品出荷を怖くするのはAIの使い手と提供者の両方だ。
  • 十分良いが支配する未来で職人技は死ぬのか?

🚫

Billing can be bypassed using a combination of subagents with an agent definition, resulti..

  • サブエージェントと無償モデルの組み合わせで課金回避手口が説明される。
  • 初期リクエストを無料モデルで処理し、サブエージェント経由で機能を多用する。
  • これは不正行為で是正が求められると指摘されている。

🤖

From Svedka to Anthropic, brands make bold plays with AI in Super Bowl ads | TechCrunch

  • AIを主役にした全国CMが続々登場、生成AIの活用が目玉。
  • 皮肉とジョークを混ぜた広告で大手のAI批評が展開される。
  • 家づくりやペット探しまで多様なAI活用が見える。

2026年02月09日

|

このサイトについて

/

ニュースレター

/

@AINewsDev