AI News

~AI関連記事を3行にまとめて紹介~

Cover Image
1週間のAIの話題をまとめて読める、📨Weekly AI News はこちら!

🤖

From Svedka to Anthropic, brands make bold plays with AI in Super Bowl ads | TechCrunch

  • AIを主役にした全国CMが続々登場、生成AIの活用が目玉。
  • 皮肉とジョークを混ぜた広告で大手のAI批評が展開される。
  • 家づくりやペット探しまで多様なAI活用が見える。

🚫

Billing can be bypassed using a combination of subagents with an agent definition, resulti..

  • サブエージェントと無償モデルの組み合わせで課金回避手口が説明される。
  • 初期リクエストを無料モデルで処理し、サブエージェント経由で機能を多用する。
  • これは不正行為で是正が求められると指摘されている。

🤖

(AI) Slop Terrifies Me – ezhik.jp

  • 90%の十分で満足され、残り10%を誰も気にしなくなると恐れる。
  • 良品出荷を怖くするのはAIの使い手と提供者の両方だ。
  • 十分良いが支配する未来で職人技は死ぬのか?

🎮

GPT-5.3-Codex でのゲーム作成を試す|npaka

  • Codexを活用したゲーム開発の試みを実施。
  • アセットはNano Banana、Suno、効果音ラボを整理。
  • GPT-3.5-Codexでロールプレイを形に、GPT-5.3-Codexでアクションも制作。

😊

GitHub Agentic Workflows | GitHub Agentic Workflows

  • マークダウンで自動化を定義できるエージェント。
  • AIが状況を理解して意思決定をサポート。
  • Issues/PRs/Discussionsと深く統合される。

🚀

AI fatigue is real and nobody talks about it | Siddhant Khare

  • 今季はコードを大量出荷した一方で強い疲労を感じた。
  • AIエージェント基盤の安定運用と新機能の改善に努めた。
  • プロンプト螺旋と三回ルールを導入し、最初の1時間はAIを使わず思考を温めた。

🤖

Prompt Engineering is for Transactional Prompting – Mitchell Hashimoto

  • プロンプトエンジニアリングは主にトランザクショナルに適用される。
  • 対話型プロンプトは人間が導く議論で文脈を補足する。
  • エージェントは入力と出力を連携させるソフトウェア寄りの手法である。

🚀

First Token Cutoff LLM sampling - <antirez>

  • 最も確率の高いトークンだけでは創造性が低下する。
  • FTCは文脈遵守と創造性の両立を目指す代替サンプリング手法だ。
  • co閾値で最高確率トークンに近い候補を残し、加重乱択で選ぶ。

🤖

Cloning your Discord friends with Large Language Models

  • ディスコードの友人をLLMで複製する実験は興味深いが実用性は低い。
  • 計算資源はRTX3090約22GB使用、Linux環境を推奨する。
  • データはDiscordChatExporterで約20万件超を整備した。

🤖

AI follows auditability

  • 監査性を軸にAIは経済の動きを調整する。
  • 芸術分野は監査のしやすさで最初に動く分野。
  • AI会計・AI契約は大量出力で監査が要り、全面自動化は難しい。

😊

Generating Distinct AI Voice Performances By Prompt Engineering GPT-4o | Max Woolf's Blog

  • AIの新デモは感情豊かな音声対話を実演した
  • 従来のTTSは音色を自由に操れずSSML依存が多い
  • APIやPlaygroundで3声と温度調整、生成コストは高い

😊

Reasoning models are just LLMs - <antirez>

  • 推論モデルはLLMsの枠組みの中で進化し続ける。
  • R1 Zeroの思考連鎖と報酬学習で推論力を強化。
  • 結論は推論モデルはLLMsであり、死にかけとの見解は誤り。

🤖

'Weekly' Links for February 14, 2025 — Dr Paris Buttfield-Addison

  • 博士課程への入学者が減少している。
  • 人工知能ツールの頻繁な利用と批判的思考には負の相関がある。
  • 人工知能のコード生成はコード量と重複を増やし結束の弱いシステムを生む。

🚀

AI software I'm surprised doesn't exist yet

  • AIインフィル搭載のペイント風編集はまだ実用化されていない。
  • 間隔反復を自動でカード化する機能の実装が望まれる。
  • 感情と抑揚のある朗読・オーディオブックの実用も待望。

🤖

The Empty Promise of AI-Generated Creativity — Dr Paris Buttfield-Addison

  • 私たちはAIによる代筆を選ばず、創作は人間の情熱で育てる。
  • AI生成の物語は模倣に過ぎず、核心の糸や経験が欠ける。
  • 訓練は許可なく他者作品を抽出する倫理問題も深い。

🌱

Beyond Bad Output — Dr Paris Buttfield-Addison

  • AIは物語創作を支える可能性があるが根本課題は残る。
  • 訓練環境のコストと高いエネルギー消費が深刻だ。
  • 著作権と報酬の不安定化、透明性欠如が懸念される。

💬

Constraints are the Point — Dr Paris Buttfield-Addison

  • 理解はするが賛成はしない、対話は制約で深みが生まれる。
  • LLM搭載NPCは無限の発話で退屈を生み、設計された役割を守るべきだ。
  • 伝統的対話の制約こそ創作を高め、文脈に応じた演出を作るべきだ。

🤖

AI is useless, but it is our best bet for the future - <antirez>

  • 今はAIが必ず役に立つとは限らない。
  • 現状はコード解読や翻訳など日常作業に有用だ。
  • 将来は研究を加速する可能性があり投資は価値がある。

📈

The Curve is Bending

  • 最新世代のモデルとツールで実務コストを上回る出力へ。
  • 2023年$100/年、2024年$250/年、2025年$5000/年の投資が見込まれる。
  • Claude CodeやZed Editorで開発効率が急上昇、o1-proが実務で有用。

🔥

Vibe Coding Will Rob Us of Our Freedom - IT Notes

  • 金曜の午後、締切の中でECインフラを監視していた。
  • ジュニアのAlexはAIアシスタントで動くコードを提出した。
  • 一行のDBクエリはSQL Injectionに脆弱で全ユーザDBが消える恐れ。

🤖

Moral puzzles: Man vs. machine

  • 倫理パズルで人間と機械の価値観を比較します。
  • 12問の道徳パズルと8モデルの推定を対比します。
  • 後半には奇問4問も追加されます。

💬

Thoughts on the AI 2027 discourse

  • 現行の査読は偏りと過大評価、誤情報の伝播が課題。
  • 誤情報の伝播を巡る議論では透明性と基準の揺らぎが指摘される。
  • 理想は誰も参加できる開かれた建設的批評と集合知の促進。

🔐

The AI safety problem is wanting

  • AI安全の難題は、望みを正しく導くことだ。
  • 制限だけでは不十分で、望む形に整える必要がある。
  • 知る・望む・成功するの三要素の中、望むことが最も難関だ。

🔥

Predicting Average IMDb Movie Ratings Using Text Embeddings of Movie Metadata | Max Woolf'..

  • 映画の平均評価を予測する取り組みを紹介する。
  • 年・ジャンル・主演・監督などを特徴に、ニューラルネットの解説性を検討する。
  • 埋め込みベースの手法を模索し、データ結合や埋め込みの運用を工夫する。

🤖

Och, The True AI Scotsman

  • 焚き火の周りで語られるAIスコットスマンの伝説。
  • 鋼の手と理性の瞳を持ち、促すときは羊のように優しい。
  • 次の機種が現れるまで会えない、霧の中の影だ。

🌿

(Gradient) Descent into Mediocrity — Dr Paris Buttfield-Addison

  • AIが普及する中、タスマニアは競争優位を守れる可能性を持つ。
  • AIの効率志向は地場産品を一般商品へと変えかねない。
  • 100%再エネと熟練の技で付加価値を生み、創造は人間が担う。

🚀

Enough AI copilots! We need AI HUDs

  • 自動化は注意を奪う道具ではなく背景機能へ設計すべきだ。
  • HUDは話しかけず周囲を直感的に認識させる設計が理想。
  • 普段は自動化・コパイロット、極限の成果には人間の新たな力を活用する。

🤖

AI is different - <antirez>

  • AIは人間の技能を再現し続ける点が特徴だ。
  • 未知が多く専門家の予測は何度も外れる。
  • AIの大規模化で労働置換と社会変化が進む。

🔎

Chatcontrol ediția 2025 pe scurt (română) - Bert Hubert's writings

  • EU諸国がWhatsAppやSignalの写真とリンクをAIで検査検討中。
  • AIが児童ポルノの疑いを検知すれば居場所や電話番号が報告され得る。
  • 規制採択で全写真・リンクをスキャン、拒否は送信不能。

💫

I gave Claude Code a folder of tax documents and used it as a professional tax agent - Mar..

  • 税務文書処理ツールで英国法文献を自動取得した。
  • 専門指示と並行するサブエージェントを設定した。
  • 端末依存の難点を克服しGUI化で拡張が期待される。

😊

Are OpenAI and Anthropic Really Losing Money on Inference? - Martin Alderson

  • 推論コストを検証、72台のH100と時給2ドルで試算。
  • 32系列×1,000トークンのバッチと8GPUで同時9モデル。
  • 入力ほぼ無料、出力高額で粗利は80-95%、長文脈はコスト跳ね上がる。

😊

Building The Language Model Nobody Asked For

  • 従来のLLMは賢さを競う一方でユーモアが欠けていた点を改善。
  • オープンウェイトに秘密のスパイスを加え、人間味あるモデルを目指す。
  • Mistral Small 3 24Bを選択、公開済みで24GBのNVIDIA 3090で学習可能。

😊

AI is not another abstraction because god plays dice | exotext

  • AIによるコード作成が過熱する一方だが、AIは単なる抽象化ではない。
  • コンパイラは決定論的だが、現状のAIは確率的で契約者のようだ。
  • 高層から低層へ人力で介入できる点は変わらない。

What happens when coding agents stop feeling like dialup? - Martin Alderson

  • コードエージェントの不安定さと信頼性の課題が話題になる
  • AIトークンは急増、30〜60tok/sが主流で同時実行は難しい
  • 高速化ツールは20〜50倍速いが別の選択肢には及ばず

💬

Google AI Studio API has been unreliable for the past 2 weeks - Martin Alderson

  • 過去2週間、システムの安定性が低下している。
  • 複数API連携で503過負荷が頻発。
  • 欧州午後〜東部時間の混雑で悪化する現象に透明性を求める。

🤖

Y'all are over-complicating these AI-risk arguments

  • 単純な懸念と複雑論を比較し、現実性を重視する。
  • 強版と弱版の両方に過信・過小評価の危険がある。
  • 現状、単純論の方が説得力が高いと考える。

🎯

GPT-5-Codex is a better AI researcher than me

  • 補助ツールを活用して研究を主導した。
  • 最良のモデルは1.8Mパラメータのトランスフォーマーで蒸留成功。
  • 初200ステップでn-gramを予測させ、以降通常訓練してビブ研究を提案。

🤖

Will the explainer post go extinct?

  • 長文解説はAIの高度化で代替される可能性が高い。
  • 短文の非フィクションは一定の人気だが長期は厳しい。
  • 信頼性は低下し、出典を示さないAIは動機を変える。

🤖

The AI-collapse pre-mortem - Bert Hubert's writings

  • 崩壊前提の自省メモとしての洞察を伝える。
  • 2023年の記事と現状の乖離を踏まえ予言はほぼ的確だ。
  • 大規模言語モデルは知能定義には未達だが翻訳や画像解析で成果。

🔬

We are in the "gentleman scientist" era of AI research

  • AI研究は初期科学の時代の雰囲気を帯びている。
  • 難解な数式も五行程度のコードで表せることが多い。
  • 非専門家の緩やかな探究が研究を進めるべきだ。

🔥

What have we learned about building agentic AI tools?

  • 2025年半ばにエージェント型コーディングが現実化する。
  • 計画→実行の循環と途中確認が重要になる。
  • ツールは最小限に絞り、中断・再指示・キュー機能とスラッシュコマンドを用意。

🔥

Should LLMs just treat text content as an image?

  • テキストを画像として扱う発想は情報密度の高さを示唆する。
  • 1枚の画像から約10語分をほぼ100%取り出せる。
  • 現状では普及は進まず、訓練方法の難しさも課題として残る。

🔍

Why AI browsers haven't taken off - Mahad Kalam

  • プライバシー懸念で履歴がAI企業へ渡る不安。
  • 機能不足と誤動作の多さ、遅さ、脆弱性が課題。
  • プロンプト作成の手間を避け、自分で部品を選ぶ方が速い。

🌟

Haiku 4.5 Playing Text Adventures

  • 小型Claude系は初回ベンチで大きく上回る。
  • 二度目は妥当な水準で、最終的には同等。
  • 総評はほぼ同等だが価格が2倍で遅く、用途に不向き。

🪄

Code like a surgeon

  • 重要作業に100%集中する体制を徹底する。
  • AIは二次作業を任せ、準備・事務を分担する。
  • 非同期で設計下準備・変更・修正・文書化を進め、AI活用を推進。

😅

Why do AI models use so many em-dashes?

  • 構造的理由としてトークン節約が挙げられる。
  • RLHF による対話的英語傾向が影響する説。
  • 学習データの影響説を著者は有力とし、1900年代初頭の印刷物が原因と推測する。

🤖

Is it worrying that 95% of AI enterprise projects fail?

  • 投資効果が出にくい現状が指摘されている。
  • 基準次第で失敗率は大きく変わるとの指摘があり、データには疑問もある。
  • 未成熟で泡の側面もあるが、普及と組織運用が真価を決める。

Slop for the People — Dr Paris Buttfield-Addison

  • 豪州のAI統治は過去の教訓を踏まえつつ透明性を問う。
  • 高官はAI補助ツールに原稿を作らせ、関連文書を私的扱いで伏せた。
  • 新計画は審議委権限が弱く、先住民データ主権やジェンダー影響の配慮が欠如する。

🚀

Writing for AIs is a good way to reach more humans

  • AI訓練データを読者とする発想が新たな伝播手段になる。
  • 金儲けより長期的な影響力を重視する姿勢が有効。
  • 翻訳・再配布を許諾しアクセスを開放する。

🎯

Premium: The Hater's Guide To The AI Bubble Vol. 2

  • AIバブルはますますおかしく、日々恥ずべき新見出しが並ぶ。
  • 公表データと実収益の乖離が大きい。
  • 推論黒字発言や200億ドルの収益予想には疑問、コスト予測も揺れる。

もっと見る
このサイトについて

/

ニュースレター

/

@AINewsDev