AI News

~AI関連記事を3行にまとめて紹介~

🤖

Ethics and Society Newsletter #6: Building Better AI: The Importance of Data Quality

  • AIの成長には大量のデータが必要ですが、質が重要です。
  • 高品質なデータは関連性、包括性、タイムリーさが求められます。
  • データ品質への投資はAIモデルの性能向上に不可欠です。

Fine-tuning Florence-2 - Microsoft's Cutting-edge Vision Language Models

  • Florence-2は2024年6月にリリースされたビジョン・ランゲージモデルです。
  • このモデルはキャプショニングや物体検出、OCRをサポートします。
  • DocVQAでのファインチューニングにより性能が向上しました。

🚀

XLSCOUT Unveils ParaEmbed 2.0: a Powerful Embedding Model Tailored for Patents and IP with..

  • 特許と知的財産向けの埋め込みモデル「ParaEmbed 2.0」を発表。
  • Hugging Faceとの協力で特許文書の理解と分析が23%向上。
  • 特許業務の効率をAI技術で大幅に向上させるモデル。

Welcome Gemma 2 - Google’s new open LLM

  • Googleは新しいオープンLLM「Gemma 2」を発表しました。
  • Hugging Faceエコシステムと統合が進んでいます。
  • Gemma 2は9Bと27Bの2サイズで提供されます。

🚀

Accelerating Protein Language Model ProtST on Intel Gaudi 2

  • プロテイン言語モデルProtSTはタンパク質の予測に役立ちます。
  • Intel Gaudi 2での推論とファインチューニングが容易です。
  • Gaudi 2はA100よりも推論で1.76倍速いです。

🤖

Announcing New Dataset Search Features

  • 新しいデータセット検索機能が発表されました。
  • モダリティやサイズなどでデータセットを検索可能です。
  • フィルターを組み合わせて特定のデータセットを見つけやすくなりました。

🌍

Banque des Territoires (CDC Group) x Polyconseil x Hugging Face: Enhancing a Major French ..

  • フランスの環境プログラムEduRénovが強化されました。
  • 10,000の公立学校のエコ改修を支援し、40%のエネルギー節約を目指します。
  • RAG技術でデータの主権を確保し、効率的な情報交換を実現します。

🚀

Google Cloud TPUs made available to Hugging Face users

  • Hugging FaceユーザーがGoogle Cloud TPUを利用可能になりました。
  • TPUはAIアプリケーションの加速に役立ちます。
  • Inference EndpointsとSpacesでTPU v5eが利用できます。

Preference Optimization for Vision Language Models

  • 視覚言語モデルの訓練は人間の好みを理解することが重要です。
  • 好み最適化は候補回答の比較とランク付けに焦点を当てます。
  • TRLライブラリはDPOをサポートし、効率的な訓練を可能にします。

🔍

Experimenting with Automatic PII Detection on the Hub using Presidio

  • 機械学習データセットの未文書化PIIが問題視されています。
  • Presidioを用いたPII検出機能をDataset Hubで実験中です。
  • PIIの推定レポートでML実践者の判断を支援します。

🚀

Announcing New Hugging Face and Keras NLP integration

  • Hugging FaceとKerasNLPの新しい統合を発表しました。
  • KerasNLPは33モデルとの統合を追加しました。
  • 今後、さらに多くのモデルとの互換性を拡大予定です。

🎉

How NuminaMath Won the 1st AIMO Progress Prize

  • NuminaMathが第1回AIMO進歩賞を受賞しました。
  • オープンLLMを微調整し、高校生向けの数学問題を解決しました。
  • モデル「NuminaMath 7B TIR」が50問中29問を解決し優勝しました。

🤖

How we leveraged distilabel to create an Argilla 2.0 Chatbot

  • distilabelを使ってArgilla 2.0チャットボットを作成します。
  • 技術文書から合成データセットを生成し、ベクターデータベースを構築します。
  • 最終的なチャットボットをHugging Face Spaceにデプロイします。

🚀

SmolLM - blazingly fast and remarkably powerful

  • SmolLMは135M、360M、1.7Bのパラメータを持つ小型モデルです。
  • 高品質なデータセットで訓練され、推論コストを削減します。
  • 教育用データセットや合成データで他モデルを上回る性能を示します。

🚀

TGI Multi-LoRA: Deploy Once, Serve 30 Models

  • TGI Multi-LoRAは1回のデプロイで30のAIモデルを提供可能です。
  • 複数モデルの管理の複雑さとコストを軽減します。
  • LoRA技術で少量のパラメータでモデルを適応させます。

📈

Docmatix - a huge dataset for Document Visual Question Answering

  • DocmatixはDocVQAのための大規模データセットです。
  • Florence-2のファインチューニングで性能が20%向上しました。
  • 130万のPDFから生成された240万の画像を含みます。

WWDC 24: Running Mistral 7B with Core ML

  • WWDC 24でAppleが新しいCore ML機能を発表しました。
  • Mistral 7BモデルをMacで効率的に実行する方法を紹介します。
  • 量子化技術でメモリ使用量を抑えつつ高性能を実現します。

🌍

Llama 3.1 - 405B, 70B & 8B with multilinguality and long context

  • Llama 3.1がHugging Faceで利用可能になりました。
  • 128Kトークンの長いコンテキストとマルチリンガル対応が特徴です。
  • 405Bパラメータの大規模モデルも含まれています。

🤔

LAVE: Zero-shot VQA Evaluation on Docmatix with LLMs - Do We Still Need Fine-Tuning?

  • DocmatixでのゼロショットVQA評価はファインチューニングの必要性を問う。
  • Florence-2のファインチューニングはDocVQAで高性能を示したが、ベンチマークでは低スコア。
  • 生成された回答は意味的に一致するが、評価基準の見直しが求められる。

🚀

Serverless Inference with Hugging Face and NVIDIA NIM

  • Hugging FaceとNVIDIA NIMでサーバーレス推論が可能になります。
  • NVIDIA DGX Cloudを活用し、オープンモデルを簡単に使用できます。
  • 標準APIで生成AIモデルの推論を経済的に実行できます。

⤴️

Memory-efficient Diffusion Transformers with Quanto and Diffusers

  • Diffusion Transformersは高解像度画像生成に利用されます。
  • Quantoを使うとモデルのメモリ効率が改善されます。
  • テキストエンコーダーと拡散バックボーンの量子化が効果的です。

Google releases Gemma 2 2B, ShieldGemma and Gemma Scope

  • GoogleはGemma 2 2B、ShieldGemma、Gemma Scopeを発表しました。
  • Gemma 2 2Bは2.6Bパラメータ版でデバイス上での使用に適しています。
  • ShieldGemmaは安全性分類器で、Gemma Scopeはスパースオートエンコーダです。

📚

Introducing TextImage Augmentation for Document Images

  • ドキュメント画像のためのテキスト画像拡張技術を紹介します。
  • Albumentations AIと共同開発し、データセットを拡張します。
  • テキストの挿入や削除で視覚的に歪んだ画像を生成します。

🚀

XetHub is joining Hugging Face!

  • XetHubがHugging Faceに参加することが発表されました。
  • 新しいストレージ技術で大規模データセットの共同作業が容易になります。
  • AIのコラボレーションを進化させることを目指しています。

Tool Use, Unified

  • 統一ツール使用APIが複数のモデルファミリーで利用可能になりました。
  • 同じコードでMistralやCohereなどのモデルとチャットが可能です。
  • Transformersにはツール呼び出しを簡単にする機能が含まれています。

🚀

Welcome Falcon Mamba: The first strong attention-free 7B model

  • Falcon MambaはTIIが開発した新しい7Bモデルです。
  • このモデルは任意の長さのシーケンスを処理できます。
  • Hugging Faceでオープンアクセスで利用可能です。

💥

A failed experiment: Infini-Attention, and why we should keep trying?

  • Infini-Attentionの実験はメモリ圧縮で性能が低下しました。
  • 最適な方法はRing AttentionやYaRN、ロープスケーリングです。
  • 圧縮メモリの利用にはハイパーパラメータの調整が必要です。

🚀

Deploy Meta Llama 3.1 405B on Google Cloud Vertex AI

  • Meta Llama 3.1 405BをVertex AIにデプロイする方法を解説します。
  • このモデルは2024年7月にリリースされた最新のオープンLLMです。
  • Vertex AIでのモデル登録とオンライン予測の手順を紹介します。

⤴️

Improving Hugging Face Training Efficiency Through Packing with Flash Attention 2

  • Flash Attention 2でパディングなしのパッキングが可能になりました。
  • トレーニングスループットが最大2倍向上します。
  • メモリ使用量が20%削減され、収束品質を維持します。

🚀

Accelerate 1.0.0

  • Accelerate 1.0.0がリリース候補として発表されました。
  • 新機能には柔軟なトレーニングAPIやCLIが含まれます。
  • APIの安定性を保ちながら新技術の統合を目指しています。

Introducing Community Tools on HuggingChat

  • HuggingChatでコミュニティツールが利用可能になりました。
  • 画像理解や動画生成など多様な機能を直接使用できます。
  • アシスタントの強化や独自ツールの作成が可能です。

🚀

Introducing the SQL Console on Datasets

  • Hugging Face HubにSQLコンソールが追加されました。
  • データセットに対して直接クエリやフィルタリングが可能です。
  • 結果はParquet形式でエクスポートできます。

📘

AIセーフティに関する評価観点ガイドの公開 - AISI Japan

  • AIセーフティ評価ガイド1.0.0版を公表しました。
  • AI環境の変化に応じてガイドを修正・改訂します。
  • ガイドはAI開発者や提供者向けに日本語と英語で提供されます。

🚀

Optimize and deploy with Optimum-Intel and OpenVINO GenAI

  • Optimum-IntelとOpenVINO GenAIでモデルの最適化と展開を解説。
  • エッジやクライアント側での展開には性能と互換性が重要。
  • Pythonは強力だが、C++環境では最適でない場合もある。

Llama can now see and run on your device - welcome Llama 3.2

  • Llama 3.2がデバイス上で視覚的な処理を可能にしました。
  • 10のオープンウェイトモデルが新たに利用可能です。
  • 小型テキストモデルはデバイスでの使用に最適です。

🇨🇿

🇨🇿 BenCzechMark - Can your LLM Understand Czech?

  • BenCzechMarkはチェコ語のLLM能力を評価する初のスイートです。
  • チェコ語での推論や文法的正確性をテストします。
  • 9カテゴリ50タスクで25以上のモデルを評価します。

📊

Introducing the Open FinLLM Leaderboard

  • 金融業界向けのLLMモデルを評価するフレームワークを提供します。
  • 情報抽出や感情分析など多様なタスクをカバーします。
  • モデルの性能を多面的に評価し透明性を確保します。

🚀

Faster Assisted Generation with Dynamic Speculation

  • ダイナミックスペキュレーティブデコーディングは新手法です。
  • テキスト生成を最大2.7倍速くすることが可能です。
  • 生成プロセスを2段階に分けて効率化します。

🚀

Scaling AI-based Data Processing with Hugging Face + Dask

  • Hugging Faceは多くのデータセットと事前学習モデルを提供します。
  • Daskはデータを小さなチャンクに分割し効率的に処理します。
  • 211百万行のデータをクラウド上で並列処理が可能です。

🎉

AI研究者がノーベル物理学賞・化学賞を受賞したことについてのコメント | 人工知能学会 (The Jap..

  • 2024年10月10日、AI学会の栗原会長がノーベル賞受賞を祝福。
  • AIの進化が加速する中、受賞は適切なタイミングと評価。
  • 基礎研究の重要性を再認識し、持続的な議論を強調。

🚀

新入社員が2人で生成AIアプリを作った話 〜開発から特許出願まで〜 #アプリ開発 - Qiita

  • 新入社員が生成AIを活用したアプリを開発しました。
  • 大学時代からの友人と共に市場調査を行いました。
  • 音声生成AIを用いたプラットフォームを提案しました。

経産省、国内の生成AI各社に支援 「アニメ特化型基盤モデル」「薬学特化LLM」など、計算資源を..

  • 経産省とNEDOが生成AIスタートアップ20組織に助成を発表。
  • 「GENIAC」プロジェクト第2期で35件の応募から20件を採択。
  • 各社には計算資源が支援され、研究開発が促進される。

📈

SK Telecom improves telco-specific Q&A by fine-tuning Anthropic’s Claude models in Amazon..

  • SKTはAWSと協力し、通信特有のQ&Aを改善しました。
  • AnthropicのClaudeモデルをAmazon Bedrockで微調整しました。
  • ROUGEスコアが約58%向上し、正確なリンク返答も改善されました。

👀

Exploring alternatives and seamlessly migrating data from Amazon Lookout for Vision | AWS ..

  • Amazon Lookout for Visionは2025年10月31日に終了します。
  • 新規顧客は2024年10月10日から利用できません。
  • データ移行はLookout for Vision SDKで可能です。

🛒

Scaling Rufus, the Amazon generative AI-powered conversational shopping assistant with ove..

  • Rufusは80,000以上のAWSチップでスケールアップしました。
  • 顧客の購買決定をサポートする生成AIを活用しています。
  • 低遅延で高性能なインフラを提供しています。

📊

現場から学ぶMLOps: MonotaROでの実践的アプローチ~オンライン推論編~ - MonotaRO Tech Blog

  • MonotaROでのMLOpsの取り組みを紹介します。
  • 検索結果のパーソナライズドランキング事例を挙げます。
  • モデルをマイクロサービスAPIとして独立させる方法を紹介します。

📚

AIF勉強会を実施したのでその内容をまとめました【その1:AI/ML一般知識】 | DevelopersIO

  • AIF勉強会でAI/ML一般知識について解説しました。
  • AWS Certified AI Practitioner試験ガイドを基に深堀しました。
  • 全3回のシリーズで第1回目は基礎知識を提供します。

🎉

[解説追加しました(10/10)]2024年ノーベル物理学賞は、「人工ニューラルネットワークによる機械..

  • 2024年ノーベル物理学賞はホップフィールド氏とヒントン氏が受賞。
  • ホップフィールド氏は連想記憶モデルを提案した。
  • ヒントン氏はボルツマンマシンで生成AIの基礎を築いた。

😊

AIの基礎研究でノーベル物理学賞を受賞したジェフリー・ヒントン氏が「教え子がサム・アルトマン..

  • ジェフリー・ヒントン氏がノーベル物理学賞を受賞しました。
  • ヒントン氏は教え子がサム・アルトマンを解雇したことを誇りに思っています。
  • アルトマンの解任はAIの安全性を巡る対立が原因とされています。

😅

一昔前は「自分で調べろ、ググれカス」と言われていたが、今では調べるとWebページは"いかがでし..

  • Webページが「いかがでしたか?」で溢れている。
  • AI生成画像が検索結果を汚染している。
  • 個人ブログが役立つことが多くなっている。

🎉

2024年ノーベル物理学賞について甘利 俊一 栄誉研究員・元脳科学総合研究センター長からのコメン..

  • 2024年のノーベル物理学賞がAI分野の研究者に授与された。
  • ヒントン博士は多層神経回路網の革新を成し遂げた。
  • ホップフィールド博士は連想記憶を提唱し生成モデルに影響を与えた。

🤖

ゲームオタクが変えた生命科学 福岡伸一氏「ノーベル賞はAI祭り」:朝日新聞デジタル

  • ノーベル化学賞がAI研究に贈られたことが発表されました。
  • 福岡伸一氏は生物学がAI時代に入ったと述べました。
  • たんぱく質構造予測の研究が今年の化学賞を受賞しました。

🎶

Suno AIで80年代J-POP偽コンピを作ってみたけど、歌詞間違いのボツがつらい……いや、簡単に部分..

  • AIで好みの楽曲を作るが、細部の調整が難しい。
  • 340曲から満足のいく12曲を選び出した。
  • 新機能「Replace」で歌詞の修正が簡単に可能。

🏆

人工ニューラルネットワークによるAI・機械学習の基礎を提唱した研究者2名がノーベル物理学賞を..

  • ホップフィールド教授とヒントン教授がノーベル物理学賞を受賞。
  • 受賞理由は機械学習を可能にする基礎的な発見と発明。
  • 授賞式は2024年12月10日に開催される予定です。

🏆

ノーベル化学賞、グーグル・ディープマインド社のAI研究者ら3人へ:朝日新聞デジタル

  • ノーベル化学賞がAI研究者3人に贈られることが決定。
  • 受賞理由はコンピューターによるたんぱく質設計と構造予測。
  • 開発されたアルファフォールドは構造決定を数時間で可能に。

🎉

Google DeepMind共同創設者のデミス・ハサビス氏らがノーベル化学賞を受賞、「AlphaFold」などタ..

  • デミス・ハサビス氏らが2024年度ノーベル化学賞を受賞しました。
  • AI「AlphaFold」の研究が特に高く評価されました。
  • 授賞式は2024年12月10日にオスロで行われます。

2024年10月09日
このサイトについて

/

ニュースレター

/

@AINewsDev