~AI関連記事を3行にまとめて紹介~
🤖
Ethics and Society Newsletter #6: Building Better AI: The Importance of Data Quality
AIの成長には大量のデータが必要ですが、質が重要です。
高品質なデータは関連性、包括性、タイムリーさが求められます。
データ品質への投資はAIモデルの性能向上に不可欠です。
✨
Fine-tuning Florence-2 - Microsoft's Cutting-edge Vision Language Models
Florence-2は2024年6月にリリースされたビジョン・ランゲージモデルです。
このモデルはキャプショニングや物体検出、OCRをサポートします。
DocVQAでのファインチューニングにより性能が向上しました。
🚀
XLSCOUT Unveils ParaEmbed 2.0: a Powerful Embedding Model Tailored for Patents and IP with..
特許と知的財産向けの埋め込みモデル「ParaEmbed 2.0」を発表。
Hugging Faceとの協力で特許文書の理解と分析が23%向上。
特許業務の効率をAI技術で大幅に向上させるモデル。
✨
Welcome Gemma 2 - Google’s new open LLM
Googleは新しいオープンLLM「Gemma 2」を発表しました。
Hugging Faceエコシステムと統合が進んでいます。
Gemma 2は9Bと27Bの2サイズで提供されます。
🚀
Accelerating Protein Language Model ProtST on Intel Gaudi 2
プロテイン言語モデルProtSTはタンパク質の予測に役立ちます。
Intel Gaudi 2での推論とファインチューニングが容易です。
Gaudi 2はA100よりも推論で1.76倍速いです。
🤖
Announcing New Dataset Search Features
新しいデータセット検索機能が発表されました。
モダリティやサイズなどでデータセットを検索可能です。
フィルターを組み合わせて特定のデータセットを見つけやすくなりました。
🌍
Banque des Territoires (CDC Group) x Polyconseil x Hugging Face: Enhancing a Major French ..
フランスの環境プログラムEduRénovが強化されました。
10,000の公立学校のエコ改修を支援し、40%のエネルギー節約を目指します。
RAG技術でデータの主権を確保し、効率的な情報交換を実現します。
🚀
Google Cloud TPUs made available to Hugging Face users
Hugging FaceユーザーがGoogle Cloud TPUを利用可能になりました。
TPUはAIアプリケーションの加速に役立ちます。
Inference EndpointsとSpacesでTPU v5eが利用できます。
✨
Preference Optimization for Vision Language Models
視覚言語モデルの訓練は人間の好みを理解することが重要です。
好み最適化は候補回答の比較とランク付けに焦点を当てます。
TRLライブラリはDPOをサポートし、効率的な訓練を可能にします。
🔍
Experimenting with Automatic PII Detection on the Hub using Presidio
機械学習データセットの未文書化PIIが問題視されています。
Presidioを用いたPII検出機能をDataset Hubで実験中です。
PIIの推定レポートでML実践者の判断を支援します。
🚀
Announcing New Hugging Face and Keras NLP integration
Hugging FaceとKerasNLPの新しい統合を発表しました。
KerasNLPは33モデルとの統合を追加しました。
今後、さらに多くのモデルとの互換性を拡大予定です。
🎉
How NuminaMath Won the 1st AIMO Progress Prize
NuminaMathが第1回AIMO進歩賞を受賞しました。
オープンLLMを微調整し、高校生向けの数学問題を解決しました。
モデル「NuminaMath 7B TIR」が50問中29問を解決し優勝しました。
🤖
How we leveraged distilabel to create an Argilla 2.0 Chatbot
distilabelを使ってArgilla 2.0チャットボットを作成します。
技術文書から合成データセットを生成し、ベクターデータベースを構築します。
最終的なチャットボットをHugging Face Spaceにデプロイします。
🚀
SmolLM - blazingly fast and remarkably powerful
SmolLMは135M、360M、1.7Bのパラメータを持つ小型モデルです。
高品質なデータセットで訓練され、推論コストを削減します。
教育用データセットや合成データで他モデルを上回る性能を示します。
🚀
TGI Multi-LoRA: Deploy Once, Serve 30 Models
TGI Multi-LoRAは1回のデプロイで30のAIモデルを提供可能です。
複数モデルの管理の複雑さとコストを軽減します。
LoRA技術で少量のパラメータでモデルを適応させます。
📈
Docmatix - a huge dataset for Document Visual Question Answering
DocmatixはDocVQAのための大規模データセットです。
Florence-2のファインチューニングで性能が20%向上しました。
130万のPDFから生成された240万の画像を含みます。
✨
WWDC 24: Running Mistral 7B with Core ML
WWDC 24でAppleが新しいCore ML機能を発表しました。
Mistral 7BモデルをMacで効率的に実行する方法を紹介します。
量子化技術でメモリ使用量を抑えつつ高性能を実現します。
🌍
Llama 3.1 - 405B, 70B & 8B with multilinguality and long context
Llama 3.1がHugging Faceで利用可能になりました。
128Kトークンの長いコンテキストとマルチリンガル対応が特徴です。
405Bパラメータの大規模モデルも含まれています。
🤔
LAVE: Zero-shot VQA Evaluation on Docmatix with LLMs - Do We Still Need Fine-Tuning?
DocmatixでのゼロショットVQA評価はファインチューニングの必要性を問う。
Florence-2のファインチューニングはDocVQAで高性能を示したが、ベンチマークでは低スコア。
生成された回答は意味的に一致するが、評価基準の見直しが求められる。
🚀
Serverless Inference with Hugging Face and NVIDIA NIM
Hugging FaceとNVIDIA NIMでサーバーレス推論が可能になります。
NVIDIA DGX Cloudを活用し、オープンモデルを簡単に使用できます。
標準APIで生成AIモデルの推論を経済的に実行できます。
⤴️
Memory-efficient Diffusion Transformers with Quanto and Diffusers
Diffusion Transformersは高解像度画像生成に利用されます。
Quantoを使うとモデルのメモリ効率が改善されます。
テキストエンコーダーと拡散バックボーンの量子化が効果的です。
✨
Google releases Gemma 2 2B, ShieldGemma and Gemma Scope
GoogleはGemma 2 2B、ShieldGemma、Gemma Scopeを発表しました。
Gemma 2 2Bは2.6Bパラメータ版でデバイス上での使用に適しています。
ShieldGemmaは安全性分類器で、Gemma Scopeはスパースオートエンコーダです。
📚
Introducing TextImage Augmentation for Document Images
ドキュメント画像のためのテキスト画像拡張技術を紹介します。
Albumentations AIと共同開発し、データセットを拡張します。
テキストの挿入や削除で視覚的に歪んだ画像を生成します。
🚀
XetHub is joining Hugging Face!
XetHubがHugging Faceに参加することが発表されました。
新しいストレージ技術で大規模データセットの共同作業が容易になります。
AIのコラボレーションを進化させることを目指しています。
✨
Tool Use, Unified
統一ツール使用APIが複数のモデルファミリーで利用可能になりました。
同じコードでMistralやCohereなどのモデルとチャットが可能です。
Transformersにはツール呼び出しを簡単にする機能が含まれています。
🚀
Welcome Falcon Mamba: The first strong attention-free 7B model
Falcon MambaはTIIが開発した新しい7Bモデルです。
このモデルは任意の長さのシーケンスを処理できます。
Hugging Faceでオープンアクセスで利用可能です。
💥
A failed experiment: Infini-Attention, and why we should keep trying?
Infini-Attentionの実験はメモリ圧縮で性能が低下しました。
最適な方法はRing AttentionやYaRN、ロープスケーリングです。
圧縮メモリの利用にはハイパーパラメータの調整が必要です。
🚀
Deploy Meta Llama 3.1 405B on Google Cloud Vertex AI
Meta Llama 3.1 405BをVertex AIにデプロイする方法を解説します。
このモデルは2024年7月にリリースされた最新のオープンLLMです。
Vertex AIでのモデル登録とオンライン予測の手順を紹介します。
⤴️
Improving Hugging Face Training Efficiency Through Packing with Flash Attention 2
Flash Attention 2でパディングなしのパッキングが可能になりました。
トレーニングスループットが最大2倍向上します。
メモリ使用量が20%削減され、収束品質を維持します。
🚀
Accelerate 1.0.0
Accelerate 1.0.0がリリース候補として発表されました。
新機能には柔軟なトレーニングAPIやCLIが含まれます。
APIの安定性を保ちながら新技術の統合を目指しています。
✨
Introducing Community Tools on HuggingChat
HuggingChatでコミュニティツールが利用可能になりました。
画像理解や動画生成など多様な機能を直接使用できます。
アシスタントの強化や独自ツールの作成が可能です。
🚀
Introducing the SQL Console on Datasets
Hugging Face HubにSQLコンソールが追加されました。
データセットに対して直接クエリやフィルタリングが可能です。
結果はParquet形式でエクスポートできます。
📘
AIセーフティに関する評価観点ガイドの公開 - AISI Japan
AIセーフティ評価ガイド1.0.0版を公表しました。
AI環境の変化に応じてガイドを修正・改訂します。
ガイドはAI開発者や提供者向けに日本語と英語で提供されます。
🚀
Optimize and deploy with Optimum-Intel and OpenVINO GenAI
Optimum-IntelとOpenVINO GenAIでモデルの最適化と展開を解説。
エッジやクライアント側での展開には性能と互換性が重要。
Pythonは強力だが、C++環境では最適でない場合もある。
✨
Llama can now see and run on your device - welcome Llama 3.2
Llama 3.2がデバイス上で視覚的な処理を可能にしました。
10のオープンウェイトモデルが新たに利用可能です。
小型テキストモデルはデバイスでの使用に最適です。
🇨🇿
🇨🇿 BenCzechMark - Can your LLM Understand Czech?
BenCzechMarkはチェコ語のLLM能力を評価する初のスイートです。
チェコ語での推論や文法的正確性をテストします。
9カテゴリ50タスクで25以上のモデルを評価します。
📊
Introducing the Open FinLLM Leaderboard
金融業界向けのLLMモデルを評価するフレームワークを提供します。
情報抽出や感情分析など多様なタスクをカバーします。
モデルの性能を多面的に評価し透明性を確保します。
🚀
Faster Assisted Generation with Dynamic Speculation
ダイナミックスペキュレーティブデコーディングは新手法です。
テキスト生成を最大2.7倍速くすることが可能です。
生成プロセスを2段階に分けて効率化します。
🚀
Scaling AI-based Data Processing with Hugging Face + Dask
Hugging Faceは多くのデータセットと事前学習モデルを提供します。
Daskはデータを小さなチャンクに分割し効率的に処理します。
211百万行のデータをクラウド上で並列処理が可能です。
🎉
AI研究者がノーベル物理学賞・化学賞を受賞したことについてのコメント | 人工知能学会 (The Jap..
2024年10月10日、AI学会の栗原会長がノーベル賞受賞を祝福。
AIの進化が加速する中、受賞は適切なタイミングと評価。
基礎研究の重要性を再認識し、持続的な議論を強調。
🚀
新入社員が2人で生成AIアプリを作った話 〜開発から特許出願まで〜 #アプリ開発 - Qiita
新入社員が生成AIを活用したアプリを開発しました。
大学時代からの友人と共に市場調査を行いました。
音声生成AIを用いたプラットフォームを提案しました。
✨
経産省、国内の生成AI各社に支援 「アニメ特化型基盤モデル」「薬学特化LLM」など、計算資源を..
経産省とNEDOが生成AIスタートアップ20組織に助成を発表。
「GENIAC」プロジェクト第2期で35件の応募から20件を採択。
各社には計算資源が支援され、研究開発が促進される。
📈
SK Telecom improves telco-specific Q&A by fine-tuning Anthropic’s Claude models in Amazon..
SKTはAWSと協力し、通信特有のQ&Aを改善しました。
AnthropicのClaudeモデルをAmazon Bedrockで微調整しました。
ROUGEスコアが約58%向上し、正確なリンク返答も改善されました。
👀
Exploring alternatives and seamlessly migrating data from Amazon Lookout for Vision | AWS ..
Amazon Lookout for Visionは2025年10月31日に終了します。
新規顧客は2024年10月10日から利用できません。
データ移行はLookout for Vision SDKで可能です。
🛒
Scaling Rufus, the Amazon generative AI-powered conversational shopping assistant with ove..
Rufusは80,000以上のAWSチップでスケールアップしました。
顧客の購買決定をサポートする生成AIを活用しています。
低遅延で高性能なインフラを提供しています。
📊
現場から学ぶMLOps: MonotaROでの実践的アプローチ~オンライン推論編~ - MonotaRO Tech Blog
MonotaROでのMLOpsの取り組みを紹介します。
検索結果のパーソナライズドランキング事例を挙げます。
モデルをマイクロサービスAPIとして独立させる方法を紹介します。
📚
AIF勉強会を実施したのでその内容をまとめました【その1:AI/ML一般知識】 | DevelopersIO
AIF勉強会でAI/ML一般知識について解説しました。
AWS Certified AI Practitioner試験ガイドを基に深堀しました。
全3回のシリーズで第1回目は基礎知識を提供します。
🎉
[解説追加しました(10/10)]2024年ノーベル物理学賞は、「人工ニューラルネットワークによる機械..
2024年ノーベル物理学賞はホップフィールド氏とヒントン氏が受賞。
ホップフィールド氏は連想記憶モデルを提案した。
ヒントン氏はボルツマンマシンで生成AIの基礎を築いた。
😊
AIの基礎研究でノーベル物理学賞を受賞したジェフリー・ヒントン氏が「教え子がサム・アルトマン..
ジェフリー・ヒントン氏がノーベル物理学賞を受賞しました。
ヒントン氏は教え子がサム・アルトマンを解雇したことを誇りに思っています。
アルトマンの解任はAIの安全性を巡る対立が原因とされています。
😅
一昔前は「自分で調べろ、ググれカス」と言われていたが、今では調べるとWebページは"いかがでし..
Webページが「いかがでしたか?」で溢れている。
AI生成画像が検索結果を汚染している。
個人ブログが役立つことが多くなっている。
🎉
2024年ノーベル物理学賞について甘利 俊一 栄誉研究員・元脳科学総合研究センター長からのコメン..
2024年のノーベル物理学賞がAI分野の研究者に授与された。
ヒントン博士は多層神経回路網の革新を成し遂げた。
ホップフィールド博士は連想記憶を提唱し生成モデルに影響を与えた。
🤖
ゲームオタクが変えた生命科学 福岡伸一氏「ノーベル賞はAI祭り」:朝日新聞デジタル
ノーベル化学賞がAI研究に贈られたことが発表されました。
福岡伸一氏は生物学がAI時代に入ったと述べました。
たんぱく質構造予測の研究が今年の化学賞を受賞しました。
🎶
Suno AIで80年代J-POP偽コンピを作ってみたけど、歌詞間違いのボツがつらい……いや、簡単に部分..
AIで好みの楽曲を作るが、細部の調整が難しい。
340曲から満足のいく12曲を選び出した。
新機能「Replace」で歌詞の修正が簡単に可能。
🏆
人工ニューラルネットワークによるAI・機械学習の基礎を提唱した研究者2名がノーベル物理学賞を..
ホップフィールド教授とヒントン教授がノーベル物理学賞を受賞。
受賞理由は機械学習を可能にする基礎的な発見と発明。
授賞式は2024年12月10日に開催される予定です。
🏆
ノーベル化学賞、グーグル・ディープマインド社のAI研究者ら3人へ:朝日新聞デジタル
ノーベル化学賞がAI研究者3人に贈られることが決定。
受賞理由はコンピューターによるたんぱく質設計と構造予測。
開発されたアルファフォールドは構造決定を数時間で可能に。
🎉
Google DeepMind共同創設者のデミス・ハサビス氏らがノーベル化学賞を受賞、「AlphaFold」などタ..
デミス・ハサビス氏らが2024年度ノーベル化学賞を受賞しました。
AI「AlphaFold」の研究が特に高く評価されました。
授賞式は2024年12月10日にオスロで行われます。
2024年10月09日
このサイトについて
/
ニュースレター
/
@AINewsDev