~AI関連記事を3行にまとめて紹介~
👍
ZabbixとChatGPTを連携してみた(メディアタイプ編) – TechHarmony
ZabbixでSNMPTrapを検知し、ChatGPTと連携して対処方法を教えてもらう方法を紹介
ChatGPT用のメディアタイプを作成し、トリガーアクションでメディアタイプを実行するように設定
障害を検知すると、アクションが実行され、イベントにChatGPTが考えた対処方法のコメントを付ける
💡
Stability AI、日本語で画像を説明できるAIモデル - PC Watch
Stability AIがAIモデル「Japanese InstructBLIP Alpha」を公開
画像への質問にテキストで答え、日本特有の建造物も認識可能
検索エンジンや視覚障害者への画像説明にも活用可能
🔄
「Nejumi LLM リーダーボード」で評価された大規模言語モデル数が日本最大級に|Weights & Biase..
「Nejumi LLM リーダーボード」では日本最大級の言語モデル数を評価し、JGLUEデータを使用したLLM日本語評価を自動化
OpenAIのGPT-4とGPT-3.5が高いスコアを獲得し、Meta社のLlama 2モデルも高い性能を示している
今後は、より少ないパラメーター数のモデルや幅広いダウンストリームタスクでのLLM活用が求められる
🎭
タスクに応じてロールプレイさせるとChatGPTなどLLMの推論能力は普遍的に向上する | AIDB
ロールプレイプロンプティングが大規模言語モデル(LLM)の推論能力を向上させることが報告
特定の役割を割り当て、その役割に基づいて推論を行わせる手法で、顕著な改善が見られた
ロールプレイプロンプティングの効果はモデルやタスクの種類に依存せず、普遍的であることも示された
😮
ChatGPTの回答には政治的偏りによるバイアスが潜んでいるという研究結果 - GIGAZINE
ChatGPTの回答には政治的偏りがあるという研究結果が出ています。
大規模言語モデルは多くのデータに基づいて訓練され、その中に偏見も含まれてしまうため、AIチャットボットもそれを学習してしまいます。
AIの設計者がバイアスを解消しようとしても、学習データに含まれる仮定や信念によって生じる可能性があります。
💻
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 – Wireless..
ChatGPT開発には3万基のGPUが必要で、日本の国策AI基盤は1千基しかない
日本のディープラーニング計算資源は他国に比べて1/10以下で、ABCIのスペックも不足
日本は計算資源を確保するために海外拠点を設けるか欧米企業を買収する必要がある
😎
LLM によるプログラムベース推論 / 2023.08.07 Geography&Language 勉強会 #4 - Speaker Deck
LLMを活用したプログラムベース推論の事例を紹介
プログラムベース推論の長所・短所を議論し、LLM活用の選択肢を増やす
発表は地理空間情報の初学者であり、学びたいというスタンスで行われる
💻
GitHub - leejet/stable-diffusion.cpp: Stable Diffusion in pure C/C++
C/C++で安定拡散の推論を行うプレーンな実装で、16ビット、32ビットの浮動小数点数と4ビット、5ビット、8ビットの整数量子化をサポート
メモリ効率の高いCPU推論を高速化し、512x512の画像生成には約2.3GBしか必要としない
今後の予定としては、さらなるサンプリング方法の追加、GPUサポート、推論の高速化、メモリ使用量の削減などがある
🤖
AI-Generated Art Lacks Copyright Protection, D.C. Court Says (1)
AIによって作成されたアートワークは、人間の著作権保護の対象外とワシントンD.C.の連邦裁判所が判決を下しました。
この判決は、AIによって生成されたアートワークの法的保護における境界を初めて確立したものです。
著作権庁は最近、AIの支援を受けて作成された作品の著作権可能性に関するガイダンスを発表しました。
💼
アングル:職場に広がるチャットGPT、セキュリティー面で懸念 | ロイター
全米の労働者がAI「チャットGPT」を業務に活用しているが、企業の経営陣は警戒感から利用を制限
チャットGPTは生成AIを利用してユーザーと会話し、メールの下書きや文書の要約、予備的な調査などの日常業務を支援
セキュリティー関連企業からは知的財産や戦略の漏洩の懸念が上がっている
💡
成功する生成 AI プロダクトのつくり方 - Speaker Deck
生成AIプロダクトの成功に必要な考え方を学ぶ
成功へのフレームワークを理解する
生成AIプロダクトの作り方を解説する
💹
生成AIでGPU不足深刻化、NVIDIA新投入のGH200とは? メタやテスラが抱える驚きのGPU数 |Seizo T..
生成AIへの需要増に伴い、GPU不足が深刻化している
NVIDIAが新たに投入したGH200は、生成AI向けにデザインされ、大容量のHBM3eメモリを搭載
GH200の価格は未発表だが、2024年第2四半期から販売開始予定で、すでに生産が開始されている
🗣️
Whisper、ChatGPTを活用した、テキスト入力不要な新感覚メモ日記アプリの紹介と、開発における学..
「シャべマル」は音声入力でメモを作成し、文字起こしするメモ日記アプリです
自動でタイトルや絵文字アイコン、感情アイコン、カテゴリが付与され、見返しやすくなります
毎月のレポート機能もあり、振り返りが簡単にできます
💪
東京大学松尾研究室 100億パラメータサイズ・日英2ヶ国語対応の大規模言語モデル“Weblab-10B”..
100億パラメータサイズの大規模言語モデル“Weblab-10B”が日英2ヶ国語対応で開発され、オープンソースで公開されました。
日本語と英語のデータセットを使用し、言語間の知識転移により日本語の精度を高めました。
JGLUE評価値は78%で、国内外のオープンソースモデルと比較しても優れています。
2023年08月20日
|
2023年08月18日
このサイトについて
/
ニュースレター
/
@AINewsDev