Twitter: @atene_gakudo+TAKAGI-1のはてなブックマーク
<<2025/10/23 <2025/11/19 || 2025/11/21> 2025/12/18>>
2025/11/20
AIエージェントの開発において、最先端のAIモデルは不要です。
不完全なAIモデルを使い「100万ステップ・ゼロエラー」を達成するという衝撃の論文が登場しました。
LLMのハルシネーションを考えると統計的に不可能な偉業です。
その衝撃な論文の詳細を5つのポイントにまとめました。
1. 完璧な天才AIを作る競争からの脱却
従来のAI開発は、モデルのエラー率を限りなくゼロに近づける競争でした。しかし、この論文が示すのは「AIを完璧にしようとするな。不完全なAIに影響されないシステムを設計せよ」という、新たな角度からのアプローチです。
2. 驚異の仕組み:分解と投票
成功の鍵は2つありました。
?問題を最小単位にまで分解する「Maximal Agentic Decomposition」。
?安価なAIチームに各ピースを解かせ、答えを「投票」させるシステム。
これは「信頼性は個人ではなくプロセスから生まれる」という、マクドナルドのキッチンのような仕組みです。
3. 「ハノイの塔」で証明された完璧な成功
このアーキテクチャは、20枚のディスクを使った「ハノイの塔」パズルでテストされました。これには1,048,575回の完璧な連続移動が求められます。従来のAIでは失敗の連続でしたが、このシステムは非の打ち所なくタスクを完遂。理論が現実の成果として示されました。
4. 驚きのコスト効率
このアプローチのすごい点は、最も高価な最先端モデルが不要だったことです。タスクが極めてシンプルに分解されていたため、より小型で安価なモデル(gpt-4.1-miniなど)の方が、圧倒的に費用対効果が高かったのです。AI開発のリソース配分を根底から見直す契機になります。
5. AI安全性への大きな一歩
単一の巨大なAIは予測不能なブラックボックスになりがちです。しかし、無数のシンプルなエージェントから成るこのシステムは、各ステップが「監査可能」です。エージェントは壮大な世界観を持たず、小さなタスクを解いて消えるため、暴走のリスクが低く「制御可能」と言えます。","1
posted at 12:37:30
結論として、真の力はモデルではなくアーキテクチャに宿ります。問うべきは「どうすればモデルを賢くできるか?」ではなく「モデルが賢くなくても機能するシステムをどう設計できるか?」です。特にエージェントを開発している人はその前提で開発するのがベターだと思います
https://x.com/kosuke_agos/status/1991076641645420905?s=20","1
posted at 12:37:38
いやもう、テストしまくってますが「Gemini 3.0」
何でもできる超優等生って感じに仕上がってますね。
最近のGeminiの傾向である、自分の知識に頼って検索しないというのは、継続中で欲しい情報をちゃんとまとめれないっていうのは変わらずかな。
※最新情報が欲しいのにカットオフ前の情報を吐き出す。","1
posted at 12:38:15