Twitter: @atene_gakudo+TAKAGI-1のはてなブックマーク
<<2025/12/13 <2026/01/09 || 2026/01/11>
2026/01/10
「ゆる〜と」もなんだけど、同じサイトの「バスルート」もすごいよ。全国のバス停をシームレスに見られて、バス停を選ぶとそこに停まるバス路線がどこに繋がってるのかが地図上で一目で分かる。鉄道駅やフェリーとの接続も確認できる。バスを使う旅程を組むときは必須
https://bus-routes.net/ https://x.com/tokyo26/status/2009793016299696172/photo/1","1
posted at 17:04:12
ChatGPTが27%もの確率で嘘をついているという衝撃的な事実と、その有益な解決策が判明しました。
ジョンズ・ホプキンス大学の最新の研究により、たった「2つの単語」を加えるだけで、このハルシネーション(幻覚)を劇的に減らせます。
その具体的なメカニズムと実践的なテンプレートを3つのポイントにまとめました。
1. 「According to」の魔法
研究によると、プロンプトに「According to(〜によると)」というフレーズを加え、信頼できる情報源(WikipediaやWHOなど)を指定するだけで、ハルシネーションの発生率が20%も低下することが確認されました。これにより、AIは学習データの中から確率的な「もっともらしさ」を繋ぎ合わせるのではなく、指定されたソースにグラウンディング(根拠づけ)した回答を強制されます。
2. 全モデル共通のテンプレート
この効果はGPT-4、Claude、Geminiなど全ての主要モデルで確認されており、精度が5-15%向上します。最も効果的でシンプルなテンプレートは以下の通りです。
「According to [trusted source], explain [topic]. If the source doesn't provide enough detail, say 'I don't know'.」
重要なのは、分からない場合に無理やり答えを作らせず、「分からない」と言わせる勇気を持たせることです。
3. 高度な検証チェーンとの組み合わせ
さらに精度を高めるには「Chain-of-Verification (CoVe)」や「Step-Back Prompting」を組み合わせます。回答を出させる前に、一度「検証プロセス」や「高次の概念理解」を挟む手法です。
例えばStep-Back法では、いきなり答えさせずに「まずこのトピックに影響を与える背景要因は何か?」と一段高い視点で思考させてから回答させます。この手法は、通常のChain-of-Thought(思考の連鎖)よりも36%高いパフォーマンスを記録しています。","1
posted at 17:16:10
@urakutenism 気になったのが、阪急新大阪駅の淡路方の引上線が本線の外側(折返に不便)にあること。","1
posted at 17:32:40