Twitter: @atene_gakudo+TAKAGI-1のはてなブックマーク
<<2025/08/10 <2025/09/06 || 2025/09/08> 2025/10/05>>
2025/09/07
【258号】 #水素 チャンネルニュース 第258回 2025年9月7日号 ( #水素エネルギー ・ #燃料電池 ) を、お送りいたします。
https://takagi1.net/blogja/archives/1315","1
posted at 10:37:21
リレー式電話交換器 動態展示 L-17 #NT東京 https://x.com/jh4vaj/status/1964501356066328874/video/1","1
posted at 16:38:33
答えのないビジネスで合意を取る方法
1.論点に対する選択肢を出す
2.論理構成を持つ評価項目を作る
3.目指す方向性を基準に評価する
これは、問題解決の一つの型です
※たまに、メリデメで整理する人がいますがNG。メリデメは評価の裏返しになるだけで、合意形成の材料にはならないのよ https://x.com/narisumashi100/status/1964118940780822692/photo/1","1
posted at 16:39:30
AIが平気で嘘をつく「ハルシネーション」、その根本原因がついに解明されました。
OpenAIが「なぜAIがハルシネーションをするのか、そのメカニズム」を明らかにした衝撃的な論文を発表しました。
しかも無料です。
論文で示されたハルシネーションが起こる本当の理由と解決策を6つにまとめました? https://x.com/kosuke_agos/status/1964563263943057782/photo/1","1
posted at 16:44:12
1. AIは「知らない」と言えないように訓練されている
ハルシネーションの最大の原因は、AIの学習方法そのものにありました。現在の評価システムでは、不正解でも推測で答えた方が「わからない」と答えるより高得点になるため、AIは積極的に嘘をつく(ハッタリを言う)ことを学習してしまいます。 https://x.com/kosuke_agos/status/1964563270125441232/photo/1","1
posted at 16:44:13
2. 「正解率至上主義」が嘘を助長
AIの性能を測るベンチマークは、基本的に正解か不正解かしか見ません。「わからない」という回答には0点が付くため、不確かな場合でも推測で答える方が期待値が高くなる。この「テスト漬け」状態が、自信満々に嘘をつくAIを生み出していたのです。 https://x.com/kosuke_agos/status/1964563275309527208/photo/1","1
posted at 16:44:16
3. 幻覚は「事前学習」の段階で生まれる
ハルシネーションは、モデルの初期トレーニング段階から始まっています。モデルは大量のテキストデータから一般的な文章パターンを学ぶのは得意ですが、出現頻度の低い固有の事実などパターン化できない情報は苦手。結果、それっぽい嘘を生成してしまいます。 https://x.com/kosuke_agos/status/1964563279503905138/photo/1","1
posted at 16:44:18
4. 驚くほどシンプルな解決策
論文が示す解決策は、評価方法を変えること。「自信が90%以上ある場合のみ回答せよ」といったルールを加え、間違えた場合のペナルティを重くするだけ。これにより、AIは自信がない時に正直に「わからない」と答える戦略が最適となります。 https://x.com/kosuke_agos/status/1964563289503137800/photo/1","1
posted at 16:44:20
5. 計算限界とモデルの限界
計算上、偶然を超える正解が不可能な難問に直面した場合や、モデル自身の構造的な限界(例:古いモデルが「彼」と「彼女」を混同する)によってもハルシネーションは発生します。 https://x.com/kosuke_agos/status/1964563293760282907/photo/1","1
posted at 16:44:22
6. シングルトン問題
学習データに1度しか現れない情報(シングルトン)が多い場合、AIが100%の正解率を出すのは統計的に不可能です。パターン学習ができないため、どうしても推測に頼らざるを得なくなります。 https://x.com/kosuke_agos/status/1964563298374041983/photo/1","1
posted at 16:44:24
OpenAIは「ハルシネーションは神秘的な現象ではなく、単なる統計的な分類エラーだ」と結論付けています。AIの嘘はバグではなく、現在の評価システムが生み出した必然的な結果で、評価方法を変えるだけで、より正直なAIが生まれるとのことです。
https://x.com/kosuke_agos/status/1964563263943057782","1
posted at 16:44:26
娘を迎えに行ったら、『パパ見て!パソコン作ったー!』って。触れないなら作ればいい。と思い立ったそうです。笑 https://x.com/TakumaSatoki/status/1963887336015753367/photo/1","1
posted at 16:47:53