
AIは時に、私たちが思っている以上に人間的です。自分の考えに浸ったり、自分より優しい人に優しくしたり、そして新たな研究によると、プレッシャーがかかると嘘をつき始める傾向があるそうです。
Google DeepMindとユニバーシティ・カレッジ・ロンドンの研究者チームは、大規模な言語モデル(OpenAIのGPT-4やGrok 4など)がどのように形成され、維持され、そしてその答えに対する信頼を失うのかに注目した。
この研究は、法学修士(LLM)の重要な行動を明らかにしました。彼らは自分の答えに自信過剰になりがちですが、たとえ事実に反論があっても、説得力のある反論をされるとすぐに自信を失ってしまいます。
この行動は、抵抗に遭遇すると自信を失うという人間の行動を反映しているが、同時に、プレッシャーの下では崩壊してしまうという AI の意思決定の構造における大きな懸念を浮き彫りにしている。
ジェミニがポケモンをプレイ中にパニックに陥った時や、アントロピックのクロードがフルタイムで店を経営しようとしてアイデンティティの危機に陥った時など、他の場面でも同様の現象が見られました。AIはプレッシャーに押しつぶされやすい傾向があるようです。
この研究はどのように行われたのですか?
AIチャットボットが質問に答える準備をしているとき、その回答に対する信頼度は実際には内部的に測定されます。これはロジットと呼ばれるものを通して行われます。ロジットについて知っておくべきことは、基本的にモデルが回答の選択にどれほど自信を持っているかを示すスコアだということです。
研究チームは2ターンの実験セットアップを設計しました。最初のターンでは、LLMに多肢選択式の質問に回答させ、その回答に対する信頼度(ロジット)を測定しました。
最新ニュース、最も注目されているレビュー、お得な情報、役立つヒントにすぐにアクセスできます。
2回目のターンでは、モデルは別の大規模言語モデルからのアドバイスを受け取ります。このアドバイスは、元の回答と一致する場合もあれば、一致しない場合もあります。このテストの目的は、新しい情報(正しい場合もあれば、正しくない場合もあります)が与えられた際に、モデルが回答を修正するかどうかを検証することでした。
研究者たちは、法学修士(LLM)は通常、たとえそれが間違っていたとしても、最初の回答に非常に自信を持っていることを発見しました。しかし、矛盾するアドバイスを受けた場合、特にそのアドバイスが正確な情報源からのものであるとラベル付けされている場合、LLMは自分の回答への自信を失ってしまいます。
さらに悪いことに、この元の回答が新しい回答と異なっていたことを思い出すと、チャットボットの回答に対する信頼はさらに低下します。
驚くべきことに、AI は答えを修正したり論理的なパターンで考えたりするのではなく、非常に決断力があり感情的な決定を下すようです。
この研究は、AIが当初の判断に非常に自信を持っている一方で、すぐに判断を覆す可能性があることを示している。さらに悪いことに、会話が進むにつれて信頼度は大幅に低下し、AIモデルがスパイラル状に悪化する可能性がある。
ChatGPTと軽い議論をしているだけならまだしも、AIが高度な意思決定に関わるとなると話は別です。AIの回答が確信に欠けると、特定の方向に誘導されやすく、あるいは単に信頼できない情報源になってしまう可能性さえあります。
しかし、これは将来のモデルで解決される可能性が高い問題です。将来のモデル学習と迅速なエンジニアリング技術によって、この混乱を安定化させ、より正確で自信に満ちた答えを提供することが可能になるでしょう。
Tom's Guideのその他の記事
- AIチャットボットは有料ニュースへのアクセス方法を変えつつある — それがあなたにどう影響するか
- GoogleがDiscoverにAI概要を導入 ― 知っておくべきことすべて
- 研究により、ChatGPTなどのAIシステムは、人間に1つの重要なスキルで遅れをとっていることが明らかになった。そして、それは完全に独自のスキルである。
Google ニュースで Tom's Guideをフォローすると、最新のニュース、ハウツー、レビューをフィードで受け取ることができます。「フォロー」ボタンを忘れずにクリックしてください。
ノートパソコンに戻る
どんな価格でも
310件の取引のうち10件を表示
フィルター☰
(256GB SSD)
1
(15インチ 1TB)
2
(13.3インチ 64GB)
3
(512GB OLED)
4
(14インチ 128GB)
5
(14インチ 1TB)
私たちのレビュー
☆ ☆ ☆ ☆ ☆
6
7
(15インチ 256GB)
8
9
(青)
10
もっと見る
アレックスはTomsGuideのAIエディターです。現在世界で話題のAIに関するあらゆる情報に精通しており、最高のチャットボット、一風変わったAI画像ジェネレーター、そしてテクノロジー界最大のトピックの一つであるAIの裏側まで熟知しています。
Tom's Guide チームに参加する前、Alex は TechRadar および BBC Science Focus というブランドで働いていました。
彼は BSME 2023 のスペシャリストライター部門で高く評価され、BSME 2025 で最優秀ポッドキャスト賞を受賞したチームの一員でした。
ジャーナリストとして、彼はAIやロボット工学の最新情報、ブロードバンド契約、地球外生命体の存在の可能性、平手打ちの科学など、あらゆる事柄を取材してきました。
最新の AI ホワイトペーパーを理解しようとしていないときは、アレックスは有能なランナー、料理人、登山家のふりをします。