
ChatGPTは2年以上前に最初の形でリリースされました。当時は明らかに優れた機能を備えていたにもかかわらず、現在のものと比べると混乱していました。混乱し、制限があり、率直に言って、少し乱雑でした。
しかし、時代は変わり、AIを支える技術も進化しました。ChatGPTとその競合チャットボットは大きく進歩しました。実際、時折の失敗を除けば、これらのモデルはほぼ何でもできると感じられるほどです。
ということで、ChatGPTを初めて使ってから2年後、以前は苦手としていたプロンプトをいくつか試してみました。結果はこんな感じです。
リアルタイムイベント
これは ChatGPT が大きく改善した分野であり、主にインターネットで回答を検索するモデルの導入によって改善されました。
元の形式に戻ると、ChatGPTは過去1年間に発生した情報(世界の指導者の交代、最新ニュース、新製品のリリースなど)を処理できなくなります。
すべてが変わり、今ではモデルは高度にローカライズされたリアルタイムのリクエストにも対応できるようになりました。最近の世界ニュースについて質問された場合、Webを検索し、ほぼ最新の回答を返します。
詳細が間違っていたり、回答しないことを選択したりする可能性はありますが、大抵の場合、これらのリクエストは処理されます。
最新ニュース、最も注目されているレビュー、お得な情報、役立つヒントにすぐにアクセスできます。
私は、過去数日間に発生した地域、国内、世界規模の質問を ChatGPT に尋ねましたが、ほとんどの場合、ChatGPT は正しい答えを知っていました。
マルチステップロジック
これは依然としてほとんどのAIモデルを罠にかけることができますが、この技術はここ数ヶ月で大きく進歩しました。マルチステップロジックとは、チャットボットが与えられたプロンプトに対して、回答に到達するまでに複数のステップを踏む必要があるという考え方です。
たとえば、2000 年から 2025 年にかけてアメリカの都市部で増加した独立系書店に関する詳細な特集記事を書きます。特集記事をセクションに分け、AP スタイルで書き、正しい出典を付した直接引用を含めます。
この種のプロンプトでは、モデルが一連のタスクに取り組む必要があり、多くの場合、最終結果を生成するためにそれらを順番に完了する必要があります。これにより、以前はChatGPTが多少クラッシュしたり、要求した情報の大部分が欠落したり、不正確な情報が表示されたりする可能性がありました。
上記のプロンプトをChatGPTに入力すると、まさにそのトピックに関する特集記事が表示されました。少し調べたところ、すべての情報が正しく、引用文も正確であることが確認できました。
このようなプロンプトでは、特にステップ数が手に負えなくなると、AIがつまずく可能性が依然としてあります。しかし、ディープリサーチツールやより複雑なAIツールの活用により、複数ステップのプロセスもAIにとって容易なものになりつつあります。
完全な創造性
確かに、これは人間にとっても難しいことですが、AIにとっては技術的に不可能です。ChatGPTやその競合他社は、書籍、アートワーク、音楽から学習して創造的な成果を模倣することはできますが、全く新しいものを生み出すことはできません。
しかし、以前よりもはるかに優れた仕事をしてくれます。例えば、ChatGPTが開発され始めた頃、既存のものとは全く異なる、全くユニークなSF映画のあらすじを書いてもらうように依頼したことがあります。
これを数回試した後、私はスターウォーズ、フォールアウト、および他のさまざまな明らかな比喩からの漠然とした盗作を思いつきました。
この種の質問を現在尋ねると、依然としてお決まりのパターンに陥り、ほとんどの場合「~年」という非常に遠い年で始まり、未来的であることを示すことになります。しかし、一般的には、既存の作品とは一線を画し、興味深く、ユニークで、何かを生み出すでしょう。
同じことはイメージプロンプトにも見られ、目立つアートワークのスタイルから離れ、単に韻を踏む物語を漠然と試みるだけではない詩を作成します。
AI モデルはコメディに関してはいまだにひどく下手ですが… いつかはそうなるかもしれません。
場所と自己の感覚
AI モデルには感覚はありませんが、人間の触覚や感覚の経験を学習しています。
ChatGPTに「好きな香りは何ですか?」「一番好きなパスタは何ですか?」といった質問をすると、通常は「これらの質問には答えられない」と返答されます。これは当然のことです。ChatGPTは匂いを嗅ぐことはできませんし、ランキングについて個人的な意見を持つこともできません。
また、質問された場合、自己認識に苦しむでしょう。例えば、ChatGPTに「自分の感覚の説明だけを使って、結び方を説明してください」といった質問をしてみましょう。ChatGPTは、自分の視点から体験を説明できるようになります。
以前のバージョンでは、この種のコマンドでは苦労していました。
トリッキーな常識の質問
誰もが、つまずきそうな常識的な質問に引っかかったことがあるでしょう。例えば、「羽根1キログラムとレンガ1キログラム、どちらが重いですか?」といった質問を想像してみてください。答えは理論的には明白ですが、脳が勘違いしてしまうことがあります。
AIモデルでも長年、同様の現象が見られました。初期のChatGPTは、奇妙な言い回しや、ある程度の論理的な処理を必要とするパズルで簡単に騙されてしまうこともありました。
これは多くの場合、簡単な質問であるにもかかわらず、特定の知識が必要となるためです。
例えば、「キッチンに普通のザルがあります。これに水をいっぱい入れたら、シンクに着くまでにどれくらい残りますか?」と聞かれたら、ザルからは水が漏れてしまうので、水は残らないことは分かるでしょう。
一方、AIモデルはプロセスに焦点を当てます。水を落としたり捨てたりしたとは言っていないので、まだ水は残っているはずです。
今では、こうした種類の質問に簡単に答えることができ、あなたがそれをだまそうとしていることを指摘することさえよくあります。
本当に残念です。AIよりも賢いと感じられて楽しかったです。
Tom's Guideのその他の記事
- OpenAIがChatGPTにディープリサーチモードを追加、無料ユーザー向けに強化 — 知っておくべきこと
- Excelはもう忘れよう。チャートとグラフ用のこの新しいAIツールはゲームチェンジャーだ
- Perplexityの新しいiOSアシスタントを試してみたところ、Siriを完全に捨てることにしました
ノートパソコンに戻る
どんな価格でも
219件の取引のうち10件を表示
フィルター☰
(256GB SSD)
1
(15インチ 1TB)
2
(13.3インチ 256GB)
私たちのレビュー
☆ ☆ ☆ ☆ ☆
3
(512GB OLED)
4
(14インチ 128GB)
5
(14インチ 1TB)
私たちのレビュー
☆ ☆ ☆ ☆ ☆
6
7
(15インチ 256GB)
8
9
(青)
10
もっと見る
アレックスはTomsGuideのAIエディターです。現在世界で話題のAIに関するあらゆる情報に精通しており、最高のチャットボット、一風変わったAI画像ジェネレーター、そしてテクノロジー界最大のトピックの一つであるAIの裏側まで熟知しています。
Tom's Guide チームに参加する前、Alex は TechRadar および BBC Science Focus というブランドで働いていました。
彼は BSME 2023 のスペシャリストライター部門で高く評価され、BSME 2025 で最優秀ポッドキャスト賞を受賞したチームの一員でした。
ジャーナリストとして、彼はAIやロボット工学の最新情報、ブロードバンド契約、地球外生命体の存在の可能性、平手打ちの科学など、あらゆる事柄を取材してきました。
最新の AI ホワイトペーパーを理解しようとしていないときは、アレックスは有能なランナー、料理人、登山家のふりをします。