Android XR搭載のGoogleのスマートグラスを試してみたが、Geminiがキラー機能だった

Table of Contents

Android XR搭載のGoogleのスマートグラスを試してみたが、Geminiがキラー機能だった
Google スマートグラスを装着した男性の顔のクローズアップ
(画像提供:Future)

スマートグラスが、テクノロジー業界の一部の人々のように、スマートフォンを永久に手放すきっかけとなるデバイスになるかどうかは分かりません。しかし、もしスマートグラスが人気を得るとしたら、それは世界をナビゲートするのに役立つ優れたオンボードアシスタントを搭載しているからでしょう。

GoogleがAndroid XRプラットフォーム上に構築したスマートグラスのプロトタイプを試用した結果、この結論に至りました。グラス自体はごく普通のデバイスですが、目玉はAI搭載のGeminiアシスタントで、スマートグラスに懐疑的な私のような人間でも納得できるほどの機能性を備えています。

Googleは昨日(5月20日)のGoogle I/O基調講演で、AI搭載のAndroid XRスマートグラスを発表しました。Geminiアシスタントという形でAIが搭載されることは、特に驚くことではありません。1週間前、Googleはスマートグラスや複合現実ヘッドセットなど、より多くのデバイスにGeminiを搭載する計画を明らかにしていました。しかし、ユーザーが見ているものを認識し、質問に答えることができるオンボードアシスタントを搭載した独自のグラスをGoogleが計画していることは、確かに注目に値します。

Googleがこのメガネをリリースする時期は未定です。同社によると、プロトタイプはテスターに​​渡され、デザインや機能についてフィードバックが寄せられる予定です。つまり、完成品はGoogle I/Oカンファレンスのデモエリアで私が短時間試用した製品とは大きく異なる可能性があります。

しかし、ここで本当に注目すべき点は、Googleのスマートグラスがどのような外観になるのか、そして競合製品(Android XRプラットフォームを基盤とする製品もいくつかある)とどう比較されるのかという点ではありません。むしろ、私がデモで特に注目したのは、スマートグラスを装着した際にGeminiが何をもたらすのかという点です。

Googleのスマートグラスのプロトタイプを使用する

Googleスマートグラスを手に

(画像提供:Future)

とはいえ、このメガネ自体についても少し触れておきたいと思います。プロトタイプのデザインとしては、それほどかさばるわけではありません。確かに、フレームは昨年試用したMeta Orion ARグラスや、試乗したSnap Spectacles ARグラスほど厚くは見えませんでした。私は普段メガネをかけません。夜、読書を楽しむ時にたまにかける程度ですが。しかし、Googleのメガネはそれらよりは厚めではあるものの、人前でかけても恥ずかしくないほどでした。

デモタイムではスペックについてじっくりと話す時間はあまりありませんでしたが、代わりに操作方法の説明を受けました。フレームの右側上部にあるボタンを押すと写真が撮影され、下部にあるボタンを押すとディスプレイがオフになります。また、フレーム側面にはタッチパッドがあり、長押しするとGeminiが起動します。

最新ニュース、最も注目されているレビュー、お得な情報、役立つヒントにすぐにアクセスできます。

メガネをかけると、フレームの右下にある小さな情報エリアに目が留まりました。そこには時間と気温が表示されていました。これはGoogleが言うところのヘッドアップディスプレイで、人と目を合わせずに情報を見られないほど目立つものではありません。とはいえ、文字のあるエリアに目が留まりましたが、しばらくするとあまり見なくなるかもしれません。

先ほども述べたように、Googleからスペックの詳細を詳しく聞けませんでしたし、Googleがテスターのフィードバックに基づいてメガネを微調整するとしても、それが問題になるかどうかは分かりません。ただ、視野角は狭く、Orionの70度の視野角よりも明らかに狭いです。推測するに、Geminiに詳細な情報や操作を要求した際に、何を見ているのかが明確になるようにするためだと思います。

Googleのメガネで動作するGemini

女性の顔にGoogleスマートグラスを装着

(画像提供:Future)

フレームをタップして長押しすると(適切な場所を見つけるのに少し時間がかかりましたが、慣れれば大丈夫だと思います)、AIのロゴが表示され、Geminiが自己紹介をします。すぐに質問できるので、デモルームに置いてあったGoogleの本をいくつか読んでみることにしました。

ジェミニに、私が見ている本の名前を尋ねたところ、最初の本のタイトルと主題を正しく認識しました。しかし、本の長さを尋ねたところ、アシスタントは私が価格を調べようとしていると誤解しました。よし、やってみようと決心しました。「この本はいくらですか?」と尋ねたところ、ジェミニは次に私がどこにいるのか尋ねました。おそらく通貨の計算のためでしょう。しかし、私が「アメリカにいる」と答えたため、ジェミニは私がアメリカが本に登場する場所の一つであるかどうかを確認しようとしていると解釈してしまいました。つまり、これは無駄な会話でした。

様々な日本料理の豪華な写真が載っている別の本を試してみたら、状況は改善しました。ジェミニは寿司の写真を正しく認識し、私が「近くに寿司を出す店はありますか?」と尋ねると、近くのレストランを調べてくれると申し出てくれました。これはとてもやりがいのあるやり取りでした。

Geminiはデモエリアに飾られた絵画も識別し、点描法の作品だと正確に教えてくれただけでなく、作者と制作年まで特定してくれました。フレーム上部のボタンを使って写真を撮ると、撮影した画像のプレビューが目の前に浮かび上がりました。

男性の顔にGoogleスマートグラスを装着

(画像提供:Future)

写真を撮っている最中に、ディスプレイをオフにする下部のボタンも押してしまったのではないかと心配です。というのも、いくつかのクエリで、Gemini は私が見ているものを認識できなかったからです。フレームをタップして長押しすると問題は解決しましたが、これは Google がボタンの配置について再考すべき事例かもしれません。あるいは、製品のプロトタイプを試作しているときによくあることの一つなのかもしれません。

私自身、世界一聴力が良いわけではありませんが、Geminiの音声はフレームに内蔵されていると思われるスピーカーから、はっきりとはっきりと聞こえました。さらに素晴らしいことに、同僚のケイト・コズックが私のデモをビデオ撮影していたのですが、音声の漏れは全く聞こえなかったそうです。つまり、Geminiでの会話は少なくとも片方の通話相手はプライバシーが守られるということです。

Google XRグラスの展望

Googleのスマートグラスを使ったデモ中にGeminiで起きたいくつかのトラブルについて、じっくりと語ってもよかったのですが、デモ開始当初の緊張感によるものだと片付けてしまうのも無理はありません。これらのスマートグラスが完成に近づくまでにはまだまだ時間がかかり、GoogleのAIは短期間で大きく変化する可能性があります。少なくとも、火曜日の基調講演でGoogleが公開した動画に基づいて、Project AstraがGoogle I/O 2024でのデビューから1年でどれだけ進化したかを振り返ってみましょう。

むしろ、Googleのグラスで私が感銘を受けたのは、ボタンをタップしたりフレームを押したりする以外は、ほぼ完全に自分の声だけでインタラクトできる点です。新しいピンチ操作を覚えて、グラスのカメラがそれを認識してくれるのを待つ必要はありませんでした。ただ質問するだけで、しかも自然な形で質問できたのです。

Geminiを搭載したGoogleのXRグラスの完成版は、今週私が見たものとは見た目も性能も大きく異なるだろうと予想しています。実際に市場に投入された暁には、その時点でその点を踏まえて製品を評価するつもりです。しかし、どのような結果になろうとも、この製品の中核にはGeminiが据えられることは間違いありません。そして、Geminiこそが、今後の製品開発の確かな基盤となると確信しています。

Tom's Guideのその他の記事

  • Google Beam がビデオチャットに 3D を導入 — その仕組み
  • GoogleとXrealが新しいProject Aura Android XRスマートグラスでの提携を発表
  • Google Meetがビデオ通話を翻訳できるようになりました - 知っておくべきこと

フィリップ・マイケルズはTom's Guideの編集長です。1999年からパーソナルテクノロジーを取材しており、スティーブ・ジョブズが初めてiPhoneを披露した時もその場にいました。2007年の初代iPhone発売以来、スマートフォンの評価を続け、2015年からは携帯電話会社とスマートフォンプランの動向を追っています。Apple、オークランド・アスレチックス、昔の映画、そして本格的な肉屋の調理法について、強いこだわりを持っています。@PhilipMichaelsでフォローしてください。

Discover More