弊誌はアフィリエイト広告を利用しています。

Geminiに話しかけるだけでUber配車やフード注文が可能に タスク自動化機能を発表

「Uber呼んで」が本当に通じる時代?

 Googleは2月25日、AIアシスタント「Gemini」アプリに、ユーザーの指示でスマートフォンのアプリ操作を代行する「タスク自動化(automation)」のベータ機能を追加すると発表しました。配車の手配やフードデリバリーの注文など、複数の手順を要するタスクをまとめて進められる仕組みだそうです。

 まずSamsung Galaxy S26シリーズ向けに3月11日から提供を開始し、Pixel 10、Pixel 10 Pro、Pixel 10 Pro XLにも3月中に順次展開するとのこと。The VergeやGoogle公式ブログ、9to5Googleなどが伝えています。

 ベータ版はまず米国と韓国から先行配信します。対応アプリとして配車のUber、フードデリバリーのUber Eats・DoorDash・Grubhubなどが挙がっており、食料品についてはDoorDash上のSafewayを使った例もGoogleが紹介しています。当初は「フード・食料品(grocery)・配車(rideshare)」の3カテゴリ、一部アプリからのスタートになるそうです。たとえば「Uberで空港まで迎えを頼んで」と話しかけると、Geminiがアプリを開いて入力を進め、選択肢が出てきた段階で確認を求めます。最後の確定はユーザー自身が操作する形になるといいます。

 Geminiはスマートフォン上の「セキュアな仮想ウィンドウ」でアプリを動かして作業します。この仮想ウィンドウは端末のほかの領域にアクセスできない仕組みで、ユーザーは通知から進捗を確認したり、処理を止めたり、途中で手動操作に切り替えたりできるとのこと。処理はバックグラウンドでも進むため、Geminiに任せている間も普段通りスマートフォンを使い続けられるそうです。購入ボタンや予約確定など最終的な操作はユーザーが担い、Geminiが勝手に決済を完了することはないとのことです。

 技術面について、Googleはアプリとの連携方法を大きく3通り用意しています。1つ目はModel Context Protocol(MCP)などを介した連携で、裏側で処理しつつ最後のチェックアウト段階だけユーザーに見せる形も想定しているそうです。2つ目は、開発者がGoogleの「App Functions(AppFunctions)」で用意する構造化インターフェースを活用する方法です。いずれの連携手段もないアプリに対しては、Geminiが画面上のボタンやテキストボックスを見分けながらUIを直接操作します。Androidエコシステム担当プレジデントのSameer Samat氏は、Geminiがアプリの決め打ちの地図を暗記するのではなく、推論で計画を立てて画面を見ながら進むのだと説明しています。

 Model Context Protocol(MCP)とは、AIと外部のアプリやサービスをつなぐための共通ルールのようなものです。ざっくり言うと、AIが「この情報ちょうだい」「この操作やって」とアプリ側にお願いするときの共通語を定めた仕様で、アプリが対応さえしていれば個別の作り込みなしに連携できるのがミソなんです。

 Samat氏はこうしたタスクを「デジタル洗濯(digital laundry)」と呼んでいます。やらなければならないけれど、別に楽しくはない日常の作業を指す言葉だそうです。

 今後はAndroid 17のタイミングで対応アプリが増える見通しで、将来的にはスマートグラスやAIペンダント、車載端末からタスクを開始する構想も明かしています。タスク自動化を通じてGeminiが取得したデータは広告に使わず、ユーザーが削除できるそうです。

すまほん!!を購読しませんか?

Twitterでも最新更新を配信・通知しています

フォローする 再度表示しない