最新AIでスマホはどう変わる?検索の進化とアクセシビリティ向上【Google I/O 2019】

公開日:

記事の情報は2019-05-15時点のものです。

グーグルの開発者向け会議「Google I/O 2019」では、AIを活用して日々の生活を楽しくしたり、便利にしたり、困難を軽減してくれたりする技術が多数紹介された。検索は楽になり、音声アシスタントは進化し、障がい者のアクセシビリティも改善される。グーグルのAIエコシステム囲い込み戦略は、確実に進んでいるようだ。
最新AIでスマホはどう変わる?検索の進化とアクセシビリティ向上【Google I/O 2019】

AI戦略を強く進めるグーグル

グーグルは、カリフォルニア州マウンテンビューで米国時間5月7日から9日にかけ、開発者向け会議「Google I/O 2019」を開催。今年は、ウェブやアプリ、ハードウェアを通じて利用できる新機能が数多く披露された。それらの多くが人工知能(AI)を活用して、日々の生活を楽しくしたり、便利にしたり、困難を軽減してくれたりする。

現在のAIは、高性能化、高機能化が目覚ましいうえ、スマートフォンなどの小さなデバイスでも十分な能力を発揮できるため、すっかり手放せないツールになった。グーグルのAIエコシステム囲い込み戦略は、確実に進んでいるようだ。

ここでは、Google I/O 2019で発表された新機能のうち、すぐに利用できるようになって恩恵を得られるだろう3つのカテゴリを紹介しよう。

1. 検索がますます便利に

グーグルといえば、なんといっても検索サービス企業である。そんなインターネット検索技術が登場した当初、検索結果はウェブサイトのテキスト情報が表示される程度のものだった。それが今は、画像や音楽、動画などさまざまな情報が得られる。

今回グーグルは、検索にAI、画像処理、拡張現実(AR)を組み合わせた機能の発表を行った。

検索結果が3D化してARで目の前に

理屈抜きに使って楽しいのが、モバイル検索結果を3DでAR表示する新機能だ。

何らかの物体が検索結果になった場合、「View in 3D(3Dで表示)」というボタンをタップすると3D化した画像に切り替わる。この3Dオブジェクトは向きを変えることが可能で、上からや下からといった具合にいろいろな方向から眺められる。

さらに、3D表示されている状態で「View in your space(目の前に表示)」ボタンをタップすると、スマートフォンのカメラでとらえた目の前の空間に、この3Dオブジェクトが合成される。たとえば、検索結果の「サメ」が現実の風景のなかで泳ぎ出す。しかも、実際のサイズも反映されているため、巨大なサメの迫力まで伝わってくる。

出典:グーグル / Helpful new visual features in Search and Lens

今後、NASA、ニューバランス、サムスン電子、ボルボなどと協力し、科学コンテンツや商品などの情報を3Dオブジェクトで提供していく。

強化された「Google Lens」

グーグルは、スマートフォンのカメラで写したものが何かを解析して検索する「Google Lens」を以前から提供している。この機能をさらに強化し、ユーザーが必要とするであろう情報を解析結果からさらに引き出せるようにした。

レストランでメニューを見ても写真がないため、どのような料理なのか想像もできないとしよう。そんなときも、Google Lensがあれば困らない。メニューを写すと文字情報から該当する料理が推測され、位置情報と「Googleマップ」からレストランと料理が特定される。そして、Googleマップに投稿されている料理の写真とユーザーのレビューがその場で確認できる。

出典:グーグル / Helpful new visual features in Search and Lens

Google Lensは、翻訳にも使える。言葉が不自由な海外でも、カメラで写せば翻訳できてしまう。グーグルのデモンストレーションでは、新幹線のチケットをGoogle Lensを通して見ると、日本語の部分が英語に置き換えられて表示された。対応言語は100カ国語以上あるという。

出典:グーグル / Helpful new visual features in Search and Lens

2. 次世代「Googleアシスタント」の驚く進化

普及期に入ったスマートスピーカーやスマートフォンでおなじみの音声アシスタントだが、アマゾンに次いでグーグルもユーザーを増やしている。「Googleアシスタント」対応デバイスの台数は今や世界に10億台以上あり、連携して動く家電品などは3万種類を超えるそうだ。

Google I/O 2019で紹介された次世代Googleアシスタントは、驚くような進化を遂げていた。

音声応答は10倍に高速化

現在のGoogleアシスタントは、音声の解析と命令の理解に100GBほどのモデルデータが必要なのだそうだ。そのため、処理の多くをデータセンターで実行しなければならず、応答速度などの面に問題があった。

これに対し次世代のGoogleアシスタントは、音声解析と命令理解で使うデータ量を約500MBまで削減。その結果、スマートフォン内部で処理できるようになり、オフライン環境での利用も可能になる。通信による遅延も発生せず、ほぼリアルタイムに答えが得られ、10倍も高速化するという。しかも、マイクロソフトが開発者向け会議「Microsoft Build 2019」でデモンストレーションした音声アシスタントと同様に、「OKグーグル」のようなウェイクワードを使わず次から次へと連続して命令できる。

ウェブ予約を自動実行する「Duplex」

2018年のGoogle I/Oで発表されたGoogleアシスタントの「Duplex」機能には、度肝を抜かれた。ユーザーの命令に反応したスマートフォンの音声アシスタントが、レストランへ電話をかけて、受付担当者と「会話」して予約をしてしまったのだ。グーグルはこのDuplexを拡張し、ウェブサイトで申し込む予約処理に対応させた。

たとえば、レンタカーを使いたい場合、ユーザーは「次の旅行で使うレンタカーを予約して」と命じればよい。するとDuplexは、「Googleカレンダー」や「Gmail」で旅行の日程を確認し、レンタカー会社のウェブにアクセスしてユーザーの情報を自動入力してくれる。手間のかかる作業が、AIで見事に省力化される。

3. AIで向上する障がい者のアクセシビリティ

障がい者の活動をテクノロジーで支援するアクセシビリティ関連の成果として、Google I/O 2019では音声テキスト化と音声合成の技術が紹介された。

スマホの再生音をリアルタイムに字幕化

耳の不自由な人に音声付きデジタルコンテンツの情報を伝える手段として、「Live Caption」を開発した。

これは、スマートフォンで再生されるあらゆる音声を、リアルタイム字幕化する機能である。YouTubeのような動画だろうが、ポッドキャストだろうが、音声メッセージだろうが、あらゆるアプリで再生される音声を、すべて文字で表示していく。

処理はデバイス内で完結するため、オフライン環境でも利用できる。

耳や発話が不自由でも電話が可能に

もう1つのアクセシビリティ機能は、聴覚や発話に障がいを持つ人でも電話によるコミュニケーションを利用可能にする「Live Relay」である。

電話で相手の話す音声は、Live Relayがリアルタイムにテキスト化する。相手に話す場合は、応答作成機能などを使って文字入力すると、音声合成されて相手へ伝わる。スマートフォンのなかに介助者がいて、電話を仲介してくれるイメージだ。

Live Captionと同じくLive Relayもスマートフォン内で動いていて、インターネット接続は必要ない。会話の内容がインターネットへ送られることもない。

さらにグーグルは、脳卒中や外傷による神経障がい、パーキンソン病、筋萎縮性側索硬化症(ALS)などで発話に困難をともなう人の会話を手助けする目的で、こうした人々の聴き取りにくい音声をAIに解釈させる研究「Project Euphonia」にも取り組んでいる。

「Pixel 3a」や「Nest Hub」にも注目

いずれも魅力的な機能だが、開発フェーズや対応言語の理由で日本では利用できないものも多い。開発が進めばいずれ日本で使えるようになるので、注視していきたい。

また、この種の新機能は最初にグーグル製ハードウェアだけで利用可能になることが多い。そこで、日本発売がアナウンスされた新型スマートフォン「Pixel 3a」「Pixel 3a XL」やスマートディスプレイ「Nest Hub」(旧名称「Google Home Hub」)、日本発売は未定だがカメラ付きスマートディスプレイ「Nest Hub Max」といったデバイスにも注目しておこう。

グーグル「Pixel」でAIエコシステム囲い込み アップルとアマゾンに切り込む
グーグルが、自社製スマートフォン「Pixel」を日本でも販売すると発表した。Pixelは、余計なアプリや機能のない...
詳細を見る
テクノロジーは障がい者の目耳手足になる アクセシビリティを向上する3分野の最新技術
働く意欲があっても障がいを抱えているため外出が難しく、就労をあきらめる人は多い。しかし駅などのバリアフリー化が進ん...
詳細を見る