CASE車両市場のゆくえ…EV・自動運転の鍵を握るもの

公開日:

ここ数年、1月は自動車業界が騒がしくなる。1月にラスベガスで開催される家電ショーCES(セス)で、EVや自動運転などCASE車両が発表されているのだ。CASE車両の動向をチェックするため、直後に開催されるデトロイトモーターショーよりもここでの発表を重視する自動車業界関係者もいるという。CASE車両の最新動向や今後のゆくえについて紹介する。

自動運転はレベル2と3の「明確な違い」とは

自動運転とコネクテッドカーについてもみてみよう。自動運転については、日本の国交省や米国運輸省道路交通安全局 (NHTSA)が定義する、加速・操舵・減速(制動)の自動化の度合いに応じたレベル指標がある。まったく自動化されていないレベル0から無人走行が可能なレベル5まで6段階に分かれている。

現在市販車で実現されているのはレベル2(加速・操舵・減速のうち複数のシステムの自動化がドライバーの監視下において行われる)だ。

日産のプロパイロットや各社が提供しているACC(アダプティブクルーズコントロール:前車に追従し指定速度での走行、停止、再発進まで行う)はレベル2に分類される。ちなみにレベル1は一般的に緊急自動ブレーキや速度設定のみできるクルーズコントロールなどが相当する。

一方レベル3では、指定された条件下(高速道路上など)ならドライバーの操作なしで走行可能なクルマとなる。

2018年中にはアウディが、このレベル3の自動運転車両を発売するとしており注目が集まっている。アウディは高速道路上で60km/h以下の走行、つまり軽く渋滞して流れている状態なら、ドライバーは運転しなくてもOKという性能を実現するとしている。ただし、システムが制御不能な状況になった場合(車線を見失ったなど)は、ドライバーが操作を引き継ぐ必要がある。

自動運転のレベルはわかりにくいかもしれないが、有事の際の責任の所在という点におい大きな違いが存在する。

レベル2までは自動運転支援と呼ぶべきものですべての責任はドライバーにある。しかしレベル3以降は、自動運転モードに入っている間は運転の責任はクルマが持つ**。もっとも、実際の法的な責任はどうなるかは法整備が必要な状態だ。

なおレベル4となると、指定した条件下なら緊急時も含めて操作が自動化される。レベル5はドライバーがいなくても走行できる無人カー、無人タクシーと思えばよい。前述のアウディは、すでにレベル4までの市販ロードマップを表明している。

トヨタは、レベル3相当の自動運転をレクサスに搭載しようとしているが、ユーザーに誤解を与えたくないとして、レベル2という扱いをしている。

コネクテッドカーと自動運転の関係は深い

コネクテッドカーと自動運転は、以前から技術的に関係性がある。まず、カーナビやIVI(In-Vehicle Infortainment)、車載テレマティクスデバイスをモバイルネットワークを経由してインターネットに接続する技術から始まった。

次にスマートフォンとカーナビ、ディスプレイオーディオ(見た目はカーナビまたはカーオーディオだが、画像と音楽再生機能以外は外部接続機器を利用する)をつないで、アプリやWebサービスの利用まで進化している。

例えば、ネットラジオを聞いたり、ストリーミング動画を視聴したり、メールやスケジューラにアクセスしたりが車載端末で可能になる。カーナビもGoogleマップで代用したりする。

ルノーの一部の車種は、センターコンソールにカーナビスペースの代わりに、スマートフォンホルダーと接続コネクタがでているだけのものがある。カーナビやオーディオ、その他アプリは、接続したスマートフォンにインストールしたルノー専用のコネクテッドアプリを利用する。

そして現在は、このような機能に加えて、高度な自動運転支援や安全支援のため通信機能が重要視されているのだ。

例えばレベル3以降の自動運転には、高精度の3Dマップが必要とされる。このデータをすべて車載端末に保存するのは現実的ではないし、自動運転制御に利用するデータなので、建物や標識の変更に合わせたアップデートが随時必要となる。そのため、4G、5Gといった通信技術とともに、ネット接続機能はCASE車両に欠かせない。

他にも、レーダーやセンサーが検知できない道路情報や、見通しの効かない交差点への接近車両、歩行者の情報も、交通管制クラウドを経由して入手する検証も始まっている。クルマの車載デバイスどうしが通信する研究も進んでいるという。

コネクテッドと自動運転に合わせて、変わる自動車のUI/UX

2018年のCESでは、コネクテッド機能や自動運転の普及を見越したコックピットのUI/UXに関する展示が目立った。

たとえば、インパネやコンソールを計器で埋め尽くすのではなくマルチファンクションディスプレイにしたり、タッチ操作、音声認識などを取り入れた次世代コックピットの提案、関連の要素技術(ディスプレイやセンサー)などだ。

自動運転では、ドライバーの役割は大きく変わる。同時に、クルマがいまどこまで制御しているのか、なにを認識しているのかをドライバーに正しく伝えることは、自動運転普及の鍵を握るとされている。従来からのメーターパネルやハンドルなどの機能拡張や機能変更に、各社の注目が集まっているのはそのためだ。

もうひとつ注目されているのは自然言語認識による音声操作だ。音声操作ができるカーナビは珍しくないが、基本的にボタン操作を命令単語に置き換えたレベルで、現段階ではあまり実用的ではない。

Amazon Echoを車両に搭載する、機能を実装する取り組みなどが行われているが、会話やコンテキストを理解して必要な操作を判断するエージェントは、クルマの中でも広がる可能性がある。