• 今から自動運転の話をするんですけど、基本はITの進化の話をして、必然的に車が...必然的でもないんですけど自動運転が作りうるという話をします。基本、私はNECに17年間いて、パソコン事業を立ち上げていたんですね。それが98ではなくて、30代以下の人は98という名前すら知らない方も多いんですけど...。NECが80年代くらいに98で成功してて、海外にもパソコンを売りたいっていう話になったんですけど、98のまま輸出しようとして当然大失敗してて、当然、Compaqというか、IBM互換機が市場性を作ってて、私が新入社員1年目で、これ98じゃ絶対売れませんよっていう話でAT互換機を提案したんです。やってみろと言われてやらせてもらって、やったんです、成功したんですけど。98が97年かな、このままじゃウィンドウズ95に対応出来ないぞということで、94年ぐらいから問題になって97年にはもう98をやめましょうということになりまして、私が海外で立ち上げたバーサプロとか、バリュースターとかですね、今でもその名前残ってますけど、日本にそれを持ってきたという話です。

  • それが今の話と何が関係するかというと、これから話す話と...。ある意味、携帯ですね、あれガラケーって言われるんですけど、スマホが出る前の、皆さんご存じのように。実は98はガラパゴスだったんですよ。それをAT互換機に直しましたというのがあって、スマホにはあまり関与してなかったんだけど、Androidの開発のときにGoogleと、そのとき日産にいてですね、一緒にやってて...。Androidで実はスマホだけじゃなくて、テレビと車のナビを作ろうという計画があったんですけど、結局、iPhoneの3GSっていうのは2008年に出まして、7年に普通のが出て、8年にようやく3G対応になったんですけど、そこに合わせてAndroid出さなかったら、アップルにスマホみたいなものが牛耳られるという焦りがすごいGoogleの中にありまして。

  • 私は車として、一緒にやってたんですけど、もう車やめますよと、諦めてスマホだけに注力しますと。アップルが出すところの10月ぐらいのときに商品を必ず出すんだということに注力したんですね。最近になって、実は車にやらないっていうのはアップデートしにくいからと、車にAndroidを入れちゃうと。でもようやく2017年ぐらいになって、車にAndroidをそのまま載せてもたぶん、OTAっていうかオーバーザエアーっていうインターネット経由でアップデートできるようになっただろうということで。ようやく来年ぐらいからAndroidそのものが載っている車をGoogleが正式に補償するようになるんですけど。キャパシティーというか、ハードウエアとソフトウエアのリソースが足りなくて、かつ車の寿命が長すぎるので、Androidを埋めてナビを作るのはやめましょうってことになったという経緯のところに、Googleさんと日産として当時やってたんです。

  • 実は何が言いたいかというと、今日本が作ってる自動運転というのは明らかにガラパゴス作ってるんですよ。これに気付かないんですね、日本の車会社。それを私が一生懸命説得して、ようやく気付き始めたということですね。これからようやくキャッチアップしようということで、いまや相当な差がついてますよっていう話をちょっとします。

  • この写真は、「Wedge」。左側が先月まで売っていたやつ。今月号は20日から出ましたんで今売ってないですけど、ここに載っている一番左下の「自動運転もガラパゴス 時代遅れのITS」という記事があるんですけど、これは業界関係者が書いたってことになっているんですけど実は私が書いたんですね。右側も「モーターファン」という、車が大好きな人が買ってるムックなんですけど、自動運転を特集したというんです。これ結構評価が高かったんですけど、この10%ぐらいは私が書いたと。私が描いている図とか、いっぱい使われてまして、そこには実名で図のコピーライトという形で載っています。今、清水さんから紹介を受けたように、そういうウェブも書いていて、こういう雑誌も結構、出して書いていたりします。

  • 時間がなくなっちゃうので、これだけ内容濃いので、あんまり関係ないところは飛ばしながらいきたいと思います。まずICTの発展の特性なんですけど、世の中の流れっていうことで、なんでも技術系の事業をやるというときには、こういう認識になってほしいなと思いまして、ちょっとまとめてみたんですけど。

  • 2001年っていうのは、どういうものかっていうと、Yahoo!BBでADSLが出てきたころなんですよ。2000年ごろから出ましたけど。あとiモードとかFOMAが出てきたのが、浸透したのが2001年。そこから初めてデータ通信とかインターネットが常時接続で定額制みたいになって、2010年にはパソコンも含めてすべて、スマホは当たり前なんですけど携帯もそうですけど、ネットワークにつながったと。端末とサーバーという形で、ネットワークでつながった。

  • これが2011年以降、2007年くらいから、クラウドということばが出るんですけど、ウェブの上にいろんなソリューションがのって、2011年には例えばパソコンである必要はないと、インターネットアクセスするのが。iPhoneでもiPadでも同じコンテンツを見栄えとか使い勝手は違うんだけど、コンテンツとしては同じものが提供、受信して使えると。こういう形で完全にクラウドの上と下というかHTMLの上と下みたいな。ウェブの世界とハードウエアの世界というのが完全に分離されて競争する状況になったんですね。今まではハードウエア作って、アプリケーションまで作るというバーティカルなソリューションを新しいアイデアがあれば作り込まなきゃいけなかったんだけど、今やソフトウエア上というかソリューションとハードウエアを完全に分離して作っていいと。人が好んだ端末で目的をですね、インターネットアクセスして達すればいいと。ドライバーによってハードウエアを使い分けるんだけど、使えるコンテンツは一つ、クラウドの中で大きく育ってるという状況があるということですね。

  • 2015年ぐらいから明らかになってきたのは、その上に実は産業がのったんだということで。例えば交通、Uberみたいなものはタクシーという資産を持たずに、乗りたい人と乗せたい人をマッチメーキング。SNSレベルの技術でマッチメーキングしてるわけですけど、単純にサーバー上のプログラムを書いているだけなんですね。それで事業が作れてしまう。さらにはクラウド上にあるから、世界中からそれを使うことが出来るんで国をまたがった横展開が出来るよということですね。こういう形に今の世の中、特にICTが使えるような産業分野は、こういう形にどんどん置き換わっていきますよというのが、2015年以降の話だし、この傾向がどんどんどんどん、これから進むということですね。

  • すでに実はクラウド上に人工知能が宿ってきましたよという話なんですけど、これは先ほどシンギュラリティーの話もありましたけど、2045年にシンギュラリティーになるよって右下に出てきますけど。レイ・カーツワイルさんという人が何人かのうちの一人でシンギュラリティーの話をしていて2045年には人間の100億人っていう想定ですけど、すべての脳を足し算したのと同じだけの計算能力を1000ドルのコンピューターが持つよと言っていて、これ対数グラフになっていて、本来一直線であるべきところなんですけど、実は上のほうに伸びる曲線なんですね。

  • この絵をよく考えてみると、最近までっていうか、半導体が生まれた1960年ぐらいから、最近までは確かに2年で2倍という直線を描くと、乗るんですね、大体。しかしそれより伸びるって言ってるってことになるわけで、これ以上の伸びって、どのくらいの線かなってことで、たまたま毎年2倍って線を描くと、こうなるんですね、点線。このぐらいに近いと。今まで2年で2倍だったのが、毎年2倍なるんだよと。

  • しかしながらムーアの法則はサチュレーションするとも言われているのに、そんだけ伸びるものでしょうかって思ったんですけど、よくよく考えてみると2000年以降、今話したように端末がネットワーク化されて裏にクラウドがいるんですね。クラウドで計算したものを見てるということも含めて、1000ドルの端末でどこまでできるかという考え方だとすれば、ネットワーク効果によって毎年、2倍で成長するように見えるっていうことはありえるなと思っているというそれだけの話なんですけど。ただその交点を取ると、たまたまですけど1995年ぐらい。ですので初めてウィンドウズ95で簡単にインターネット接続出来るし、マルチメディアも使えるようになるんですけどそれが起爆剤となって、そのあとのネットワークにつながったソリューションというのが拡大したと思ってるって話なんですね。

  • で、レイ・カーツワイルさんの話で、実はニューロンとシナプスの脳のあるいはねずみの脳だとか、人の脳だとか、どのぐらいの集積度が半導体で達成されるんですよってことを、1000ドルのコンピューターにねずみの脳と匹敵するとか、人間の脳に匹敵するようなチップ、半導体が集積されて載っていますよって話で対比してるんですけど、実はよく考えてみれば、クラウドの中でネットワーク化されたサーバーを全部足せば脳のすでに数%程度のシナプスとニューロンの組み合わせに匹敵するようなものが存在していると。その計算能力、一つのドメインの中、例えばGoogleの中で計算するのに100万台のコンピューターが並列処理可能であるという中で、いろいろ人工知能的なものが出てきたなっていうのが、すでに2012年ぐらいには現れたということが言えるだろうと。

  • 現実的に先ほどお話しさせていただいたように、2012年ぐらいが結構、極めて画期的な状況がいくつか起こっていまして、「Googleの猫」という表紙なしでパターンを見せると、ニューロンとシナプスを模したようなネットワークシステムに画像認識というか、見せ続けると、どっかの階層のニューロンに相当するものが、これ見たことあるよ、ある意味では発火したという表現になるんですけど、見たことあるぞと言うようになったと。コンピューターは、これは猫だと言わない。当然、教えてもらわなければ言わないんだけど見たことがあるということで、こういう認識が自分で学習、自己学習して出来るようになったんだということで画期的だという話ですね。まさにコンピューターもニューロンみたいに作れば、こういう認識をするようになる。あるいはパターン認識に近いかもしれませんけど見たことあるよみたいなことは言えるようになると。

  • 一方、先ほどヒントン先生という話がありましたけど、2012年のImageNet large−scale visual recognition challengeという、大量の画像を学習してですね、突き合わせで新しい画像を見て、これはなんだという、このエラーレートが極端に急激に下がったんですね。エラーが下がった。2014年になると、どこに何があるか、フレームの中で一つだけ言うんじゃなくて、どこに何があるかということを場所も含めて特定するということが出来るようになったし、2015年になると、左側が区別、Classificationということで、これは何かっていう分類をする。右側はどこにというLocalization、位置を特定するという意味のLocalizationですけど、それも2015年に急激に下がってるんですね。2015年のClassification、左側のやつは人間のエラーレートより低いということですね。

  • これが非常に2015年に話題になったし、例えばこういう現象っていうか状況を、人間は例えば一つのものを見たときに一つのものしか集中できないんですけど、コンピューター画像処理であるからこそ、一度に多数複数のものをより人間より正しく早く認識することができるというわけで、こういう意味では人間の能力を超えたと言えるわけだし、これが例えば2020年ぐらいまでいけば、当然、車でこれを使わない手はないだろうというのが、人工知能なりの発達を車にも使いましょうという話の発端にもなってるという話ですよってことです。

  • あと、これは書いてないんですけど、強化学習。ゲームをプレーして、教えないんだけど人間よりもうまく短期間で上達する。これと同じことを車にも合わせて、画像を見せて、そこから何かを判断するようなことというか。人間がプログラミングしないで、機械的に走り方を自分から作っていくということも、2015年ぐらいからかなり進んできているということですね。

  • そういうICTが重要で、今の話はICTの高度化によって成立しているんですけども、もとは結構、日本は携帯も含めてガラケーの時代ですけど、ICTある程度強かったねっていうのがあるんですけど、しかし、世界の波に乗れないっていう、非常に簡単なことで言っちゃえば、そうなっちゃうんですけど。

  • 2000年ぐらいから先ほど言ったように、ADSLが出たころと同じように、データ通信を携帯でやるってことが日本人として普通になってきたんですね。海外ではそこまでいってなくて、例えば携帯でメールが読めるとか、音楽ダウンロード、画像を見ましょうということもやってる。さらにはカメラをつけて、そういう状況に対して、海外では携帯にカメラをつけるとは何事だという笑いの話になってたんですけど、ところがある程度2007年ぐらいにはほぼ完了したんですね。

  • それと同じ機能をある意味ではこういういろんなデバイスとかセンサーが、東アジアを中心に日本も含めて、相当、先端の品質のいいものが安く手に入るようになって、そういうデバイス、部品を、パッケージ、いいとこ取りして、新しくパッケージすれば実はiPhoneみたいなのが出来ちゃうんですね。実現した機能も、ほぼガラケーそのものなんだけど、見栄えっていうか使い勝手とか形が違う。使い方が違いますけど、タッチパネルだとかということで。いずれにしても携帯をすこんとiPhoneにしちゃいましたと。縦軸は100%市場っていうんで、日本だけとると携帯が100%近いんですけど、スマホという意味では世界的には60%ぐらいの浸透ですかね。いずれにしても日本のおかげではあるんですね。ところが日本では世界にガラケーを浸透させることはできなかったという話です。

  • 単純にそれだけなんですけど、なんでそうだったかっていうと、そもそも、これスマホなんですけど、今、話したのを逆に捉えると、スマホを作るべき部品というのは右のほうにあって、実はそれってガラケーに載ってたじゃないですか、なんですね。ガラケーではJavaも走ったし、いろいろプログラムも相当強化してあったんだけど、世界的にも通用するような備え付けがされていたんですけど、ただデータセンターにつなげた先のクラウドというものはなかったんですね。

  • 先ほどクラウドの効果を触れましたけども、スマホは2007年、iPhoneですね。で、3Gになったのは2008年、Androidも2008年。それで大量に使われるようになってデータセンターにつながって、クラウドというものが成長したという。そのクラウドが成長したから、かつそこにサービスソリューションが生まれて、グローバルに横展開も出来るようになったという世界的な成長がその辺にあるんだけど、日本ではそこまで作り込めなかった、けん引できなかったというのがですね、ガラケーの失敗の理由かな...、成長しなかった理由かなとは思ってるんですね。

  • このようなことが、今、車で起こりつつありますよっていうのを、こっから話すんだということですね。自動運転の話しますと、自動運転って何かっていうと、さらりと言っちゃうと、人間は基本、ハンドルとアクセルとブレーキという3つのポイントだけ車と接点を持っていて、それをうまくコントロールすることによって、車を運転するんですね。それだけだとがむしゃらに運転するだけなので、安全が確認できないわけですから、眼球、視野を用いて、信号を見たり、人がいるかとか安全を確認する。交通標識を見るとかやりながら、状況の判断をしながら車を安全に走らせる責任を持つと。これが普通の運転ですと。アクセル踏んでも今、時速何キロになったのか分からないので、HMIという速度計みたいなものをつけて、100キロになっちゃったなと。道路標識、速度制限の標識を見ると、80キロと書いてあれば、アクセルから足を外したりブレーキちょっと踏んだりする。こういうことをやってるのが普通の運転ですねってことですね。

  • これに対して自動運転は何かっていうと、ハンドル、アクセル、ブレーキの動きを自動化するのはそれは最後の最後に人間が運転するんで責任を持つんで自動運転じゃないんですけど。完全に実は、手足、離していいですよと。運転してなくていいってことです。安全の確認をする義務がないというのが自動運転の定義です。だから、周りを見てなくていいんですね。本を読んでいてもいいし、寝てても実はいいという状況ですね。

  • で、レベル3っていうのがひとつありまして...。もうひとつ言うと視覚の代わりにカメラとレーダとライダーと超音波というのをつける。これはセンサーをつけて視覚の代わりにしますよなんですけど、そういうものはつけますけど。ポイントはですね、人間の代わりにものを認識して、今、自分はどういうふうに走っているのかというのも確認して、地図を参照しながらこれからどう走るかも決めていくんですけど。このレベルという意味においてポイントはですね、レベル3っていうのは半分、自動運転で、半分、人間が運転しているんですね。一回自動運転になったときに、システム・コンピューターがこの先、白線が見えなくなるから諦めますと。運転戻ってくださいっていうことが言えるというのがレベル3で、そのときのために運転車はドライバーズシートに座っていなきゃいけないし、いつでも運転を代われるように準備ができてなきゃいけない。これがレベル3の定義なんですね。ですからポイントは寝ててもいいんだけど、起きなきゃいけません。もう一つは、お酒は飲んじゃいけませんってことですね。この辺が完全自動運転とは違うんですけど、とりあえず運転に戻れるようにしておきますというのがレベル3です。

  • で、レベル4っていうのがありまして、これが本当の完全自動運転というんですけれど、スタートからゴールまで全く人間に運転させませんということですね。ですのでそもそもハンドル、アクセル、ブレーキがいらないんですということです。ですのでハンドル、アクセル、ブレーキなくなるし、ドライバーズシートに運転手・ドライバーが座っている必要がない。で、椅子も別にここにある必要がないんで内装も自由になるんですね。これが本当の完全自動運転でレベル4と言われるやつです。

  • このレベル4というのが今、まさに世界では、レベル3より先にこっちを作るという状況に今なっているというのが世界のトレンドです。画像認識のために認識して、地図もですね、みんながアップデートしていく。さらには、ここはこういうふうに走りましたよということをですね、地図と違えばアップデートするし、ここはこう走りましたというのをまさに深層強化学習というものを使って相互アルゴリズムを作って、適宜、常にじゃないんですね、適宜、コンピューターのほうにアプリケーションソフトウエアとしてダウンロードするという、これをやっていって。この車だけじゃなくて、みんながデータあげてますんでね。ある車があるところで、ある事故に遭ったら、それを学習して、自分の車がその経験はないんだけど、その知識、そこにおける運転のしかたが学べるっていうことで、みんなが走れば走るほど、それぞれのすべての車が運転がうまくなるというのが完全自動運転、レベル3もそれはありますけど自動運転の特徴だということになります。

  • 人間がどうやって運転してるのかっていうと、例えばこれは銀座なんですけど、3つ先の交差点を曲がろうとすると、たぶん皆さん、この辺に目が行くかと思うんですけど、前の信号が何色だろうが関係ないんですね、実は安全運転に関しては。直近の信号が赤なら止まんなきゃいけない。これが重要です。このような光がいっぱいある中で、どれが信号かっていうのは人間ならよく分かるんですけど機械ではなかなか分からない。コンピューターのgraphic visual recognitionでは、なかなか分からない。テールランプも赤い色だし、よく分かりませんと。あと、同じ交差点にいっぱい信号があったりすると別の方向、縦に走る道のための信号も、これは直近かもしれないと、間違ってしまうということもコンピューターでは往々にあるわけで、そういうのを避けるために何をしてるかというと、実は地図のほう、参照するナビゲーション見ながら人間も運転しますけれども、コンピューターもコンピューター用の地図があるんですね。

  • 3次元空間を意味していて、そのコンピューターの地図にはこの空間上の情報ですね、特に信号みたいなユニークポイントがXYZ座標として入っていて、あなたの位置からすると直近の信号は地図から判断して、これですよっていうXYZ座標を教えてくれる。そうすると所詮カメラは2次元で区切っているんですけど、このフレームの中のここだけ見ればいいですというふうに地図が教えてくれるんですね。そうするとコンピューター処理は負荷が下がる。コンピューターはあまり一生懸命、計算しなくてよくて探さなくていい。かつ、そこだけ見ればいいんで、正解率が極端に上がるわけですね。ほぼ確実に信号を認識するっていうことを踏まえて、直近の信号が赤なら止まるという走行アルゴリズムと地図が完全に一体化しているんですね。というのを今、作り込んでいるのが海外での自動運転の開発だということです。この地図を日本ではまだ作ってないっていうこともあるので、自動運転って何やってるんだってぐらい全然、関係ない開発をしているのが日本の現状ですね。

  • もう一つ言うと...。直近の信号が赤だったら止まれっていうのは、センシングして信号なんだというのが分かるかもしれないんだけど、こういう直近の信号が赤、少なくとも信号が赤なら止まれというのは、倫理的な判断なんですね。これはセンサーでは出来なくて、人間の大脳前頭前野でやると。この前頭前野でやる作業をコンピューター上にソフトウエアとして走らせなきゃいけない。そのソフトウエアを作るのが実は深層強化学習、Deep Learningの一部であるところの深層強化学習なんですよというのが、今の動向です。

  • 直近の信号が赤なら止まれということを普通に人間がプログラミングすると、信号探しなさいよと。直近なのかどうか判断しなさいよと。その信号が赤いんですかとか、ほかの色だったらこうしなさいとか、こういうふうに分岐してですね、いちいち間違いがないようにすべてを羅列する。それをプログラミングするわけですけど、これは一つの例でしかなくて、これを世界中の道路のシチュエーションにすべて当てはめて、人間が起こるかもしれないケースを羅列してプログラミングするなんてことは、人間として不可能ですね。時間がなくて出来ないということがありますので、そこで過去2年間ぐらいで急激に進展したニューラルネットワーク使いますと。

  • 先ほどお話ありましたRaw Pixelsですね。画面をそのまま大量に見せて、そこを学習させると。そこに3次元の空間を学習するようなことをDeepMindとかが、Googleの子会社ですけどやっていまして、アルファ碁を作ったところですけど。ちょっと前から3次元空間に対する認識を学習することはGoogleさんはやっていて、結果的には...このニューラルネットワークの構図は模式的で、正確にどう描くかってまだ最終化されていないんですけど、ニューラルネットワークというのを使って大量に分類していくと。ある意味トライアンドエラーでですね、正解に近いところをどんどん導き出すということがコンピューターが速くなったから出来るようになったと。

  • その結果、上の画像と1対1じゃないんですけど、いわゆるアノテーションっていうことば重要で、意味づけですね。ここは道で、これは車でこれは信号で、この中は走れますよ。ここまでは今までどおり走って、ここでブレーキ踏んで、ハンドルを左に何度切って、右にも切って加速しなさいということを直接アウトプットするんですね。これをECUに入れる、CANに入れる、車のコントロールに入れるということをします。これ一回決めたらずっと走るんじゃなくて、これを10分の1秒でリフレッシュしながら、軌道修正して走っていくということをやっているのが自動運転で。まさに、このようなことをやらなかったら、たぶん高速道路くらいは出来るんだけど、決して一般道路は走れないということです。それが今の現状で。今、Googleさんが非常に先行してるんですけど、各車会社がこれを今からやろうとしている、世界ではですね。日本では、やっと気付くという状況なんですね。

  • ニューラルネットワークで、シナプス、ニューロンの組み合わせが、ニューロンが1000個、頭の中にありますよと、人間として。その1個のニューロンがほかの1000個のニューロンとつながっていると。これ小脳と大脳と全然バランスが違うんですけど、大きく言うと、最近、分かってきたのが、ニューロンをいくつ通るか分かってないんだけど、こういうふうに走ったら、あのにおいだとか、部位によって機能が違うんですけど、実は情報処理と記憶が一体化してるというのが、ニューラルネットワークというか脳の構造なんですね。

  • どんどんここにコンピューターの密度が上がってGPUが上がって、こういう構造になってきています。どんどん人間のニューロンレベルに近づいているんで、プログラムもニューラルネットワークで生成したようなものが走るというのが意外と必然的なんですね。ですので今後のコンピューターは分岐をさせながら計算してもいいんだけど、大きな計算するというかな、ビッグデータみたいなものはこういうふうに計算していくのが浸透していくと思いますという話で。

  • それはそれとして最近のトレンドとして、じゃあ、いつごろどういう自動運転が出来ますかというのを説明するのがこの絵なんですけど、大きくいうと、これは速度です。これは実現の難しさということになるんですけど、例えば高速道路は速く走りますけど車線の間ずっと走ってればいいし、車間距離を一定に保つ。あるいは先頭走ってたら法定速度プラスアルファで制限するみたいなことと、あと追い越しと入線ができれば、ほぼ高速道路の自動運転は出来るんですね。

  • 例えば主要幹線道路で交差点がありますと。信号見なきゃいけないし、交通標識見なきゃいけないし、人が横断歩道を渡り始めるかもしれないし、右折しようとしたら対向車の状態を認識して分析しなくちゃいけないから非常に難しくなると。家の前の道まで、例えばドライバーレスタクシー、ロボットタクシーに来てもらおうとすると、白線もないし、人工知能を持ったタクシー、車がこの道入っていっていいのかな?という判断するのも非常に難しかったりするんですね。ということで生活道路は非常に難しいという話だったんです。これが2014年までの認識です。難しさがこっから、こういうふうに上がっている。

  • しかし、過去2年間で、こういうところ、どこでもいいんですけど、データをとにかく学習させますと。3次元地図をちゃんと作って、空間モデルというか、ここを走るという空間を3次元で完全に置き換える。かつ、これも変化しますので、状況は。それもアップデートするようなことをして、地図をメンテナンスして、こういう場面はこういうふうに走るんだっていう走行アルゴリズムをちゃんと作ると。そうすると、こちらのほうは例えば最寄りの駅から家までという、半径1.6km、last one mileというんですけど、その空間だけでも地図を3次元に完璧に作って、そこにあるすべての道について、どういうふうに走るかを学習すれば、実は簡単になると。つまりDeep Learningの成功によってですね、一番左の生活道路における自動運転というのが簡単になりましたというのが最近過去2年間の動きなんですね。

  • ここにおいては、先ほど言ったハンドル、アクセル、ブレーキもない、いわゆるロボットタクシーですね。誰も運転しないクルマが家の前まできて迎えに来てくれて目的地まで、とは言っても半径1.6kmですけどね。あるいは5kmぐらいまではいいと思いますけど。そういうところまで連れていってくれるってことですね。これが実現性が極めて高くなったんですね。こちらのほうに最初Googleさんとか、Uberとか、Teslaがやってたんですけど、こちらをやってたベンツ、BM、アウディ、フォード、GM、クライスラーも今やこちらに軸足を移してきているというのが現状ですという話なんですけど...。

  • ちょっと時間オーバーしちゃいそうですけど基本は2020年前後の商用化に対してはレベル4をむしろレベル3より先にやろうと。レベル3というのは人間に運転を戻すのは非常に難しい。つまり、たたき起こしても起きてくれないかもしれない。そうしたら安全を保障できませんというので、車会社がちゅうちょしているんですね。だんだんレベル3はやめはなしないんだけど、難しい、ちゅうちょします。で、レベル4がむしろ簡単、つまりDeep Learningを駆使すれば出来るんじゃないかということになってきたということですね。そういうトレンドがまずあります。

  • で、実際レベル4でどういう状況かまとめると、ハンドル、アクセル、ブレーキがない。で、ライド・ヘイリングといってスマホからタクシー呼ぶ、例えばUberみたいなものですけど、そういうモビリティ事業に供給する。個人に売るんじゃなくて、事業者にクルマを売るということですね。車会社みずからUberみたいなところにクルマを出すんじゃなくて、車会社みずからこういうモビリティ事業をやりますよというところが最近は増えてきていると。あと、NHTSAというのはアメリカの国土交通省みたいなところですけど、そこも積極的にパーソナルモビリティの実現をプッシュしてですね。あと、人だけじゃなくて、モノも完全に自動運転にしようということですね。例えば宅配も人手不足になるわけですけど、そういったものも完全自動運転で運びましょうというようなことを議論しているというのが、今まさにレベル4の話が活発化した現状になっているということです。

  • これはレベル4のイメージですけど、線が鉄道とかバス、大量輸送。丸が駅です。最寄りの駅から家までの空間を3次元空間地図として完全に模式化して、その上に走行アルゴリズムを作ったクルマが走るという話ですね。公共機関に近いものですね。民間が事業化したとしてもタクシーみたいな公共性のあるもの、あとマイクロバスであるかもしれないし、最近は大企業が入ってきていますよと。

  • あと、ドライバーレスになると、実はタクシーとかも人件費が73%と言われていて、コストが3分の1になるんですね。大体1km100円というのがテーマになるんですけど、そのぐらい安くなる。あとはモノも運ぶ、タクシーやってんだけど、人がいなかったらモノも運んでいますよと。一つのクルマでどっちも運べるようなことをしようと。同時に運んでもいいんですけど、そういう方向性も今かなり狙われています。稼働率が上がるんで、今、1台クルマ買うと、1日1時間しか乗らないで稼働率5%と言われて、商品寿命が13年ぐらいなんですけど、それが稼働率50%以上で、常に人を乗せて走ったりしますのでライフサイクルが短くなるんですね、2〜3年。そうするとスマホと同じようにクラウドで作ったサービスが、どんどん端末としてのクルマにダウンロードできるようになりますんで、新しいサービスがどんどん開拓されるんだと。まさにICTとクルマがですね、非常に親和性が高くなるんだということが、このレベル4を用いたモビリティ事業においては期待されるという状況になっていますということですね。

  • BMWも去年の7月に、そうしますと言ったし、アウディも7月25日、フォードが8月16日、GMが12月16日、ダイムラーがことし4月。ほとんど代表的な車会社がハンドル、アクセル、ブレーキがなくてモビリティサービスに共有するクルマをEVで作るということを発表しています。この3つ、3点セットが共通していますね。ダイムラーですらレベル3を超えてレベル4でやるんだと言っている。

  • その中で実はGoogleが一番強烈にすごいんですね。2009年から自動運転の開発をしていて、もはや、ことしの4月、フェニックス、アリゾナ州で、普通に人を乗せてドライバーレスタクシーのテストをしています。ドライバーは乗ってるんですけど、まさかのとき以外は手を出さないという状態で座っていると。300万マイルも走ったっていう話があるんですけど。いずれにしても、ポイントは

  • カリフォルニアのDMVという自動車局がありまして、そこにカリフォルニアで自動運転テストしている人はどのくらい自動運転で走ったか、その間、何回、テストドライバーが手を加えて補正したかということを報告してるんですね。その報告がこれで、実は2015年末でGoogleが1200マイル。ほかは、100マイル以下なんですね。これは2015年なんだけど、2016年の数字はもう出ていて、2016年末で5000マイル。ほかも、やはり100マイルいかないです。最近は8000マイルぐらいになっていて、kmに直すと、1万キロ以上ですね。人間を介在させずに自動運転になっているということです。ある意味、Googleにだけ出来ているんですね、実はレベル4っていうのは。ということがGoogleもよく話していますし、なぜ日本が気付かないのかと思うぐらい日本は焦っていないという状況ですね。

  • そんな中でファイアフライっていう名前ここに出しましたけど、ちょっと有名なこの形のクルマ、3年間ぐらいテストして、もう博物館行きなんですね。この車の仕事は終わりました。これからは600台、これから作るらしいんですけど、こちらのクルマで自動運転やりますという話で、ある意味、相当高度化したんですけど、今回。これはもう、いらないと。で、日本の車会社は、海外もそうなんですけど、これすら作ってないという状況で。圧倒的にGoogleだけが出来ていると言えると思います。

  • あと2分ぐらいで終わらせたいと思うんですけど...。ここからは新しい産業が生まれるよという話をします。実際、自動運転って、大きくまとめちゃうとこういうことで、センサーで環境認識して、自分はどういうところを走っているか、走行状態を分析する、これはECUっていうマイクロプロセッサーの状態を分析すれば、自分がどういうふうに走っているか分かるんですね。そこにクラウドにある地図、これがみんながアップデートしているんですけど、それをまた自分も参照して走りますよ。つまり見えるところ以外はこの地図に載ってる状況を参考にして、計画的に自動運転を実現する。で、参照するんですね。そこに至って、状況が違っていましたっていうことであれば、皆さんが、差分のアップデートをするという。

  • もう一つは学習した結果をコンピューター上のソフトウエアとして、走行アルゴリズムとして車の上に適宜アップデートします。適宜が大事で、常に問い合わせて走っているんじゃなくて、走っているときにはデータのアップデートぐらいは安全なんでやるんですけど、こちらは走っているときにはしないという。これ非常に重要で、誤解されることが多いんですけど、自動運転で走っているときには基本はネットワークに接続されてなくても走れるというのが重要です。

  • それはそれとして、この状態のサーバーにいろんな情報が集まってくるんですね。きわめてリアルタイムに環境情報がここで、参照すれば見えてくる。それを用いて、例えば地図屋さん、当然地図のアップデートしますし、Uberみたいなところはどこに誰が乗りたい人がいるのかとか。さらに言えば自動運転になればどこにクルマがいるのかも把握するためにこういうシステムが必要ですと。あとほかの交通とのですね、バスと鉄道と乗りあって行くとか、これを乗り捨てたり、乗り継いでいくとかやるし、これは保険会社なんかだったら、どういうふうに走るか分かるんで予防型保険とか今後計画できるし、エネルギー会社はこれ、ほとんどがEVになりますんで、100万台とか、地上、日本だけでも走るようになったら、夜の間に蓄電・充電して昼間走るとか、あるいは逆潮流って電力を戻すようなこともできるようになるんですけど、そのキャパシティーがどのくらいになるのかっていうことも最近、また考え始めましたけど、そのグリッドという、エネルギー会社との連携ですね、データのやり取り。これも非常に今後重要になるということになりますね。

  • そういうようなメカニズムをここに作り込むと、例えばこのクルマをトラクターに変えると、トラクターにもセンサーをつけて、こういうところはこういうふうに耕作すればいいのか、農耕すればいいのかみたいなこととか、今これは収穫期だとか、そういう判断も人工知能的に出来るようになりますので、自動運転トラクターで農業複合企業がこれを自動的に動かして農業の自動化が出来るとか、これをドローンに変えれば、センサーがいっぱいついてますんで、例えば建築中の建物をずっと監視するとか、あるいは最近ZMPもやっているんですけど、飛行機のメンテナンスで、一回周りを全部見るとか、メンテナンスの間に。到着してから次飛ぶまでとか、その間にいろんなメンテナンスができるとか、そういう新しい使い方で新しい事業ができるということです。

  • これは同じようなメカニズムを使うと出来るんですよというのが、やはり今後、非常に重要になると思います。これは乗りたい人が、ちょっとタクシーいないかなと思うと、配車システムが呼び出してくるんだけど、実はどこで乗りたい人が生まれるかも予測するんですね。ですから乗りたいと思ったら、後ろを振り向くとタクシーがいるくらいの感じにたぶんなると。大体1分以内に到着するように、今、計画しています。Uberも、大体2〜3分以内に到着するような計画で運行されています。ということで、そういうサービスをするようなシステムを地図を作るのと別に、走行アルゴリズムがありますけど、配車システムもDeep Learningを使って最適化するようなことが重要だということですね。イメージ的にはこんなもんですけど。

  • これが最後に私が言いたいところで。何が言いたいかっていうと、基本ですね、車会社っていうのは、こういう車産業のピラミッドがあって一番上にいるんですね。車会社の今までやってきたことっていうのは極めて製造が重要ってことです。Frown curve、Smile curveって言うわけですけども。こちら側からこちら側にものが流れる、こちらが基礎研究で、製造で、こっち側がマーケティングとかセールスなんですね。お客さんに最後、どう対応するか。ものづくりが非常にアナログの時には重要だった。例えばエンジンってアナログなんですけど、同じようにコピーで作ってもパフォーマンスは出ない。だから、たくみの精神で車会社の中にそういう技術者を養って確保しないと、ちゃんとした車として走らないんですね。それで、ここが一番重要、製造が一番強いというのが今の車会社なんですけど、IT側は右側でデジタルの世界だと。

  • デジタルの世界になると、製造はコピーしちゃえばいいと。パテントとか特許で守ればいいんで、誰でも作れちゃう。むしろ重要なのは使ってる人がどう思っているかというのを改善していくとか、あるいはセンサーとか計算能力を高めて処理を速くすると。つまり両脇が付加価値高くなるよと。実はレベル4のモビリティ事業はこのタイプだと。これが車会社がレベル4というかモビリティ事業ということになると重なるんですね。重なって誰が偉いですかというとサービスプロバイダーでしょうねと。つまりユーザーのことを知って、毎日のように改善してプログラムで。それを毎日のようにオペレーションでダウンロードするようなことをするというのが一番重要になってくると。それを技術的にサポートするテクノロジーエネブラーっていうのがここら辺にいて、車屋さんが車しか作ってないと、第3layerに行っちゃうということを車屋さんに今かなり説明しているんですね。欧米はこれじゃまずいっていうので自らここに行こうとしているんだと。日本のOEMも早く...OEMって車屋さんのことなんですけど、早く上をやんないといけないよっていうことをずっと最近1年以上説明していて、ようやく世界がそう動いているという認識もあるんで、やっと変革しようとしてくるようになりましたというのがポイントなんですけど。

  • 基本はクルマはソフトウエアが運転するのが自動運転であって、付加価値はクラウドが提供するソリューションが提供するんだと。日本の国際競争力向上のためには、車会社のソフトウエア開発能力を急速に高めて、モビリティサービスみたいなものをクラウドの上に作っていくことが重要だという話です。どうもありがとうございました。