• 野辺です。インテルにいますけど、座らせていただきます。30分しかないんで手短にいきますけど、インテルにいるんですけど8年間、2004年から12年まで日産にいまして、ITを統括してたと。その前はソフトバンクのYahoo!BB、

  • 立ち上げのころにオンラインゲーム会社、CEOをやってました。ソフトバンクの子会社として。その前はNECで98全盛のころにエイティーワン機を海外で立ち上げて米国市場とヨーロッパ市場を立ち上げたと。日本も98エイティーワンにするときには、

  • 実は私が海外で定義した製品を日本にローカライゼーションして持ってきて、変えたということをやってきたということです。ITをベースにずっとやってますよというのがポイントです。きょうは自動運転に必須となる人工知能という話をさせていただくんですけれども特にGoogleがすごいんだよという話を3分の1ぐらい入れてある状況ですね。ポイント、アジェンダは自動運転とは。人工知能を生んだICTの発展。

  • 人工知能、基本ICTの発展なんですね。あと、自動運転の開発というのはどんなことしているんでしょうかということと、自動運転が開発される、その過程においてもいろんな技術が生まれますので他産業にインパクトがありますよという話をさせていただきます。

  • 手元の資料にありますけど、普通の運転と自動運転を比較しているんですけど、基本、自動運転というと、有名なのがレベル1とか、2とか、3とか、4といわれてまして、これはアメリカの運輸局のニッツアというところが決めたんですけど、それに基づいて分けると

  • レベル1とレベル2というのは、普通の運転の自動化なんですね。運転ということは、操舵と制動と、ハンドルアクセルブレーキのこの3つしかないんですよということを明確にアメリカで運輸局が言っていて、そしてそれぞれを自動化すると独立に自動化されている場合はレベル1で、複合的にハンドルアクセルブレーキの操作を人間の代わりに自動化すると。それはレベル2だと。しかしながら、あくまでも人間が最後の最後、運転の責任を持つことでレベル1と2までは、実はACCみたいなものですね。

  • オートクルーズコントロールみたいなものです。自動運転っていうのはそれとちょっと違っていて、人間が責任持たなくていいということを明確に2013年に、ニッツァの方では言っているとレベル3と4というのが自動運転に相当するのですけども、基本、上と比較して、周りを見てなくていいですよと。周りの状況を把握する。寝ていてもいいですよとか、仕事しててもいいですよとか

  • つまり、安全に走行しているという確認をする責任がないということをいってます。ハンドル、アクセル、ブレーキから手を離してまさにハンドル、アクセル、ブレーキが自動化されていますよと。これが自動運転だと。つまり人間は全く何もしていないというのが自動運転ですね。人間が周りを見る、視覚がありますけど、視覚の変わりに、ここに書いてあるようなレーダー、カメラ、ライダーといったものを付けて、360度、雨でも夜でも、雪でもいろんな環境で360度認識しながら、

  • 正確に把握するというのが人間の視覚の代わりになるよと。視覚の代わりをセンサーはしても、判断はできないので、例えば、赤信号とかで止まらなきゃいけないと思って停止センサーが働いてそこまで減速していくっていうのは、センサーだけではできなくて、人間だったら大脳の前頭前野で考えるんですね。それに変わるコンピューターというか、そのうえのソフトウエアですね、人工知能がそのソフトウエアになりますが、そういったものを載せて走らなければいけないと。その人工知能をどこで作るんですかというと、普通に機械学習とかで話がありますけれども、

  • あれは大体クラウド上で計算して並列処理、速いコンピューターを数万台単位で並べて並列処理して、最適化したアルゴリズム、走行アルゴリズムですね。こういう環境ではどういうふうに走ったらぶつかりませんよというものを計算して、適宜ダウンロードするということをして、コンピューターアップデートをしてできるだけ正しく、いつも走るということを行うと。

  • うまい運転とか、後から追加してテストデータを加えてやるし、あとは自動運転の領域を拡大すれば、それは新しいテストデータとしてここに追加されるし、国が変わる、交通ルールが変われば、新しいルールとしてテストデータがここに入るというようなことをしていて、どんどんクラウド上で、計算をふんだんに行って、世界中いろんな交通ルールとか、暗黙のルールとか、いろいろありますけれども、それを解決する形で一般道、つまり交差点とかがあっても

  • 走り抜けますよというのが、今後の自動運転になるよということで、極めてここの機会学習が重要になってくるよというのが現状です。あと、地図を参照する。こちら次のページでお話しますけど、地図も非常に重要になってくる。ということで、世界中、同じ地図、フォーマットが同じじゃないと困ってしまうというのも、今後の車における課題になるということですね。

  • それでレベル3とレベル4が自動運転なんですけども、レベル3は時に人間が運転してて、ときに自動運転だと。つまり人間が運転してる、つまりレベル、この辺なんですね。時に自動運転になっているモードもありますよという並存、半自動運転といえるものがレベル3で人間はドライバー席にいなくていいですよと。全然、最初から最後まで人間が関わることなく、走るということをやってるのがレベル4です。これは完全自動運転と呼ばれるものです。

  • 人間はドライバーシートに座っている必要がないし、ドライバー席で前方に向いてる必要もないし、ベッドになってもいいかもしれないし、かなり内装も変わっちゃうし、それによって外装も変わるというようなことが、レベル4の車になると起こってくるということがいえると思いますね。ポイントは、Googleさんは車を作ってませんので、基本は。実験的には作ってますけど、開発のために。それを売るという話では作っていないと。

  • 売るかもしれませんけど、今のところ売るという前提ではなくて、作ってるのは、あれはアルゴリズムを開発するためであって、そのアルゴリズムというのはレベル4のためのアルゴリズムです。あとで触れます。基本、人間が運転するのとコンピューターが運転するのと、どんなふうに違うかというと、これ、お手元の資料にないんですけど、たまたま、あとで追加したんですけど、例えば、3つ目の信号を右に曲がろうと思ったときに、人間は一瞬にして、これだろうというのが分かりますけど、

  • コンピューター、画像処理して信号であることを見つけて、かつ、3つ目だなというのを判断するのには時間がかかるんですね。正確じゃないということがありまして、カメラだけじゃなくてレーダーとかライダー、距離も把握することによって、3つ目だということを確認すればいいし。さらに最近、きわめて重要になってきている、一般常識、自動運転開発者としては、特に海外では一般的になってきた考え方は、地図を使いましょうということなんですね。

  • 地図はナビゲーションの地図と違いまして、ナビゲーションの地図は2次元なんですね。人間が見て、A地点からB地点までこういうふうに走っていけばいいですよと説明するために、2次元で十分なんですけど、コンピューターが理解する地図は3次元になりまして、こういう要所要所、ユニークポイント、特徴点を選びまして、そこに、XYZ座標を載せておくんですね。それがデータベースとして地図であって、ダウンロードして、車が走っているところにおいて、

  • あなたのカメラから見るところのシーモスで映っていると。このブロックを認識してくれるのは3番目なので、曲がるところの信号ですよと。それを確認してくれと。その前に一番直近の信号ですね、これが赤だったら、これがどうであろうがここで止まるんだと。そのときには白線がここにある、これも地図に載っていますので、そこに向かって、止まっていくようにということを地図が教えてくれるんですね。それにしたがって、車を制動するというのが自動運転で、それは大いに人間の運転と違うところですね。

  • 特に、テールランプですね、赤信号の認識が間違ったりするんですけども、テールランプは動体なんで、地図に乗ってないんですね。ですので、完全に無視できると無視できるんだけど例えば、センサーで何かあるぞ思えば、逆に動体であることが簡単に分かるんですね、それが人間なのか、車なのかというのも分かりやすいんで、地図が非常に有効であるということが特に海外の自動運転の開発の一般的な動向になっています。

  • これは銀座ですけど、解像度よくないですけど。銀座にはいろんな色のライトがありますので、より一層、難しいんですね。地図がどの画面上、どこを認識すればというのを教えるということが画像処理の非常に軽減になる。負担の軽減になるという状況で、地図は日本においても、日本だからこそかもしれませんけども、マストだということですね。直近の赤だったら、すぐ止まるよという、こういう判断をコンピューターのほうで、常にしているということが求められてるということですね。

  • そういったことをやるのが、自動運転ですよというポイントですね。では、どの辺のところ開発するんですかってところ、ここからの話で、実は開発する部分はICT、あるいはコンピューターしかないんですよというのがここの説明になりますね。車っていうのは昔、昔、メカニカルに人間が一生懸命、運転して、安全なように走り抜けるということをやってきたわけですけど、だんだん、ECUっていう、エンジンコントロールユニットとかですね、

  • エレクトリックコントロールユニットとか、部品がいっぱいついてきて、ABSがあれば空転、車輪が滑って、ブレーキが利かなくなるのを止めながら走る。

  • 調整したりスタビリティーコントロールとか、いろんなECUといわれるマイクロプロセッサーですね、高級車だと100個ぐらい載っているといわれているんですが。こういったものをつけることによって高級な車。ポルシェみたいな車でも初心者でも問題なく、比較的、逆に安全に運転できるということになるわけですけど、それが車の発展で、相当100%コンプリートっていう完成品に近づいているのが車の状態だと。

  • ある意味ではセンサーがあって、ECUがあって、アクチュエーター、これが車に乗ったからこそ、普通の人がハンドルとアクセルとブレーキだけを使って、人間が吸収している面もありますけど、車を乗り換えても、すぐ慣れて、ちゃんと運転ができるような状態になっているというのが今の車の技術ですね。これに対して、コンピューターはこれを置き換えますよというのが、

  • 今後の自動運転だという話が、こういう絵になりまして、人間の代わりにコンピューターが載りますよと。そこに新たなセンサー、レーダー、ライダー、カメラというようなものが、今もカメラはついていますけども、より高解像度というか、感度がいいカメラとか、そういうのがついてきますけど、プラス、レーダー光線ベースのライダー。Googleの車の頭にぐるぐる回るついたやつがありますけど、これがライダーですね。レーダーとかつけて、周りの環境を認識しますよと。

  • これは今のCANには入らないですね。車の技術の中には入らずにコンピューターに直接入ります。イーサーネットで入るということも、新しい技術が車に入りますよという状況ですけども、いずれにしても、センサーをつけて、イーサーネットでつなげて、あとはインターネットを介して、先ほどいったような機械学習をしてるとか、地図がアップデートされているものを参照するということで、

  • 実は車を自動化していくという作業になるんですけど。ここのところですね、これが新しい技術だということです。これはあくまでも完全にICTの世界です。車は手つけないんですね、実は。人間が運転していても、車、コンピューターが運転していても、同じように挙動しなければいけないので、変えることがないんですね、実はどんな車でも自動運転化できるんです、実は。このように車が操作を、コンピューターが車に対して、行って、

  • その状態の結果を、今だったら10分の1秒で常に計算し直していくんですけども、思ったとおりに動かなければ補正するようなことをしながら結果を判断して、フィードバックかけて、また操作する。これを10分の1秒にぐるぐる走らせながら、ちゃんと走らせるのが車だということですね。実は、そんな簡単じゃないっていう人がロボット工学者にいるんですけども、ロボットと違う点をお見せしたいと思うんですね。

  • これはDARPAの災害用ロボットのコンテストなんですけど。こんなもんで、例えば、まっすぐ歩くのも大変なんですね、かつ、がれきの中を歩こうという前提に平地を歩いているんで、非常に考えながら行くんですね。

  • ですので、ほとんど進まないんです、実はねこれがロボットなんですね。いろんな場面があるんですけど、ドアを開けるにしても、これを閉めるのか、開けるのか、そんなことを考えたりして、ずっと動かないんですね。静止画みたいですけど、実は動画なんですけど、いろんな映像がありまして。ただ、福島みたいな原発の問題あったところに車に乗って、自分でロボットが行くというそういう想定なんですね。

  • だけど、ハンドル、アクセル、ブレーキをロボットがコントロールするということも要求されるんですけども、なかなか、進まないとか。最後の最後、降りられないという問題があったりするんですね、実はね。という話で、こういう状況ですよと。転ぶ状況をお見せすると...。これはまっすぐ歩き始めても転んでしまったりするし、ドアを開けようとしても、開いたのと一緒に自分も前に倒れるとかですね。

  • これは、がれき上ですけど、ちゃんと歩くこと自体相当難しい。認識して判断して、動くんですけど、最後の動くところ非常に難しいんですね。だけど、ポイントは車の話に戻すと、基本は人間が運転して、できる道路上を走ればいいし、逆に走行の規制があるので、その辺に従って、走るということで、ルールがもう決まっているんですね。なので、今の画像のように何も分からないことを判断しながら走るんじゃない、

  • 与えられたルールが非常に限定的なので、むしろ走りやすいということ。つまり人間が走ってる状態の、人間の判断だけをコンピューター化できれば、自動運転になるんだというのがポイントだということです。ですので、それほど難しくないと。実際、Googleさんも相当ちゃんと走れるようですね。予想よりも速く走れるようになってます。それがまだまだということもあるかもしれませんけど、ロボット、今のようなロボットと比較すれば、相当進んでるということがいえるというような状態ですね。

  • あと、10分ぐらいしかないので、これから先、早めにいきますけど、こういうことを、まさに人工知能がなきゃ自動運転できませんよということですが、人工知能がどうやって発展してきたかということを説明しますと、

  • この絵は、レイ・カーツワイルという、今、Googleにいる方が1990年代くらいに提唱している話で、2045年になると、1秒間の計算回数が

  • 1000ドルのコンピューターで全人類の脳みそを足したのと同じくらいになりますよといってる。これがテクノロジー・シンギュラリティーで、それを10の26乗だと言っている。1秒間に10の26回の計算できる。

  • これは全人類100億人という想定ですが、同じだと。1000ドルのコンピューターを買えば実行できるのですよと予測しているんですね。

  • その前提としては過去売ってたコンピューターが直線にのっているんだという話で、これを延長すればそうだという話で、赤いポイント、これは常に売ってたアナログ時代。手計算のコンピューターとか、この辺からIBMのメインフレームとか入ってきますけど、デックのミニコン。

  • 85年以降ぐらいから、パソコン、16ビットのパソコンが入ってきて、最近の、赤い点、私が追加したんですけど、のっているのですね。これはインテルベースのパソコンです。で、のってますねと。実際、この間、ある意味ではムーアの法則ということで、2年で2倍という線をこのスケールで描くと、まさにここの線になるんですね。ちょっと待ってよと。このあとさらに伸びるといってるんですね。伸びるというのは、どういうことかというとたまたまというか、当てはめるように1年で2倍という線を書いて、載せようとするとこうなると。

  • これが1年で2倍、今まで2年で2倍だったけど1年で2倍になれば、なんとか近づくねといえるでしょうということですね。むしろ、これから早くなるぞということを言わなきゃいけないんですけど、私なりに考えてみると、ちょうど2010年以降、すべてのパソコンはネットワークにつながったし、スマホはネットワーク、クラウドにつながってるんですね。ですので、2010年以降というものは基本、後ろにクラウドがいるから、

  • 1000ドルで買ったコンピューターがより一層、速い計算をしたように見える。つまり強調して、クライアントサーバーで動いてますので、そのネットワーク効果だと。クライアントサーバーとネットワーク効果だと。こういう結果、つまり1000ドルのものを買うんだけど、後ろにクラウドがあるからこそ1000ドルのパソコンのパフォーマンスが上がったように見えるんですねってという解釈できるんじゃないかと、私の判断をここに入れたということですね。もう一つ、おもしろいのはこの線と、この2つの線ですね、この2つの線をのるように、わざわざ、このように

  • 動かしてみると、この辺ですねっていうことで、この高低を求めると、これが1995年ぐらいなんですね、ちょうど。星印です。ちょうど、やはりウィンドウズ95で家でも仕事場でも簡単にネットワークにつながるようになったし、インターネットにつながるようになったし、マルチメディアも解決するようになったということで、これが逆にいうとシンギュラリティー・ポイントという、ビッグバンの原点だったんじゃないかと私は考えているという内容ですね。

  • その結果、なるほどと実は思った、この絵を思いついたのは実は今年のCESなんですね。今年のCESを見ると、いろんな多様な分野で新しい製品がどんどん出てきてると。バーチャルリアリティーとか、ドローンとかかなり完成度が高くなって出てきてるんですけど。実はこの辺は元をただせば、例えばスマホで4Kの画像が録画できて、再生できるよと。ただ、このディスプレーの画素数だと無意味なんですね。むしろ、これの数十倍の面積をもって

  • 初めて、4Kは意味がありますけど、むしろ、その結果を用いて、見えるとこだけを切り取ってみて、このジャイロを使って自分が見た方向だけを見せることで、顔をいろんな向きに向けると、真上を向いたり、横を向いたりすると、そこだけ見えるのでバーチャルリアリティーになってることが実現されていたし、ジャイロも優れているということですけど、ジャイロが優れているからこそ、たとえば4つのプロペラを調整してホバリングができるようなドローンができてきたということですね。

  • 当然アクションカメラもそういう方向に行っています。4Kのテレビも地上放送はでは4Kを放送する予定は日本ではないので、デジタル衛星か通信で配信するわけですけど、かつ通信であれば、これが受信して、Wi‐Fi、あるいはWi‐Fiダイレクトで、家庭のディスプレーに飛ばして4Kを見ることになる。この技術の発展がいろんなもの拡大を支援しているということになると。むしろ、それを元に戻せばパソコンから始まってるということで。

  • ただ、パソコンは売れなくなってきてるので、サーバーにいってますけど、ここにいるパソコンと皆さんがつながって、まさにこれがIoTだということですね。ということで、これがICT技術のビッグバンだったと考えられるんじゃないかと。さっきの絵とも合致しているなというのが私の印象ですね。

  • もう一つ、ここで言えるのは脳みその計算にコンピューターが近づくというのもニューロンとシナプスの数の話をレイ・カールツウェイルさんはいっているんですね。数は実際、人工知能は脳の行動に近づいていますけども、まさに半導体を1000個集めると1個のニューロンに近いとか、そういう等価性があるんですけど。逆にクラウドの中には人間の脳に近い、10%かもしれませんけど、ニューロンに対する半導体が一つのドメインの中に存在し始めているんですね。すでに。現実的に画像認識、音声認識等は2012年、一つのエポックですけどこの辺から、実際に日常生活でも使えるようになったということで

  • 2012年ぐらいにクラウドの中に人工知能をすでに宿り始めたと、一部ですけど、宿り始めたといえるんじゃないかと。その例をぱらぱらっとお話しすると、この辺、早くやらなきゃいけないんですけど音声認識がディープラーニングをかませることで、基本、音声認識のモデルが正確になったと。今までは開発者がいちいち音源とテキストを対比しながら、アルゴリズムを開発して、チェックするということをするんですけど、

  • クラウドの上にあって、ユーザーが発言して返ってくると、これが違っていれば、言い直すということで、ユーザーは無料のテスト、チェッカーなんですね。一般ユーザーであり、自然発話であり、多国語言語で大量のサンプルをグローバルに展開できるということで、一気にディープラーニングをかませて学習し続けることによって、音声認識がですね、ディクテーション、音声をキャラクターにするという意味ですけど、ディクテーションが非常に正確になったと。

  • そこに翻訳を別のサーバーでたてると。これも人工知能で学習させるとより正確に翻訳ができますので、まさに英語、ドイツ語、フランス語、スペイン語であれば同時通訳レベルまでいっていますので、これは人間でそこまでできる人はいませんので、人間を超えた人工知能が宿り始めてるということがいえるんじゃないかと。Googleの猫も2012年なのですね。皆さん、ご存じだと思いますんで、あんまり細かく言いませんけども、これは猫らしいと。猫だとは教えてないから言わないんですけど。見たことあるぞと。

  • 猫の形にコンピューターの論文でありますニューロンが発火したという表現で説明していますね。いずれにしても、教師なしでものを認識することが可能となったのが2012年で、Googleとスタンフォードがやったと。もう一つは、教師ありのほうでImageNet large-scale visual recognition challengeというのがアメリカで有名ですけど、まさに2012年にトロント大学のヒントン教授が、ディープラーニングをかませることで一気にものの認識レベルが高めたと。2014年になると複数ものを認識すると。複数認識するだけでなく、どこにということが入るんです。どこに何があるか。ここに車がいて、ここに人がいて、スクーターがあるということをいうんですね。

  • これの延長線で車でも画像認識が使われると予測されるのですが、より一層人間だったら一つのものしか集中して判断できないけど、人工知能を用いることで一つのタイミングで、人間より、多くのものを人間より早く正確に認識するということが、当然、今後は起こりうるだろうということを考えて、これからの自動運転も考えるべきだという話になるんですね。2015年になるとクラシフィシケーション。これは何ですね。分類としてクラフィシケーション。これが、どこにという、ローカライゼーション。ここに何がありますよというここです。

  • 何があるに関しては、これが人間の平均的なエラーレートといわれて、コンピューターのエラーレートが人間を下回ったということがいわれている状況です。2015年に、どこにということも一気にエラーレートが下がったということですね。ということで、こういう発展が常に行われていますよという話と、もう一方、分類とか画像認識だけじゃなくて強化学習ですね。

  • コンピューターが学習して、何かの仕事をこなすということができるようになってきてると。一つは重要なのはインターロップ、去年のインターロップでプリファード・ネットワークスがデモンストレーションした、コンピューター上にレーシングトラック作ってそこに8台の車を載せて、最初は走り方を教えないんだけど、いろいろなパラメーターをトライアンドエラーで調整して、最後はアクセル、ハンドル、ブレーキという操作によって、全くぶつからないように全部が走り抜けるというアルゴリズムを作ったんですけども、まさに、これは人間が教えずに機械が学習したものだと。

  • 走行アルゴリズムを教師なしで学習したということなんですけど、そういったことが、強化学習、人工知能、ディープラーニングを使って実現してますよというのが、この話ですね。もう少し、プリファード・ネットワークスも非常に優秀ですけど、Googleさんが買ったディープ・マインドというイギリスの会社も、これもご存じだと思うんで、映像もあるんですけど、音出しますけど、ブロック崩しとか、インベーダーですね、

  • 3〜4年前か、2〜3年前か正確じゃないですけど、人間のエキスパートに近いレベルの何も教えずに1〜2時間で達成してる。あるいはアルファー碁もディープ・マインド社なんですが、以降、解決したということですね。こういったことが、先ほど触れたように世界のどこでも走れるような走行アルゴリズムを人間が全部パラメーターとかプログラムするのは不可能なんですね。

  • 全部、書き尽くすことは不可能で、現状のデータをコンピューターに多量に与えて、機械学習に与えて、それで機械学習で結論を出させる。学習させるということが、今後、一般道、特に交差点を走るときには必須になるよというのがこの話ですね。ほとんど時間あれですけど、ここから、Googleの話をさせていただくと、まさに皆さんご存じのように、

  • この写真ですね、去年の6月なんですけど公道を、ハンドル、アクセル、ブレーキがないといわれているGoogleの自動運転車が走ってますよと。これが毎日300万マイル。コンピューター上のシミュレーションしていて1.5万マイル、1週間に1.5万マイルですね。4か所あるんですけども、特にマウンテン・ビューで台数が多いんですけど、走ってますよということですね。これでアルゴリズム作って実証してっていって、改善をしていると。これだけの物量で皆さんが見れる

  • ような場所で、頻度でやってる。さらに機械学習をあんだけ計算能力ある会社がやっているという組み合わせで考えると、Google以外はありえないですね。このアルゴリズム開発は。ということで実際、Googleのアルゴリズムで、相当、正確に走ることが可能になっているというのが現状だという話ですね。

  • ということと、あとは、ものの認識を実は点群でやっている。レーザー光線を照射してですね。レーザー光線って光の粒で、1個、ぽんって投げて、帰ってきたもので計測するんですね、ある方向に投げて時間を計ると、この方向にどこに何があるということで、空間に何がどのくらいの距離に存在するか把握するんですけど、車とか人も、このように3次元の状態で点群の集まりとして認識してて、これもまた機械学習して、いっぱい集めて、これはどこから見ても、人間だといえるようにしているということをGoogleは発表してます。これは実は、誰がやってもできそうだという話

  • なんですけど、非常に難しいですね。人間を点群として集めてこれは人間だといえるというのは相当レベル高い状況です。これはGoogleだけができてる可能性があります。あと、点群の動きで、今後この人の意図が分かる。歩道に人がいると分かって、この人が渡るのか渡らないのかということが点群で分かるということもTEDでGoogleは発表しています。

  • おまわりさんがいて、交差点で信号が見えない。怖いというときもお巡りさんのジェスチャー、動きに従って交差点でちゃんと走るということもできますということをGoogleはすでに去年の6月に言っていますね。ということで、見える世界なんかこのように解決して、確かにGoogleは走行アルゴリズムはちゃんとできてるねという話が想定されるという状況ですね。見える世界じゃなくて、今度は見えない世界ですね。200mぐらいしか人間は見えないし、

  • センサー、いっぱいつけるっていう話をしましたけども、センサーでも、やはり前に光が届く範囲しか見えないんですね。せいぜい100mぐらいしか正確に分からないし、大体40mぐらいはセンサーでは分からないんです。時速100キロとか200キロで走るということで欧米では特に、欧州では200キロ、走ろうとしていますけども、200m走るのに、時速200キロだと3.6秒なんですね。

  • 3.6秒先しか見ないで走るのが非常に危険なんで、今後、白線が劣化して見えないんだとか、いろんな情報を、ちょっと前に走った車、もう少し前に走った車などの、データを吸い上げて統計的に処理して予測も含めてこれからあなたが走る2,3キロ先は白線が見えませんとかを地図の属性としてダウンロードするんですね。その反射率だと、私、走り抜けられませんねと思ったら、レベル3であれば、運転者、ドライバーに運転を戻すということをやるんですね。

  • ですので、このデータセンターは地図でもあるし、ある意味、最近の見えないとこどうなってるということを教えてくれる情報源なんですね。これをグローバル対応できるように欧米の各社は作ってます。だけど、日本の車会社は、日産のリーフに私作ったんですけど、その他では、まだ、その動きはまだ見えていないという状況ですね。時間があと、もう2分ぐらいなので・・・40分まで、すいません。ここまで言いましたと。

  • ここから、ちょっとどこまで現実的にできそうなんですかという話にさせていただくと、このマッピングは、私以外の人はこういうマッピングを説明したの見たことないんですけど。さっきレベル分けしましたけどこれ、別の見方だとして、自動運転を速度と実現の難しさ、例えば、信号の把握とか、そういうことは実現の難しさですけど、こうやってプロットすると、高速道路、速いけど簡単なんですね。白線をちゃんと認識して真ん中を走ればいいし、前の車と車間距離を維持すればいい、

  • せいぜい、いかに追い越すと、入線をどうするかということを心配すればいいんですけど、一方の主要幹線道路は先ほど来説明しているように交差点で信号を認識して、人がいるのかとか、対向車が抜ける前にちゃんと右折できるのかを考えないといけないので、非常に難しい。生活道路は白線もないので家の前だったりするんですけど、非常に難しくなるんですね。こういう中で2014年にベンツが高速道路における渋滞の自動運転をしますというのは、2015年にできますよと。

  • 実際に出てるんですね。自動駐車は2016年にできますよといっていて、実際、出てきましたね、最近。自動駐車を自動にやる。人が降りて車が自動で駐車するんですね。2020年ぐらいとか、2025年ごろに、この辺は「ごろ」といって、いつごろできるか説明してるんですけど、それを行ったのは2014年の4月なんですね。それから1年半、ほぼ2年以上経ってますので、逆にちょうど、そのころ、過去2年間ぐらいの人工知能の発達は

  • 急激なんですね。ですので、このころベンツさんがいったよりも早く実現するのではないかというのが私の見方です。特に主要幹線道路とかさらには生活道路ですけど、画像認識、非常に高度にしなきゃいけないんですね。カメラだけじゃない、レーダー、ライダーも含めて。それの学習も、相当、ちゃんとできるようになるであろうと。以前より、たぶん正確に言える、正しく言えてると思うので、今後、この辺が強化されることで。深層学習と認識が。かなり実現時期が早くなるんじゃないかと思うんですね。

  • 現実的に何ができるかって、2020年ごろに逆に、難しいんだけど、地図が完璧であって、あまり対向車とか、飛び出してくるものがいないとすれば、過疎地における老人というか、ライフラインとしてですよ、ロボタクというのをZMPとDNAが発表していますけども、確かにできるでしょうと思われますね。もう一つは高速道路の自動運転は、以前にできたんじゃないかと思うという話です。

  • この2つがまず見えてくると思いますね。これ、たぶん日本でもできますよ。これが世界中どこでもできるようになるかってことは地図に依存しますので、果たして日本はどうなんだという問題は起こってくるという状況です。煎じ詰めると、これからほかの事業の展開という話になるんですけど、自動運転を煎じ詰めるとこういう話ですというのがまとめで、車はまず環境認識します。センサーで環境認識して、ECUが載ってて、それが走っている状態を把握できるんです。

  • そこから、走行状態を把握する。2つを照らし合わせ、かつクラウド上にある地図を、地図はダウンロードしておくんですけど、参照する。この流れ、かつ、地図に載っている情報とちょっと違ってますよと。白線が薄くなっていれば、差分をアップデートする。もう一つは走り方のデータを提供して、テストデータを加えるんですね。さらに走行アルゴリズムを正しくして、適宜アップロードする。これが自動運転の基本形という状況ですね。

  • ここから先が事業の拡大になるんですけど。これは環境状態を把握しています、走行状態を把握していますということで、それをAPI化して地図会社に渡すのはもちろんのこと、Uberのようなところに渡せば、基本は、乗りたい人はスマホからやってきますけど、

  • 車の情報、その人に適切な乗せられる車を紹介するみたいなことを、情報を提供することもできるということで、新しいサービスがどんどん、出てきますよというのが、この環境の延長線上にありますよということですね。

  • むしろコンピューターだけがアップデートされるという話ですね。

  • そういう状況です。今、話した最後のところですね。もう少しリストアップすると、車の情報を提供して分析して統計処理して、個人タクシーとかモビリティーサービスとか、カーシェアリングとか、いろんなところに今後、波及する。今までも案としてあったんですけど、より一層可能になってくるのが予測されるという状態ですね。これはUberの例ですけど、カーシェアリング。

  • 実は日本ではあまり話題になっていないんですけど、例えば、とにかく車の稼働率5%。つまりアメリカでもヨーロッパでも1日1時間しか乗らない。つまり24分の1で5%なんですけど、実は日本は30分なんですね。大体。それ以下なんで、稼働してないんです。買ったのにもったいないわけですけど、その余剰資産として車をみんなでシェアしましょうということが流行ってまして、BlaBlaCarというヨーロッパの例なんですけど、例えば、自分一人で、この人がロンドンからマンチェスターに行こうとすると往復100ユーロかかるだろうと。

  • それに対して、人を呼んで、4人ぐらいでシェアすれば、一人25ユーロぐらいだねということで、私、あしたロンドンからマンチェスター行くんだよと登録すると、ウェブサイトが一緒に行きましょうという人を集めてくれる。ある意味では余剰資産をシェアリングするという方向にいっていまして、今、ヨーロッパでは2000万人登録してるんですね。これが今アメリカに出てこようとしてて、ベンチャーキャピタルのバリュエーションが、ベンチャーの中では一番、伸び率が急速にバリュエーションが高くなってるという状況ですね。

  • 人があまり乗らないので例えば、あした貸しちゃえと。90ユーロで貸しましょうと。そうすると1万円ぐらいになるので、いいアルバイトなんで、これをこのサイトに登録すると、個人ベースでレンタルカーできますよと。これまた相当な勢いで市場が拡大してるといわれていますね。こういうことも例としてありまして、いずれにしても、車がコンピューター化されて、車がいろんな環境情報とかですね、いろんな情報を提供できるとすれば新しい事業がいっぱい育ちますよねという話ですね。

  • この辺は車だけじゃなくて、ウェアラブルもデバイスで、人間の生活を一部始終とか始終、かなりの量をスマホをハブとしてデータセンサーに投げて、10億人単位でアンドロイドなんかも毎年売れますので、データを集めて分析してAPI化にして、人間の周りの環境はいろんなAPI化した情報として提供されるといろんなサービスがAPIを操作するだけで、プログラミングするだけでできちゃいますねというのが、

  • この話しなんですけど、2020年に向けて、そういう環境になりますよというお話です。ただ、これはキーポイントなんですけど、日本ではデータセンターが非常に貧弱で、この計算、こういう計算、相当な量のデータを集めて意味ある情報にして第三者に提供するような計算能力は、実は日本には実はないですというのがポイントですね。今後の課題だということです。

  • これは実際、Googleが発表した内容で、マシンラーニングを今のレベルの10分の1の時間でやっちゃいますということをいっていて、かつ、外販しないって発表してるんですね。どういうことかというと、ここから私が読み取るのは、Googleは計算能力を売りますということなんですね。つまり、アルゴリズムを自動運転用に作ってますけど、結局、各社がGoogleに最後、計算してもってこないと結果が出てこないというこが今後、どんどん起こりうるということで、なんで自動運転なんてやってるの?ってよくいわれていますけども、

  • こういう別の動きも見ておくとGoogleが何を目指しているか分かります。時間オーバーしているので飛ばしちゃいますけど、計算能力がこれからないと国際競争力に自動車だけじゃなくて、いろんな産業、負けてしまいますよという話です。

  • 指数関数的にICT伸びますよと。自動運転っていうのは人間の代わりにコンピューターが運転するんですよと。これからいろいろなものが人間の代わりに、人工知能が人間の生活とか認識を支援してくれると。そういうことがいろいろな所に広がっていろいろな産業が人工知能の支援を受ける。最後の最後、計算能力をですね持っているかどうか。データを持っていて計算能力を持っていることが重要ですが、その競争にいきますよと。この計算能力を早く日本で作り込まないとまずいんだというのが全体のお話です。

  • ということでオーバーしてしまいましたけども、以上です。ご清聴ありがとうございます。