この画像を大きなサイズで見るフィクションの世界ではおなじみでも、現実には解決すべき課題が山積みともいわれる完全自動運転。その開発に挑むテスラ社の最新機能に関する映像がネットをにぎわせている。
映像は、完全自動運転の実現のために段階的に開発中の自動運転機能「オートパイロット」の視界をそのまま示しているという。
まるでターミネーターになった気分だが、画像認識のデモとおぼしきこの映像からは、視界に入ったあらゆる情報から運転にまつわるすべてを素早く処理・判断して走行する車の様子がうかがえる。
自動運転機能オートパイロットの視界
こちららはテスラ社が求人募集ページで公開中の最新機能、オートパイロット(Autopilot)に関する映像だ。
未発表の完全自動運転ソフトウエアFSD(Full Self Driving)の一部とみられる映像は、自動運転中のオートパイロットの視界をそのまま示している。
前方のトラックや停止線ストップサインなどを認識
この画像を大きなサイズで見る車線や物や人、停止車両や道路の境界も識別
この画像を大きなサイズで見る道路を横切る車の速度や車までの距離もみているようだ
この画像を大きなサイズで見る走行中も目の前の車や人や物などをマークすると同時に、刻々と変わる交通状況に判断を下すオートパイロット。
テスラ社はオートパイロットの知覚から制御にかかわるディープニューラルネットワークのトレーニングに最先端の研究を応用している。
ニューラルネットワークによる画像認識機能
なお、完全自動運転の達成の一助となるオートパイロットのさらなる開発について、テスラ社は以下のようなビジョンや計画を掲げている。
カメラのネットワークが直接画像を分析、そこに映ったひとかたまりの像ごとではなく、その画素一つひとつをラベリングして分類しカテゴリを関連付ける画像認識や物体検出のほか、単眼カメラでとらえた画像から物体までの距離を推定する深度推定の実行。
Birds-eye-view(鳥の視界)と呼ばれる俯瞰ネットワークが、すべてのカメラの映像を取り込み、道路のレイアウトや静的インフラストラクチャ、および立体的な物体を俯瞰のままで出力。
世界で最も複雑かつ多様なシナリオを学習したこれらのネットワークは、およそ100万台の車からリアルタイムの反復的な供給を受ける。
オートパイロットのニューラルネットワークの完全構築には、画像処理に特化した半導体チップGPUによるトレーニングで70,000時間を費やす48ものネットワークが含まれる。それらのネットワークは各時間ごとに1,000通りの異なる予測を出力する。
人間の運転よりも安全性が高いとされる完全自動運転に向け、さまざまな先端技術の開発を続けるテスラ社。その目標が現実になった時、人間はあらゆる運転リスクから解放されることになるのだろうか?
References:boingboingなど /written by D/ edited by parumo
















これをフロントガラスに映してくれたらロマンがすごいやばいアレ
いまから37年前に、この自動運転のサーチ画像とほとんど変わらない画を描けた映画ターミネーターのクリエイターさんに脱帽です。
※2
逆に言えば、その頃から既に
「(戦闘機のレーダーみたいな単純な「存在の認識」だけでなく)
こうやって視界に映った物体が何か、画像から機械が自動判別
できるようになればいいなぁ」という先端技術の構想はあって、
それがやっと、空想科学ではなく現実レベルとして追いついた
って事なんだろうな。
2029年か。AIや自律型ロボットの研究も日進月歩だけど、
あと10年足らずでどこまでSFの近未来像に迫れるかな?
自動運転車が普及したら事故も減るのかな?
そうなったらとても良いけど普及率が物凄く高くなっている頃には自分はもうとっくに天に召されてるだろうなぁ…
※3
仮に減ったとしても、1件でも自動運転中の死亡事故、とかあったらなかなか認められないと思う
自動運転=危険っていう世論が根付いて、人力よりは少ないと言う理屈は通用しなくなるだろう
自動車より事故率が圧倒的に低い飛行機が未だ危ない乗り物というイメージがあるようにさ
それに話題性の高いネタだと見做されればメディアのおもちゃにされて悪印象が広まる
自動運転で完全に目を離しても良いってなったら
移動中の時間にも仕事が進められて捗るんだけどな
運転中の人間は、こんなにせわしなく判断しているのかな。人間は、全体の流れのパターンを観察しながら、自分が経験した過去のパターンを参照しながら、その一般的なパターンが変化したときに反応しているように思う。つまり脳の活動を節約しながら運転していると思う。
※5
確かに、この動画を一見すると「うわーこんな同時に多数を脳が処理できねー! 人間はAIにかなわんわー!」と思いそうになるけど自分が運転してる時にはこんな事してないしな…
一つ一つを個別に同時処理してんじゃなく「全体」で見た上でピクセル単位での間違い探しして、メインで注力する範囲とサブで処理するその他を切り替えながらサーチしつつ
なおかつ「歩行者が道路に飛び出してきそうな挙動をしないか」というのを歩行者の動きから予測するという凄い複雑なことしてるのが人間、というか教習所での習いかただな
※5 ※21
教習生や若葉マークは、この視点に近い気がする。
まだ経験が浅く 運転慣れしていないから、
注目すべき情報の取捨選択が上手くできず
(というか、サラッと流せる「いつも通り」のストックが無く
どれも新規情報として あちこち目を奪われる)、
いろんな確認事項が多く溢れ返って手一杯になる。
んで、コンピュータはまだ、人間だとやたら時間を食う
しらみ潰し演算でも 一瞬で処理できるが、
新米ドライバーは 雑多な判断で注意力が四散すると
本当に重要な危険の兆候を見落としたり、それを防ごうとすると
脳内処理が追いつく速度まで やたらノロノロ運転になったり。
大したことないオプション一個で
10万跳ね上がる車の世界で全自動と
手動が100万円差ではすまないだろうから
自動運転を買う事が出来て乗れるのが勝ち組、
手動運転しか買えないのが負け組みたいな
嫌な線引きが生まれちゃうかもね。
200万~500万くらい値段差が出るかもなあ。
>>6
そこから先の時代
普及率が高まった頃には
酔狂な金持ちは
手動運転車を買い求めるかも知れないなぁ
※6
テスラカーは普及価格帯の製品もあるんだけど、残念ながら日本にやってくると値段が300万円台から500万円台に跳ね上がっちゃうんだよね。
ああそうかネットワークされると、これから走る道の直近の過去(事故、路駐、道路の陥没、濡れ、積雪、工事など。先行車が多い道ならほぼリアルタイム?)を、自分が乗った車はすでに見て走って知っているってことにもなる未来なのか。通行人のマーキングや検索特定も可能でしょうかね。
今ではこれをリアルタイムで処理できるんだから、制御用のマイクロコンピュータの処理速度もすごいよなぁ
ずっと見ていられる
長時間ヴァージョンも公開してくれないかしら
ゲームのデバッグモードみたいね
飯塚「間に合わなかったトヨタが悪い
ピピッ[ネコ][ネコ] [ネコ]
ピピッ[かわいい!][かわいい!][かわいい!]
なんてAIがこっそり考えてたら楽しい。
※13
余所見すんな
サーキットだと人間以上の操作も可能なんだろうか
バスやトラックドライバーの負担が減るのは良いが、仕事まで減ってくれたら困るんじゃなかろうかと余計な心配をしてしまう…
車は個人の所有物ではなく、シェアやレンタルが広まるだろうなぁ
使いたいとき使いたいタイミングでのみ使用するみたいな
ARデバイスだな
運送関係は完全自動運転車になって欲しいわ
あいつら凄い煽ってくるし
※22
ひとくくりに悪者にするのもどうかと。大型車は急制動が効かないので、車間距離は大きくとらないと危険だし、赤信号手前で早めに減速せざるを得ない。完全自動運転の学習すべき手本は、本当の意味でのプロドライバーです。もちろん危険な運転手は真っ先に機械にとって代わられると思っていいでしょうね。
「プリウスドライバーはどのように周りを見ているか」って映像撮って
免許更新時の講習で見せたら事故減るんじゃなかろうか
・・・と思ったけどあいつら自爆でコンビニとか突っ込むから意味ないか
特定の人物をカメラで捕捉すると「体型一致」とか表示されそう
カメラの前を虫が横切ったり、カメラを覆う雨や煙等で誤動作しないと良いね。
AIのディープラーニング等でより適切な状況判断ができる様に成り、良きドライバーのアシスタントに成ってくれると有り難いが、鉄腕アトムの最初の話の様に技術の過信にも注意しないと危険かも…。