テスラの交通事故と、AIの思考回路

2018年6月21日

先日、米テスラの自動運転支援システム「オートパイロット」の使用中に起きた死亡事故について、原因は運転手の注意不足によるものだと発表しました。

この発表について、消費者団体や自動運転車専門家からの批判が集まっています。
この発表は批判されるのは当然だと思いますが、今回はAI側の立場に立って自動運転中の事故について考えていこうと思います。

自動運転の車と消防車の事故
今回、考察に使うのは、この事件
2018年1月22日、アメリカ、ロサンゼルスで起こった停止中の消防車に自動運転中のテスラの電気自動車が追突した事件。

この事件の原因は、おそらくプログラムのミスなのだが、テスラ社は「自動運転中もちゃんとハンドル握っておいてね!そして、ぶつかりそうだったらブレーキ踏んでね!」という風に発表している。そのため、テスラ社は、自動運転中の事故は運転手の責任で、我が社の責任ではないというスタンスをとっている。

・そもそも事故の明確な原因が分からない問題
 まず、AIによる自動運転において、右に曲がるや、ここでブレーキを踏むなどの判断のログは残る。ただ、その判断に至った理由については記録されない。

そのため、今回の事件において何を考えた上で自動車が消防車に衝突したかがわからない。(動いていない物体を認識しにくいという性質はあったらしいのだが…)
さらに、考えられる理由も一つではなく多く考えられる。
・赤い消防車認識できなかった説
・消防車の下を通過できると考えた説
・純粋なプログラミングのミス
・持ち主がシステムの設定をいじった
AI素人の筆者が考えてもこれくらいの原因が思いつくので、本当はさらに多くに説が存在すると思われます。

そして、重要なのは、どの説が正しいのかがだれも知り得ないということです。

そのため、テスラ社としては、「事故の原因調べたんですけど、わかんなかったっす!でも、たぶん、運転手の不注意だと思います!」と言うしかないということになるわけです。

少々、説得力の欠ける文章になってしまいましたが、今回はこの辺で、次回もよしなに

 

雑学

Posted by あぶぞー