Teslaのオートパイロットによる事故。責任は誰にあるのか?

Teslaのオートパイロットによる事故。責任は誰にあるのか? 1

法律が追いついていない今、こういう問題は増えそうですね

5月に発生したTeslaの「オートパイロット機能」による死亡事故は、運転アシストに関する責任問題を浮き彫りにしました。事故を起こした車両の運転がいくらかコンピュータによって制御されている場合、法的に見て落ち度があるのは誰なのか?ということです。

5月7日の事故に関して、Teslaは公式発表でこう説明しました。

車両は中央分離帯のある高速をオートパイロットで運転中、高速を横断するように走っていたトレーラーに直角に激突。オートパイロットも運転手も、まぶしい空の中に白いトレーラーを視認できなかったため、ブレーキは使用されませんでした。

地元の新聞によれば、車はトレーラーの底に衝突し、ぶつかった時の衝撃によって車の上半分が完全に引き剥がされ、運転手は死亡しました。

先月、NHSTA(米国運輸省道路交通安全局)は事故を調査すると発表。トレーラーの運転手は、衝突の際、Teslaの運転手がハリー・ポッターの映画をポータブルDVDプレーヤーで観ていたようだと証言しましたが、警察の調べでは、Teslaの中で見つかったDVDプレーヤーは事故の時には起動していなかったそうです。

Teslaの問題のひとつは、完全に運転を自動化できるわけではないのに、車の運転アシストを「オートパイロット」と呼んでいることです。Teslaによればまだベータ段階だというこの機能は、車の車線をキープしたり、車線変更をアシストしたり、衝突の危険を察知できます。

これらの機能はNHSTAによって規制されており、車をどれだけ自動化するかによって5段階にクラス分けされています。「運転手が完全に、かつ唯一車をコントロールしている」のがレベル0、そして最高のレベル4は「完全な運転の自動化」とされています。

Teslaのオートパイロットによる事故。責任は誰にあるのか? 2

オートパイロットを伴った事故に関する今一番の疑問は、オートパイロットを起動することによって負うリスクを、運転手たちが知っているかどうかです。

自動運転に関する法律や規制に関してスタンフォードのWikiを管理している弁護士のGabriel Weinerによれば、Teslaの自動運転はNHTSAのカテゴリーでは間違いなくレベル2に該当するそうです。「実際にはレベル2なのにもかかわらずオートパイロットという言葉を使うことで、Teslaは消費者にレベル4だと誤解させたいのでしょうか?」とWeiner。

つまり問題は、「オートパイロット」という言葉が運転手に「車がすべて自動で運転してくれている」という間違った印象を与えることにあるかもしれないことです。ワシントン大学の法学部助教授であるRyan Caloによれば、運転手たちがリスクを認識していると認められればTeslaは責任を免れるかもしれませんが、「物理的な安全性に関わることなので、法廷も規制機関もTeslaに対してより厳しい目を向けるでしょう」とのこと。

Tesla側の言い分としては、運転手たちに対して、オートパイロットの使用中も周囲に気を配るのは運転手の役目だと注意の喚起を続けているとしています。「あなたのためのオートパイロットが到着しました」と銘打ったブログの投稿において、運転手に運転責任があり、運転しているのは究極的には運転手であると明言しています。また、Tesla Model SとModel Xのマニュアルにも同様のことが書いてあり、オートパイロットを起動すると車の中央スクリーンには、「ハンドルから手を離さず、常に運転できる準備をしてください」と表示されます。

2014年のブルームバーグのインタビューで、Teslaの創立者でありCEOのイーロン・マスクは、Teslaのオートパイロットを飛行機のそれと同等に位置づけました。つまり、自動で操縦していても常にパイロットが監視し、確認を行うという意味です。

「運転が正しく行われているかどうかを確認する義務はパイロットにあります。オートパイロットを起動したら眠って、起きた頃には目的地についている、という段階にはまだ来ていません。もしそうなら、オートパイロットではなく自動運転と名づけていたでしょう」

運転手が車線変更するためにオートパイロットを使用し、高速のガードレールに衝突したら誰に責任があるのかと問われると、「私たちは、責任は常に運転手にあるとカスタマーに明言しています」と答えました。

このスタンスは、Google、VOLVO、Mercedesなどの自動運転車とその責任問題に関するそれと大きく異なります。これら3社は、自動運転車の起こした事故に関しては自分たちが責任を持つとしています。

しかしTeslaの車は、通常の車よりも遥かに多くのデータを収集しているので、どういった原因で事故が起きたのか、よりはっきり明らかにできるかもしれません。「今回(5月7日)の事故が他と違うのは、今まで以上に多くのデジタルデータが残っていることです。まだTeslaはそのほとんどを公開していませんが、いずれ事故の詳細が明らかになるでしょう。」と米Gizmodoに説明するのは、サウスカロライナ大学法学部助教のBryant Walker Smith。「しかしTeslaの責任を追及する前に、トレーラーの運転手にも何かしらの責任があることは認識すべきです」

それでも、これからアメリカ中でTeslaに対して訴訟が起こされる可能性は大いにあります。最も最近では7月11日にモンタナ州でオートパイロットの絡んだ軽度の事故があり、それもふくめて2件、死者の出ていない事故が起きているのです。

また、責任問題は事故の起きた場所にも影響されます。Smithによれば、フロリダ州は大雑把な見解を持ちますが、それ以外では州ごとに厳密に制定されているそうです。

運転手は、オートパイロットが機能的に想定外の挙動を起こして事故を起こした場合、Teslaに対して訴訟を起こすことができるかもしれません。たとえば、車線変更の機能を使ったら隣の車にぶつかってしまった、というケースではTeslaに責任が発生する可能性は大いにあります。

Smithによれば、こういったケースでは、原告側はTeslaが不当な行為を行ったか、製品の性能に欠陥があったことを証明する必要があり、逆にTesla側は運転手の態度を追求し、システムが不完全であると知っていたにもかかわらず、リスクを軽視して機能を使ったと指摘するか、運転手のシステムの使い方にケアレスミスがあったと証明する必要があるそうです。

フロリダでの事故が裁判に持ち込まれるかどうかはまだ分かりません。しかし、Teslaの悩みはこれからも続くでしょう。Teslaはニューヨーク・タイムズに対し、オートパイロットを使用不可にする予定はなく、その機能は70万台の車に搭載されていると説明しました。

William Turton - Gizmodo US[原文

(scheme_a)