4月7日、警察庁が『自動走行の制度的課題等に関する調査研究報告書』を公表しました。
これは、警察庁が自動運転車の現状と、今後の課題などを挙げたもの。この中で、法律上の課題が記載されていたので、それを紹介しつつ、自動運転車の法的課題を検討したいと思います。
最も問題になるのは、自動運転車が事故を起こしたときの刑事上の責任だと思います。
米グーグルが開発中の自動運転車公道の走行実験中、路線バスと接触事故を起こしていたことが明らかになったり、自動運転機能付(厳密な意味での自動運転車ではないが)のテスラが事故を起こしたりなどの問題も起こっています。
参考記事:
自動運転でまたも事故か。テスラModel Xが高速道路で横転
暴かれた事故 グーグルの自動運転車、安全性に疑念も…「過失なし」を強調
報告書では、「官民ITS構想・ロードマップ 2015」における自動走行システムの定義を参考に、以下のように規定しました。
レベル1:加速・操舵・制動のいずれかの操作をシステムが行う状態
レベル2:システムの複合化 加速・操舵・制動のうち複数の操作を一度にシステムが行う状態
レベル3:システムの高度化加速・操舵・制動を全てシステムが行い、システムが要請したときのみドライバーが対応する状態
レベル4:完全自動走行 加速・操舵・制動を全てドラ イバー以外が行い、ドライ バーが全く関与しない状態
レベル1・レベル2では、運転者がいて、一部をシステムが補助する仕組みなので、運転者に周囲の道路交通状況等の監視(モニター)義務が課されるとしています。
よって、交通事故等が発生した場合には、道路交通法上の責任は、原則として運転者にあるものと考えられます。
これに対し、システムが要請したときのみ運転者が対応するというレベル3では、どうなるのでしょうか?
この場合には、ドライバーは、基本的には、運転に関わらないので、その責任があるのかが問題となります。
ドライバーが責任を負うためには、刑法上「過失」が必要になります。
そして、過失があったといえるためには、自分の運転によって、事故が起こることが予見可能であったという予見可能性及び、十分に注意すれば、事故という結果を回避できたという結果回避可能性が必要です。
レベル3の場合には、人間とシステムとの間の役割分担がどのようになっているかを検討する必要があります。システムが、要請していたにも関わらず、運転者が対応しなかったために、事故が起きてしまった場合には、運転者が責任を負うことになります。
さらに、運転者が自動車の操作に全く関与しないレベル4の自動車が事故を起こした場合には、どうなるのでしょうか?例えば、無人運転車などが事故を起こしてしまった場合は、誰が責任を負うのでしょうか?
また、有人でも運転は完全に自動で行っていて、人間が運転に関わっていない場合でも同様の問題があります。
これには、自動運転車のメーカー、AI機能の開発者が責任を負うなどの議論があります。上記の報告書では、次のようになっています。
道路交通に関する条約に係る国際的な議論を踏まえつつ、具体的な技術開発の方向性を確認しながら、交通事故等に おける道路交通法上の責任の在り方を検討する必要がある。 これらを踏まえ、交通事故の刑事責任については、自動車の運転により人を死傷させる行為 等の処罰に関する法律の適用関係等についても検討する必要がある。
要するに、まだ何も決まっていなくて、これから決めていきましょう。ということです。
以上のように、刑事上の責任だけでも、決めておくことが山積みです。
自動運転車の実用化が技術的には、近い将来、現実的になります。早急に法的な整備をする必要があります。