IT法務・AI・Fintechの法律に詳しい弁護士|中野秀俊のホームページです。 IT法務や仮想通貨(ICO)、AIなどのITビジネスを専門に扱う法律事務所です。
グローウィル国際法律事務所
10:00~18:00(月~金)

ロボットが問題を起こしたら誰が責任をとるの?【ロボットに関する法律的規制】

ロボット・AI・ドローンの法律

「ロボット」に対する規制

ロボットについては、テクノロジーが発展しています。それとともにロボットに関する法律、規制については、議論がされています。

総務省情報通信政策研究所は、2017年7月に「国際的な競論のためのAI開発ガイドライン案」を発表しました。

このガイドライン案においては、次のような原則が掲げられています。

  1. 連携の原則:開発者は、AIシステムの相互接続性と相互運用性に留意する
  2. 透明性の原則:開発者はAIシステムの入出力の検証可能性および判断結果の説明可能性に留意する
  3. 制御可能性の原則:開発者はAIシステムの制御可能性に留意する
  4. 安全の原則:開発者は、AIシステムがアクチュエータ等を通じて、利用者および第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する
  5. セキュリティの原則:開発者はAIシステムのセキュリティに留意する

また、「ロボット」と人間の関係という観点では、内閣府統合イノベーション戦略推進会議が2019年3月に発表した「人間中心のAI社会原則」が注目されます。

ここでは、以下のことが記載されています。

  1. 人間中心の原則:AIの利用は基本的人権を侵すものであってはならない
  2. 教育・リテラシーの原則:AIに関する教育・リテラシーを育む教育環境がすべての人に平等に提供されなければならない
  3. プライバシー確保の原則:パーソナルデータが本人の望まない形で流通したり利用されたりすることによって、個人が不利益を受けることのないようにしなければならない

ロボットが問題を起こした場合の責任の所在

ロボットの民事責任

自律的に判断し動作する「ロボット」ですが、どんなに精密に「ロボット」が設計されていたとしても、予期せぬ事故等によって、「ロボット」が人間の生命・身体に危険を及ぼしたり、損害を発生させたりする可能性は否定できません。

そのような場合であっても、少なくとも、現在の法律では、「ロボット」自身は民事責任の主体となり得ず、不法行為責任などの民事賛任を問うことはできません。

では、ロボットが他人に損害を加えた場合、誰が責任を負うのでしょうか?

ロボットメーカーの製造物責任

自律的に判断し動作する「ロボット」が問題を起こした場合に、当該「ロボット」の開発・製造等をしたメーカーの製造物責任を追及することが考えられます。

「ロボット」も、ハードウェアとソフトウェアからなる「製造物」に該当するところ、「通常有すべき安全性を欠いた「欠陥」があるといえるかが問題となります。

自律的に判断し動作する「ロボット」の場合、「ロボット」の開発・製造等をしたメーカーであっても、「ロボット」がかかわるありとあらゆる事態を予測できるわけではないと思われます。

そこで「ロボット」が「通常有すべき安全性」はどの程度であるのかについて、個別具体的なケースごとに検討しつつ、メーカーの予測可能性と照らし合わせながら「欠陥」といえるかどうかを検討し、資任の有無を判断する必要があるのです。

ロボットの刑事責任

「ロボット」を念頭に置いたとしても、少なくとも現時点では、「ロボット」自身は刑事責任の主体になり得ません。

そこで「ロボット」が事故や問題を起こした場合の刑事的な費任追及の方法としては、「ロボット」を開発・製造したメーカーに何らかの注意義務違反があることを前提として、過失犯に問うことは可能です。

ロボットが、生み出した商品・コンテンツの権利帰属

AIの進化に伴い、「芸術作品を書いたAIに著作権を認めるか?」という議論がなされています。

自律的に判断し動作する「ロボット」についても、「ロボット」が特許権者や著作権者になり得るか?」というような議論があり得ます。

しかし、これも現時点では、「ロボット」が著作権者や特許権者になることはありません。現在の知的財産法は、権利者として人間しか想定していないからです。

今後は、AIや「ロボット」技術の急速な発展によって、AIや「ロボット」が膨大な数の発明や著作物を自動生成することが考えられます。

実際に人知を超えるスピードでAIや「ロボット」が大量の発明や著作物を生み出すようになったとき、それらをどのように保護するのか、AIや「ロボット」の研究開発への投下資本をどのように回収するのか、これからの議論に注目です。