ロボットについては、テクノロジーが発展しています。それとともにロボットに関する法律、規制については、議論がされています。
総務省情報通信政策研究所は、2017年7月に「国際的な競論のためのAI開発ガイドライン案」を発表しました。
このガイドライン案においては、次のような原則が掲げられています。
また、「ロボット」と人間の関係という観点では、内閣府統合イノベーション戦略推進会議が2019年3月に発表した「人間中心のAI社会原則」が注目されます。
ここでは、以下のことが記載されています。
自律的に判断し動作する「ロボット」ですが、どんなに精密に「ロボット」が設計されていたとしても、予期せぬ事故等によって、「ロボット」が人間の生命・身体に危険を及ぼしたり、損害を発生させたりする可能性は否定できません。
そのような場合であっても、少なくとも、現在の法律では、「ロボット」自身は民事責任の主体となり得ず、不法行為責任などの民事賛任を問うことはできません。
では、ロボットが他人に損害を加えた場合、誰が責任を負うのでしょうか?
自律的に判断し動作する「ロボット」が問題を起こした場合に、当該「ロボット」の開発・製造等をしたメーカーの製造物責任を追及することが考えられます。
「ロボット」も、ハードウェアとソフトウェアからなる「製造物」に該当するところ、「通常有すべき安全性を欠いた「欠陥」があるといえるかが問題となります。
自律的に判断し動作する「ロボット」の場合、「ロボット」の開発・製造等をしたメーカーであっても、「ロボット」がかかわるありとあらゆる事態を予測できるわけではないと思われます。
そこで「ロボット」が「通常有すべき安全性」はどの程度であるのかについて、個別具体的なケースごとに検討しつつ、メーカーの予測可能性と照らし合わせながら「欠陥」といえるかどうかを検討し、資任の有無を判断する必要があるのです。
「ロボット」を念頭に置いたとしても、少なくとも現時点では、「ロボット」自身は刑事責任の主体になり得ません。
そこで「ロボット」が事故や問題を起こした場合の刑事的な費任追及の方法としては、「ロボット」を開発・製造したメーカーに何らかの注意義務違反があることを前提として、過失犯に問うことは可能です。
AIの進化に伴い、「芸術作品を書いたAIに著作権を認めるか?」という議論がなされています。
自律的に判断し動作する「ロボット」についても、「ロボット」が特許権者や著作権者になり得るか?」というような議論があり得ます。
しかし、これも現時点では、「ロボット」が著作権者や特許権者になることはありません。現在の知的財産法は、権利者として人間しか想定していないからです。
今後は、AIや「ロボット」技術の急速な発展によって、AIや「ロボット」が膨大な数の発明や著作物を自動生成することが考えられます。
実際に人知を超えるスピードでAIや「ロボット」が大量の発明や著作物を生み出すようになったとき、それらをどのように保護するのか、AIや「ロボット」の研究開発への投下資本をどのように回収するのか、これからの議論に注目です。