IT法務・AI・暗号資産ブロックチェーンNFT・web3の法律に詳しい弁護士|中野秀俊
グローウィル国際法律事務所
03-6263-0447
10:00~18:00(月~金)

AIの想定外の行為により「被害」を与えてしまった場合に誰が責任を取るのか?

ロボット・AI・ドローンの法律

AIの「行為」に対して責任を取るのは誰なのか

AIが想定外の行為をした場合に、誰が責任負うのか、当然ですが、法律や確立した判例は出ていません。
この点、以下のような場合に、誰が責任を負うのかについて、AI自身に責任を負わせるという考え方があります。

  • AIを搭載したロボットが、自らの判断で目の前にいる人を排除しなきゃいけないと判断し、実際に人が怪我をした場合
  • AIが自らの判断で他人を誹謗中傷するようなメッセージをオンライン上で公開し続け、他人の名誉を侵害した場合
  • AIがネット上で公開されている他人の著作物を勝手に使用してしまった場合

しかし、現行法上では、損害賠償の主体として、人(自然人及び法人を含む)を想定しているため、AI自身が責任を負うというのは、無理があります。

そうするとAI生成に関わった者に、責任を負わせることになります。

しかし、AIについては自己学習・自己判断するという特性があります。このためAIの行為に関して誰が責任を負うかについては非常に難しい問題が生じるのです。

AIの所有者(AIを管理・使用している者)の責任

AIの行為に責任を持つべき者として、AIの所有者(AIを管理・使用している者)が考えられます。

つまり、AIの行為について所有者自身が、民法上の不法行為に該当するとして被害者に対して、賠償するというものです。

AIの所有者が、AIに人を殴るように命令した場合については、AIの所有者が責任を取らなければならないことは明らかです。このように、AIの所有者に故意(わざと)があった場合には、問題は簡単です。

問題となるのはAIの所有者に故意がない場合、つまり過失があるかどうかの判断です。

過失があるかどうか

過失とは、具体的な結果発生が予見できたにもかかわらず、その結果を回避するための必要な措置を取らなかったものです。

つまり、所有者に、AIの行為を所有者が予測できたかということが問題になります。

AIでいえば、自己学習していくので、その過程で所有者自身も予期しないような行動に出ることが十分に考えられます。そうすると、AIの所有者が、製品としてのAIを購入したに過ぎないような場合には、予見可能性が認められる可能性が低くなります。

もっとも、民法では、動物の占有者はその動物が危害を加えた場合には、責任を負わなければならないという規定(民法718条1項)があります。また、従業員が、事業について他人に損害を与えた場合に、使用者は責任を負わなければいけないという規定もあります(民法715条1項)。

この規定の根底には、その人やモノにより、何らかの利益を得ているものは、その人・モノが与えた損害についても、責任を負うというものです。

AIを所有して利益を上げている所有者については、それによって被った損害についても、責任を負わなければならないという主張も筋が通っています。

この点については、上記の規定を類推適用することにより、AI所有者にも責任を負わせることが考えられます。

AIの製造者・プログラマーの責任

AIに何らかの機器(ハード)が搭載されている場合について、その機器が原因で他人に損害を被らせた場合には、上記の不法行為のほかに、製造物責任が問われる可能性があります。

製造物責任が認められるためには、以下の要件が必要となります。

  • 製造物の欠陥により
  • 他人の生命身体を侵害した

この場合の欠陥とは、通常有すべき安全性を欠いていることです。

欠陥の判断にあたっては、製造者が知っているか否かにかかわらず、不具合がありそれが通常有すべき安全性を欠いている場合には、欠陥があったと認定されます。

では、AIにおける欠陥とは、どのように証明すれば良いのでしょうか。

自己学習をするAIについては、人間が後になって、何が原因で結果が生じていたのかということを検証し、裁判において立証することは非常に難しいことが考えられます。

例えば、AIを搭載した製品を、その用途に従って普通に使っていたにもかかわらず、当該製品が異常な動作をして結果として事故が発生したという場合には、異常な動作による事故の発生をしたということ自体から欠陥の存在が認められる可能性があります。

製造者としては、AI製品の用途や条件等を安全性が担保できる範囲に限定するか、AIの学習範囲も想定できる範囲に制限を設ける必要があるのかもしれません。

AIの誤作動だった場合

これに対し、AIが製品というハードはなく、純粋なプログラムであった場合について、その誤作動により被害者が被害を被った場合についてはどうなるのでしょうか。

この点について、プログラマーが責任を負うためには、過失の存在が必要になります。

過失というのは、具体的に結果を予見できたかどうかがポイントになるので、AIが、自己学習・自己判断の結果として行動したということになれば、プログラマーが、開発段階で具体的に結果を予見できたということは困難であったとして、プログラマーの過失が否定されることも可能性もあります。

もっとも過失の判断については、一般的なAIプログラマーの能力を基準に判断するので、AIが何か問題のある行動を起こす危険性が高まったときに、AIの動作をきちんと制御できるような仕組みが報じられていなかったような場合には、AIプログラマーに過失が認定できる場面が出てくることが想定されます。