IT法務・AI・暗号資産ブロックチェーンNFT・web3の法律に詳しい弁護士|中野秀俊
グローウィル国際法律事務所
03-6263-0447
10:00~18:00(月~金)

AI(人工知能)の行為による責任は誰が取るのか【AIと法律】【2023年2月加筆】

ロボット・AI・ドローンの法律

AIの行為による責任は、誰が取る?

AIの技術は、どんどん進歩していっています。AIが出した結果(行為)によって、人間が損害を被ってしまうことも想定されています。

例えば、AIが以下の行為をした場合には、どのようなことが問題になるのでしょうか?

  1. AIを搭載した自律型ロボットが、自らの判断で「目の前にいる人を排除しなければならない」と判断、実際に排除を行った結果、人が怪我をした場合
  2. AIが、自らの判断で他人を誹謗中傷するようなメッセージをオンライン上で公開し続け、他人の名誉を毀損した場合
  3. AIが、ネット上で公開されている他人の著作物を勝手に使用してしまった場合

現在の法律を前提として考えると、AIの「行為」についてAI自身に責任を問うことはできません。

何らかの責任を取る必要がある場合には、AIに関係する複数の関係者のうち誰がどのような要件の下で責任を負うのかを考える必要があります。

人間の法的責任を定める現在の法体系では、基本的に人間の意思がどこかに介在することを前提としています。「自己学習・自己判断するというAIの「行為」に果たして誰が責任を負うのか」というのは非常に難しい問題です。

以下では、想定できる関係者の責任について、解説していきます。

AIの所有者の責任

まず、AIの「行為」に責任を持つべき主体として、考えられるのがAIの所有者です。

法的には、被害者との関係で、AIの行為が所有者自身の不法行為(民法709条)に該当するとして、被害者に対し損害を賠償すべき責任を負う可能性があります。

民法709条に基づき不法行為責任が認められるためには、AIの所有者自身に故意または過失があったことの証明が必要となります。

AIの所有者自身に故意がある場合とは、例えば所有者自身がAIをけしかけたような場合(AIを搭載した自律型ロボットに、人を殴るよう命令したような場合)であり、このような場合にAIの所有者が責任をもたなければならないことは明らかです。

問題は、AIの所有者に故意が認められない場合です。

民法にいう「過失」とは「具体的な結果の発生を予見できたにもかかわらず、その結果の発生を回避するために必要な措置をとらなかったこと」をいうものとされています。

このとき、自己学習・自己判断するAIの行動や、それに伴う結果の発生を「予見できた」といえるような場合とは果たしてどういう場合かが問題となります。

この点につき、そもそも他人に危害を与え得る行動をすることが想定されたAIであれば、過失の認定はさほど問題にはならないでしょう。

極端な例ですが、例えば、格闘技の試合を念頭に置いて製造されたロボットを公道に置き去りにしたようなケースを想定すれば、このロボットが人を殴るという「結果」の発生について予見することは十分にできたといえるように思われます。

しかしながら、例えば、「人工的な知能」の域に達したAIが繰り返し行った自己学習・自己判断の結果としての行為については、もはや予見可能性はなかったとして、AIの所有者の過失が否定されることも十分にあり得るのです。

さらにいえば、過失の判断において「結果発生を予見できたか否か、予見される結果を回避するために必要な措置をとったか否か」は、不法行為を行ったとされる者が属する人的グループの平均的な人(例えば、交通事故であれば一般的なドライバー、医療過誤であれば一般的な医師)の能力を基準に判断されることになる。

そうすると、例えば、AIの所有者が、既製品としてのAIを購入したにすぎないような場合には、なお一層予見可能性が認められる可能性が低くなるように思われます。

このように考えていくと、特に高度に発達したAIの「行為」、それも、一般消費者が「既製品」として購入するようなAIの「行為」については、AIの所有者に民法709条に基づく一般の不法行為責任を負わせることが難しい場合が多くなるものと考えられます。

AI機器の製造者責任(製造物責任法に基づく責任を負う可能性)

AIが何らかの機器(例えば、ドローンやロボット)に搭載されている場合、AIの製造者が、一般的な不法行為責任のほかに、製造物責任法3条に基づく法的責任を負うことも考えられます。

製造物責任法3条に基づく責任が認められるためには、まず「製造物」の「欠陥」により「他人の生命、身体又は財産を侵害した」といえることが必要です。それでは「製造物」と「欠陥」という言葉について確認していきましょう。

製造物責任法3条における製造物とは

AIが何らかの機器に搭載されている場合、搭載されたAIを含めて、当該機器全体が「製造物」(製造または加工された動産)に該当します。

製造物責任法3条における欠陥とは

「欠陥」とは、製造物が「通常有すべき安全性」を欠いていることを言います。

この「欠陥」の判断に当たっては「当該製造物の特性、その通常予見される使用形態、その製造業者等が当該製造物を引き渡した時期その他の当該製造物に係る事情」を考慮するものとされています。

なお、製造者が製造物に不具合があることを知っていたか否か(または、知ることができたか否か)は、「欠陥」の判断に当たって考慮されません。製造者が知り得ないような不具合があったような場合でも、その不具合ゆえに製造物が「通常有すべき安全性」を欠いている場合には、「欠陥」があったものと認定されます。

具体的にいかなる場合に「欠陥」が認められるかについて、条文上は特段具体的な判断基準は提示されていないませんが、一般に欠陥には以下の3類型があるとされています。

  1. 製造物の設計そのものの欠陥(設計上の欠陥)
  2. 製造工程において設計と異なった製造物が製造されたことによる欠陥(製造上の欠陥)
  3. 適切な指示・警告が伴わないことによる欠陥(指示・警告上の欠陥)

それでは、自己学習・自己判断をするAIにおいて「通常有すべき安全性」とは何でしょうか。

AIが何か問題のある行為を行ったとして、AIが「通常有すべき安全性」を欠いていたことをどのように立証すればいいのでしょうか。

極端な例でいえば、シンギュラリテイを超えたAIの振る舞いを、人間が後になって「何が原因で欠陥が生じていたのか」「どうすれば被害の発生を防止できたのか」を検証し、裁判の場において立証することがそもそも難しいような事態も考えられます。

このとき「原因究明ができないこと」を理由に製造者への請求は一切認められないのか、万全にはできないとして、どこまでを立証すれば「欠陥」の立証として、十分と考えられるのでしょうか。

この点については、製造物の欠陥は個々の事例に応じて判断されるため、「AIを搭載した製造物の欠陥」について一律の回答を述べるのは非常に困難と言えます。

AIを搭載した製品を製品用途に従って普通に使っていたにもかかわらず、当該製品が異常な動作をし、結果として事故が発生したというような場合には、誤作動の原因や被害発生を防ぐために必要であった方策を特定・立証しなくとも、異常な動作による事故の発生それ自体から欠陥の存在が認められる可能性があります。

AIが組み込まれた製品の欠陥の存在の主張立証は、「当該製品を適正な使用方法で使用していたにもかかわらず、通常予想できない事故が発生したことの主張立証で足りる」のであり、「なぜその事故が発生したのか、何か原因でAIは不適切な振る舞いをしたのか」の特定や主張立証は不要ということになります。

このように考えれば、通常使用の類型においては、極めて高度なAIの「行為」であってもAIの「行為」により損害を被った者がAIの「欠陥」を主張立証することがある程度容易になるものと思われます。

AI事業者としての対策

製造したAI(厳密にいえば、AIを組み込んだ製品)が販売後どのような学習をし、その結果としてどのような振る舞いをみせるようになるか、製造者にもわからず、また、あらかじめ予見することもできない場合が考えられます

しかし、前述の通り、製造物の「欠陥」の有無の判断に当たっては、製造者の認識(または認識可能性)は問題とされません。

「販売後のAIの学習内容について予見できなかった以上、事後的な学習結果に起囚する不具合は、欠陥とはいえない」という立論は成り立たないこととなります(ただし、AIの学習内容が当初想定されていない異常なものであったような場合は別であると言えるでしょう)。

そのため、製造者としては、製品の用途・動作条件を安全性が担保できる範囲に限定する(ただし、この場合も用途・動作条件がユーザーに理解されるよう適切な警告をする必要があり、それができていなかった場合には指示・警告上の欠陥が問われ得る)。

AIの学習範囲や動作範囲にリミットを設けて、AIがどのような学習をしても想定外の動作をしないようにするといった対応をすることが考えられます。

このように、製造者側に結果発生の具体的な予見可能性がない中で製造物責任が容易に認められると、製造者に対し過酷な結果責任を課すことになる懸念があります。

また、AIの「行為」に対し製造者が結果責任に近い責任を負うとすると、AIの開発自体に対し萎縮的な効果(例えば、AI開発者が極端に保守的なリミットをAIの学習に課してしまうような事態の発生)が生じることも懸念されます。

このような萎縮効果を回避するため、法律上一定のセーフハーバーを設けたり、保険制度の導入によるリスク分散を試みるなどの対策も考えられるところです。