IT法務・AI・暗号資産ブロックチェーンNFT・web3の法律に詳しい弁護士|中野秀俊
グローウィル国際法律事務所
03-6263-0447
10:00~18:00(月~金)

AI(人工知能)のシステム開発の指針が発表!AIシステムの開発で注意するべき点とは。

ロボット・AI・ドローンの法律

AI(人工知能)のシステム開発に関するガイドラインが発表

AI(人工知能)については、ニュースにならない日はないくらい、身近になっています。

今後のAIにあり方については、各国でも話題になっていますが、日本でも総務省情報通信政策研究所で「AIネットワーク社会推進会議」が開かれ、AIネットワーク社会推進会議から、2017年7月28日付で「国際的な議論のためのAI開発ガイドライン案」が公表されました。

このAI開発ガイドライン案では、AIのシステム開発をする上で、日本政府として、企業に対して、どのような点に留意するべきかが記載されています。

そこで、今回は、このガイドラインをみていき、今後のAIのシステム開発で留意するべき点を見ていきましょう。
今後の、AIのシステム開発に関する法律の指針になるかもしれません。

AIシステム開発の基本理念

そもそも、このガイドラインが出された背景としては、AIのシステム開発を促進しつつ、リスクを抑制することにあります。

また、基本理念としては、「人間の尊厳と個人の自律が尊重される人間中心の社会を実現すること。」が記載されています。

AIによって、人間がAIに支配されるのではないかという見方も出ていますが、あくまでAIシステム開発者には、人間に配慮した設計が求めれるというものです。

AIに関する用語について、明確化

また、今回のガイドラインでは、以下のような、AIに関する用語を定義しました。

  • AI…「AIソフト及びAIシステムを総称する概念」をいう
  • AIソフト…データ・情報・知識の学習等 により、利活用の過程を通じて自らの出力やプログラムを変化させる機能を有するソフトウェアをいう。例えば、機械学習ソフトウェアはこれに含まれる。
  • AIシステム…AIソフトを構成要素として含むシステムをいう。例えば、AIソフトを実装したロボットやクラウドシステムはこれに含まれる。

今後、AIシステムに関する法律ができる場合には、このような定義規定を参考に作られると思います。

AIのシステム開発で守るべき7原則

そして、AIのシステム開発で遵守すべき7原則が記載されています。(ガイドラインでは、9つの原則が記載されていますが、事業者として、特に遵守すべき7項目をピックアップしました)

これは、法律ではないので、直ちに拘束力はありませんが、今後は、この原則の考え方に基づいて、立法化される可能性が高いです。

よって、AIのシステム開発事業者としては、今からこの7原則を意識しておくと、今後どのような法律ができようとも、対応できることになります。

1)連携の原則

連携の原則とは、AIの開発者は、AIシステムの相互接続性と相互運用性に留意するというものです。

つまり、AI事業者が連携して、情報を共有化していきましょうというものです。具体的には、以下のようなことが求められています。

  • 有効な関連情報の共有に向けて協力するよう努める
  • 国際的な標準や規格がある場合には、これに準拠したAIシステムを開発するよう努める
  • データ形式の標準化、APIを含むインターフェースやプロトコルのオープン化に対応するよう努めること
  • 自らの開発するAIシステムと他のAIシステム等との相互接続・相互運用により意図しない事象が生ずるリスクに留意すること
  • AIの開発に関連する知的財産に関し、相互接続性・相互運用性の確保に資する知的財産権のライセンス契約及びその条件についてオープンかつ公平な取扱いを図るよう努める

2)透明性の原則

採用する技術の特性や用途に照らし合理的な範囲で、AIシステムについて、どういった技術なのか、どういったところにリスクがあるのかを、説明できるようにしておきましょうというものです。

3)制御可能性の原則

開発者は、AIシステムの制御可能性に関するリスクを評価するため、あらかじめ検証及び妥当性の確認 を行うよう努めることが望ましいとされています。

リスク評価の手法としては、実用化される前の段階において、実験室内やセキュリティが確保されたサンドボックスなどの閉鎖空間において実験を行うことが考えられますが、このような対策が必要なのです。

4)安全の原則

開発者は、AIシステムが、利用者及び第三者の生命・身体・財産に危害を及ぼすことがないように配慮することが求められています。具体的には、以下の通りです。

  • AIシステムの安全性に関するリスクを評価・抑制するため、あらかじめ検証及び妥当性の確認を行うよう努める。
  • AIシステムを利用する際の利用者及び第三者の生命、身体、財産の安全に関する判断(例えば、AIを搭載したロボットの事故発生時に、優先的に保護される生命、身体、財産の順位などに関する判断)を行うAIシステムを開発する

5)セキュリティの原則

AIについては、最新技術だけに、セキュリティ対策を十分に行うことが求められています。

  • AIシステムのセキュリティに関するリスクを評価・抑制するため、あらかじめ検証や妥当性確認を行うよう努めること。
  • AIシステムの開発の過程を通じて、採用する技術の特性に照らし可能な範囲でセキュリティ対策を講ずるよう努めること。

6)プライバシーの原則

開発者は、OECDプライバシーガイドラインなどプライバシーに関する国際的な指針を踏まえることが求められています。

7)倫理の原則

開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重することを求めています。

人間の脳や身体と連携するAIシステムを開発する場合には、特に注意が必要です。

また、AIシステムが人間性の価値を不当に毀損することがないよう留意するとしています。

AIのシステム開発事業者は、ガイドラインを踏まえた開発を

以上のように、ガイドラインでは、AIのシステム開発事業者に対して、留意すべき事項が列挙されています。事業者としては、将来の立法化に向けて、今から準備しておきましょう。