AI(人工知能)については、ニュースにならない日はないくらい、身近になっています。
今後のAIにあり方については、各国でも話題になっていますが、日本でも総務省情報通信政策研究所で「AIネットワーク社会推進会議」が開かれ、AIネットワーク社会推進会議から、2017年7月28日付で「国際的な議論のためのAI開発ガイドライン案」が公表されました。
このAI開発ガイドライン案では、AIのシステム開発をする上で、日本政府として、企業に対して、どのような点に留意するべきかが記載されています。
そこで、今回は、このガイドラインをみていき、今後のAIのシステム開発で留意するべき点を見ていきましょう。
今後の、AIのシステム開発に関する法律の指針になるかもしれません。
そもそも、このガイドラインが出された背景としては、AIのシステム開発を促進しつつ、リスクを抑制することにあります。
また、基本理念としては、「人間の尊厳と個人の自律が尊重される人間中心の社会を実現すること。」が記載されています。
AIによって、人間がAIに支配されるのではないかという見方も出ていますが、あくまでAIシステム開発者には、人間に配慮した設計が求めれるというものです。
また、今回のガイドラインでは、以下のような、AIに関する用語を定義しました。
今後、AIシステムに関する法律ができる場合には、このような定義規定を参考に作られると思います。
そして、AIのシステム開発で遵守すべき7原則が記載されています。(ガイドラインでは、9つの原則が記載されていますが、事業者として、特に遵守すべき7項目をピックアップしました)
これは、法律ではないので、直ちに拘束力はありませんが、今後は、この原則の考え方に基づいて、立法化される可能性が高いです。
よって、AIのシステム開発事業者としては、今からこの7原則を意識しておくと、今後どのような法律ができようとも、対応できることになります。
連携の原則とは、AIの開発者は、AIシステムの相互接続性と相互運用性に留意するというものです。
つまり、AI事業者が連携して、情報を共有化していきましょうというものです。具体的には、以下のようなことが求められています。
採用する技術の特性や用途に照らし合理的な範囲で、AIシステムについて、どういった技術なのか、どういったところにリスクがあるのかを、説明できるようにしておきましょうというものです。
開発者は、AIシステムの制御可能性に関するリスクを評価するため、あらかじめ検証及び妥当性の確認 を行うよう努めることが望ましいとされています。
リスク評価の手法としては、実用化される前の段階において、実験室内やセキュリティが確保されたサンドボックスなどの閉鎖空間において実験を行うことが考えられますが、このような対策が必要なのです。
開発者は、AIシステムが、利用者及び第三者の生命・身体・財産に危害を及ぼすことがないように配慮することが求められています。具体的には、以下の通りです。
AIについては、最新技術だけに、セキュリティ対策を十分に行うことが求められています。
開発者は、OECDプライバシーガイドラインなどプライバシーに関する国際的な指針を踏まえることが求められています。
開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重することを求めています。
人間の脳や身体と連携するAIシステムを開発する場合には、特に注意が必要です。
また、AIシステムが人間性の価値を不当に毀損することがないよう留意するとしています。
以上のように、ガイドラインでは、AIのシステム開発事業者に対して、留意すべき事項が列挙されています。事業者としては、将来の立法化に向けて、今から準備しておきましょう。