AIの開発が盛んになり、世の中の殆どの人がその恩恵を受けることになったら、どのような世界が広がるのでしょうか。
例えば、自動運転車が実現すると、交通事故は無くなり、道に迷うことも、自然エネルギーの無駄遣いも無くなるでしょう。 また、賢いロボットが誕生して、単調な仕事は無くなるのかもしれません。
一方で、AIの開発は危険だと言う知識人も増えてきました。例えば、テスラ・モーターズのCEOのイーロン・マスク氏は、「AIは人類の脅威となる」と早い段階で語り始めていました。
その中で、AI開発にもガイドラインが必要だろうということで、先日専門家が「23 Asilomar AI Principles」という原則を提唱しました。また、日本でも総務省がAIの研究開発の原則の策定に向けて動いています。しかし、この原則は、話が大げさすぎる部分もあり、現段階では役に立たないものや重複しているものが含まれています。
そこで、本記事では、この中からこの読者のみなさんにもお役に立ちそうな7個の原則に凝縮して、お伝えします。
1. 明確なゴール設定
AIの開発で達成したい目標と、目的を明確にしておきましょう。 すでに多くの会社や研究の成果として、AIを盛り込んだシステムが実績を上げています。弊社のブログでも一部AIの事例紹介をしているので参考にしてみてください。
有益な目的を持った開発にすること
そのシステムが完成することで、私たちは恩恵を受けることができるでしょうか? 悪意を持った開発に着手することは辞めましょう。開発の途中で、目的を見失わないように注意してください。
反社会的にならず、人類にとって有益であること
AIを、悪意を持った開発に利用するのはやめましょう。また、最悪こんな動作をしてしまうかもしれないという危機感を持って設計に挑みましょう。
2. 透明性と信頼
開発者、データ保持者など、お互いを尊重して信頼し合いながら開発を進めましょう。
信頼性
お互いを信頼し合わない限り、透明性を担保することができません。まず、信頼し合うことから始めましょう。
透明性
目的やゴールの共有をして、おかしなデータが混じっていることなども隠さず伝えましょう。 AIは、誤ったデータから誤った挙動を学んでしまうかもしれません。 結果的に、意図しない挙動を実現してしまう可能性があります。
また、開発するシステムには、ログを残し、どのような挙動をしたのかを追跡可能にしておきましょう。 発生した問題が、学習したモデルによるものなのか、データによるものなのか、セキュリティによるものなのかを把握できるようにしておくことが大切です。
3. アカウンタビリティ(説明責任)
アシロマ原則では以下のように表現されています。
Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.
AIのシステムを構築した開発者・研究者は、技術の許す範囲内で自由にシステムを設計することが出来ます。そして、その技術は日々進歩しています。 利用者等の関係ステークホルダーへのアカウンタビリティを果たすことが大切になります。
4. 安全性の確保
監視と停止
制御不能になる恐れがあると判断されるシステムには、監視や停止といった機能をつけて人間による操作ができるようにしておきましょう。
セキュリティ
第三者がデータや学習モデルの改ざんできないように配慮しておきましょう。
また、完成したAIが、プライバシーを侵害するようなことがないように気をつけましょう。
システムの攻撃性
開発したシステムが利用者に危害を加えないように十分注意しましょう。
5. ベネフィトの共有
AIによる、人類への貢献は素晴らしいものになる可能性を秘めています。技術やシステムは幅広く次世代の利便性へと還元できないかと考えましょう。
有益な知識はシェアしましょう
素晴らしいアイデアや、テクノロジーをシェアしましょう。 弊社のブログでも、オープンになっている技術の調査結果やスキルなどをブログで公開することを推奨しています。
システムによる利点を広く多くの人々へのシェア
AIのシステムを活用することで生まれた、時間や、削減できたコストなどを幅広い人々への利便性に貢献できないかと考えましょう。
6. ヒューマンコントロールの担保
実はアシロマ原則は、このヒューマンコントロールと人間との関わり方に関する原則が多く、司法判断や人間の尊厳・権利・自由に関するものなど幅広く記述されています。
人間が設定した目的をすること
まず、大前提として人間が設定した倫理観のあるゴールを達成するAIを構築しましょう。
そのゴールを達成するにあたって、AIシステムにはどのような意思決定権を与えるのかを考えてデザインしましょう。
自己学習や自己管理をするAIの場合にはデザインに注意すること
司法などの重大な意思決定をするシステムを構築する場合、どうしてそのような判断をしたのか、理由を説明できるように設計しましょう。
また、自ら判断して自己改善や自己修復をするAIは、一気にリスクが増大するため、安全と管理を怠らないようにしてください。
7. 改善と尊重
常に改善を続けること
システムが完成した後も、データのアップデートやメンテナンスを欠かさないようにしましょう。また、日々技術が進歩しているので、定期的に向上施策が出来ないかを調査しましょう。
出来上がったシステムを尊重して、社会に不可欠な存在になるように支援していきましょう。
まとめ
元のアシロマ23原則は、政治や長期的な問題についてまで論じている素晴らしい内容で、著名人も参加を表明しているようです。
その中から、現在でも役立ちそうな7つに凝縮することでお伝えしてみました。
元の23原則では、政治や投資・長期的な問題にまで及ぶ大規模なものです。気になる方はこちらも読んでみると面白いかと思います。