会員ページへmember
カテゴリー
キーワード

AIの脅威を防ぐ「アシロマAI 23原則」とは?その内容や重要性をわかりやすく解説!

本記事では、アシロマAI 23原則の項目を、重要性や期待される効果と共に解説しています。さらに、アシロマAI 23原則以外のAI・ロボットに関する原則も併せて紹介しているため、AIやロボットを利用したシステム開発を検討している方はぜひ参考にしてください。

         

『われはロボット』『ターミネーター』『マトリックス』『攻殻機動隊』……。人間が創造したAI(人工知能)やロボットが人類に反抗、あるいは支配や滅亡をもたらすアイディアは多くの物語で活用されてきました。

‟その可能性が最もかつ、急速に現実化しているのが現代”という言葉に納得感を覚える方は少なくないはずです。

2017年2月、人類にとって有益なAI開発のためのルールが23の原則としてまとめられました。スティーブン・ホーキング、イーロン・マスクなど科学・IT界の大物も支持を表明する『アシロマAI 23原則』について、本記事ではその内容や期待される効果について解説します。

Future of Life Institute「アシロマAI 23原則」

Future of Life Institute「アシロマAI 23原則」

2017年2月、AI研究において守るべき原則、AIが備えるべき特性や従うべきルールなど、幅広い観点で将来AIがさらに発展・進化(自動的なものも含む)を遂げることを見越したガイダンスである「アシロマAI 23原則」が発表されました。

「アシロマAI 23原則」はAIの安全性を研究する国際非営利団体『Future of Life Institute(生命の未来研究所)』によって管理されています。早速、その邦訳版を以下のリンク先でご確認ください。
(リンク:AI Principles Japanese

アシロマAI 23原則は、「研究課題」5原則、「倫理と価値」13原則、「長期的な課題」5原則で構成されています。各項目で、AIの発展に重要であるどのような内容が込められているのでしょうか。以下で確認しましょう。

「研究課題」

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。

・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。

・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。

・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

※出典:AI Principles Japanese┃Future of Life Institute

研究課題の項目では、有益な知能を持った人工知能を目標とし、開発チーム同士が積極的に協力し合って取り組むといった内容が原則となっています。

「倫理と価値」

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータを分析し、利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

※出典:AI Principles Japanese┃Future of Life Institute

倫理と価値の項目では、人工知能システムに安全性を持たせ、プライバシー保護のための権利が与えられるといった内容が原則となっています。

「長期的な課題」

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

※出典:AI Principles Japanese┃Future of Life Institute

長期的な課題では、人工知能能力の仮定に対する警戒や、自己改善が可能なシステムへの安全管理などといった内容が原則となっています。

以上がアシロマAI 23原則の全項目です。AIを利用したシステムを開発する際には、この原則を頭に入れ、守る必要があります。正しい方法で、人間にとって利益が出るような使い方が求められるでしょう。

また、2023年3月22日にGPT-4よりも強力なAIの訓練を6カ月間一時停止することを求めたオープンレターが公開され、話題となりました。その公開元こそがFuture of Life Instituteであり、アシロマ原則もその根拠のひとつとして取り上げられています。

生成AIの一般化と進化の機運が高まった2023年、同オープンレターはにわかにブレーキをかけるべく発表されたと受け取られる場合も多かったでしょう。しかし、それよりも数年前──ChatGPTなどのベースとなっている深層学習モデル「Transformer」が発表された2017年時点で、『アシロマAI 23原則』はまるで伏線のように発表されていたのですね。

アシロマAI 23原則に期待される効果

『アシロマAI 23原則』はあくまで大勢の支持を集めるコンセンサスであり、法的な強制力や罰則はありません。また、AIの発展に対し無用な足かせとなることを防ぎながら未来の人間にも制御できない発展可能性にも対処するため、「無秩序な知能ではなく、有益な知能」「建設的かつ健全な交流」「人間の価値観と調和する」のように定義は永遠に不可能と思われるような文言が多く含まれています。

そのため、『アシロマAI 23原則』は机上の空論ではないのか? 実際に効果を発揮しうるのか?そう疑問を抱く方もいるはずです。

しかし、GIZMODOの取材に対し、カリフォルニア大学の物理学者 Anthony Aguirre氏、カリフォルニア ポリテクニック州立大学のEthics Emerging Science Group(倫理と新興科学グループ)リーダー Patrick Lin氏といった人材は、人が原則の存在を認識したことによる様々な解釈自体が、AI開発によって致命的な問題が発生することの抑止につながることを指摘しています。

AIの発展が著しい現代、何らかの枠組みが必要なことには多くの方が同意されるでしょう。『アシロマAI 23原則』はその思考を促す出発点としての役割を担ってくれると考えられます。

アシロマAI 23原則以外のAI・ロボットに関する原則

AI・ロボットに関する原則はアシロマAI 23原則に限定されるわけではありません。アシロマAI 23原則のほかにも、「ロボット3原則」や「AI-NW研究開発8原則」が存在します。それぞれどういった内容か詳しく見ていきましょう。

【ロボット3原則】

一つ目は、ロボットSF古典『われはロボット』で、アイザック・アシモフによって記述されたロボット三原則(以下)が思い浮かびます。

第一原則:ロボットは、ヒトを傷付けてはならず、又は、不作為によってヒトが危害に遭遇する事態を許してはならない。

第二原則:ロボットは、ヒトが与えた如何なる命令にも従わねばならない。但し命令が第一原則に反する場合を除く。

第三原則:ロボットは、自らの存在を守らねばならない。但し、第一原則又は第二原則と抵触しない場合に限る。
※引用元:AI-NW研究開発8原則 と ロボット工学3原則┃総務省

ロボットと人間が平和に共存できるための原則が、1950年に既に定められていたのです。

【AI-NW研究開発8原則】

二つ目は、「AIネットワーク社会推進会議」(総務省)が策定した「AI-NW研究開発8原則」です。この原則では、以下の8項目でAI倫理の指針が定義されています。

  1. 透明性の原則:AIネットワークシステムの動作の説明可能性及び検証可能性を確保すること。
  2. 利用者支援の原則:AIネットワークシステムが利用者を支援するとともに、利用者に選択の機会を適切に提供するよう配慮すること。
  3. 制御可能性の原則:人間によるAIネットワークシステムの制御可能性を確保すること。
  4. セキュリティ確保の原則:AIネットワークシステムの頑健性及び信頼性を確保すること。
  5. 安全保護の原則:AIネットワークシステムが利用者及び第三者の生命・身体の安全に危害を及ぼさないように配慮すること。
  6. プライバシー保護の原則AIネットワークシステムが利用者及び第三者のプライバシーを侵害しないように配慮すること。
  7. 倫理の原則:ネットワーク化されるAIの研究開発において、人間の尊厳と個人の自律を尊重すること。
  8. アカウンタビリティの原則:ネットワーク化されるAIの研究開発者が利用者等関係ステークホルダーへのアカウンタビリティを果たすこと

※引用元:AIの研究開発の原則の策定┃総務省

さらに2023年6月にはEUにより世界初の「AI規則案」が採択されました。4段階でAIのリスクが分類され、レベルに応じて活用禁止や要件のクリアなどの条件が課せられます。

まとめ

本記事では、アシロマAI 23原則を紹介し、その効果や他のAIに関する原則を紹介しました。

人間と同様に思考することが可能なAGI(汎用人工知能)が誕生し、人類の知能を人工知能が凌駕するシンギュラリティ(技術的特異点)はいつか? 従来は2045年という意見が支配的だったように思われますが、「ディープラーニング技術の発展により2029年ごろに早まった」「すでにAIは一部の能力で人類を超えている」などさまざまな意見が勃興し、もはや検討さえもつかないというのが筆者の正直な感想です。

来たるべき(あるいはすでに来ている)そのときに備え、AIと人類の向き合い方について人類側の一員として考えておきましょう。

宮田文机

 

参照元

メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。


データ活用 Data utilization テクノロジー technology 社会 society ビジネス business ライフ life 特集 Special feature

関連記事Related article

書評記事Book-review

データのじかん公式InstagramInstagram

データのじかん公式Instagram

30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!

おすすめ記事Recommended articles

データのじかん会員なら、
全てのコンテンツが
見放題・ダウンロードし放題
 

メール会員でできること

  • 会員限定資料がすべてダウンロードできる
  • セミナー開催を優先告知
  • 厳選情報をメルマガで確認
 
データのじかん会員について詳しく知りたい方
モバイルバージョンを終了