2023年4月13日木曜日

アシロマAI原則

 2017年1月,カリフォルニア州アシロマに,全世界から AI の研究者と経済学,法律,倫理,哲学の専門 家が集まり「人類にとって有益な AI とは何か」を5日間にわたって議論した。

 その成果として2017年2月3日に発表されたのが「アシロマ AI 23原則」(Asilomar AI Principles)である。 この原則は,AI の研究課題,倫理と価値,将来的な問題の3つの分野に関して,研究開発のあり方,安全 基準の遵守,透明性の確保,軍拡競争の防止,プライバシーと人格の尊重など,幅広い視点からの提言がなされている。その原則は以下の通りである。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

0 件のコメント:

コメントを投稿