2023年3月18日土曜日

AIの3原則

 芳賀高洋さんのFacebookでAIについての話題が続いていた。その中で,美馬のゆりさんが学びに行ったスチュアート・ラッセルの著書「AI新生―人間互換の知能をつくる(Human Compatible)」が紹介されていた。DeepLでそのWikipediaのページを要約すると,次のように訳されるAIの3原則というのがあった。

1. 機械の唯一の目的は、人間の好みの実現を最大化することである。

2. 機械は、それらの好みが何であるかについて、最初は不確実である。

3. 人間の好みに関する究極の情報源は、人間の行動である。

なんだか意味不明だったので,GPT-4に聞いてみたところ,適確な回答が得られた。

Q: Stuart Russell の3原則について詳しく説明してください

A: スチュアート・ラッセル (Stuart Russell) は、AIの安全性と倫理に関心を持つ著名な人工知能研究者であり、彼が提唱する3つの原則は、AIの開発と導入において考慮すべき重要な指針となっています。彼の3つの原則は以下の通りです。

1. 有益な目的の追求 (The Pursuit of Beneficial Goals):

スチュアート・ラッセルは、AIが人間にとって有益な目的を追求するべきであると主張しています。これは、AIが人間の価値観や倫理観に沿って動作し、人間の福祉を向上させることを意味します。AIは、悪用されたり、人間に対して危害を与えたりすることのないよう、その目的が適切に設定されるべきです。

2. 人間の価値観の尊重 (Respect for Human Values):

ラッセルは、AIが人間の価値観を尊重し、それに従って行動することが重要であると主張しています。これは、人間の文化、信念、個人的な価値観を理解し、それに基づいて適切な判断を下すAIの開発を意味します。また、AIは人間の自主性を尊重し、決定を支援する一方で、最終的な選択肢は人間が行うことを尊重するべきです。

3. 透明性と理解可能性 (Transparency and Understandability):

AIシステムは、その動作や決定プロセスが透明であり、人間にとって理解しやすい形で開示されるべきです。これは、AIがどのように働いているのか、どのような基準で決定を下しているのかを明確にし、それによって人間が信頼を寄せられるようにすることが重要であるということを意味します。

スチュアート・ラッセルの3つの原則は、AI開発者や政策立案者にとって、AIの倫理的な開発と導入において考慮すべき重要なガイドラインを提供しています。これらの原則に従ってAIが開発されることで、人間の福祉を最大限に向上させることができるとされています。

GPT-4が優秀なので,本や論文を読むかわりに,その要約を調べてもらうことが多くなった。その結果,このブログに自分の考えをまとめて書くという過程が,GPT-4の結果を引用するという,より安易で自分の手間を減らすことができることにどんどん置き換えられつつある。おいおい大丈夫か。こうして,自分の読解力も思考力も表現力も奪われていくのだった。これに年齢進行による惚けが加わるので,なんというか。

ところで,自分ではこの結果を原著にあたって確認していないのだけれど,大丈夫かな。

0 件のコメント:

コメントを投稿