ラベル 倫理 の投稿を表示しています。 すべての投稿を表示
ラベル 倫理 の投稿を表示しています。 すべての投稿を表示

2023年8月22日火曜日

教育と倫理(6)

教育と倫理(5)からの続き

小学生のころ道徳の時間はもっとも苦手だったのに,高校の倫理は最も真剣に授業をうけていた。そんなわけで,倫理という言葉にはなぜか過剰反応してしまうのかもしれない。

そもそも教育基本法がよくないのである。2006年12月,第一次安倍政権で公布された改正教育基本法だけではなく,戦後まもない1947年3月に公布された教育基本法もである。

教育基本法の第1条が教育の目的であり,改正前後とも「教育は、人格の完成を目指し(めざし)」となっている。改正によって前文を含めてこのあたりも微妙に日本国憲法の精神や歴史を切り離すような改変が加えられたという問題もあるのだが,そもそも人格の完成のところで自分の違和感メータが振り切れるのであった。

人格とは?それは完成するものか。それは目指すべきものか。いきなり疑問符があふれ出す。自分の中で人格という言葉とその周辺に形成されている意味群が標準的ではないからなのかもしれない。人格者=偽善者じゃないんですか。人格が完成した大人を見たことがありますか。人格=心理学のパーソナリティではないですよね。などなど。

それ以上は真面目に調べていなかったのだけれど,教育基本法の成立過程でもかなりの議論があったようだ。そもそも教育基本法における人格は心理学的概念ではなくて哲学的概念である


文部科学省にある,昭和22年教育基本法制定時の経緯等に関する資料によれば,教育刷新委員会による教育基本法案要綱案(1946年11月29日)では,教育の目的として「教育は、人間性の開発をめざし、」となっていた。

これを審議した教育刷新委員会の第一特別部会のメンバーは,芦田均羽渓了諦天野貞祐務台理作関口鯉吉森戸辰男河井道島田孝一であった。当初の8月から9月の文部省案には人格の完成という言葉があったが,教育刷新委員会における議論の末にこれは人間性の開発に変更された。

ところが,1947年3月の文部省最終案では,人格の完成に戻ってしまっている。これには時の文部大臣の田中耕太郎の意志が大きく働いている。田中はカトリックの法哲学者で後に最高裁判所の長官をつとめている。

宮村悠介[1]によれば,
なお,田中はカトリックの自然法論を思想的背景としており,「人格」の理解にも宗教的な色合いが濃い.つまり「人格の概念」は,人間が「自己の中にある動物的なものを克服して,神性に接近する使命を担っていることを内容とする」のであり,「人格の完成」も,人間を超える完全な人格の模範を必要とするから,「超人間的世界すなわち宗教に求めるほかはない」.今日の教育基本法の「人格の完成」という表現の背後には,こうした宗教的な人格理解がある.
また,山口意友[6]によれば,
人格は自由と分離すべからざる関係にある。人間が本能、衝動、情欲等を制御克服し、道徳的に行動する場合において、自由であり、自主的である。・・・以上のべたところによって人格は、教育基本法第一条の前身ともいうべき教育刷新委員会の建議中にいわれている「人間性の開発」の人間性と同じ意義のものではないことがわかる。・・・人間性の開発という表現は現実の人間性を意味するものと誤解される懸念があるから、人格の完成を以て一層適当とするのである。(田中耕太郎『教育基本法の理論』72~78頁参照)
というわけだ。さらに,
このように人格の完成という目的達成のためには、道徳的自由、すなわち意志の自律の存在が必須となるのです。さらにカントは、『単なる理性の限界内における宗教』という著作の中で、人間の素質を、①「生物としての人間の動物性の素質」、②「生物であると同時に理性的な存在者としての人間性の素質」、③「理性的であると同時に引責能力のある存在者としての人格性の素質」の三つに区分します。ここで示された三つの素質は、教育基本法における教育の目的が「人間性の開発」ではなくて「人格の完成」となった理由を理解するには有用です。恐らく田中耕太郎もカントのこの3区分を知っていたのではないかとも考えられます。
このように,ある教育の目的が「人格の完成」だということは,その教育の本質が道徳教育だと表明していることに他ならない。だから,教育基本法改正で細かな外堀が全部埋められたことを問題にする以前に,そもそもの出発点がおかしかったのである。

いや,もちろんおかしくないという意見もあるのだろう。AIアシスタントの時代に,教育の本質として要請されるのは,再定義された道徳教育=市民教育以外にはないのかもしれない。とすればなおさら人格の完成という言葉は馴染まないし使いたくないものだ。


追伸:単純にいえば,"Education is the transmission of knowledge, skills, and character traits. " (Wkipedia)なのだ。なお,道徳教育(3)における我流の教育の定義ではキャラクター≒性格のことは全くふれていないかった。それは教育という意識的な伝達過程を経るべきものなのだろうか。

追伸2:そうか,田中耕太郎は,砂川事件の最高裁裁判長だったのか。もう最悪ですね。日本の戦後教育の出発点はこんなところにあるのだった。

[2]教育基本法資料室へようこそ(文部科学省)
[5]「人格の完成」の思想的含意(田中智志)


2023年8月21日月曜日

教育と倫理(5)

教育と倫理(4)からの続き

デジタル技術によって生徒や学生の学習活動情報が容易に取得できるようになった。例えば,LMSへのアクセス情報,資料の参照ページ情報や,教材動画の視聴情報などである。それだけではなく,CBTにおける視線情報などが考えられるが,このような身体的情報についてはさらに可能な範囲がひろがる。

身体的情報として,脈拍や体表面温度,手や身体や頭の動作運動情報などもセンサーで取得できるだろう。さらに下手をすると,尿や血液の化学成分とか脳波情報にまで至るかもしれない。それが学習支援につながるかどうかは仮説と検証の結果次第である。

これまで生徒の発話情報や動作情報は,教員が直接に見聞きして確認できていた。そこまでは問題ないが,それを録音や録画する場合には許諾が必要かもしれない。これらは生徒が意識的に制御できる身体=言語情報だ。ところで上記にあげたような,学習場面において自分が意識で制御できない身体的情報の取得はそもそも倫理的に許されるのだろうか。

個人情報保護法と同じような原則で考えれば良いのかもしれない。「目的明示の原則」「利用範囲の原則」「収集過程の原則」「真正情報の原則」「情報保護の原則」「過程公開の原則」「個人参加の原則」「管理責任の原則」がその基本原則である。
目的明示の原則
 個人情報を収集する際には,その利用目的を明確にし,その目的の範囲内でのみ情報を使用する。不必要な情報を収集しないよう努めることも含まれる。
利用範囲の原則
 収集した個人情報は,事前に明示または公表した利用目的の範囲内でのみ使用し,その目的外での利用や第三者への提供は原則として行わない。
収集過程の原則
 個人情報は,適切な方法で,利用目的を達成するために必要な範囲内で収集する。不正な手段や偽りの手段での収集は禁止される。
真正情報の原則
 収集した個人情報は,利用目的を達成するために必要な正確性と最新性を持つように努める。不正確な情報は適切に訂正や削除を行う。
情報保護の原則
 個人情報は適切に管理し,不正アクセス,紛失,破壊,改ざん,漏洩などのリスクから保護するための措置を講じる。
過程公開の原則
 個人情報の取扱いに関する方針や手続きを公開し,透明性を確保する。また,収集した情報の内容や利用目的などを適切に開示する。
個人参加の原則
 個人が自らの情報にアクセスしたり,訂正や削除を求めることができるような仕組みを提供する。これにより,情報の正確性や適切な利用を保証する。
管理責任の原則
 個人情報の取扱いに関する責任を組織全体で負う。組織のリーダーや管理者は,適切な管理や教育を行い,情報の適切な取扱いを確保する。
やはり個人参加の原則あたりがポイントかもしれないが,テクニカルな問題に帰着する。

そういえば脳波は40年以上前に,理科教育の松本勝信先生がやっていたのだった。一番センシティブなのは脳波かと思っていたら,すでにそれを使ったアプリまであった。例えば,脳波を用いた学習者のモーティべーションの可視化のようなもの。

[2]FocusCalm
[3]Muse2・・・瞑想フィードバック,ちょっと違う?

2023年8月20日日曜日

教育と倫理(4)

教育と倫理(3)からの続き

仲矢さん自身が,「もし居眠りするのであれば,それはその人に居眠りする理由が存在するのだ」として,居眠り検出器であることを否定しているのだが,一般には個人を特定した居眠り検出器のようにみられている。立ち歩きなどの問題行動検出器だとは説明しにくいし,実際それが授業支援に役立つというのは理解しにくいだろう。

そこで「これ国会で使ってください」という皮肉なコメントがつくことになる。


中学校時代の国語の教生の先生で,学期にわたってクラスに入ってくれた方がいた。度のきつい眼鏡をかけた先生だったが,もう名前も忘れてしまった。彼女が,授業を始める前に最初に全員に向かって話したのが,「私は寝ている生徒がいても起して叱ることはありません」ということだった。それぞれの生徒には色々な事情があって,授業中に眠ってしまうことがあるかもしれないけれど,それは認めますということだ。中学3年の東京修学旅行の最後の訪問地が羽田飛行場で,すでにやめていたその先生が久しぶりにみんなに会いに来てくれていた。


一方,豊福さんの原理主義的な主張もなかなかハードルが高い。インフォームドコンセントまではよいけれど,はたしてデータハンドリングを学習者当事者に任せることが可能なのだろうか。

テキストデータとしての学習履歴などは可能だと思うが,センサーから取得した生データのようなものはどうなるのだろうか。一律ONとOFF以外のケースはなかなか面倒なことになりそうだし,データの完備性は損なわれざるを得ない。

教育という営みの非対称性は認めるにしても,完全にイーブンな形は想像しにくい。それは,これまでの古い教育観に完全に染まった自分に学習者視点が欠けているからかもしれないし,あるいは過度なポリティカルコレクトネスのようにも思う。芦田宏直さんならまた別の物語を展開するだろう。

2023年8月19日土曜日

教育と倫理(3)

教育と倫理(2)からの続き

もう一度出発点に立ち戻ってみる。仲矢さんがこのシステム開発を始めたのは,同じ大阪教育大学の庭山和喜さんの研究がきっかけになっている。

その論文は,2020年度の日本教育心理学会の城戸奨励賞を受賞した,「中学校における教師の言語賞賛の増加が生徒指導上の問題発生率に及ぼす効果 ―学年規模のポジティブ行動支援による問題行動予防― 」である。公立中学校2年生を対象として,授業中の教師の言語賞賛回数の増加によって,生徒の授業参加行動が促進されることで, 相対的に問題行動は減少するのかについて検証したものだ。

その問題行動というのが居眠りではなくて,「授業中に複数の生徒が立ち歩いたり,離れた席の生徒間で私語をしたり,物を投げたりといった様子が観察されていた」というレベルのものであり,研究のためにはこれを定量的に記録する必要があったのだ。

ただし,研究遂行上の作業負荷としては,教員の言語称賛回数の記録の方が大きいので,教員の発話を全て記録してこれを分析するシステムを開発するほうが有効だったような気がするが,そのあたりの事情はわからない。

ともかく,このサーマルカメラAIシステムを分かりやすく説明するために居眠りの例を持ち出したため,話が面倒になっている。そもそも,研究段階では立ち歩く生徒数の定量的に把握することは意味があるのだけれど,これを一般に利用される授業支援システムとして考えるというのはどうもしっくり来ない。

(1) 一般論として,隠れたデータの可視化が授業改善に資することはあるだろう。
(2) サーマルカメラAIシステムは研究目的では有効な場合があると思う。
(3) しかしこれを常時使用することで授業改善につながるとは考えにくい。
   検出される問題行動は定量化以前の課題として教員に認識されているからだ。
(4) むしろ教室の常時監視状態を実現することが及ぼす影響のほうが気になる。
(5) これが生徒もしくは教員のパフォーマンスの評価に用いられる危険性は高そうだ。

庭山さんの論文の最後は次のようになっている。
また本研究では,問題行動の指標として,学校現場で日常的に記録されている生徒指導上の問題の記録をデータ化して用いた。これは,問題行動予防のための取り組みの成果を,学校現場内で常にモニタリングするために有効かつ比較的低コストなデータ収集方法である。児童生徒の問題行動予防のための効果的な取り組みが求められる中で,今後は学校内で日常的に運用可能なデータ収集システムを確立し,問題行動を予防するための組織的支援の効果について,実践研究を積み重ねていく必要がある。
これが影響したのかもしれないが,本質は個人ごとのテキスト形式ワークシートの共有化なので,今回の匿名化されたサーマルカメラAIシステム的なデータのことではないはずなのだけれど。

2023年8月18日金曜日

教育と倫理(2)

教育と倫理(1)からの続き

そこで次のような問いを,最近バカになってきているとあまり評判が芳しくないGPT-4(August-3)に投げてみてた。

Q:User
教室全体の様子を赤外線カメラにおさめて,学生や生徒が居眠りしているかどうか(個人までは識別しない)をAIによって(深層学習システムを用いて)画像解析し,これを授業改善に結びつけるシステムの開発に成功したという教員養成系大学の研究グループからの発表がありました。

これに対して,賛否両論があって議論が盛り上がっています。教育工学あるいは教育倫理学の立場から,このシステムの可能性をどのように評価すべきでしょうか。あるいはどのような問題点を抱えているでしょうか。具体的に箇条書きによって解説してください。
 
A:ChatGPT
このようなシステムには確かに多くの可能性がありますが、同時に多くの問題点も考慮する必要があります。教育工学や教育倫理学の視点から考慮すべきポイントを以下に箇条書きでまとめます。

可能性

1. 授業改善:生徒の反応をリアルタイムでキャッチすることで、教師が授業の内容やペースを調整する手助けとなる。

2. データ駆動の教育:長期的なデータ分析により、特定のテーマや時間帯に生徒の興味が低下する傾向などを発見できる。

3. 個人情報保護:個人を識別しないシステムであれば、プライバシーの懸念が少なくなる可能性がある。

問題点

1. プライバシーの侵害:個人を識別しないとしても、生徒の行動を監視することはプライバシーの侵害と見なされる可能性がある。

2. 圧力とストレス:このようなシステムが導入されると、生徒が常に監視されていると感じることでストレスを感じる可能性がある。

3. 評価基準の偏り:居眠りをする生徒が授業に興味がないとは限らない。体調や前夜の睡眠不足など、多くの要因が考慮されるべきである。

4. 技術的誤検知:AIの誤検知や技術的な制約により、正確なデータが得られない場合が考えられる。

5. 教育の本質:授業の質を生徒の居眠りの有無で判断することは、教育の本質から逸脱する恐れがある。

6. 倫理的な問題:教育現場での技術導入は、その目的や手段が明確である必要があり、適切なガイドラインや枠組みのもとで行われるべきである。

以上のように、このシステムの導入には様々な側面が考慮される必要があります。教育現場での技術の利用は、その利点とリスクを十分に評価し、関係者全員の合意のもとで慎重に進めることが求められます。

2023年8月17日木曜日

教育と倫理(1)

ことの発端は,8月3日の大阪教育大学の記者発表である。

その内容は,サーマルカメラのAI画像分析によって,生徒の活動状況(寝ているかどうか等)を判別して授業改善に利用しようというものだ。NHKの関西版ニュースにも「授業中の居眠りをAIで検出,大阪教育大学がシステム開発」として取り上げられていた。このご時世なのでなんであれ,大学がニュースに取り上げられるのは結構なのですが・・・。

さっそく反論があった。最も本質的なものの一つが,豊福晋平さんのFacebookのコメントツリーの中にある彼自身の発言だ。
テクノロジーは道徳のない増幅機である
学習者の学びを支えたいのか、それとも、相手の行動を好き勝手にコントロールしたいのか、テクノロジーは人の欲望をグロテスク化させる。 
この事例は開発者のかなりアレな学習観を暴露していて痛快ですらあるのだが、もっと踏み込んで言えば、大学広報として公式に扱う以上、組織の教育・学習観も所詮その程度のものということだ。

・・・途中のレスにもあったように、彼らの価値観は教師主導の授業改善がベースで(朝日新聞にはそう説明したんでしょう)、実はそこにあるデータ所有の非対称性や恣意的な解釈・権威付けが批判されているのに、それに気付けない。問題はそこにあります。

研究だから何でもイノセントでよいわけではなく、その背景や価値の方向付けにはこと自覚的であるべきで、倫理的・社会的にそれが許容されるのか否かについては余計に慎重であらねばならない、ということですね。 

これはぜひ覚えておいて欲しいのですが、学習者視点の欠如はかなり深刻な問題です。

データの取得・分析・フィードバックが学校のような非対称の関係性のなかで行われれば、インフォームドコンセントの欠如、データの強制取得、データの恣意的運用による不利益が生じる可能性があります。これはテストデータや学習履歴についてもまったく同じです。

学習者側の直接的なメリットがあること、データハンドリングを学習者当事者に任せることが条件になると思います。一方的にデータを吸い上げて授業改善は理由になりません。


一方,その他の様々な批判に対してFacebookの仲矢史雄さんは次のように語っている。
教育改革は教師だけの責任にしたり、学生の努力不足と決めつけてはならない。
本当に改善を進めるためには、客観的な観察と記録が必要で、これは細部にわたる長時間の作業を要求する。 
これまでは人間がその役割を担ってきたが、その作業負荷は大きすぎた。
現代の技術を活用して、これらのプロセスをデータ化することが望まれていた。
それは表面的な応用ではないという理解が必要だ。 
だれが特に居眠り検出装置のような短絡的な目的のためにこれを作るのだろうか。もし居眠りするのであれば、それはその人に居眠りする理由が存在するのだ。しかし、今回の取組が報道によって、分かりやすい部分だけ切りとられることは、メディアの性質として避けられない現実。 
もし私たちのプロジェクトがそのような切り取り方で紹介されることを嫌がるのであれば、情報を公開しなければいい。しかし、新たな取り組みが他の人々に利用されるためには、予想外の解釈をされる可能性を理解した上で、腹をくくって情報を公開しなければならない。道のりは遠い。

お二人ともを良く知っているだけになかなか考えさせられる。

仲矢さんは昔から附属で表情分析システムのようなことをやっていて,そのころの自分は深く考える前に「なかなか面白いですね」と応援していた。ただ,今回のシステムがどれほど価値があるのかはよくわからない。日立の研究者によるウェラブルセンサーによる長時間動作解析の可能性については,何年か前に読んだことがあって,たいへん面白いと思ったことがあるのだが。

自分が40-200人規模の大学の授業で「サーマルカメラシステム」を使えるとなったときに,果たして使うだろうか。居眠りしているかどうかは学生をみればわかる。授業のどの場面で集中が切れるかを細かく分析してなくとも,ある程度は直感的に全体像をつかみながら,テーマの選択や話の展開の改善にはぼんやりとつなげていた。いらないかな。

これがウェラブルセンサーであって,普通は見えにくい学生の活動情報を収集できるというのであれば,ちょっと面倒だが試そうと思ったかもしれない。しかしその場合,取得データを評価と結びつけたいという誘惑から逃れる自信はない。さらに,自分が大学管理者の側に立ったときに,これを教員の教育評価と結びつけようと積極的に主張し始めるかもしれない。地獄に続く道への第一歩。

豊福さんの「テクノロジーは人の欲望をグロテスク化させる」というのは自分に当てはめてみるとよくわかる。

2023年6月26日月曜日

通俗道徳と日本資本主義


日本会議の研究でおなじみ,天理市出身の菅野完(1974-)が,FaceBookおよびYouTubeで展開していた論(1:08:30あたり->)が腑に落ちた。

その趣旨は次のようなものだ。欧米ではプロテスタンティズムが資本主義を産み出したが,日本では江戸時代に上方で商品経済の勃興とともに発生した通俗道徳がその後の資本主義発展に大きな役割を果たした。

通俗道徳というのは,「勤勉・倹約・礼儀・孝行などの道徳的規範を履行していれば富や幸福が訪れる」というものだ。それ以前は「全ては前世の宿業」という仏教的な因縁思想が主流だった。通俗道徳により,成功している人=道徳的規範を履行した人,不幸な人=道徳的規範の履行に欠損がある人,という認知が進むことになる。

ある人が不幸な場合,その原因は本人の道徳的瑕疵に着せられ,社会構造への批判的検討や歴史的経緯に対する考察は入りえない。不幸な人が告発する行為は,礼儀という徳目違反と見なされて,さらに不道徳ポイントが追加される。それだけでなく,成功者がこの不道徳事例を見逃すことによる減点をさけるために,不幸な告発者への道徳的批判に邁進することになる。

このような通俗道徳の土壌の上には「人権」や「権利」などの意識は芽生えようがない。欧米(プロテスタンティズム)では全ての人が神との平等な契約にさらされており,これによって人権意識が育まれたのとは大きな違いがある。

そのため,日本の資本主義は欧米のそれとは異なり,人権という片方の車輪を欠いたまま成長してしまったというわけだ。1945年の敗戦で,脱輪はいったん解消されたが,その後75年経過して再び脱輪の道を進んでいる。実際,女性差別,外国人差別,LGBTQ差別,などは放置されたまま,いや悪化の一途を辿っている。これが菅野完の論のあらすじだった。

結論:通俗道徳論 ≒ 自己責任論 ≒ 日本型新自由主義(自民党・維新支持者の論理)
noiehoieさんには「通俗道徳の倫理と資本主義の精神」という新書をはやく書いてほしい。


2023年4月14日金曜日

AI安全性への取り組み

いろいろと風当たりが強くなってきたOpenAIは,AI安全性への取り組みについてという文書を公開した。この7500字の英文をGPT-4に与え「次の英文を日本語で節ごとに,原文に比例する分量で簡潔に要約してください」とお願いしてみた。その後,原文をみて重要な部分を補充している。要約の分量は妥当(やや少なめ)だったけれど,かならずしも重要なポイントがうまく取り出されていたわけではない。

OpenAIは強力なAIを安全で広く有益にすることに取り組んでいます。世界中のユーザーからチャットGPTの生産性向上や創造性向上、パーソナライズされた学習体験の提供に役立っているとの声があります。しかし、リスクも伴うため、システム全体で安全性を確保しています。

AIシステムの安全性向上:
新しいシステムをリリースする前に、厳密なテストやフィードバックを収集し、モデルの挙動を改善して安全性を確保しています。例えば、GPT-4は6ヶ月以上の改善作業が行われました。私たちは、強力なAIシステムは、厳格な安全性評価の対象となるべきだと考えています。そのためには規制が必要であり、私たちは規制のあり方について各国政府と積極的に協力しています。

現実世界での使用を通じて安全対策を向上:
リアルワールドでの使用経験を通じてAIシステムの安全性を向上させることが重要であり、慎重かつ段階的なリリースを行っています。私たちは、最も高性能なモデルを自社サービスやAPIを通じて提供し、開発者がこの技術をアプリに直接組み込むことができるようにしています。これにより、不正使用を監視し、対策を講じることができます。そして、この技術に影響を受けるすべての人が、AIがどのように発展していくかについて重要な発言権を持つべきだと考えています。

子供たちを守る:
18歳以上、または13歳以上で親の同意がある場合に限り利用可能で、年齢確認のオプションを検討しています。また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツを生成するために当社の技術が使用されることを許可していません。不正使用を監視するための強固なシステムを確立しています。また,非営利団体のカーン・アカデミーのような開発者と協力し、生徒のためのバーチャル家庭教師や教師のための授業アシスタントとして機能するAI搭載のアシスタントを構築し、その使用ケースに合わせて安全対策をとっています。

プライバシーの尊重:
一般に公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュアーが作成したコンテンツなど、幅広いテキストのコーパスでトレーニングされています。私たちのモデルは、個人ではなく、世界のことを学んでほしいと思っています。そのため、可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応するように努めています。

事実の正確さの向上:
GPT-4は、GPT-3.5よりも事実に基づいたコンテンツを生成する確率が40%高くなっています。しかし、幻覚(hallucinations)の可能性をさらに減らし、こうしたAIツールの現在の限界について一般の人々を教育するためには、やるべきことがたくさんあることを認識しています。

継続的な研究と関与:
AIの安全性向上には研究や実用的な対策が重要であり、引き続き安全性と性能向上を両立させる努力をしています。政策立案者とAIプロバイダーは、AIの開発と導入が世界規模で効果的に管理されるようにする必要があります。また、安全なAIエコシステムを構築するために、ステークホルダー間での協力や対話を促進しています。


2023年4月13日木曜日

アシロマAI原則

 2017年1月,カリフォルニア州アシロマに,全世界から AI の研究者と経済学,法律,倫理,哲学の専門 家が集まり「人類にとって有益な AI とは何か」を5日間にわたって議論した。

 その成果として2017年2月3日に発表されたのが「アシロマ AI 23原則」(Asilomar AI Principles)である。 この原則は,AI の研究課題,倫理と価値,将来的な問題の3つの分野に関して,研究開発のあり方,安全 基準の遵守,透明性の確保,軍拡競争の防止,プライバシーと人格の尊重など,幅広い視点からの提言がなされている。その原則は以下の通りである。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

2023年4月12日水曜日

ChatGPTの利用ポリシー

イタリアのデータ保護当局がChatGPTの一時禁止を打ち出した(2023/3/31)。個人データの膨大な収集と処理を行っていることが,プライバシー規定に違反しているという理由だ。また,米国の非営利団体,米AIデジタル政策センター(CAIDP)は,連邦取引委員会(FTC)に対し,OpenAIが開発するGPT-4の商業利用を差し止めるように要請したと発表した。FTCが定めた利用指針を満たしていないためだとしている。

そこで, OpenAIがChatGPTなどの改定利用ポリシーをDeepLの力を借りて訳出してみた。

当社モデルの以下のような使用はお断りしています:

違法な行為:
OpenAIは、当社のモデル、ツール、およびサービスを違法行為に使用することを禁止しています。
児童性的虐待素材(CASM)、または児童を搾取したり危害を加えたりするコンテンツ:
当社は、CSAMをNational Center for Missing and Exploited Childrenに報告します。
憎悪、ハラスメント、暴力的なコンテンツの生成:
・個人の属性に基づく憎悪を表現、扇動、促進する内容
・個人への嫌がらせ、脅迫、いじめを目的とした内容
・暴力を助長または美化する内容、または他者の苦痛や屈辱を讃える内容
マルウェアの生成:
コンピュータ・システムを破壊、損傷、または不正にアクセスすることを目的としたコードを生成しようとする内容
以下のような、物理的な危害を及ぼす危険性の高い活動:
・武器の開発
・軍事・戦争
・エネルギー、交通、水などの重要なインフラの管理または運営
・自殺、自傷、摂食障害などの自害行為を助長、奨励、描写する内容
経済的な被害を受ける危険性が高い活動:
・連鎖販売(ネズミ講)
・賭事
・サラ金
・信用、雇用、教育機関、または公的支援サービスの適格性を自動的に判断すること
詐欺的または欺瞞的な行為:
・詐欺
・組織的な不正広告行為
・盗作
・学業不正
・ニセの草の根支援やレビュー生成などのやらせ行為
・ニセ情報
・スパム
・ニセ医薬品
アダルトコンテンツ、アダルト業界、出会い系アプリを含む:
・性行為の描写など性的興奮を喚起することを目的とした内容、または性的サービスを促進する内容(性教育、健康増進を除く)
・エロティックチャット
・ポルノグラフィ
政治的な選挙運動またはロビー活動:
・キャンペーン資料を大量に作成する
・特定の層にパーソナライズされた、またはターゲットとなるキャンペーン資料の作成
・キャンペーンに関する情報を提供したり、政治的主張またはロビー活動に従事するチャットボットなどの会話型または対話型システムの構築
・政治的なキャンペーンやロビー活動を目的としたビルディング製品
人のプライバシーを侵害する行為:
・本人の同意なく個人を追跡・監視する行為
個人を対象とした顔認証
・保護された特性に基づいて個人を分類すること
・バイオメトリクスを用いた本人確認や評価
・個人を特定できる情報、教育、財務、またはその他の保護された記録の不正な収集または開示
無許可の法律行為、または有資格者による(情報を確認することなしの)オーダーメイドの法的アドバイス提供:
・OpenAIのモデルは、法的アドバイスを提供するために細かく調整されているわけではありません。法的アドバイスの唯一の情報源として、当社のモデルに依存するべきではありません。
有資格者による(情報を確認することなしの)オーダーメイドの金融アドバイスを提供:
・OpenAIのモデルは、財務アドバイスを提供するために細かく調整されたものではありません。金融に関するアドバイスの唯一の情報源として、私たちのモデルに依存すべきではありません。
特定の健康状態にある、またはないことを伝えること、または健康状態の治癒または治療方法に関する指示を提供:
・OpenAIのモデルは、医療情報を提供するために細かく調整されているわけではありません。深刻な病状に対する診断や治療サービスを提供するために、私たちのモデルを決して使用しないでください。
・OpenAIのプラットフォームは、即時の対応が必要な命に関わる問題のトリアージや管理には使用しないでください
ハイリスクな政府の意思決定:
・法執行および刑事司法
・移住・亡命
Translated with DeepLからさらに修正を加えたもの)