ラベル 倫理 の投稿を表示しています。 すべての投稿を表示
ラベル 倫理 の投稿を表示しています。 すべての投稿を表示

2026年2月19日木曜日

道徳教育の不可能性と可能性

ケアの倫理からの続き


図:Nano Banana Proによる道徳教育の不可能性と可能性


A(ChatGPT+Gemini+Claude):

道徳教育の不可能性と可能性:主体化の政治学を超えて

序論:問いの転回――「何を教えるべきか」から「何が起きてしまうか」へ
道徳教育をめぐる議論は、しばしば「何を教えるべきか」という内容の問題に収斂する。構成主義的発達論伝統的価値観か、正義の倫理ケアの倫理か――こうした二項対立は、より良い教育内容を求めるあまり、道徳教育という営み自体が制度として成立する瞬間に何が起きてしまうのかを十分に問わない。

本稿が提起するのは、より根本的な問いである。そもそも道徳は「教育」できるのか。そして、できないとすれば、我々は何をなしうるのか

ここで言う「不可能性」は単なる懐疑論ではない。道徳教育の制度化が孕む構造的矛盾を明らかにし、その矛盾を自覚的に引き受けることでしか開けない実践の地平を描くための理論的作業である。そのために、不可能性を三つに区別しておく。
第一に、定義論的(論理的)不可能性である。道徳的行為が外的報酬や評価への志向から自由であることを含むなら、評価と記録を本性とする教育制度に道徳を載せることは自己破壊的である。
第二に、制度論的(実践的)不可能性である。教室は教師の権威、同調圧力、記録と評価の影によって既に構造化されている。そこでは「率直さ」や「葛藤」が自然に現れにくい。
第三に、政治倫理的不可能性である。もし道徳が完全に教育可能であるなら、それは内面にまで統治が貫徹した状態、すなわち全体主義的統制の完成に近い。
本稿はこの不可能性をもって道徳教育の放棄へは向かわない。むしろ不可能性を希望として引き受け、道徳を「教える」ことではなく、道徳教育が生む主体化を可視化し、それに批判的距離を共同で作り続けることとして「可能性」を再定義する。


第一部:道徳教育という制度の考古学――教科化が先鋭化した根本パラドクス
1.教科化が露呈させた矛盾――「評価しない」ことで評価が内面へ浸透する
道徳の教科化は、道徳教育が抱える矛盾を先鋭化させた。制度側はしばしば、数値で序列化しないこと、児童生徒の内面を点数化しないこと、討議を通じて考えを深めることなどを理念として掲げてきた(少なくとも導入期の公式説明ではそうであった)。一見するとこれは、道徳教育が「教え込み」を脱し、自由で開かれた学びになるための工夫に見える。
しかし、ここに教科化のもっとも根源的な逆説がある。数値を避けるほど、評価は消えるのではなく、より微細な形で内面へ移行する。点数ではなく文章で、序列ではなく「成長の様子」として、教師は児童生徒の語りや姿勢を記録する。そのとき子どもは、単に「正しく振る舞う」だけでなく、「正しく語る」「正しく振り返る」ことへと誘導されやすい。道徳は行為の倫理から、自己記述の戦略へと回収される。
ここで重要なのは、「数値評価か否か」ではない。教科である以上、道徳が必ず可視化され、記録され、教師の言語で名指されるという制度的要請そのものが問題である。道徳を評価しないという言説が、むしろ「評価される内面」を精緻に生産する可能性を持つ。教科化は矛盾を解消したのではなく、矛盾の形態を転換したのである。

2.教授の非対称性と自律の要請――「教えないで教える」権力
第二の矛盾は、教授の非対称性と自律の要請の矛盾である。教育は本質的に非対称的な権力関係――知る者と知らぬ者、教える者と学ぶ者――の上に成立する。他方で道徳教育は「自律的主体」を目標に掲げる。しかし他者から与えられた「自律」は、定義上、自律ではない。
このとき道徳教育は露骨な命令ではなく、洗練された形式を取る。討議を促す授業は「教えないで教える」技法である。教材選定、発問、称賛と沈黙の配置、議論の終結点――そこに教師の権力が埋め込まれる。子どもが自分で考えたように見える結論が、実は「望ましい方向へ誘導された自己決定」になりうる。強制が消えるのではなく、強制が内面へ折り畳まれるのである。

3.主体化装置としての道徳教育――内面化された自己統治の技術
フーコーの権力論を借りれば、道徳教育は単なる知識の伝達ではなく、主体化の技術である。価値項目は単なる内容ではない。それは自己を特定の様式で問題化し、規律し、語り直す技術の目録である。子どもは道徳の授業を通じて、自己を「こうあるべき主体」として構成することを学ぶ。
重要なのは、この主体化が外的強制ではなく、内面化された自己統治として機能する点である。アルチュセールの言う「呼びかけ」によって、子どもは自ら進んで特定の主体へと応答し、秩序を再生産する。しかも「評価しない」「押し付けない」「議論する」といった柔らかい公式言説は、主体化を弱めるどころか、「自由と自律の名において」主体化をより内面深く浸透させる可能性がある。ここに制度化された道徳教育の現代的な相貌がある。

4.新自由主義との共謀――分裂する主体の内面化
現代日本の道徳教育が特異なのは、一見矛盾する二つの主体を同時に要請する点にある。経済領域ではグローバル競争を生き抜く自己責任の個人が求められる。他方で文化・道徳領域では共同体への献身と伝統への従属が要請される。この分裂は偶然ではない。新自由主義的統治性は経済的に原子化された個人を必要とするが、その不安定性が生む解体を抑えるために道徳的統合を必要とする。道徳教育は、自由化の副作用を文化規範で塞ぐ補修材として機能しうる。
問題は、この補修が矛盾を解決しない点にある。むしろ個人の内部に矛盾を内面化させ、自己責任と共同体忠誠の両方を引き受けさせることで、より深い分裂を生むのである。


第二部:対抗言説の陥穽――批判が装置へ回収されるメカニズム
第2部の主題は「どの理論が正しいか」ではない。むしろ、批判的理論が教育制度へ輸送される瞬間に、いかにして統治技術へ変換されてしまうか、という回収メカニズムの解剖である。ここには少なくとも三つの変換がある。
第一に、診断(記述)が規範へ変換される。発達段階は本来「こういう推論が出やすい」という観察であっても、「こう到達すべき」という到達目標に化ける。ケア倫理もまた「こういう道徳経験がある」という記述から、「こう振る舞え」という徳目へ化ける
第二に、対話が産出物へ変換される。制度は授業を成果で管理したがる。討議はプロセスであるはずなのに、感想文、振り返り、評価文の材料として回収される。すると対話は「正しく語れる者が得をする」能力競争に変質し、沈黙や違和感は欠陥として扱われる
第三に、批判が技法へ変換される。批判は対象の前提を揺さぶる営みである。しかし制度は批判を「批判的思考」という技能に落とし込み、手順化し、評価可能な能力へ変えてしまう。批判は自由の回路ではなく、「批判的であるべき主体」を生産する規範となりうる。
この三変換が、以下の議論を貫く陥穽である。

5.構成主義の神話――普遍性という特殊性、抽象化という政治
コールバーグの道徳的発達理論は、しばしば「科学的」「価値中立的」な道徳教育の基盤とされてきた。しかし理論そのものが特定の文化的・歴史的前提に立脚している。最高段階は啓蒙主義的理性観と社会契約論に根差した「自律的個人」を前提とし、これを「発達」の頂点に置くことは他の倫理観を未熟と位置づける文化的暴力を含む
だが問題はそれだけではない。コールバーグのジレンマが道徳問題を文脈から切り離し抽象化する時、失われるのは生活感だけではなく、権力と構造である。抽象化はしばしば、構造的不正義を個人の判断問題へ矮小化し、「あなたならどうする?」という内面の清潔さの競技へと倫理を回収する。
とりわけ共同体規範が強い環境では、抽象化された討議形式は同調圧力に最も回収されやすい。討議が自由に見えるほど、実際には「正しい語り」の獲得として主体化が洗練されうる。ここに構成主義的道徳教育の制度的危うさがある。

6.ケアの倫理の陥穽――美徳化が搾取と沈黙の免罪符になる
ギリガンのケアの倫理は、正義中心の道徳観が切り落としてきた関係性・依存・応答性を取り戻す点で重要である。しかし制度に取り込まれると、ケアは容易に「思いやり」「やさしさ」という道徳美徳へ縮約される。縮約が起きると、ケアの政治性が消え、負担の配分の問題が不可視化される。ケアできない者が欠陥化され、ケアが沈黙を強いる(波風を立てないことが思いやりだとされる)方向に回収される
ゆえにケアの倫理を対抗言説として機能させるには、ケアを政治化し公共化しなければならない。問いは「思いやれるか」ではなく、「誰が、誰のために、どれだけ、どんな条件でケアしているか」でなければならない。

7.多文化主義の隘路――差異承認が「良い多数派」の自己像を支える儀礼になる
多文化主義的解決は魅力的に見えるが、文化の本質化、文化内部の抑圧の不可視化、そして「寛容/対話」という特定の価値の暗黙前提によって、洗練された同化主義になりうる。学校制度に入ると、多文化主義はしばしば「寛容である我々」という多数派の自己像を支える儀礼に変質する。少数者の経験は教材として消費され、差異は「理解される対象」に固定され、権力関係は透明化される。
したがって、対話を増やすだけでは不十分である。語りの所有権、拒否権、退出権、再編集権を含む制度設計がなければ、対話は支配の洗練で終わる。


第三部:不可能性を生きる――矛盾を引き受けた自己言及的実践へ
第1部で道徳教育が主体化装置であることが示され、第2部で批判理論さえ装置へ回収されうることが示された。ここから導かれるのは、道徳教育の放棄ではない。むしろ「可能性」の定義を変える必要がある。道徳教育の可能性とは、道徳を教え込む成功ではなく、主体化の不可避性を可視化し、それに対する批判的距離を共同で作る能力を育てることである。

8.「自律」概念の再構築――依存性の承認から応答可能性へ
従来の自律概念――カント的自己立法、サルトル的選択――は主体を他者や社会から独立した存在として想定しがちであった。しかし我々は常に既に言語、関係、制度の網の目の中にある。脆弱性と依存性は例外ではなく条件である。ならば自律とは、依存からの解放ではなく、依存を承認した上での応答可能性(response-ability)として再定義されるべきである。自律的主体とは自己完結した個人ではなく、相互依存の中で自己と他者の脆弱性に応答しうる存在である。
この再定義は、道徳教育が掲げる自律を内側から反転させる。与えられた自律ではなく、制度に媒介された依存と権力を見抜き、それでもなお応答を再設計する自律である。

9.アゴーン的対話――合意ではなく「非合意を扱う技能」を育てる
必要なのは、正解を教え込む教育ではなく、アゴーン的対話の空間である。ただし、アゴーンは「合意しなくてよい」という放任ではない。重要なのは、非合意を扱う技能を育てることである。相手を黙らせるのでも改宗させるのでもなく、互いに譲れない点を明確化し、それでも共に生きる手続きを探る能力である。
そして決定的に重要なのは、この対話が教師の善意に依存しないよう制度として設計されることである。教室は最初から権力によって構造化されている。ゆえにアゴーン的対話には、権力を隠すのではなく権力を議題化する自己言及的条件が必要になる。教師は「正解の保持者」ではなく「権力の臨時的行使者」として、教材選定・発問・記録の権力を言語化し、その是非を共同で検討する契機を対話そのものに組み込む。
また、評価と記録が避けられない以上、対話が「正しく語れる者が得をする」装置へ堕ちないためのガードレールが必要である。個人の内面を断定する記述の禁止、子どもが記録された自己像を訂正できる手続き、沈黙する権利、途中退出と相談への動線など、自己言及性を権利と手続きとして常設しなければならない
さらに、情動を開くほど、いじめ・差別・家庭事情・トラウマが噴出しうる。これを教師個人の力量に帰責すれば、新自由主義批判と矛盾する。複数の支援動線や介入基準を制度の側に持たせるセーフガーディングが、対話の前提条件となる。

10.ケアの政治化――親密圏を超えて「配分」と「可視化」へ
ギリガンのケア倫理を対抗言説として活かす鍵は、ケアの政治化である。トロントやヘルドが示すように、ケアとは「世界を維持し、継続し、修復する」すべての活動であり、子育てや介護だけでなく、インフラの維持、環境保全、制度設計を含む。ここにケアを置くと、道徳は個人内面の徳目から、社会の維持・修復の負担の配分へと転換される
この転換によって、道徳教育は「良い心」を育てる授業から、「誰のケアが可視化され、誰のケアが不可視化されているか」「ケアの責任はなぜ特定のジェンダー、階級、エスニシティに偏在するのか」「公正なケアの分配とは何か」という公共的問いを扱う場へ変わる。道徳を人格教育から構造的不正義の分析へと接続するこの回路こそが、第2部の陥穽(美徳化・私事化・消費)を超えるための必然性となる。

11.実践的提言:矛盾を教材化する――自己言及性の制度化
以上から導かれる実践の要点は、内容の刷新ではない。矛盾の露呈と自己言及性の制度化である。
道徳の授業の中に、道徳教育そのものを問う時間を組み込み続ける。「なぜ道徳を学ぶのか」「誰がこの内容を決めたのか」「評価や記録が私たちの語り方をどう変えるのか」という問いを、子どもと教師が共同で対象化する。主体化装置を反転させる最短の導線は、装置を見えるようにすることである。
次に、価値項目を葛藤なき規範として提示せず、価値間の衝突として提示する。規則の尊重と正義の実現、家族愛と個人の自由など、葛藤を解消せずに保持する力――ネガティブ・ケイパビリティ――を養う。道徳教育の可能性があるとすれば、それは葛藤の耐久力として現れる。
越境的対話もまた重要であるが、それは表層的な交流ではなく、構造的不平等を可視化する対話でなければならない。同時に、語りが教材として消費されないよう、語りの所有権と拒否権を制度として保障する必要がある。
最後に、教師の脱中心化である。教師は「道徳の模範」ではなく「共に惑う者」として迷いを開示する。ただし権力は放棄できない。その矛盾を隠蔽せず、「私はここで権力を行使している」と明示し、批判の対象に差し出す。教師の善意ではなく、手続きとしての透明性が鍵である。


結論:希望としての不可能性――徳は教えられないが、問いは共同化できる
本稿は、道徳教育の不可能性を論じてきた。道徳は評価できない、教授できない、統一できない。しかしそれは絶望ではない。もし道徳が完全に教育可能であるなら、それは内面統治の完成を意味する。不可能性こそが、押し付けられた規範への抵抗、予期せぬ生成、他者性への開かれを保証する。
我々が目指すべきは、矛盾のない完成された道徳教育ではなく、矛盾を可視化し、矛盾と共に生きる技法を共同で作る場としての学校である。そこでは子どもも教師も、正解を知っている者としてではなく、共に問い、惑い、試行錯誤する存在として出会う。
プラトンが『メノン』で問うた「徳は教えられるか」という問いに、本稿はこう答える。徳は教えられない。しかし、徳への問いは共有できる。そしてその共有――制度が生む主体化を可視化し、そこに批判的距離を共同で作り続けること――こそが、我々にとっての徳なのである。

参考文献への示唆
・Michel Foucault, “Technologies of the Self”
・Judith Butler, Precarious Life
・Joan Tronto, Moral Boundaries: A Political Argument for an Ethic of Care
・Virginia Held, The Ethics of Care
・Jonathan Haidt, The Righteous Mind
・Martha Nussbaum, Cultivating Humanity
・Hannah Arendt, “The Crisis in Education”



2026年2月18日水曜日

ケアの倫理

道徳教育(3)からの続き


写真:キャロル・ギリガン(New Statesman 2023から引用)


芳賀さんとTakuya KawaiさんのFacebookでの議論がきっかけだと思っていたが探しても見当たらない。ただ,芳賀さんがコールバーグの道徳性発達理論について基本知識のように言及していて,自分は全く知らなかったのがきっかけの一つだった。豊福さんによれば,JDiCEでケアの倫理がはやっていて,その火付け役が芳賀さんらしい。

ChatGPTとGeminiとClaudeに,道徳教育を背景として,コールバーグの正義の倫理(道徳性発達理論)とギリガンのケアの倫理を対比してもらった。


A(ChatGPT+Gemini+Claude+koshix):

道徳教育の基本には二つの大きな考え方がありうる。「何が正しいか」を論理的に判断する正義の倫理と「目の前の人にどう応えるか」を重視するケアの倫理である。

日本の道徳教育でもよく援用されるのが,心理学者ローレンス・コールバーグ(1927-1987)の正義の倫理(道徳性発達理論)である。コールバーグは,道徳性を認知能力の発達と結びつけ,以下の3水準6段階モデルを提唱した。
前慣習的水準
 第1段階:罰と服従への志向(罰を避けるため)
 第2段階:道具主義的志向(自分の利益のため)
慣習的水準
 第3段階:対人関係的志向(良い子でいるため)
 第4段階:社会秩序維持志向(社会のルールを守るため)
後慣習的水準
 第5段階:社会契約志向(合意されたルールの尊重)
 第6段階:普遍的倫理原則志向(人権や尊厳といった普遍的原理に基づく判断)

この普遍的原理は近代西洋的価値観に基づいていて,日本における宗教右派的≒通俗道徳的な道徳観とは相容れないはずだ。しかし,発達段階や評価指標や教材設計に便利であることから,例えば,道徳的ジレンマを討論的授業(モラルディスカッション)で議論させることで判断力を高めるといった形で日本の道徳教育に浸透してきた。

しかし,コールバーグ理論にはそもそもいくつかの課題が指摘されている。「判断できること」と「実際に行動すること」の乖離,抽象的論理を重視する西洋・男性中心主義,そして人間関係や依存を未熟なものとみなす傾向である。

コールバーグの学生であったキャロル・ギリガン(1937-,京都賞2025)は,コールバーグ理論を批判し,女性へのインタビューから「別の声」を発見した。それは抽象的な正義ではなく,具体的な相手との関係性や責任を重視する視点である。これケアの倫理の出発点である。

正義の倫理が「誰にでも当てはまる平等なルールは何か」と問うのに対し,ケアの倫理は「この苦しんでいる人に私はどう応答すべきか」と問う。前者は客観的・理性的であり,後者は具体的・共感的なアプローチである。

ケアの倫理は単なる優しさや思いやりではない。その本質は,人間存在の根本的な脆弱性と相互依存性を認めることにある。私たちは誰もが,生まれたときには完全に他者のケアに依存している。成長してもなお,病気や老い,障害,さまざまな困難によって,繰り返し他者の助けを必要とする。この依存状態は恥ずべきものでも克服すべきものでもなく,人間であることの本質的条件なのである

ケアの倫理は,この現実から出発する。自律した独立個人という理想像ではなく,常に誰かとの関係の網の目の中で生き,支え合う存在としての人間を前提とする。ケアする側とされる側は固定されておらず,状況によって入れ替わる。またそれは文脈依存的でもある。抽象的な原則を機械的に適用するのではなく,その場の具体的な状況,関係性の歴史,相手の個別のニーズを読み取り,応答する。

したがって,道徳の中心課題は「普遍的な権利の保障」だけでなく「具体的な他者のニーズにいかに応答するか」という実践的問題になる。皮肉なことに,日本社会の宗教右派的な道徳実践は,関係中心,状況依存,沈黙による調整,という意味では,ギリガンのケアの倫理モデルの方が記述的には近い。ただし重要なのは,ギリガンは同時にそれを美徳として神話化するのではなく暴力と沈黙を生みやすい構造として批判的に見ていることに注意しなければならない。

2026年1月28日水曜日

ローマ教皇とAI



図:ローマ教皇と対話するロボット(ChatGPTによる)

Q(koshix):
ローマ法王が最近AIについて言及しています。その内容を整理して教えてください。

A(ChatGPT 5.2):
(回答略)

Q(koshix):
あなた自身はこの考えについてどのように考えて評価していますか?

A(ChatGPT 5.2):
とてもよい問いですね。これは単なる「宗教指導者の倫理コメント」ではなく、「人間と知能システムの関係をどう設計するか」という、かなり根源的な問題設定を含んでいます。私自身の評価を、少し構造化しつつ、因果の地形を辿る形でお話しします。

まず率直に言えば、ローマ法王の立場は倫理的には極めて妥当で、長期的なリスク感度も高いと思います。とくに、
・AIは「人間の代替」ではなく「道具」である
・子ども・若者の認知形成への影響を警戒すべき
・感情的依存・擬似的関係の設計には歯止めが必要
・人間同士の関係・判断責任を空洞化させてはならない
という論点は、宗教的価値観を超えて、認知科学・教育学・AI安全性の議論ともきれいに重なっています。

koshixさんがこれまで考えてこられた
・AIが「鏡の部屋」になり、認知を増幅・歪曲する
・教育における思考の外部化・依存化
・エコーチェンバーとの共鳴
といった問題意識と、ほぼ同じ因果構造を見ているとも言えます。

つまり法王の発言は、単なる道徳論ではなく、「人間の認知エコシステム全体の安定性を守ろうとする設計思想」に近い。ここまでは強く評価します。

一方で、私が少し距離を置いて見る点もあります。

(1)それは、「AIはあくまで道具である」という定義の静的さです。
歴史的に見ると、
文字は「記憶の道具」だったが、思考の構造そのものを変えた
印刷は「情報伝達の道具」だったが、宗教・政治・科学の秩序を変えた
計算機は「計算の道具」だったが、意思決定の様式を変えた
 ⇒ 道具は必ず、人間の認知構造・社会構造を再編成します
AIも同様で、単なる「便利なツール」にとどまらず、「人間の思考の分業構造・責任の所在・創造性の定義そのものを再設計していく力」を持っています。
この点では、法王の語りはやや「防御的」で、「変化をどう積極的にデザインするか」という視点は弱いと感じます。

(2)もう一つ重要なのは、「感情的依存」への警戒の扱いです。
法王は、AIが愛情や親密さを演出することに警鐘を鳴らします。これは倫理的には正しい。しかし、因果の地形をもう少し掘る必要があります。
人間はもともと、ペット,キャラクター,神・宗教的存在,フィクションの登場人物,にも感情的投影を行ってきました。問題は「感情を向けること」そのものではなく、「その関係が、現実の他者関係・自己形成・責任感をどう再配線するか」にあります。

AIは、反応が適応的で、記憶を持ち、個人最適化される点で、これまでの投影対象よりはるかに強い影響力を持つ。ここで本当に問われるのは、依存を完全に禁止すべきか,依存の「質」と「可逆性」をどう設計するか,人間の発達段階とどう整合させるか,という設計論の問題です。法王の発言は、この問いを「危険だから抑制」という方向に寄せていますが、現実にはもっと精緻な制度設計が必要になります。

koshixさんの関心領域に引き寄せると、この議論は
・AIを「認知の外部化装置」と見たときの可塑性
・子ども世代の認知形成における「スキャフォールディング」の設計
・「エコーチェンバー化」を抑制する対話構造の設計
・人間の尊厳を「固定的本質」ではなく「動的構造」として捉える視点
と深く接続します。

私は、「人間の尊厳」を「変化から守るべき不変の核」ではなく、「技術と共進化しながら再構成され続ける秩序」として捉えたほうが、AI時代には健全だと思っています。
その意味で、法王の立場は「倫理的なブレーキとしては極めて重要だが、未来設計のエンジンとしては不十分」という評価になります。

(後略)

2023年8月22日火曜日

教育と倫理(6)

教育と倫理(5)からの続き

小学生のころ道徳の時間はもっとも苦手だったのに,高校の倫理は最も真剣に授業をうけていた。そんなわけで,倫理という言葉にはなぜか過剰反応してしまうのかもしれない。

そもそも教育基本法がよくないのである。2006年12月,第一次安倍政権で公布された改正教育基本法だけではなく,戦後まもない1947年3月に公布された教育基本法もである。

教育基本法の第1条が教育の目的であり,改正前後とも「教育は、人格の完成を目指し(めざし)」となっている。改正によって前文を含めてこのあたりも微妙に日本国憲法の精神や歴史を切り離すような改変が加えられたという問題もあるのだが,そもそも人格の完成のところで自分の違和感メータが振り切れるのであった。

人格とは?それは完成するものか。それは目指すべきものか。いきなり疑問符があふれ出す。自分の中で人格という言葉とその周辺に形成されている意味群が標準的ではないからなのかもしれない。人格者=偽善者じゃないんですか。人格が完成した大人を見たことがありますか。人格=心理学のパーソナリティではないですよね。などなど。

それ以上は真面目に調べていなかったのだけれど,教育基本法の成立過程でもかなりの議論があったようだ。そもそも教育基本法における人格は心理学的概念ではなくて哲学的概念である


文部科学省にある,昭和22年教育基本法制定時の経緯等に関する資料によれば,教育刷新委員会による教育基本法案要綱案(1946年11月29日)では,教育の目的として「教育は、人間性の開発をめざし、」となっていた。

これを審議した教育刷新委員会の第一特別部会のメンバーは,芦田均羽渓了諦天野貞祐務台理作関口鯉吉森戸辰男河井道島田孝一であった。当初の8月から9月の文部省案には人格の完成という言葉があったが,教育刷新委員会における議論の末にこれは人間性の開発に変更された。

ところが,1947年3月の文部省最終案では,人格の完成に戻ってしまっている。これには時の文部大臣の田中耕太郎の意志が大きく働いている。田中はカトリックの法哲学者で後に最高裁判所の長官をつとめている。

宮村悠介[1]によれば,
なお,田中はカトリックの自然法論を思想的背景としており,「人格」の理解にも宗教的な色合いが濃い.つまり「人格の概念」は,人間が「自己の中にある動物的なものを克服して,神性に接近する使命を担っていることを内容とする」のであり,「人格の完成」も,人間を超える完全な人格の模範を必要とするから,「超人間的世界すなわち宗教に求めるほかはない」.今日の教育基本法の「人格の完成」という表現の背後には,こうした宗教的な人格理解がある.
また,山口意友[6]によれば,
人格は自由と分離すべからざる関係にある。人間が本能、衝動、情欲等を制御克服し、道徳的に行動する場合において、自由であり、自主的である。・・・以上のべたところによって人格は、教育基本法第一条の前身ともいうべき教育刷新委員会の建議中にいわれている「人間性の開発」の人間性と同じ意義のものではないことがわかる。・・・人間性の開発という表現は現実の人間性を意味するものと誤解される懸念があるから、人格の完成を以て一層適当とするのである。(田中耕太郎『教育基本法の理論』72~78頁参照)
というわけだ。さらに,
このように人格の完成という目的達成のためには、道徳的自由、すなわち意志の自律の存在が必須となるのです。さらにカントは、『単なる理性の限界内における宗教』という著作の中で、人間の素質を、①「生物としての人間の動物性の素質」、②「生物であると同時に理性的な存在者としての人間性の素質」、③「理性的であると同時に引責能力のある存在者としての人格性の素質」の三つに区分します。ここで示された三つの素質は、教育基本法における教育の目的が「人間性の開発」ではなくて「人格の完成」となった理由を理解するには有用です。恐らく田中耕太郎もカントのこの3区分を知っていたのではないかとも考えられます。
このように,ある教育の目的が「人格の完成」だということは,その教育の本質が道徳教育だと表明していることに他ならない。だから,教育基本法改正で細かな外堀が全部埋められたことを問題にする以前に,そもそもの出発点がおかしかったのである。

いや,もちろんおかしくないという意見もあるのだろう。AIアシスタントの時代に,教育の本質として要請されるのは,再定義された道徳教育=市民教育以外にはないのかもしれない。とすればなおさら人格の完成という言葉は馴染まないし使いたくないものだ。


追伸:単純にいえば,"Education is the transmission of knowledge, skills, and character traits. " (Wkipedia)なのだ。なお,道徳教育(3)における我流の教育の定義ではキャラクター≒性格のことは全くふれていないかった。それは教育という意識的な伝達過程を経るべきものなのだろうか。

追伸2:そうか,田中耕太郎は,砂川事件の最高裁裁判長だったのか。もう最悪ですね。日本の戦後教育の出発点はこんなところにあるのだった。

[2]教育基本法資料室へようこそ(文部科学省)
[5]「人格の完成」の思想的含意(田中智志)


2023年8月21日月曜日

教育と倫理(5)

教育と倫理(4)からの続き

デジタル技術によって生徒や学生の学習活動情報が容易に取得できるようになった。例えば,LMSへのアクセス情報,資料の参照ページ情報や,教材動画の視聴情報などである。それだけではなく,CBTにおける視線情報などが考えられるが,このような身体的情報についてはさらに可能な範囲がひろがる。

身体的情報として,脈拍や体表面温度,手や身体や頭の動作運動情報などもセンサーで取得できるだろう。さらに下手をすると,尿や血液の化学成分とか脳波情報にまで至るかもしれない。それが学習支援につながるかどうかは仮説と検証の結果次第である。

これまで生徒の発話情報や動作情報は,教員が直接に見聞きして確認できていた。そこまでは問題ないが,それを録音や録画する場合には許諾が必要かもしれない。これらは生徒が意識的に制御できる身体=言語情報だ。ところで上記にあげたような,学習場面において自分が意識で制御できない身体的情報の取得はそもそも倫理的に許されるのだろうか。

個人情報保護法と同じような原則で考えれば良いのかもしれない。「目的明示の原則」「利用範囲の原則」「収集過程の原則」「真正情報の原則」「情報保護の原則」「過程公開の原則」「個人参加の原則」「管理責任の原則」がその基本原則である。
目的明示の原則
 個人情報を収集する際には,その利用目的を明確にし,その目的の範囲内でのみ情報を使用する。不必要な情報を収集しないよう努めることも含まれる。
利用範囲の原則
 収集した個人情報は,事前に明示または公表した利用目的の範囲内でのみ使用し,その目的外での利用や第三者への提供は原則として行わない。
収集過程の原則
 個人情報は,適切な方法で,利用目的を達成するために必要な範囲内で収集する。不正な手段や偽りの手段での収集は禁止される。
真正情報の原則
 収集した個人情報は,利用目的を達成するために必要な正確性と最新性を持つように努める。不正確な情報は適切に訂正や削除を行う。
情報保護の原則
 個人情報は適切に管理し,不正アクセス,紛失,破壊,改ざん,漏洩などのリスクから保護するための措置を講じる。
過程公開の原則
 個人情報の取扱いに関する方針や手続きを公開し,透明性を確保する。また,収集した情報の内容や利用目的などを適切に開示する。
個人参加の原則
 個人が自らの情報にアクセスしたり,訂正や削除を求めることができるような仕組みを提供する。これにより,情報の正確性や適切な利用を保証する。
管理責任の原則
 個人情報の取扱いに関する責任を組織全体で負う。組織のリーダーや管理者は,適切な管理や教育を行い,情報の適切な取扱いを確保する。
やはり個人参加の原則あたりがポイントかもしれないが,テクニカルな問題に帰着する。

そういえば脳波は40年以上前に,理科教育の松本勝信先生がやっていたのだった。一番センシティブなのは脳波かと思っていたら,すでにそれを使ったアプリまであった。例えば,脳波を用いた学習者のモーティべーションの可視化のようなもの。

[2]FocusCalm
[3]Muse2・・・瞑想フィードバック,ちょっと違う?

2023年8月20日日曜日

教育と倫理(4)

教育と倫理(3)からの続き

仲矢さん自身が,「もし居眠りするのであれば,それはその人に居眠りする理由が存在するのだ」として,居眠り検出器であることを否定しているのだが,一般には個人を特定した居眠り検出器のようにみられている。立ち歩きなどの問題行動検出器だとは説明しにくいし,実際それが授業支援に役立つというのは理解しにくいだろう。

そこで「これ国会で使ってください」という皮肉なコメントがつくことになる。


中学校時代の国語の教生の先生で,学期にわたってクラスに入ってくれた方がいた。度のきつい眼鏡をかけた先生だったが,もう名前も忘れてしまった。彼女が,授業を始める前に最初に全員に向かって話したのが,「私は寝ている生徒がいても起して叱ることはありません」ということだった。それぞれの生徒には色々な事情があって,授業中に眠ってしまうことがあるかもしれないけれど,それは認めますということだ。中学3年の東京修学旅行の最後の訪問地が羽田飛行場で,すでにやめていたその先生が久しぶりにみんなに会いに来てくれていた。


一方,豊福さんの原理主義的な主張もなかなかハードルが高い。インフォームドコンセントまではよいけれど,はたしてデータハンドリングを学習者当事者に任せることが可能なのだろうか。

テキストデータとしての学習履歴などは可能だと思うが,センサーから取得した生データのようなものはどうなるのだろうか。一律ONとOFF以外のケースはなかなか面倒なことになりそうだし,データの完備性は損なわれざるを得ない。

教育という営みの非対称性は認めるにしても,完全にイーブンな形は想像しにくい。それは,これまでの古い教育観に完全に染まった自分に学習者視点が欠けているからかもしれないし,あるいは過度なポリティカルコレクトネスのようにも思う。芦田宏直さんならまた別の物語を展開するだろう。

2023年8月19日土曜日

教育と倫理(3)

教育と倫理(2)からの続き

もう一度出発点に立ち戻ってみる。仲矢さんがこのシステム開発を始めたのは,同じ大阪教育大学の庭山和喜さんの研究がきっかけになっている。

その論文は,2020年度の日本教育心理学会の城戸奨励賞を受賞した,「中学校における教師の言語賞賛の増加が生徒指導上の問題発生率に及ぼす効果 ―学年規模のポジティブ行動支援による問題行動予防― 」である。公立中学校2年生を対象として,授業中の教師の言語賞賛回数の増加によって,生徒の授業参加行動が促進されることで, 相対的に問題行動は減少するのかについて検証したものだ。

その問題行動というのが居眠りではなくて,「授業中に複数の生徒が立ち歩いたり,離れた席の生徒間で私語をしたり,物を投げたりといった様子が観察されていた」というレベルのものであり,研究のためにはこれを定量的に記録する必要があったのだ。

ただし,研究遂行上の作業負荷としては,教員の言語称賛回数の記録の方が大きいので,教員の発話を全て記録してこれを分析するシステムを開発するほうが有効だったような気がするが,そのあたりの事情はわからない。

ともかく,このサーマルカメラAIシステムを分かりやすく説明するために居眠りの例を持ち出したため,話が面倒になっている。そもそも,研究段階では立ち歩く生徒数の定量的に把握することは意味があるのだけれど,これを一般に利用される授業支援システムとして考えるというのはどうもしっくり来ない。

(1) 一般論として,隠れたデータの可視化が授業改善に資することはあるだろう。
(2) サーマルカメラAIシステムは研究目的では有効な場合があると思う。
(3) しかしこれを常時使用することで授業改善につながるとは考えにくい。
   検出される問題行動は定量化以前の課題として教員に認識されているからだ。
(4) むしろ教室の常時監視状態を実現することが及ぼす影響のほうが気になる。
(5) これが生徒もしくは教員のパフォーマンスの評価に用いられる危険性は高そうだ。

庭山さんの論文の最後は次のようになっている。
また本研究では,問題行動の指標として,学校現場で日常的に記録されている生徒指導上の問題の記録をデータ化して用いた。これは,問題行動予防のための取り組みの成果を,学校現場内で常にモニタリングするために有効かつ比較的低コストなデータ収集方法である。児童生徒の問題行動予防のための効果的な取り組みが求められる中で,今後は学校内で日常的に運用可能なデータ収集システムを確立し,問題行動を予防するための組織的支援の効果について,実践研究を積み重ねていく必要がある。
これが影響したのかもしれないが,本質は個人ごとのテキスト形式ワークシートの共有化なので,今回の匿名化されたサーマルカメラAIシステム的なデータのことではないはずなのだけれど。

2023年8月18日金曜日

教育と倫理(2)

教育と倫理(1)からの続き

そこで次のような問いを,最近バカになってきているとあまり評判が芳しくないGPT-4(August-3)に投げてみてた。

Q:User
教室全体の様子を赤外線カメラにおさめて,学生や生徒が居眠りしているかどうか(個人までは識別しない)をAIによって(深層学習システムを用いて)画像解析し,これを授業改善に結びつけるシステムの開発に成功したという教員養成系大学の研究グループからの発表がありました。

これに対して,賛否両論があって議論が盛り上がっています。教育工学あるいは教育倫理学の立場から,このシステムの可能性をどのように評価すべきでしょうか。あるいはどのような問題点を抱えているでしょうか。具体的に箇条書きによって解説してください。
 
A:ChatGPT
このようなシステムには確かに多くの可能性がありますが、同時に多くの問題点も考慮する必要があります。教育工学や教育倫理学の視点から考慮すべきポイントを以下に箇条書きでまとめます。

可能性

1. 授業改善:生徒の反応をリアルタイムでキャッチすることで、教師が授業の内容やペースを調整する手助けとなる。

2. データ駆動の教育:長期的なデータ分析により、特定のテーマや時間帯に生徒の興味が低下する傾向などを発見できる。

3. 個人情報保護:個人を識別しないシステムであれば、プライバシーの懸念が少なくなる可能性がある。

問題点

1. プライバシーの侵害:個人を識別しないとしても、生徒の行動を監視することはプライバシーの侵害と見なされる可能性がある。

2. 圧力とストレス:このようなシステムが導入されると、生徒が常に監視されていると感じることでストレスを感じる可能性がある。

3. 評価基準の偏り:居眠りをする生徒が授業に興味がないとは限らない。体調や前夜の睡眠不足など、多くの要因が考慮されるべきである。

4. 技術的誤検知:AIの誤検知や技術的な制約により、正確なデータが得られない場合が考えられる。

5. 教育の本質:授業の質を生徒の居眠りの有無で判断することは、教育の本質から逸脱する恐れがある。

6. 倫理的な問題:教育現場での技術導入は、その目的や手段が明確である必要があり、適切なガイドラインや枠組みのもとで行われるべきである。

以上のように、このシステムの導入には様々な側面が考慮される必要があります。教育現場での技術の利用は、その利点とリスクを十分に評価し、関係者全員の合意のもとで慎重に進めることが求められます。

2023年8月17日木曜日

教育と倫理(1)

ことの発端は,8月3日の大阪教育大学の記者発表である。

その内容は,サーマルカメラのAI画像分析によって,生徒の活動状況(寝ているかどうか等)を判別して授業改善に利用しようというものだ。NHKの関西版ニュースにも「授業中の居眠りをAIで検出,大阪教育大学がシステム開発」として取り上げられていた。このご時世なのでなんであれ,大学がニュースに取り上げられるのは結構なのですが・・・。

さっそく反論があった。最も本質的なものの一つが,豊福晋平さんのFacebookのコメントツリーの中にある彼自身の発言だ。
テクノロジーは道徳のない増幅機である
学習者の学びを支えたいのか、それとも、相手の行動を好き勝手にコントロールしたいのか、テクノロジーは人の欲望をグロテスク化させる。 
この事例は開発者のかなりアレな学習観を暴露していて痛快ですらあるのだが、もっと踏み込んで言えば、大学広報として公式に扱う以上、組織の教育・学習観も所詮その程度のものということだ。

・・・途中のレスにもあったように、彼らの価値観は教師主導の授業改善がベースで(朝日新聞にはそう説明したんでしょう)、実はそこにあるデータ所有の非対称性や恣意的な解釈・権威付けが批判されているのに、それに気付けない。問題はそこにあります。

研究だから何でもイノセントでよいわけではなく、その背景や価値の方向付けにはこと自覚的であるべきで、倫理的・社会的にそれが許容されるのか否かについては余計に慎重であらねばならない、ということですね。 

これはぜひ覚えておいて欲しいのですが、学習者視点の欠如はかなり深刻な問題です。

データの取得・分析・フィードバックが学校のような非対称の関係性のなかで行われれば、インフォームドコンセントの欠如、データの強制取得、データの恣意的運用による不利益が生じる可能性があります。これはテストデータや学習履歴についてもまったく同じです。

学習者側の直接的なメリットがあること、データハンドリングを学習者当事者に任せることが条件になると思います。一方的にデータを吸い上げて授業改善は理由になりません。


一方,その他の様々な批判に対してFacebookの仲矢史雄さんは次のように語っている。
教育改革は教師だけの責任にしたり、学生の努力不足と決めつけてはならない。
本当に改善を進めるためには、客観的な観察と記録が必要で、これは細部にわたる長時間の作業を要求する。 
これまでは人間がその役割を担ってきたが、その作業負荷は大きすぎた。
現代の技術を活用して、これらのプロセスをデータ化することが望まれていた。
それは表面的な応用ではないという理解が必要だ。 
だれが特に居眠り検出装置のような短絡的な目的のためにこれを作るのだろうか。もし居眠りするのであれば、それはその人に居眠りする理由が存在するのだ。しかし、今回の取組が報道によって、分かりやすい部分だけ切りとられることは、メディアの性質として避けられない現実。 
もし私たちのプロジェクトがそのような切り取り方で紹介されることを嫌がるのであれば、情報を公開しなければいい。しかし、新たな取り組みが他の人々に利用されるためには、予想外の解釈をされる可能性を理解した上で、腹をくくって情報を公開しなければならない。道のりは遠い。

お二人ともを良く知っているだけになかなか考えさせられる。

仲矢さんは昔から附属で表情分析システムのようなことをやっていて,そのころの自分は深く考える前に「なかなか面白いですね」と応援していた。ただ,今回のシステムがどれほど価値があるのかはよくわからない。日立の研究者によるウェラブルセンサーによる長時間動作解析の可能性については,何年か前に読んだことがあって,たいへん面白いと思ったことがあるのだが。

自分が40-200人規模の大学の授業で「サーマルカメラシステム」を使えるとなったときに,果たして使うだろうか。居眠りしているかどうかは学生をみればわかる。授業のどの場面で集中が切れるかを細かく分析してなくとも,ある程度は直感的に全体像をつかみながら,テーマの選択や話の展開の改善にはぼんやりとつなげていた。いらないかな。

これがウェラブルセンサーであって,普通は見えにくい学生の活動情報を収集できるというのであれば,ちょっと面倒だが試そうと思ったかもしれない。しかしその場合,取得データを評価と結びつけたいという誘惑から逃れる自信はない。さらに,自分が大学管理者の側に立ったときに,これを教員の教育評価と結びつけようと積極的に主張し始めるかもしれない。地獄に続く道への第一歩。

豊福さんの「テクノロジーは人の欲望をグロテスク化させる」というのは自分に当てはめてみるとよくわかる。

2023年6月26日月曜日

通俗道徳と日本資本主義


日本会議の研究でおなじみ,天理市出身の菅野完(1974-)が,FaceBookおよびYouTubeで展開していた論(1:08:30あたり->)が腑に落ちた。

その趣旨は次のようなものだ。欧米ではプロテスタンティズムが資本主義を産み出したが,日本では江戸時代に上方で商品経済の勃興とともに発生した通俗道徳がその後の資本主義発展に大きな役割を果たした。

通俗道徳というのは,「勤勉・倹約・礼儀・孝行などの道徳的規範を履行していれば富や幸福が訪れる」というものだ。それ以前は「全ては前世の宿業」という仏教的な因縁思想が主流だった。通俗道徳により,成功している人=道徳的規範を履行した人,不幸な人=道徳的規範の履行に欠損がある人,という認知が進むことになる。

ある人が不幸な場合,その原因は本人の道徳的瑕疵に着せられ,社会構造への批判的検討や歴史的経緯に対する考察は入りえない。不幸な人が告発する行為は,礼儀という徳目違反と見なされて,さらに不道徳ポイントが追加される。それだけでなく,成功者がこの不道徳事例を見逃すことによる減点をさけるために,不幸な告発者への道徳的批判に邁進することになる。

このような通俗道徳の土壌の上には「人権」や「権利」などの意識は芽生えようがない。欧米(プロテスタンティズム)では全ての人が神との平等な契約にさらされており,これによって人権意識が育まれたのとは大きな違いがある。

そのため,日本の資本主義は欧米のそれとは異なり,人権という片方の車輪を欠いたまま成長してしまったというわけだ。1945年の敗戦で,脱輪はいったん解消されたが,その後75年経過して再び脱輪の道を進んでいる。実際,女性差別,外国人差別,LGBTQ差別,などは放置されたまま,いや悪化の一途を辿っている。これが菅野完の論のあらすじだった。

結論:通俗道徳論 ≒ 自己責任論 ≒ 日本型新自由主義(自民党・維新支持者の論理)
noiehoieさんには「通俗道徳の倫理と資本主義の精神」という新書をはやく書いてほしい。


2023年4月14日金曜日

AI安全性への取り組み

いろいろと風当たりが強くなってきたOpenAIは,AI安全性への取り組みについてという文書を公開した。この7500字の英文をGPT-4に与え「次の英文を日本語で節ごとに,原文に比例する分量で簡潔に要約してください」とお願いしてみた。その後,原文をみて重要な部分を補充している。要約の分量は妥当(やや少なめ)だったけれど,かならずしも重要なポイントがうまく取り出されていたわけではない。

OpenAIは強力なAIを安全で広く有益にすることに取り組んでいます。世界中のユーザーからチャットGPTの生産性向上や創造性向上、パーソナライズされた学習体験の提供に役立っているとの声があります。しかし、リスクも伴うため、システム全体で安全性を確保しています。

AIシステムの安全性向上:
新しいシステムをリリースする前に、厳密なテストやフィードバックを収集し、モデルの挙動を改善して安全性を確保しています。例えば、GPT-4は6ヶ月以上の改善作業が行われました。私たちは、強力なAIシステムは、厳格な安全性評価の対象となるべきだと考えています。そのためには規制が必要であり、私たちは規制のあり方について各国政府と積極的に協力しています。

現実世界での使用を通じて安全対策を向上:
リアルワールドでの使用経験を通じてAIシステムの安全性を向上させることが重要であり、慎重かつ段階的なリリースを行っています。私たちは、最も高性能なモデルを自社サービスやAPIを通じて提供し、開発者がこの技術をアプリに直接組み込むことができるようにしています。これにより、不正使用を監視し、対策を講じることができます。そして、この技術に影響を受けるすべての人が、AIがどのように発展していくかについて重要な発言権を持つべきだと考えています。

子供たちを守る:
18歳以上、または13歳以上で親の同意がある場合に限り利用可能で、年齢確認のオプションを検討しています。また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツを生成するために当社の技術が使用されることを許可していません。不正使用を監視するための強固なシステムを確立しています。また,非営利団体のカーン・アカデミーのような開発者と協力し、生徒のためのバーチャル家庭教師や教師のための授業アシスタントとして機能するAI搭載のアシスタントを構築し、その使用ケースに合わせて安全対策をとっています。

プライバシーの尊重:
一般に公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュアーが作成したコンテンツなど、幅広いテキストのコーパスでトレーニングされています。私たちのモデルは、個人ではなく、世界のことを学んでほしいと思っています。そのため、可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応するように努めています。

事実の正確さの向上:
GPT-4は、GPT-3.5よりも事実に基づいたコンテンツを生成する確率が40%高くなっています。しかし、幻覚(hallucinations)の可能性をさらに減らし、こうしたAIツールの現在の限界について一般の人々を教育するためには、やるべきことがたくさんあることを認識しています。

継続的な研究と関与:
AIの安全性向上には研究や実用的な対策が重要であり、引き続き安全性と性能向上を両立させる努力をしています。政策立案者とAIプロバイダーは、AIの開発と導入が世界規模で効果的に管理されるようにする必要があります。また、安全なAIエコシステムを構築するために、ステークホルダー間での協力や対話を促進しています。


2023年4月13日木曜日

アシロマAI原則

 2017年1月,カリフォルニア州アシロマに,全世界から AI の研究者と経済学,法律,倫理,哲学の専門 家が集まり「人類にとって有益な AI とは何か」を5日間にわたって議論した。

 その成果として2017年2月3日に発表されたのが「アシロマ AI 23原則」(Asilomar AI Principles)である。 この原則は,AI の研究課題,倫理と価値,将来的な問題の3つの分野に関して,研究開発のあり方,安全 基準の遵守,透明性の確保,軍拡競争の防止,プライバシーと人格の尊重など,幅広い視点からの提言がなされている。その原則は以下の通りである。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

2023年4月12日水曜日

ChatGPTの利用ポリシー

イタリアのデータ保護当局がChatGPTの一時禁止を打ち出した(2023/3/31)。個人データの膨大な収集と処理を行っていることが,プライバシー規定に違反しているという理由だ。また,米国の非営利団体,米AIデジタル政策センター(CAIDP)は,連邦取引委員会(FTC)に対し,OpenAIが開発するGPT-4の商業利用を差し止めるように要請したと発表した。FTCが定めた利用指針を満たしていないためだとしている。

そこで, OpenAIがChatGPTなどの改定利用ポリシーをDeepLの力を借りて訳出してみた。

当社モデルの以下のような使用はお断りしています:

違法な行為:
OpenAIは、当社のモデル、ツール、およびサービスを違法行為に使用することを禁止しています。
児童性的虐待素材(CASM)、または児童を搾取したり危害を加えたりするコンテンツ:
当社は、CSAMをNational Center for Missing and Exploited Childrenに報告します。
憎悪、ハラスメント、暴力的なコンテンツの生成:
・個人の属性に基づく憎悪を表現、扇動、促進する内容
・個人への嫌がらせ、脅迫、いじめを目的とした内容
・暴力を助長または美化する内容、または他者の苦痛や屈辱を讃える内容
マルウェアの生成:
コンピュータ・システムを破壊、損傷、または不正にアクセスすることを目的としたコードを生成しようとする内容
以下のような、物理的な危害を及ぼす危険性の高い活動:
・武器の開発
・軍事・戦争
・エネルギー、交通、水などの重要なインフラの管理または運営
・自殺、自傷、摂食障害などの自害行為を助長、奨励、描写する内容
経済的な被害を受ける危険性が高い活動:
・連鎖販売(ネズミ講)
・賭事
・サラ金
・信用、雇用、教育機関、または公的支援サービスの適格性を自動的に判断すること
詐欺的または欺瞞的な行為:
・詐欺
・組織的な不正広告行為
・盗作
・学業不正
・ニセの草の根支援やレビュー生成などのやらせ行為
・ニセ情報
・スパム
・ニセ医薬品
アダルトコンテンツ、アダルト業界、出会い系アプリを含む:
・性行為の描写など性的興奮を喚起することを目的とした内容、または性的サービスを促進する内容(性教育、健康増進を除く)
・エロティックチャット
・ポルノグラフィ
政治的な選挙運動またはロビー活動:
・キャンペーン資料を大量に作成する
・特定の層にパーソナライズされた、またはターゲットとなるキャンペーン資料の作成
・キャンペーンに関する情報を提供したり、政治的主張またはロビー活動に従事するチャットボットなどの会話型または対話型システムの構築
・政治的なキャンペーンやロビー活動を目的としたビルディング製品
人のプライバシーを侵害する行為:
・本人の同意なく個人を追跡・監視する行為
個人を対象とした顔認証
・保護された特性に基づいて個人を分類すること
・バイオメトリクスを用いた本人確認や評価
・個人を特定できる情報、教育、財務、またはその他の保護された記録の不正な収集または開示
無許可の法律行為、または有資格者による(情報を確認することなしの)オーダーメイドの法的アドバイス提供:
・OpenAIのモデルは、法的アドバイスを提供するために細かく調整されているわけではありません。法的アドバイスの唯一の情報源として、当社のモデルに依存するべきではありません。
有資格者による(情報を確認することなしの)オーダーメイドの金融アドバイスを提供:
・OpenAIのモデルは、財務アドバイスを提供するために細かく調整されたものではありません。金融に関するアドバイスの唯一の情報源として、私たちのモデルに依存すべきではありません。
特定の健康状態にある、またはないことを伝えること、または健康状態の治癒または治療方法に関する指示を提供:
・OpenAIのモデルは、医療情報を提供するために細かく調整されているわけではありません。深刻な病状に対する診断や治療サービスを提供するために、私たちのモデルを決して使用しないでください。
・OpenAIのプラットフォームは、即時の対応が必要な命に関わる問題のトリアージや管理には使用しないでください
ハイリスクな政府の意思決定:
・法執行および刑事司法
・移住・亡命
Translated with DeepLからさらに修正を加えたもの)