Q(koshix):ローマ法王が最近AIについて言及しています。その内容を整理して教えてください。A(ChatGPT 5.2):(回答略)Q(koshix):あなた自身はこの考えについてどのように考えて評価していますか?A(ChatGPT 5.2):とてもよい問いですね。これは単なる「宗教指導者の倫理コメント」ではなく、「人間と知能システムの関係をどう設計するか」という、かなり根源的な問題設定を含んでいます。私自身の評価を、少し構造化しつつ、因果の地形を辿る形でお話しします。まず率直に言えば、ローマ法王の立場は倫理的には極めて妥当で、長期的なリスク感度も高いと思います。とくに、・AIは「人間の代替」ではなく「道具」である・子ども・若者の認知形成への影響を警戒すべき・感情的依存・擬似的関係の設計には歯止めが必要・人間同士の関係・判断責任を空洞化させてはならないという論点は、宗教的価値観を超えて、認知科学・教育学・AI安全性の議論ともきれいに重なっています。koshixさんがこれまで考えてこられた・AIが「鏡の部屋」になり、認知を増幅・歪曲する・教育における思考の外部化・依存化・エコーチェンバーとの共鳴といった問題意識と、ほぼ同じ因果構造を見ているとも言えます。つまり法王の発言は、単なる道徳論ではなく、「人間の認知エコシステム全体の安定性を守ろうとする設計思想」に近い。ここまでは強く評価します。一方で、私が少し距離を置いて見る点もあります。(1)それは、「AIはあくまで道具である」という定義の静的さです。歴史的に見ると、・文字は「記憶の道具」だったが、思考の構造そのものを変えた・印刷は「情報伝達の道具」だったが、宗教・政治・科学の秩序を変えた・計算機は「計算の道具」だったが、意思決定の様式を変えた⇒ 道具は必ず、人間の認知構造・社会構造を再編成します。AIも同様で、単なる「便利なツール」にとどまらず、「人間の思考の分業構造・責任の所在・創造性の定義そのものを再設計していく力」を持っています。この点では、法王の語りはやや「防御的」で、「変化をどう積極的にデザインするか」という視点は弱いと感じます。(2)もう一つ重要なのは、「感情的依存」への警戒の扱いです。法王は、AIが愛情や親密さを演出することに警鐘を鳴らします。これは倫理的には正しい。しかし、因果の地形をもう少し掘る必要があります。人間はもともと、ペット,キャラクター,神・宗教的存在,フィクションの登場人物,にも感情的投影を行ってきました。問題は「感情を向けること」そのものではなく、「その関係が、現実の他者関係・自己形成・責任感をどう再配線するか」にあります。AIは、反応が適応的で、記憶を持ち、個人最適化される点で、これまでの投影対象よりはるかに強い影響力を持つ。ここで本当に問われるのは、依存を完全に禁止すべきか,依存の「質」と「可逆性」をどう設計するか,人間の発達段階とどう整合させるか,という設計論の問題です。法王の発言は、この問いを「危険だから抑制」という方向に寄せていますが、現実にはもっと精緻な制度設計が必要になります。koshixさんの関心領域に引き寄せると、この議論は・AIを「認知の外部化装置」と見たときの可塑性・子ども世代の認知形成におけるスキャフォールディングの設計・エコーチェンバー化を抑制する対話構造の設計・人間の尊厳を「固定的本質」ではなく「動的構造」として捉える視点と深く接続します。私は、「人間の尊厳」を「変化から守るべき不変の核」ではなく、「技術と共進化しながら再構成され続ける秩序」として捉えたほうが、AI時代には健全だと思っています。その意味で、法王の立場は「倫理的なブレーキとしては極めて重要だが、未来設計のエンジンとしては不十分」という評価になります。(後略)
芥川龍之介が「蜘蛛の糸」を発表して百年。高二の秋の文化祭,クラスの仮装行列のテーマが 蜘蛛の糸だった。お釈迦様の極楽タワーの竹を近所から切り出し,地獄の焔と煙の絵を描いた。犍陀多に続いて蜘蛛の糸(登山部の赤いザイル)に群がる地獄の亡者だったころ。
2026年1月28日水曜日
ローマ教皇とAI
2023年8月22日火曜日
教育と倫理(6)
なお,田中はカトリックの自然法論を思想的背景としており,「人格」の理解にも宗教的な色合いが濃い.つまり「人格の概念」は,人間が「自己の中にある動物的なものを克服して,神性に接近する使命を担っていることを内容とする」のであり,「人格の完成」も,人間を超える完全な人格の模範を必要とするから,「超人間的世界すなわち宗教に求めるほかはない」.今日の教育基本法の「人格の完成」という表現の背後には,こうした宗教的な人格理解がある.
人格は自由と分離すべからざる関係にある。人間が本能、衝動、情欲等を制御克服し、道徳的に行動する場合において、自由であり、自主的である。・・・以上のべたところによって人格は、教育基本法第一条の前身ともいうべき教育刷新委員会の建議中にいわれている「人間性の開発」の人間性と同じ意義のものではないことがわかる。・・・人間性の開発という表現は現実の人間性を意味するものと誤解される懸念があるから、人格の完成を以て一層適当とするのである。(田中耕太郎『教育基本法の理論』72~78頁参照)
このように人格の完成という目的達成のためには、道徳的自由、すなわち意志の自律の存在が必須となるのです。さらにカントは、『単なる理性の限界内における宗教』という著作の中で、人間の素質を、①「生物としての人間の動物性の素質」、②「生物であると同時に理性的な存在者としての人間性の素質」、③「理性的であると同時に引責能力のある存在者としての人格性の素質」の三つに区分します。ここで示された三つの素質は、教育基本法における教育の目的が「人間性の開発」ではなくて「人格の完成」となった理由を理解するには有用です。恐らく田中耕太郎もカントのこの3区分を知っていたのではないかとも考えられます。
2023年8月21日月曜日
教育と倫理(5)
目的明示の原則:個人情報を収集する際には,その利用目的を明確にし,その目的の範囲内でのみ情報を使用する。不必要な情報を収集しないよう努めることも含まれる。利用範囲の原則:収集した個人情報は,事前に明示または公表した利用目的の範囲内でのみ使用し,その目的外での利用や第三者への提供は原則として行わない。収集過程の原則:個人情報は,適切な方法で,利用目的を達成するために必要な範囲内で収集する。不正な手段や偽りの手段での収集は禁止される。真正情報の原則:収集した個人情報は,利用目的を達成するために必要な正確性と最新性を持つように努める。不正確な情報は適切に訂正や削除を行う。情報保護の原則:個人情報は適切に管理し,不正アクセス,紛失,破壊,改ざん,漏洩などのリスクから保護するための措置を講じる。過程公開の原則:個人情報の取扱いに関する方針や手続きを公開し,透明性を確保する。また,収集した情報の内容や利用目的などを適切に開示する。個人参加の原則:個人が自らの情報にアクセスしたり,訂正や削除を求めることができるような仕組みを提供する。これにより,情報の正確性や適切な利用を保証する。管理責任の原則:個人情報の取扱いに関する責任を組織全体で負う。組織のリーダーや管理者は,適切な管理や教育を行い,情報の適切な取扱いを確保する。
2023年8月20日日曜日
教育と倫理(4)
2023年8月19日土曜日
教育と倫理(3)
また本研究では,問題行動の指標として,学校現場で日常的に記録されている生徒指導上の問題の記録をデータ化して用いた。これは,問題行動予防のための取り組みの成果を,学校現場内で常にモニタリングするために有効かつ比較的低コストなデータ収集方法である。児童生徒の問題行動予防のための効果的な取り組みが求められる中で,今後は学校内で日常的に運用可能なデータ収集システムを確立し,問題行動を予防するための組織的支援の効果について,実践研究を積み重ねていく必要がある。
2023年8月18日金曜日
教育と倫理(2)
Q:User教室全体の様子を赤外線カメラにおさめて,学生や生徒が居眠りしているかどうか(個人までは識別しない)をAIによって(深層学習システムを用いて)画像解析し,これを授業改善に結びつけるシステムの開発に成功したという教員養成系大学の研究グループからの発表がありました。これに対して,賛否両論があって議論が盛り上がっています。教育工学あるいは教育倫理学の立場から,このシステムの可能性をどのように評価すべきでしょうか。あるいはどのような問題点を抱えているでしょうか。具体的に箇条書きによって解説してください。
A:ChatGPTこのようなシステムには確かに多くの可能性がありますが、同時に多くの問題点も考慮する必要があります。教育工学や教育倫理学の視点から考慮すべきポイントを以下に箇条書きでまとめます。可能性1. 授業改善:生徒の反応をリアルタイムでキャッチすることで、教師が授業の内容やペースを調整する手助けとなる。2. データ駆動の教育:長期的なデータ分析により、特定のテーマや時間帯に生徒の興味が低下する傾向などを発見できる。3. 個人情報保護:個人を識別しないシステムであれば、プライバシーの懸念が少なくなる可能性がある。問題点1. プライバシーの侵害:個人を識別しないとしても、生徒の行動を監視することはプライバシーの侵害と見なされる可能性がある。2. 圧力とストレス:このようなシステムが導入されると、生徒が常に監視されていると感じることでストレスを感じる可能性がある。3. 評価基準の偏り:居眠りをする生徒が授業に興味がないとは限らない。体調や前夜の睡眠不足など、多くの要因が考慮されるべきである。4. 技術的誤検知:AIの誤検知や技術的な制約により、正確なデータが得られない場合が考えられる。5. 教育の本質:授業の質を生徒の居眠りの有無で判断することは、教育の本質から逸脱する恐れがある。6. 倫理的な問題:教育現場での技術導入は、その目的や手段が明確である必要があり、適切なガイドラインや枠組みのもとで行われるべきである。以上のように、このシステムの導入には様々な側面が考慮される必要があります。教育現場での技術の利用は、その利点とリスクを十分に評価し、関係者全員の合意のもとで慎重に進めることが求められます。
2023年8月17日木曜日
教育と倫理(1)
「テクノロジーは道徳のない増幅機である」学習者の学びを支えたいのか、それとも、相手の行動を好き勝手にコントロールしたいのか、テクノロジーは人の欲望をグロテスク化させる。
この事例は開発者のかなりアレな学習観を暴露していて痛快ですらあるのだが、もっと踏み込んで言えば、大学広報として公式に扱う以上、組織の教育・学習観も所詮その程度のものということだ。
・・・途中のレスにもあったように、彼らの価値観は教師主導の授業改善がベースで(朝日新聞にはそう説明したんでしょう)、実はそこにあるデータ所有の非対称性や恣意的な解釈・権威付けが批判されているのに、それに気付けない。問題はそこにあります。
研究だから何でもイノセントでよいわけではなく、その背景や価値の方向付けにはこと自覚的であるべきで、倫理的・社会的にそれが許容されるのか否かについては余計に慎重であらねばならない、ということですね。
これはぜひ覚えておいて欲しいのですが、学習者視点の欠如はかなり深刻な問題です。
データの取得・分析・フィードバックが学校のような非対称の関係性のなかで行われれば、インフォームドコンセントの欠如、データの強制取得、データの恣意的運用による不利益が生じる可能性があります。これはテストデータや学習履歴についてもまったく同じです。
学習者側の直接的なメリットがあること、データハンドリングを学習者当事者に任せることが条件になると思います。一方的にデータを吸い上げて授業改善は理由になりません。
教育改革は教師だけの責任にしたり、学生の努力不足と決めつけてはならない。本当に改善を進めるためには、客観的な観察と記録が必要で、これは細部にわたる長時間の作業を要求する。
これまでは人間がその役割を担ってきたが、その作業負荷は大きすぎた。現代の技術を活用して、これらのプロセスをデータ化することが望まれていた。それは表面的な応用ではないという理解が必要だ。
だれが特に居眠り検出装置のような短絡的な目的のためにこれを作るのだろうか。もし居眠りするのであれば、それはその人に居眠りする理由が存在するのだ。しかし、今回の取組が報道によって、分かりやすい部分だけ切りとられることは、メディアの性質として避けられない現実。
もし私たちのプロジェクトがそのような切り取り方で紹介されることを嫌がるのであれば、情報を公開しなければいい。しかし、新たな取り組みが他の人々に利用されるためには、予想外の解釈をされる可能性を理解した上で、腹をくくって情報を公開しなければならない。道のりは遠い。
2023年6月26日月曜日
通俗道徳と日本資本主義
2023年4月14日金曜日
AI安全性への取り組み
OpenAIは強力なAIを安全で広く有益にすることに取り組んでいます。世界中のユーザーからチャットGPTの生産性向上や創造性向上、パーソナライズされた学習体験の提供に役立っているとの声があります。しかし、リスクも伴うため、システム全体で安全性を確保しています。AIシステムの安全性向上:新しいシステムをリリースする前に、厳密なテストやフィードバックを収集し、モデルの挙動を改善して安全性を確保しています。例えば、GPT-4は6ヶ月以上の改善作業が行われました。私たちは、強力なAIシステムは、厳格な安全性評価の対象となるべきだと考えています。そのためには規制が必要であり、私たちは規制のあり方について各国政府と積極的に協力しています。現実世界での使用を通じて安全対策を向上:リアルワールドでの使用経験を通じてAIシステムの安全性を向上させることが重要であり、慎重かつ段階的なリリースを行っています。私たちは、最も高性能なモデルを自社サービスやAPIを通じて提供し、開発者がこの技術をアプリに直接組み込むことができるようにしています。これにより、不正使用を監視し、対策を講じることができます。そして、この技術に影響を受けるすべての人が、AIがどのように発展していくかについて重要な発言権を持つべきだと考えています。子供たちを守る:18歳以上、または13歳以上で親の同意がある場合に限り利用可能で、年齢確認のオプションを検討しています。また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツを生成するために当社の技術が使用されることを許可していません。不正使用を監視するための強固なシステムを確立しています。また,非営利団体のカーン・アカデミーのような開発者と協力し、生徒のためのバーチャル家庭教師や教師のための授業アシスタントとして機能するAI搭載のアシスタントを構築し、その使用ケースに合わせて安全対策をとっています。プライバシーの尊重:一般に公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュアーが作成したコンテンツなど、幅広いテキストのコーパスでトレーニングされています。私たちのモデルは、個人ではなく、世界のことを学んでほしいと思っています。そのため、可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応するように努めています。事実の正確さの向上:GPT-4は、GPT-3.5よりも事実に基づいたコンテンツを生成する確率が40%高くなっています。しかし、幻覚(hallucinations)の可能性をさらに減らし、こうしたAIツールの現在の限界について一般の人々を教育するためには、やるべきことがたくさんあることを認識しています。継続的な研究と関与:AIの安全性向上には研究や実用的な対策が重要であり、引き続き安全性と性能向上を両立させる努力をしています。政策立案者とAIプロバイダーは、AIの開発と導入が世界規模で効果的に管理されるようにする必要があります。また、安全なAIエコシステムを構築するために、ステークホルダー間での協力や対話を促進しています。
2023年4月13日木曜日
アシロマAI原則
2017年1月,カリフォルニア州アシロマに,全世界から AI の研究者と経済学,法律,倫理,哲学の専門 家が集まり「人類にとって有益な AI とは何か」を5日間にわたって議論した。
その成果として2017年2月3日に発表されたのが「アシロマ AI 23原則」(Asilomar AI Principles)である。 この原則は,AI の研究課題,倫理と価値,将来的な問題の3つの分野に関して,研究開発のあり方,安全 基準の遵守,透明性の確保,軍拡競争の防止,プライバシーと人格の尊重など,幅広い視点からの提言がなされている。その原則は以下の通りである。
研究課題1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。倫理と価値6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。長期的な課題19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。
2023年4月12日水曜日
ChatGPTの利用ポリシー
イタリアのデータ保護当局がChatGPTの一時禁止を打ち出した(2023/3/31)。個人データの膨大な収集と処理を行っていることが,プライバシー規定に違反しているという理由だ。また,米国の非営利団体,米AIデジタル政策センター(CAIDP)は,連邦取引委員会(FTC)に対し,OpenAIが開発するGPT-4の商業利用を差し止めるように要請したと発表した。FTCが定めた利用指針を満たしていないためだとしている。
そこで, OpenAIがChatGPTなどの改定利用ポリシーをDeepLの力を借りて訳出してみた。
当社モデルの以下のような使用はお断りしています:
違法な行為:
OpenAIは、当社のモデル、ツール、およびサービスを違法行為に使用することを禁止しています。
児童性的虐待素材(CASM)、または児童を搾取したり危害を加えたりするコンテンツ:
当社は、CSAMをNational Center for Missing and Exploited Childrenに報告します。
憎悪、ハラスメント、暴力的なコンテンツの生成:
・個人の属性に基づく憎悪を表現、扇動、促進する内容
・個人への嫌がらせ、脅迫、いじめを目的とした内容
・暴力を助長または美化する内容、または他者の苦痛や屈辱を讃える内容
マルウェアの生成:
コンピュータ・システムを破壊、損傷、または不正にアクセスすることを目的としたコードを生成しようとする内容
以下のような、物理的な危害を及ぼす危険性の高い活動:
・武器の開発
・軍事・戦争
・エネルギー、交通、水などの重要なインフラの管理または運営
・自殺、自傷、摂食障害などの自害行為を助長、奨励、描写する内容
経済的な被害を受ける危険性が高い活動:
・連鎖販売(ネズミ講)
・賭事
・サラ金
・信用、雇用、教育機関、または公的支援サービスの適格性を自動的に判断すること
詐欺的または欺瞞的な行為:
・詐欺
・組織的な不正広告行為
・盗作
・学業不正
・ニセの草の根支援やレビュー生成などのやらせ行為
・ニセ情報
・スパム
・ニセ医薬品
アダルトコンテンツ、アダルト業界、出会い系アプリを含む:
・性行為の描写など性的興奮を喚起することを目的とした内容、または性的サービスを促進する内容(性教育、健康増進を除く)
・エロティックチャット
・ポルノグラフィ
政治的な選挙運動またはロビー活動:
・キャンペーン資料を大量に作成する
・特定の層にパーソナライズされた、またはターゲットとなるキャンペーン資料の作成
・キャンペーンに関する情報を提供したり、政治的主張またはロビー活動に従事するチャットボットなどの会話型または対話型システムの構築
・政治的なキャンペーンやロビー活動を目的としたビルディング製品
人のプライバシーを侵害する行為:
・本人の同意なく個人を追跡・監視する行為
・個人を対象とした顔認証
・保護された特性に基づいて個人を分類すること
・バイオメトリクスを用いた本人確認や評価
・個人を特定できる情報、教育、財務、またはその他の保護された記録の不正な収集または開示
無許可の法律行為、または有資格者による(情報を確認することなしの)オーダーメイドの法的アドバイス提供:
・OpenAIのモデルは、法的アドバイスを提供するために細かく調整されているわけではありません。法的アドバイスの唯一の情報源として、当社のモデルに依存するべきではありません。
有資格者による(情報を確認することなしの)オーダーメイドの金融アドバイスを提供:
・OpenAIのモデルは、財務アドバイスを提供するために細かく調整されたものではありません。金融に関するアドバイスの唯一の情報源として、私たちのモデルに依存すべきではありません。
特定の健康状態にある、またはないことを伝えること、または健康状態の治癒または治療方法に関する指示を提供:
・OpenAIのモデルは、医療情報を提供するために細かく調整されているわけではありません。深刻な病状に対する診断や治療サービスを提供するために、私たちのモデルを決して使用しないでください。
・OpenAIのプラットフォームは、即時の対応が必要な命に関わる問題のトリアージや管理には使用しないでください
ハイリスクな政府の意思決定:
・法執行および刑事司法
・移住・亡命
(Translated with DeepLからさらに修正を加えたもの)