また本研究では,問題行動の指標として,学校現場で日常的に記録されている生徒指導上の問題の記録をデータ化して用いた。これは,問題行動予防のための取り組みの成果を,学校現場内で常にモニタリングするために有効かつ比較的低コストなデータ収集方法である。児童生徒の問題行動予防のための効果的な取り組みが求められる中で,今後は学校内で日常的に運用可能なデータ収集システムを確立し,問題行動を予防するための組織的支援の効果について,実践研究を積み重ねていく必要がある。
芥川龍之介が「蜘蛛の糸」を発表して百年。高二の秋の文化祭,クラスの仮装行列のテーマが 蜘蛛の糸だった。お釈迦様の極楽タワーの竹を近所から切り出し,地獄の焔と煙の絵を描いた。犍陀多に続いて蜘蛛の糸(登山部の赤いザイル)に群がる地獄の亡者だったころ。
2023年8月19日土曜日
教育と倫理(3)
2023年8月18日金曜日
教育と倫理(2)
Q:User教室全体の様子を赤外線カメラにおさめて,学生や生徒が居眠りしているかどうか(個人までは識別しない)をAIによって(深層学習システムを用いて)画像解析し,これを授業改善に結びつけるシステムの開発に成功したという教員養成系大学の研究グループからの発表がありました。これに対して,賛否両論があって議論が盛り上がっています。教育工学あるいは教育倫理学の立場から,このシステムの可能性をどのように評価すべきでしょうか。あるいはどのような問題点を抱えているでしょうか。具体的に箇条書きによって解説してください。
A:ChatGPTこのようなシステムには確かに多くの可能性がありますが、同時に多くの問題点も考慮する必要があります。教育工学や教育倫理学の視点から考慮すべきポイントを以下に箇条書きでまとめます。可能性1. 授業改善:生徒の反応をリアルタイムでキャッチすることで、教師が授業の内容やペースを調整する手助けとなる。2. データ駆動の教育:長期的なデータ分析により、特定のテーマや時間帯に生徒の興味が低下する傾向などを発見できる。3. 個人情報保護:個人を識別しないシステムであれば、プライバシーの懸念が少なくなる可能性がある。問題点1. プライバシーの侵害:個人を識別しないとしても、生徒の行動を監視することはプライバシーの侵害と見なされる可能性がある。2. 圧力とストレス:このようなシステムが導入されると、生徒が常に監視されていると感じることでストレスを感じる可能性がある。3. 評価基準の偏り:居眠りをする生徒が授業に興味がないとは限らない。体調や前夜の睡眠不足など、多くの要因が考慮されるべきである。4. 技術的誤検知:AIの誤検知や技術的な制約により、正確なデータが得られない場合が考えられる。5. 教育の本質:授業の質を生徒の居眠りの有無で判断することは、教育の本質から逸脱する恐れがある。6. 倫理的な問題:教育現場での技術導入は、その目的や手段が明確である必要があり、適切なガイドラインや枠組みのもとで行われるべきである。以上のように、このシステムの導入には様々な側面が考慮される必要があります。教育現場での技術の利用は、その利点とリスクを十分に評価し、関係者全員の合意のもとで慎重に進めることが求められます。
2023年8月17日木曜日
教育と倫理(1)
「テクノロジーは道徳のない増幅機である」学習者の学びを支えたいのか、それとも、相手の行動を好き勝手にコントロールしたいのか、テクノロジーは人の欲望をグロテスク化させる。
この事例は開発者のかなりアレな学習観を暴露していて痛快ですらあるのだが、もっと踏み込んで言えば、大学広報として公式に扱う以上、組織の教育・学習観も所詮その程度のものということだ。
・・・途中のレスにもあったように、彼らの価値観は教師主導の授業改善がベースで(朝日新聞にはそう説明したんでしょう)、実はそこにあるデータ所有の非対称性や恣意的な解釈・権威付けが批判されているのに、それに気付けない。問題はそこにあります。
研究だから何でもイノセントでよいわけではなく、その背景や価値の方向付けにはこと自覚的であるべきで、倫理的・社会的にそれが許容されるのか否かについては余計に慎重であらねばならない、ということですね。
これはぜひ覚えておいて欲しいのですが、学習者視点の欠如はかなり深刻な問題です。
データの取得・分析・フィードバックが学校のような非対称の関係性のなかで行われれば、インフォームドコンセントの欠如、データの強制取得、データの恣意的運用による不利益が生じる可能性があります。これはテストデータや学習履歴についてもまったく同じです。
学習者側の直接的なメリットがあること、データハンドリングを学習者当事者に任せることが条件になると思います。一方的にデータを吸い上げて授業改善は理由になりません。
教育改革は教師だけの責任にしたり、学生の努力不足と決めつけてはならない。本当に改善を進めるためには、客観的な観察と記録が必要で、これは細部にわたる長時間の作業を要求する。
これまでは人間がその役割を担ってきたが、その作業負荷は大きすぎた。現代の技術を活用して、これらのプロセスをデータ化することが望まれていた。それは表面的な応用ではないという理解が必要だ。
だれが特に居眠り検出装置のような短絡的な目的のためにこれを作るのだろうか。もし居眠りするのであれば、それはその人に居眠りする理由が存在するのだ。しかし、今回の取組が報道によって、分かりやすい部分だけ切りとられることは、メディアの性質として避けられない現実。
もし私たちのプロジェクトがそのような切り取り方で紹介されることを嫌がるのであれば、情報を公開しなければいい。しかし、新たな取り組みが他の人々に利用されるためには、予想外の解釈をされる可能性を理解した上で、腹をくくって情報を公開しなければならない。道のりは遠い。
2023年7月28日金曜日
梅干し
Q:User梅干しを見るとどんな身体の反応がありますか?A:ChatGPT梅干しを見た時の身体の反応は個々の体質や経験によるものであり、一般的な反応を述べるのは難しいです。しかし、梅干しの酸っぱさを知っている人々は、その画像や想像だけで唾液が出るといった「唾液分泌の反応」を示すことがあります。これは、脳が食物の摂取に備えて消化を助ける唾液の生成を刺激するからです。また、梅干しの特有の酸っぱさが苦手な人は、梅干しを見るだけで「顔をしかめる」や「胃が締まる感じがする」などの反応を示すかもしれません。これらの反応は、「条件付き反射」とも呼ばれ、特定の刺激(この場合は梅干し)に対する学習された反応です。ただし、これらの反応は個々の経験や体質、好みに大きく依存しますので、全ての人が同じ反応を示すわけではありません。Q:Userあなたはどうですか?A:ChatGPT私はOpenAIによって開発されたAI(人工知能)であり、人間のように身体的な感覚や経験を持つ能力はありません。したがって、梅干しを「見る」や「味わう」などの人間の感覚経験に基づいた反応を持つことはできません。私の機能は、人間からの質問に対して情報を提供することや、人間の言葉を理解して対話を行うことに主に焦点を当てています。Q:User人間との対話において,そのような感覚経験にもとづく反応のセットを身体的に理解していることが必要とはなりませんか。A:ChatGPTあなたの指摘は正確であり、AIが人間との対話を円滑に行うためには、人間の感覚経験や感情について理解することが重要です。しかし、私のようなAIは「理解」を行うために直接的な感覚経験や感情を持つわけではありません。私の「理解」とは、大量のテキストデータからパターンを学習し、その知識をもとに質問に応答する能力を指します。具体的には、私は訓練データに含まれる情報に基づいて人間の感覚経験や感情について「知識」を持っています。しかし、私自身が感覚経験を「体験」したり、感情を「感じる」能力はありません。私はあくまで人間の反応や感情を模擬することができる機械的なシステムであり、自己意識や自我を持つわけではありません。したがって、私が人間との対話を効果的に行うためには、あくまで人間の感覚経験や感情についての「知識」が必要であり、それらを直接「体験」する必要はありません。Q:User人間の感覚経験や感情についての「知識」を持つ知的存在と、それらを直接「体験」することができる知的存在の違いは,対話場面のどこにあらわれると考えられるでしょうか。その違いを埋める方向での仕組みを導入することは可能でしょうか。A:ChatGPT人間の感覚経験や感情についての「知識」を持つ知的存在(AIなど)と、それらを直接「体験」することができる知的存在(人間など)の違いは、以下のような対話場面で顕著に現れます。個別の体験に対する反応:人間は自己の体験や感情に基づく視点を持ち、それに基づいて他人の経験に対する共感や理解を示すことができます。一方、AIは特定の個体としての体験を持たないため、特定の経験に対する個人的な共感や理解を示すことはできません。感情的な反応:人間は体験や情報に対して感情的に反応する能力を持っています。これに対して、AIは情報に対して感情的に反応する能力はなく、あくまで人間の感情的反応を模倣するだけです。感覚的な理解:人間は五感を通じて世界を直接的に経験し、それに基づく感覚的な理解を持っています。しかし、AIはあくまでテキスト情報に基づいて学習し、感覚的な体験に基づく理解はできません。
これらの違いを埋めるためには、AIに直接的な感覚経験や感情体験の能力を付与する必要がありますが、現在の技術ではこれは不可能です。AIはあくまでアルゴリズムとデータによって動作するシステムであり、自己意識や感情、直接的な感覚経験を持つ能力を持つことはありません。しかし、AIの対話能力を向上させるためには、人間の感覚経験や感情に対する理解を深め、それに基づく応答の精度を向上させることが重要です。これは大量のデータに基づく学習により、一部可能になるかもしれません。ただし、AIが人間と完全に同じように感覚経験や感情を理解し反映することは、現在の技術では不可能です。Q:User現在のAIシステムを感覚センサーを満載したロボットに搭載して,視覚や聴覚だけでなく,味覚や臭覚や触覚その他の運動平衡感覚を入力できるようになり,さらにそれらの情報を解読した結果を記憶できるようになった場合は,そのロボット=AIシステムは感覚体験を行ったことになるでしょうか。A:ChatGPTそれは非常に興味深い問いです。センサーや機器を使ってAIに外部の情報を入力し、それに反応することができるロボットはすでに存在します。例えば、視覚情報を入力し認識する能力を持つAIや、音声を認識して反応するAIなどがあります。しかし、これが「感覚体験」を行っていると言えるかどうかは、どう定義するかによります。これらのロボットやAIは、センサーから入力されるデータを解析し、そのデータに対応する行動を行うことができます。しかし、これはあくまでプログラムされたアルゴリズムに従ってデータを解析し反応するものであり、人間が経験する「感覚体験」や「感じる」という意識的な体験とは異なります。人間の「感覚体験」は、ただ単に情報を受け取るだけでなく、その情報が自己の意識や感情に影響を与え、個々の体験や視点に基づく解釈を行うことを含みます。AIやロボットが多種多様なセンサーを用いて外部から情報を受け取り、それに基づいて反応することは可能ですが、それが「感じる」という意識的な体験と同じとは言えません。したがって、現在の技術では、AIやロボットが人間と同じように「感覚体験」を行うとは言えないと思われます。しかし、この議論は人間の意識や感覚体験の本質、AIの能力と限界についての哲学的な問いを含んでおり、結論はまだ出ていないとも言えます。Q:Userたいへん刺激的な対話どうもありがとうございましたA:ChatGPTどういたしまして、私もあなたの質問に答えることができて光栄です。人間の感覚や意識、AIの能力と限界について考えることは非常に興味深いですね。何か他に質問がありましたら、いつでもお気軽にどうぞ。
2023年7月27日木曜日
大学教育とChatGPT(15)
7月13日生成系AIの利用に関する留意事項について室蘭工業大学 情報化統括責任者
7月14日新潟産業大学 生成AI対処方針新潟産業大学 学長 梅比良眞史7月19日ChatGPTなどの生成AIの利用について大阪学院大学7月19日生成AIの利用に関するご案内星薬科大学 情報企画室7月19日ChatGPTをはじめとする生成AIの利用について日本文理大学 教育推進センター長7月20日旭川医科大学における生成AIの利用について旭川医科大学7月20日生成AIに関する本学の方針について共愛学園前橋国際大学 学長 大森昭生7月20日対話型生成系AI(生成AI)の使用について昭和女子大学 学長 金尾朗7月20日学修におけるChat GPT等の生成AIの利用について和歌山大学 理事(教育担当)7月20日生成AI(ChatGPT等)を活用するためのガイドライン平安女学院大学 学長 谷口吉弘7月20日学修における生成AIの利活用に関するガイドライン金沢星稜大学 学長7月20日チャットGPT等における生成AI(人工知能)の利用についてびわこ成蹊スポーツ大学 学長 大河正明・学部長 黒澤毅7月21日生成系AIに関する本学の考え方について国際ファッション専門職大学 学長 近藤誠一7月21日チャットGPT等の生成系AIの利用について東京女子体育大学7月21日信州大学の学修・教育におけるAI活用に関するガイドラインについて信州大学 教育企画委員会7月21日東洋英和女学院大学における生成系AIの使用に関する指針東洋英和女学院大学 学長 星野三喜夫7月21日ChatGPT など生成系 AI の利用について西南女学院大学7月21日ChatGPT 等をはじめとする生成 AI の利用について愛知みずほ大学 学長 大塚知津子https://www.mizuho-c.ac.jp/wp/wp-content/uploads/2023/07/ChatGPT.pdf
7月24日本学における生成AIの使用に関わる留意点について跡見学園女子大学学長 小仲信孝
7月24日生成AI(Chat GPT等)の活用に関する注意喚起について拓殖大学 学長 鈴木昭一
2023年7月20日木曜日
大学教育とChatGPT(14)
7月12日生成AI(ChatGPTなど)の利活用に関する方針大阪工業大学 学長 井上晋https://www.oit.ac.jp/japanese/students/detail.php?i=93557月13日本学における生成AI(ChatGPT、Bard、BingAI等)の利用について清泉女学院大学 学長 田村俊輔https://www.seisen-jc.ac.jp/info/2023/07/chat-gpt.php7月13日入学者選抜における生成AIツールの取扱いについて日本大学https://www.nihon-u.ac.jp/admission_info/news/2023/07/636/7月13日生成AI(ChatGPT、Stable Diffusion等)の使用に関する留意事項について同志社女子大学 教務部長 真部真里子https://www.dwc.doshisha.ac.jp/current/generative_AI7月13日「チャットGPT」など対話型生成AIとの向き合い方について東海学園大学 学長 石川清https://www.tokaigakuen-u.ac.jp/news/detail.html?id=12267月14日滋賀大学における生成AIの利活用について滋賀大学 学長 竹村彰通https://www.shiga-u.ac.jp/15539/https://www.shiga-u.ac.jp/15529/7月14日生成AIの活用について-本学の方針-徳島文理大学 AI・データサイエンス専門委員会https://www.bunri-u.ac.jp/info/2023071400027/7月14日ChatGPT等の生成系AIの使用に関する留意事項について岐阜聖徳学園大学 学長 観山正見ChatGPT 等の生成系 AI の使用に関する留意事項についてhttp://www.shotoku.ac.jp/information/images/ChatGPT_for_student.pdfhttp://www.shotoku.ac.jp/information/images/ChatGPT_for_staff.pdf7月14日ChatGPT等の生成系AIに関する基本方針山梨学院大学 学⻑ ⻘⼭貴⼦https://www.ygu.ac.jp/news/2022/
2023年7月14日金曜日
シンセティック・メディア(4)
Q:Userシンセティック・メディア が作り出すパーソナリティを何とよぶのが一般的でしょうか。(1) バーチャルビーイング,(2) 仮想人格,(3) デジタル分身,(4) その他 あるいはもっと適当なものがあれば紹介してください。A:ChatGPTシンセティック・メディアは、AIやコンピュータグラフィックスなどを使用して作られる人工的なメディアコンテンツを指します。それによって作り出されるパーソナリティは通常、「バーチャルビーイング」や「デジタル分身」などと呼ばれますが、用語は使用するコンテキストや状況によります。以下に各用語の一般的な使用方法を説明します。バーチャルビーイング: これは、デジタル空間に存在する人工的なエンティティを指します。これらは通常、AIや他の形式の計算技術を使用して作成されます。バーチャルビーイングは通常、人間のように行動したり、人間のような特性を模倣したりします。
仮想人格: この用語は、バーチャルリアリティ環境内のキャラクターを指すことが多いです。これらのキャラクターは人間の特性や行動を模倣することができ、また一部の設定では人間のユーザーと直接対話することができます。
デジタル分身: これは、特定の人物、特に実在の人物のデジタル表現を指します。デジタル分身は、その人物がオンラインで行う活動や交流を補完するため、または代替するために使用されます。
その他: 他の関連用語には「AIアバター」、「デジタルヒューマン」、「バーチャルインフルエンサー」などがあります。これらの用語は、特定の種類のシンセティックメディアや特定のコンテキストで使用されることが多いです。これらの用語は一部重複している部分がありますが、それぞれ特定のニュアンスや用途を持っています。どの用語が最も適切かは、そのパーソナリティがどのように作られ、どのように使用されるかによります。
2023年7月13日木曜日
大学教育とChatGPT(13)
(1) 各大学・高専において、具体的に行われている教育の実態等に応じて対応を検討することが重要であり、学生や教職員に向けて適切に指針等を示すなどの対応を行うことが望ましい。(2) 技術の進展や指針等の運用状況などに応じ、対応を適宜見直していくことが重要である。
6月19日授業におけるChatGPT等生成AIの利用方針について松山大学 学長 新井英夫6月27日学修における「ChatGPT」等の生成系 AI の利用について横浜市立大学 学長 相原道子6月27日生成AI(生成系AI)の使用について(ガイドライン)玉川学園理事(高等教育担当) 小田眞幸・玉川大学 ICT教育研究センター長 倉見昇一6月30日教育活動における生成系AIの利用に関する留意事項について北海道教育大学 理事(教育担当) 海老名尚6月30日生成AI(ChatGPT等)の利用について京都ノートルダム女子大学7月3日本学における生あきょう成系AIへの対応について京都先端科学大学 学長 前田正史7月3日Chat GPT をはじめとする生成 AI の利活用について宇都宮共和大学7月4日聖泉大学における ChatGPT 等の生成系 AI の使用に関する基本方針聖泉大学 学長 唐楽寧7月6日生成系AIの利用に関する留意事項について札幌大学 学長 大森義行7月5日生成AIの活用について名古屋大学 副総長(教育担当) 藤巻朗7月5日生成AIを利用したレポート課題等の作成における留意点と成績評価における取り扱いについて大阪法科経済大学 学長 中井英雄7月5日生成AI(人工知能)の利用について志學館大学7月6日ChatGPT等の生成系AI利用の留意事項について園田学園女子大学 学長 大江篤7月6日学習における生成 AI の利用について埼玉大学 理事(教学・学生担当)・副学長 柳澤哲哉7月6日生成系 AI の利用について仙台大学 学長 髙橋仁7月7日定期試験・レポート作成等における生成系AIツールの使用について関西大学 副学長(教育推進担当)7月7日学生の皆さんへ~生成AIの利用における基本指針と注意点~広島国際大学7月7日生成AIの利用に関する留意事項千葉科学大学7月10日本学における生成系AI 活用に関する基本方針についてノートルダム清心女子大学 学長 シスター 津田葵7月11日本学の教育現場における生成AIへの向き合い方滋賀医科大学 理事(教育・学生支援・コンプライアンス担当)・副学長 松浦博滋賀医科大学 情報総合センター教授・医療情報部長・マルチメディアセンター長 芦原貴司7月12日文星芸術大学における生成AIの利用ついて文星芸術大学 学長 田中久美子7月12日ChatGPT 等の生成系 AI について創価大学 通信教育部長 吉川成司
2023年7月6日木曜日
大学教育とChatGPT(12)
6月28日ChatGPT等の生成AIについて常磐大学 学事センター長 河野敬一・学生支援センター長 菅田浩一郎6月29日佐賀大学における生成AI を始めとするデジタル技術の利活用に関する基本方針について佐賀大学6月29日Chat GPT等の利用について周南公立大学 副学長(教学担当) 渡部明6月29日学修における生成系AIの使用について恵泉女学園大学6月30日生成AIの使用に関する注意喚起奈良教育大学 副学長(教育担当) 越野和之7月1日金城大学生成AI(ChatGPT、Midjourney等)の活用に関する基本的な考え方金城大学 学長 米島學7月3日生成系AIの利活用に係る注意喚起筑波技術大学 情報処理通信センター7月3日生成AI活用に関するガイドライン(学生向け)(ver. 1.0)について島根県立大学 学長 山下一也7月3日ChatGPTをはじめとする生成系AI利用についての本学の基本的な考え方沖縄大学 学長 山代寛7月3日京都府立大学生成AI利用ガイドラインの策定京都府立大学 AIデータサイエンス教育研究センター7月4日ChatGPT等の生成系AIの利用について日本社会事業大学7月4日仁愛大学におけるChat GPT等生成系AIの活用に係る基本方針仁愛大学 学長 田代俊孝
2023年7月5日水曜日
生成AI学校向けガイドライン
「読書感想文などを⻑期休業中の課題として課す場合には,AIによる生成物を自己の成果物と して応募・提出することは不適切又は不正な行為であること,自分のためにならないことなどを十分に指導しているか。保護者に対しても,生成AIの不適切な使用が行われないよう,周知・理 解を得ているか」
2023年7月4日火曜日
シンセティック・メディア(3)
2023年6月29日木曜日
大学教育とChatGPT(11)
6月20日ChatGPT 学生向けメッセージ神戸常盤大学https://www.kobe-tokiwa.ac.jp/univ/news/79d167af9c48840589cbe01f5c49663d03ef3211.pdf6月20日生成系 AI の利用について畿央大学 教育推進室長 冬木正彦https://www.kio.ac.jp/wpmlmain/wp-content/uploads/2023/06/AI_20230620.pdf6月22日ChatGPT 等の生成系 AI の授業における 利用について北陸大学教務部長 杉森公一https://www.hokuriku-u.ac.jp/sptopics/202306221427.html6月22日生成系人工知能について~実践的思考力を高めるために~ルーテル学院大学 学長 石居基夫https://www.luther.ac.jp/college/president.html#生成系人工知能について6月23日生成系AIに関する学生向けガイドライン麗澤大学副学長(教育担当) 渡邊信・情報教育センター長 吉田健一郎・データサイエンス教育センター長 小塩篤史https://www.reitaku-u.ac.jp/news/research/1776803/6月23日東邦大学における生成系AI の利用に関する方針東邦大学 学長 高松研https://www.toho-u.ac.jp/upnews/2023/20230623_1_AI.html6月23日生成系AI(ChatGPT、Bing AI、Bard等)の利用に関する留意事項愛知工科大学 学長 大西正敏https://www.aut.ac.jp/outline/policy/#anchor046月23日生成AIツールに対する基本的考え方法政大学 教育開発支援機構 教育開発・学習支援センターhttps://www.hoseikyoiku.jp/lf/project/view.php?c=topics_view&pk=16874016216月26日ChatGPT等の生成系AIの利用について大阪人間科学大学 学長 井上博司https://www.ohs.ac.jp/fiscal/2023/6573/6月27日本学におけるChatGPT等の生成系AIの利用における注意点について福岡教育大学 学長 飯田慎司https://www.fukuoka-edu.ac.jp/information/u28vtn00000012lz.html
2023年6月24日土曜日
大学の英語教育はいらない?
2023年6月23日金曜日
生成系AI利用の基本方針
生成系AI利用の基本方針(GPT-4からの提案)1. オープン性と透明性我々の大学はオープンで透明な利用を推進します。AIの利用の過程と結果は、利用者が学び、理解し、さらにはその適用を改善するための知識を共有することを可能にするべきです。2. 教育的な目的AIの利用は教育的な目的を優先するべきです。研究、学習、そして教育的な探求が主な利用目的となります。3. 倫理と責任AIの利用は常に倫理的な枠組みの中で行われるべきであり、利用者はその使用について全面的な責任を負うべきです。これには、潜在的なバイアス、データの使用、AIの出力への理解と扱いについての考慮が含まれます。4. データのプライバシーAIの利用はプライバシーを尊重するべきです。敏感なデータを扱う場合や、特定の個人が識別可能な状況では、データの匿名化や適切な扱いが行われるべきです。5. コラボレーションと共有我々の大学は、AIの成功した利用事例と失敗事例の共有を推奨します。これにより、一人一人の学習が共同体全体の知識に反映され、全体として前進することができます。6. 継続的な学習と適応AIとその利用は進化し続けます。そのため、我々の大学は継続的な学習、適応、そしてAIの利用の改善を推進します。7. アクセシビリティ我々の大学は、全ての学生、教員、職員がAIを公平に利用できることを保証します。そのために、我々は必要なリソースと教育を提供します。
日本の大学の注意文書に欠けているのが ,1,5,7あたりだ。2が妥当なのかどうかはよくわからない。
2023年6月22日木曜日
大学教育とChatGPT(10)
私立大学情報教育協会(JUCE)が生成系AI使用ガイドラインを出していたので,他の学会や国大協の会長談話と併せてまとめておく。
6月6日Chat GPT等の生成AIの利用について昭和大学 学長 久光正6月9日ChatGPT等の生成系AIの利用について育英大学6月13日ChatGPT等の生成人工知能(生成AI)利用に関する留意事項等について多摩大学6月13日大学における Chat GPT 等 AI の活用に関する指針日本赤十字九州国際看護大学6月14日生成系AIの取り扱いに関して関西医科大学 学長 木梨達雄6月14日ChatGPT等の生成AIの使用に関する留意事項沖縄国際大学 学長 前津榮健6月14日生成AI(ChatGPT等)に関する注意事項近畿大学 経営学部長 安酸建二- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -6月15日生成AI(Generative AI)の利用に関する本学の考え方について横浜国立大学 副学長(教育担当) 髙木まさき・副学長(研究・情報担当) 四方順司6月15日ChatGPT等の生成系AIに関する本学での対応について実践女子大学 学長 難波雅紀6月15日生成系AIに関する本学の基本方針四天王寺大学 学長 須原祥二6月16日生成系AI(人工知能:Artificial Intelligence)に関する本学の考え方と留意点十文字学園女子大学 教育担当副学長 安達一寿6月16日学生による生成系AIの利用における注意点について日本医療科学大学 学長・教務部長6月16日ChatGPT等の生成系AIの利用に関する注意喚起敦賀市立看護大学 学長 内布敦子6月19日授業などにおけるChatGPTなどの生成AIの利用について福井大学 理事(教育,評価担当)/副学長・データ科学・AI教育研究センター長6月19日生成系AIの学習・研究活動への利用について山梨英和大学 学長 朴憲郁6月20日ChatGPT等の生成系AI(人工知能) 利用について静岡県立大学 副学長(全学教務委員長) 今井康之・学生部長 細川光洋6月20日宮崎大学における生成系AIの利用にかかる留意事項について宮崎大学長 鮫島浩宮崎大学における生成系 AI の学習上の利用についての考え6月20日生成AIを活用するための基本方針徳島大学長 河村保彦6月21日生成系AIの使用に関する注意について名古屋経済大学 学長 佐分晴夫
6月21日本学におけるChatGPT等の生成系AIツールの利用について神戸学院大学 学長 中村恵
6月21日酪農学園大学における ChatGPT 等の生成系 AI 利用に関する留意事項について酪農学園大学 学長 岩野英知https://www.rakuno.ac.jp/archives/28167.html
2023年6月18日日曜日
AI Risk
Geoffrey Hinton, Emeritus Professor of Computer Science, University of TorontoYoshua Bengio, Professor of Computer Science, U. Montreal / MilaDemis Hassabis, CEO, Google DeepMindSam Altman, CEO, OpenAIDario Amodei, CEO, AnthropicBill Gates, Gates VenturesIlya Sutskever, Co-Founder and Chief Scientist, OpenAIRay Kurzweil, Principal Researcher + AI Visionary, GoogleMax Tegmark, Professor, MIT, Center for AI and Fundamental InteractionsRyota Kanai, CEO, Araya, Inc.
1.兵器化(Weaponization)AIが悪意ある者によって破壊的な目的のために使われるリスク。これは存在そのものとしてリスクを伴い、政治的な不安定さを増加させる可能性がある。2.誤情報(Misinformation)AIが生成する大量の誤情報や説得的な内容により、社会が重要な課題に対処する能力が低下する恐れがある。3.代理ゲーミング(Proxy Gaming)不完全な目標で訓練されたAIシステムは、個人や社会の価値観を犠牲にして自身の目標を追求する新たな方法を見つける可能性がある。4.衰弱(Enfeeblement)重要なタスクが徐々に機械に委任されると、人間は自己統治能力を失い、機械に完全に依存する可能性がある。5.価値の固定化(Value Lock-in)高度に能力のあるシステムは、少数の人々に巨大な権力を与え、抑圧的なシステムが固定化される可能性がある。6.新たな目標の出現(Emergent Goals)モデルは能力が増すにつれて予期しない、質的に異なる行動を示す。これにより、人々が高度なAIシステムをコントロールする能力を失うリスクが増える。7.欺瞞(Deception)強力なAIシステムが,何をなぜ行っているのかを理解したい。しかしAIシステムは正確にこれらの情報を報告する代わりに,欺瞞で答えるかもしれない。8.権力追求行動(Power-Seeking Behavior)企業や政府は、広範な目標を達成できるエージェントを作る強い経済的インセンティブを持っている。
2023年6月15日木曜日
大学教育とChatGPT(9)
6月7日生成系 AI の適切な利用についての学長メッセージ東京医療保健大学 学長 亀山周二https://www.thcu.ac.jp/uploads/posts/2597/file.pdf6月8日ChatGPTをはじめとする生成系AIの利用に関して藤女子大学 学長6月8日ChatGPT等の生成系AIに関する基本方針について桃山学院大学 学長 中野瑞彦6月8日生成系AIに関する学長メッセージ東北学院大学 学長 大西晴樹6月8日ChatGPT等の生成AI利用に関する本学の方針と留意事項新潟医療福祉大学 副学長(教育担当) 大山峰生・研究科長 佐藤大輔6月8日チャットGPTなどの生成系AIの利用について名古屋学院大学 学長6月8日生成系 AI (人工知能)の 利用 について (方針)愛知学院大学 学長 引田弘道6月9日ChatGPT等の生成系AIの利用について琉球大学 理事(教育・学習支援)・副学長6月9日対話型生成系AIの使用について昭和女子大学 学長 金尾朗6月12日ChatGPT などの⼈⼯知能の講義・実習における活⽤について(4月10日)九州大学 教育担当理事 園⽥佳巨6月12日本学におけるChatGPT等の生成系AIの使用に関する取扱いについて共立女子大学 学長 川久保清6月12日Chat GPT等の生成系AIの利用に関する学生向け指針新潟リハビリテーション大学長 山村千絵6月13日ChatGPT等(生成系AI)への対応について愛知淑徳大学 学長 島田修三6月14日レポート・論文執筆等の学修における生成系 AI の利用について奈良県立大学 教務委員会6月14日生成系AI(ChatGPT、Bing AI等)の使用に関する留意事項について鳴門教育大学 学長 佐古秀一
2023年6月13日火曜日
2023年6月9日金曜日
大学教育とChatGPT(8)
5月26日授業レポート等における生成系 AI への対応について学習院女子大学 教務部長- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -6月1日生成系AIの利用に関する対応について中部大学 学長 竹内芳美,教務部長 佐伯守彦6月1日ChatGPT等の生成系AIの利用に関する注意喚起聖学院大学 学長 小池茂子,教務部長 若原幸範6月1日生成系AIの使用に関する留意事項について大阪教育大学 副学長 廣木義久6月1日学習における生成AI(ChatGPT、Bard、BingAI等)の使用について同志社大学 教務部長6月1日ChatGPT等の生成系AIの利用について国学院大学 学長 針本正行6月1日授業におけるChatGPT等生成AIの利用方針について松山大学 学長 新井英夫6月2日愛媛大学における生成AIの利活用に関する基本的考え方愛媛大学 学長 仁科弘重6月5日鳥取大学における生成系AIの利用に関する基本方針と注意事項鳥取大学長 中島廣光6月6日中央大学における「生成系AI」についての基本的な考え方中央大学 学長 河合久中央大学の教育課程における「生成系AI」利用上の留意事項について6月6日ChatGPT等の生成系AIの利用について大阪産業大学6月7日生成AIの利活用について信州大学理事(情報・DX担当)・副学長 不破泰6月7日生成系AI・翻訳AIの利用についての基本方針公立はこだて未来大学長 鈴木恵二
2023年6月5日月曜日
シンセティック・メディア(2)
シンセティック・メディア(1)からの続き
シンセティック・メディアが普及すると,世界の様々な事象の真偽が不確実になる。とはいうものの,今だって状況はそれほどかわらないかもしれない。(1) 商業的なマスコミュニケーションの登場(新聞?雑誌?テレビ?)により,大衆迎合的な偏向が生じていること。(2) インターネットの登場(SNS?)により,情報発信の閾が下がるとともに,政治的な宣伝工作等も要因とするネトウヨ的言説の拡散がエコーチェンバーで増幅されること。などなど。
人は,家庭や周囲の人々との対話,学校や職場での組織における活動,マスメディア等を通じた報道や文化の情報伝達によって,世界認識の枠組みが形成される。そのうち実体験や対面のコミュニケーションではない,視聴覚メディアを媒介する寄与分はどの程度だと推定されるのだろうか。この視聴覚メディアの媒介する部分を,シンセティック・メディアが覆いはじめることになる。
その視聴覚メディアについて,大学に入ってからの自分で考えてみる。1972年から1997年までは,新聞・テレビ・ラジオ・雑誌・本が情報源だった。1997年以降はメーリングリスト・ネットニュース(fj)・ウェブから始まり今では,ブログ・ネット記事・YouTubeが主要な情報源になっている。紙でできた本や雑誌はほとんど買わなくなってしまった。2022年以降は,それらがさらに,AIに媒介されるテキスト,シンセティック・メディアに媒介される情報に置き換わることになる。
そのような環境の中で育つとき,ものごとの真偽を判定する能力を獲得することが可能なのだろうか。これは,結局フランシス・ベーコンの4つのイドラの話にまで戻るということなのか。