2024年12月2日月曜日

生成AI利用ガイドライン

生成AI利用の基本方針からの続き

文部科学省からは,生成AIの利用について各種の文書がでている。11月26日には,初等中等教育段階における生成AIの利活用に関する検討会議から,初等中等教育段階における生成 AI の利活用に関するガイドライン(素案)が出てきた。このファイルをChatGPT-4oに分析させた結果が次のものである。
Q(koshix):
この文章を普通の学校教員が読んだとします。
(1) 必ずしもAIやITの専門でないはずの教員たちが,理解困難な用語や文をリストアップしてください。
(2) 教員たちがAIの活用にしり込みしてしまう,あるいは圧力を感じてしまう,あるいは反発を感じてしまうような部分をリストアップしてください。

A(CahtGPT-4o):
(1) 教員たちが理解困難だと感じる可能性のある用語や文
以下のような専門用語や複雑な表現は、必ずしもITやAIの専門知識を持たない教員にとって理解が難しいと考えられます:

1.生成AI:特に「マルチモーダル化」「AIエージェント」「追加学習の手法」などの技術的な説明。
2.ハルシネーション:AIの誤った出力を指すが、一般には馴染みがない用語。
3.ファクトチェック:情報の真偽を確認する具体的な手法についての言及が不足している可能性。
4.情報セキュリティポリシー:専門的なガイドラインが前提となっており、教員が即座に内容を理解するのは難しい。
5.オプトアウト設定:生成AIが個人情報を学習しない設定についての説明不足。
6.ライセンスの所在:生成物に関する権利や使用条件について、具体例が少ない。
7.著作権法第35条:法律の専門的な適用範囲を具体的に理解するのが難しい。

(2)教員がAI活用にしり込み、圧力、反発を感じる可能性のある部分
以下のポイントが、教員の不安や抵抗感を生む可能性があります:
1.「AIリテラシーの要求」
 ・教師が「一定のAIリテラシーを求められる」と記載されており、技術的な負担が増えると感じる可能性。
 ・新しい技術に慣れるための時間や研修が不十分である場合、抵抗感を抱く。
2.「人間中心の原則」に基づく対応
 ・「AIは人間の能力を拡張する道具」と強調されているが、それを実現するための具体的な手順が示されていないため、教師自身が責任を負わされるとの印象を持つ。
3.「生成AIによる業務効率化」
 ・業務の効率化を期待される一方で、AIによる出力の確認や修正といった作業負担が実際には増えるのではないかと懸念。
4.「リスクへの対応義務」
 ・個人情報やプライバシー、著作権の問題に対する配慮が求められており、これらに関連するリスクの責任が教員にあると感じる可能性。
5.「児童生徒への影響」
 ・AIを児童生徒に利用させる際のリスクや、教育目的との整合性の確保が求められており、これをどのように管理すべきか分からない場合、負担感を感じる。
6.「評価基準の曖昧さ」
 ・AIによる生成物の正確性や適切性を評価する責任が教員に課されており、それに対応する基準や研修が不明確。
7.「技術的な進化への対応」
 ・「生成AIは急速に進化している」と記載されており、教師がその変化についていくことに不安を感じる可能性。

これらの要因を解消するには、研修やサポート体制の充実、具体例を交えた実践的なガイドラインの提示が求められます。 
素案自体はどうでもよいというか余り気にしていないのだけれど,検討委員の一人である言語学者の今井むつみさんからでていたコメントがおもしろかった。要は,いつものようなお役所仕事的な文書に対する苦情であり,教育のICT業界あるあるの「余りよく知らないのに聞きかじった知識を知ったかぶりで操って自分を大きく見せようとする習慣への警鐘である。自分にもそっくりそのまま当てはまりなので,へへーっと土下座してしまった。


図:生成AIの教育利活用ガイドラインのイメージ(DALL-E3による)


0 件のコメント:

コメントを投稿