2023年5月26日金曜日

対話型AIと教育(5)

対話型AIと教育(4)からの続き
Q:User
大学の授業で出されるレポート課題(エッセイ)に対して,ChatGPTを使って答えを生成してそのまま提出する学生が頻出するのではないかとの懸念が示されている。このため,大学によっては,ChatGPTの使用を禁止したり,制限しようとする動きがみられる。これは,各大学で発出される「生成系AIの利用に関する注意事項」として成文化されつつある。ここでは,上記のようなレポート問題だけではなく,機密情報や個人情報の漏洩,著作権侵害の恐れなどが指摘されている。これによって,ChatGPTなどの生成系AIの利用を,程度の大小はあれ,抑制することで,大学でのトラブル発生を減らそうようというリスク管理の動きが顕著にうかがえる。
ところで,今後の社会は,現在の生成系AIやその発展形態となるAIシステムとは無関係ではありえない。そのため,できるだけ早期にその利用方法を習得して対応することが求められている。授業のレポート課題などでの使用制限を越えて,教員や学生が積極的にChatGPTなどの生成系AIシステムを活用することができるようにするには,どうすればよいか,具体的な例を箇条書きで示すことで,これらの疑問や懸念を払拭する方法を教えてください。

A:ChatGPT
生成型AIの恰好な利用に関して教員や学生を支援するための具体的な提案は以下のとおりです。

教育的な目的でのAI利用: 学生が生成型AIを使ってエッセイを書く代わりに、学生が自分の言葉で議論を組み立てる訓練の一環として、AIを使用する方法を教える。AIは情報源やアイデア生成ツールとして有用だが、最終的な書き上げと分析は学生自身が行うべきである。
プラグラミングスキルの教育: 学生自身がAIを制御、調整、プログラムする方法を教える。これは学生がテクノロジーを適切に利用する方法を理解し、潜在的なミスや誤解を避けるのに役立つ。
AIの限界と可能性についての教育: AIが何を得意とし、何が苦手であるかを学生に理解させる。これにより、AIが学術的なタスクにどのように利用できるか、またどのように利用すべきでないかについて理解を深める。
データプライバシーと情報セキュリティの教育: AIがどのようにデータを処理し、保管するかについての教育を強化する。これにより、学生は自分の情報をどのように安全に管理するか、またAIを使用する際にどのようなリスクが存在するかを理解する。
情報源の評価: AIが生成する情報の信頼性を評価するためのスキルを教える。これにより、AIが提供する情報が常に正確であるわけではないことを理解する。
AIの倫理的使用: AIが持つ可能性とリスクについての議論を促す。これにより、AIを道徳的、倫理的にどのように使用すべきかについての理解を深める。
AIの使用ガイドラインとポリシーの作成: 学校全体でAIの使用ガイドラインとポリシーを作成し、これをすべての学生と教職員に共有する。これにより、AIの適切な使用に関する共通の理解を形成し、問題の予防を図る。
学生と教員のためのAIリテラシーワークショップ: 定期的にAIに関する教育ワークショップを開催し、学生と教員がAIについての最新の知識を得ることを支援する。これにより、AIの正しい利用と倫理的な問題に対する理解が深まる。
対話とフィードバック: 教員と学生がAIの使用経験について定期的に意見交換を行い、互いに学び合う環境を作る。これにより、問題や新たな利用法が迅速に共有され、学習経験が改善される。
AI利用の透明性: AIを使用して生成された作業や研究についてはその事実を明示する。これにより、利用の公正さと透明性が保たれ、評価における不公平さが避けられる。

これらの提案を通じて、教員と学生がAIを適切に使用し、理解するスキルを育てることが可能となるでしょう。AIが学術環境での問題解決や創造性を刺激するツールとして有効に活用されるためには、その正しい利用法と倫理的な問題について理解を深めることが必要となります。

Q:User
対応のための全体的イメージや戦略は把握できました。とくに第1項目に関連して,これまで出していたようなエッセイ課題はどのように修正すれば,ChatGPTの結果をそのまま回答に使う(大学によってはこれを剽窃とまでよんでいます)ことを避けることはできるでしょうか。学生は全員ChatGPTにいつでも自由にアクセスできる環境があるものとします。

A:ChatGPT
ChatGPTなどの生成型AIが学生の手元にあり、それを活用する能力もある状況下で、エッセイ課題を設計する際には、以下のような要素を考慮すると良いでしょう。

個人的な視点や体験を求める: AIは一般的な知識に基づく答えを生成できますが、個人的な経験や視点に基づく答えを生成することはできません。したがって、学生に自分自身の意見や体験に基づく思考を要求するエッセイ課題は、AIがそのまま解答することを防ぐことができます。
クリティカルシンキングの展開: AIは情報を提示し、論理的な結論を導くことができますが、複雑な問題に対する深い洞察や独自の分析を提供することは困難です。そのため、特定の問題やトピックについての深い分析や評価を要求する課題は、AIの直接の回答を避ける助けになります。
アプリケーションとシミュレーション: 抽象的な概念や理論を具体的な状況や事例に適用するような課題は、AIが自動的に解答することを難しくします。これは、AIが現実の状況を完全に理解する能力に限界があるためです。
ディスカッションとコラボレーション: チームやグループでのディスカッションやコラボレーションを必要とする課題は、AIの単独での解答を防ぐことができます。また、ディスカッションの過程を報告するような課題は、学生自身の対人スキルやチームワークのスキルを評価する機会にもなります。
リフレクション: 自己反省や思考の反省を要求する課題は、AIが解答することを困難にします。これは、AIが自己意識や自己理解を持つことができないためです。 
上記のようなアプローチにより、生成型AIの単純な利用を超えて、学生自身の思考力や独自性を引き出す課題設計が可能となります。また、以下の点も考慮するとより有効でしょう。 
オープンエンドの問い: 一つの明確な正解が存在しない問題を提出することも、生成型AIの単純な利用を避ける有効な手段となります。このような問題は、学生が多角的に考え、自分自身の見解を形成することを促します。
プロジェクトベースの学習: 長期的なプロジェクトを課題とすることで、学生が深く学び、自分自身の解釈と分析を形成するプロセスを評価できます。これは、単一の問題に対する一時的な回答よりも、AIを単純に利用することを避ける助けとなります。
実験や観察に基づくレポート: 実験の設計、実行、観察、そしてその結果の解析と報告を求める課題は、AIが単独で完結することを難しくします。これは学生自身の科学的な思考や観察力を評価する良い方法です。
教材の外部情報の使用: 一部の情報を教材以外から引用するような課題も、生成型AIの単純な利用を防ぐ手段となります。その際、どの情報源をどう選択し、その信憑性をどう判断したかを報告することを求めると、情報リテラシーも評価できます。

これらの提案を通じて、教員は学生が自分自身の思考力と創造性を発揮し、生成型AIを超えた高度な学習を達成するのを助けることができます。

0 件のコメント:

コメントを投稿