2026年2月16日月曜日

AIと学校教育(2)



図:AIと学校教育(Nano Banana Pro による石田徹也風イメージ)


2月13日金曜日の中央教育審議会の,初等中等教育分科会教育課程部会情報・技術WGで,「AIに関する現状と検討課題について」という資料がでていたので,早速,分析してもらった。

なお,東大の江間有沙さんの「AIと人の関係性を設計する力の育成:AIリテラシーの再考」もおもしろそうだった。ChatGPTによれば,こちらの方が,我々の議論よりずっと進んでいるとのことだった。そうだよね。30分で生成AI(LLM)を使ってできた文章が,専門家を越えていたらシャレにならないもの。
A(ChatGPT+Gemini+Claude+koshix):

資料は「人間が最終判断すれば人間中心だ」と言うが、実は判断を支える思考の条件と、世界が問題として立ち現れる回路を静かに弱めている。人間が“名義上の審判”として残っても、判断が成立する条件(反例を考える力、根拠を追う力、別案を構想する力)が失われれば、それは人間中心ではない。

1.「導出過程」のない判断は、ただの署名である
数学や物理で、導出を飛ばして答えだけ検算しても真の理解にはならない。判断の本質は、結論に至るまでの苦闘のプロセス(導出)を通じて、何が前提で、どこで飛躍が起き、どの反例で崩れるかを自分の中に持つことにある。AIがプロセスの大半を占領し、人間が最後にボタンを押すだけなら、それは判断ではなく追認に近い。「最終判断は人間」という看板の下で、思考の筋道がブラックボックス化し、理由は「AIがそう言ったから」に滑り落ちる。だから問題は、AIを使うこと自体ではなく、AI利用の開示や根拠の追跡可能性、反例生成といった“判断の条件”が、評価と運用として守られていないことだ。

2.世界が「のっぺらぼう」になる
人間は、わからないことや矛盾にぶつかり、世界からの抵抗を感じることで、自分と世界との距離を測り、学ぶ。ところがAIが先回りして整った答えを与えると、世界は抵抗として立ち現れる前に言語で満たされ、平坦で“のっぺらぼうな情報”に見え始める。ここで壊れるのは学力ではなく、世界が問題として立ち上がる仕方そのものだ。成績は上がっても、「わかったつもり」が増え、不可知性に立ちすくみ、そこから自分の問いを立て直す力が痩せていく。教育が守るべきなのは効率ではなく、この抵抗を受け止め、問いを生む回路である。

3.「独自の違和感」という発火点の消失
AIリテラシー教育の体系化は、統制というより、便利さによって自発的に起きる均質化を招く。みんなが同じ道具(AI)を使えば、問いの立て方、説明の型、納得の仕方が似てくる。そのとき消されやすいのが、自分だけの「説明できない違和感」だ。だが違和感は、非合理の聖域ではない。誤情報や詐欺や権威に対して立ち止まり、証拠を要求し、反例を作り、異議を申し立てるための“反証の発火点”である。これが「効率」や「客観性」の名の下にエラーとして矯正されるなら、社会は静かに抵抗能力を失う。

4.効率という名の物差しへの最適化
資料は「価値創造」や「課題解決」を強調するが、それ自体は中立語ではない。何を課題と見なし、何を成功と数えるかという価値の座標系(評価尺度)が先に固定され、その尺度に沿ってAIが“答えやすい価値”が増幅される。すると人間はAIを使いこなしているつもりで、実はAIが最適化しやすい価値関数に同化していく。問題は「役に立つか」ではなく、価値の物差しを誰がどう決め、どの異議申し立てを許すかという、共同体の自己統治の問題に踏み込んでいる点である。

5.核心
この資料が守ろうとしているのは「人間が判断する」という形式であり、判断が成り立つ条件――世界の複雑さ・不可知性に耐え、根拠を追い、反例を作り、理由を引き受けるという制度条件――への敬意が薄い。生成AI時代の教育に本当に必要なのは、効率的な活用術ではない。AIが提示する流暢な正解に対して立ち止まり、「それでも割り切れない」という違和感を、反例生成・説明責任・開示といった形で評価と運用に埋め込み、知が成立する土台を守ることだ。そうでなければ「人間中心」は責任逃れの言葉に墜ち、学びは世界との真の出会いを失ってしまう。

0 件のコメント: