橋本によれば,ChatGPTの特徴は,(1) 確率的にありがちな文章を生成するだけのアルゴリズム,(2) あらゆる分野の文章を事前学習して世界を俯瞰している,(3) 人がファインチューニングしておかしなことをいわない,の3つの原則から成り立っていることだ。
その結果,ChatGPTはありきたりでつまらないこと(=優等生的な回答)しかいわない。しかしながら,APIによる利用では,ChatGPTの内部で設定されている温度を調整できるようだ。この温度は,ボルツマン的な意味で,高くするとありがちな文章からはずれた文章が出現する確率を増やすことができるというものだ。ChatGPTが語るのは,低温で秩序が保たれた世界だったのだ。十分に事実が吟味できずにフラストレーションを持ったまま凍結した答えが返ってくる世界も含んでいるが。
一方,山口の体験によれば,「ChatGPTは中央値しか語れない」ということだ。これは,医療診断,法務,会計などの分野では,典型的に必要とされる能力であり,すでに実際の企業などでは実務への導入が進んでいるようだ。1ヶ月かかる業務が1時間で可能になるという程度の生産性の向上が期待される場合もしばしば見られるらしい。
これにより,中央値のアウトプットが求められる多くの分野の業務において,省力化が急速に進行することが予想される。その場合に,人間にできるのは正規分布の裾野に残されたはずれ値の仕事や発想だというのである(これすら,温度の調整次第では危うくなるのかもしれないが)。
そして,そのことの帰結は,教育の目的の大幅な変更につながっていく。これまでのような,短時間に正解を導くことができる能力ではなく,「正解からのはずれ方」が求められることになるという説だった。つまり,教育の分野では,方法論と内容論と目的論の3つの側面から,生成系AIによる挑戦を受けることになる。大丈夫か。
0 件のコメント:
コメントを投稿