ラベル AI の投稿を表示しています。 すべての投稿を表示
ラベル AI の投稿を表示しています。 すべての投稿を表示

2023年4月20日木曜日

大学教育とChatGPT(2)

大学教育とChatGPT(1)からの続き

その後,いくつかの大学から生成系AIの利用に関する注意喚起が公開されている。全国の大学数が約800だとすれば,2%というところか。学内向けだけのアナウンスにとどめているところはもっとあるのかもしれない。いずれにしても,感度が低いような気がする。ウェブブラウザが登場して,大学のホームページが立ち上がり始めたころに似ているかもしれない。

おおむね共通しているのは,レポートに使うな(剽窃になる),危ないぞ(個人情報が漏洩する,著作権を侵害する),自分で書く力=考える力が重要だ。というあたりか。ただ,生成系AIの重要性はなんとなく理解しているらしいので,なんとも歯切れの悪い表現になっている。なお,これらの危険度は,普通の検索やSNSの場合と同レベルだと思われるし,剽窃だと断定するのも微妙な気がする。

ChatGPT(生成系AIシステム)を使いたおすようでないと,就職もできなくなると煽っているのは,シンギュラリティサロンの松田卓也先生くらいか。神戸大学の塚本昌彦先生は授業で,ChatGPTを積極的に使うという課題を出しているが,これは下記の東洋大学の坂村健さんも同様であり,情報系の先端研究者には多いパターンだ。

P. S.  東京外国語大学のガイドラインを見落としていた。実は,これが現時点における最良の回答になっている。後発の大学は少なくともこれを参照した上で議論すべきだった。なお,東京工業大学も前向きでシンプルなものになった(4.21)
3月22日
大学教育における AI について 東京外国語大学としての教員向けガイドライン
東京外国語大学 総合戦略会議

3月27日
ChatGPT等のAIチャットボット(生成AI)への対応について
上智大学

3月31日(4月11日)
ChatGPT等の生成系AI利用に関する留意事項(学生向け)
ChatGPT等の生成系AI利用に関する留意事項(教員向け)
東北大学 デジタル教育アドバイザリ・グループ

4月3日
生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
東京大学 理事・副学長(教育・情報担当) 太田邦史

4月4日
武蔵大学の知名度を上げる方法←AIに聞いてみた
Musashi Web Magazine(学生がイマを伝えるウェブマガジン)

4月7日
京都大学令和5年度学部入学式 式辞
京都大学 第27代総長 湊長博

4月7日
学生の皆さんへ:生成系AIの使用についての注意(第1報)
神戸市外国語大学

4月11日
法政大学情報科学部・情報科学研究科 生成系AIの利用に関する指針
法政大学 情報科学部長 藤田悟  情報科学研究科長 小池崇文

4月13日
ChatGPTなどの生成系AIについての注意喚起
群馬大学 理事(教育・評価)・副学長

4月14日
生成系AIに関するINIADの見解
東洋大学INIAD (東洋大学情報連携学部) 学部長 坂村健

4月14日
島根大学におけるChatGPT等の生成系AIの利用におけるリスク管理について ―教職員及び学生のみなさんへの注意喚起―
島根大学長 服部泰直

4月14日
教育研究におけるChat(チャット)GPT等の利用について
北里大学学長 島袋香子  教育委員長 江川徹

4月17日
生成AI(Generative AI)の利用について
大阪大学総長 西尾章治郎

4月17日
教育・学習におけるChatGPT等の生成系AIツールへの対応について
関西大学 副学長(教育推進担当)

4月17日
本学の教育における生成系AIの取扱いについて
兵庫県立大学 副学長(教育担当) 内田 勇人

4月17日
生成系AI(ChatGPT等)に関する留意事項
近畿大学 情報学部長 久夛良木健  情報学部長代理 井口信和
4月18日
教育における生成系AIの利用について
山形大学 理事(教育、入学試験担当)・副学長 出口毅

4月18日
ChatGPT 等の生成系 AI について
群馬県立女子大学 学長 小林良江

4月19日
大学授業課題に対する生成系 AI の取り扱いについて
甲南大学長 中井伊都子  甲南大学 教務部長 小出武
4月19日
生成系AIの使用に関する注意(第1報)
福井工業大学 学務部長 田中智一
https://www.fukui-ut.ac.jp/news/topics/entry-9308.html 
4月20日
学修における生成系人工知能の使用に関する本学の考え方について
東京工業大学 理事・副学長(教育担当) 井村順一
https://www.titech.ac.jp/student/students/news/2023/066590
4月20日
生成系AI(ChatGPT等)の活用について
龍谷大学・龍谷大学短期大学部

 

2023年4月19日水曜日

モントリオール宣言


大阪大学が総長名で出した生成系AI(Generative AI)の利用について では,社会技術共創研究センター(ELSI)が,2023年4月にだした「生成AI(Generative AI)の倫理的・法的・社会的課題(ELSI)論点の概観:2023年3月版」が参考資料としてリンクされている。

網羅的な議論はされていたものの,教育分野の記載内容はイマイチだった。そのELSIのグループのメンバーが,人工知能の責任ある開発についてのモントリオール宣言の日本語訳に協力していた。たぶん,これも論点整理の参考になっているのだろう。さっそくGPT-4にまとめてもらった(もうテキストを読む力は衰える一方だ)ら,途中からほとんどもっともらしいけれど虚偽の説明に変わっていたので,10原則は日本語訳の方から引用することにした。

「モントリオール宣言」は、2018年にカナダのモントリオールで発表された、人工知能(AI)の責任ある開発に関する宣言です。この宣言には、AIの開発と使用における倫理的な指針を提供する10の原則が含まれています。以下に、その10原則を説明します。

1.ウェルビーイングの原則: 人工知能システム (AIS) の開発と使用は生きとし生けるもののウェルビーイングの増大を可能にしなければ なりません。

2.自律尊重の原則: AIS は人々の自律性を尊重しつつ 人々が自らの生活や環境をよりいっそうコントロール できるようにすることを目標として開発および使用されなければなりません。

3.プライバシーおよび内密性保護の原則: プライバシーおよび内密性は,AISの侵入やデータ取得・アーカイブシステム(DAAS)から保護されなければなりません。

4.連帯の原則: AISの開発は人々や世代間の連帯の絆を維持することと両立されなければなりません。

5.民主的参加の原則: AIS は理解可能性,正当性およびアクセシビリティの基準を満たし,民主的な精査,議論およびコントロールを受けなければなりません。

6.公平・公正の原則: AISの開発および使用は,公正で公平な社会の創造に貢献しなければなりません。

7.ダイバーシティ・インクルージョンの原則: AISの開発および使用は,社会や文化の多様性の維持と両立しなければならず,ライフスタイルの選択や個人的な経験の範囲を制限してはなりません。

8.慎重さの原則: AI開発に携わるすべての人はAISの使用による悪影響を可能な限り予期し,それを回避するための適切な措置を講じることによって注意を払わなければなりません

9.責任の原則: AISの開発および使用は,決定を下す必要がある場合に,人間の責任を軽減することに寄与してはならない

10.持続可能な開発の原則:  AISの開発および使用は、地球の環境における強い持続可能性を保証するために実施されなければなりません。

モントリオール宣言は、AIの責任ある開発と使用を目指す国際的な取り組みの一環として、世界中の研究者、技術者、政策立案者、企業、市民団体などが参加して策定されました。この宣言は、技術革新に伴う潜在的なリスクを緩和し、人間中心のAI開発を推進するための倫理的な指針を提供しています。各組織や国家は、この宣言に従って、AI技術を適切に管理し、その恩恵を可能な限り公平に享受することが期待されています。
これらの原則は,AIに限らず,あるシステムを社会実装する場合の一般論になっているような気がする。それはそれで問題ないといえばそうなのだけれど,ちょっとモヨる。

2023年4月18日火曜日

はずれ値

ChatGPTについて,橋本大也山口周が期せずして似たようなことを語っていた。

橋本によれば,ChatGPTの特徴は,(1) 確率的にありがちな文章を生成するだけのアルゴリズム,(2) あらゆる分野の文章を事前学習して世界を俯瞰している,(3) 人がファインチューニングしておかしなことをいわない,の3つの原則から成り立っていることだ。

その結果,ChatGPTはありきたりでつまらないこと(=優等生的な回答)しかいわない。しかしながら,APIによる利用では,ChatGPTの内部で設定されている温度を調整できるようだ。この温度は,ボルツマン的な意味で,高くするとありがちな文章からはずれた文章が出現する確率を増やすことができるというものだ。ChatGPTが語るのは,低温で秩序が保たれた世界だったのだ。十分に事実が吟味できずにフラストレーションを持ったまま凍結した答えが返ってくる世界も含んでいるが。

一方,山口の体験によれば,「ChatGPTは中央値しか語れない」ということだ。これは,医療診断,法務,会計などの分野では,典型的に必要とされる能力であり,すでに実際の企業などでは実務への導入が進んでいるようだ。1ヶ月かかる業務が1時間で可能になるという程度の生産性の向上が期待される場合もしばしば見られるらしい。

これにより,中央値のアウトプットが求められる多くの分野の業務において,省力化が急速に進行することが予想される。その場合に,人間にできるのは正規分布の裾野に残されたはずれ値の仕事や発想だというのである(これすら,温度の調整次第では危うくなるのかもしれないが)。

そして,そのことの帰結は,教育の目的の大幅な変更につながっていく。これまでのような,短時間に正解を導くことができる能力ではなく,「正解からのはずれ方」が求められることになるという説だった。つまり,教育の分野では,方法論と内容論と目的論の3つの側面から,生成系AIによる挑戦を受けることになる。大丈夫か。

2023年4月16日日曜日

大学教育とChatGPT(1)

いよいよ明日から大阪教育大学の前期の授業がはじまる。コロナ以降,開始日が10日ほど遅くなってしまった。すでに,授業が始まっている大学も多いはずだ。

さて,ChatGPTがそれなりの日本語のレポートを簡単に作ることがわかったため,レポート課題を出していた大学人は慌てているかもしれない。そうでないかもしれない。各大学では,対応を検討しているし,文部科学省も,初等中等教育におけるChatGPTの使い方について,なんらかのアナウンスをする方向らしい。

早かったのは,東京大学と東北大学と上智大学だ。東大の吉田塁さんの「ChatGPT・AIの教育関連情報まとめ」のページに,海外や国内の大学の対応例がある。NHKでもニュースに取り上げていたが,完全に偏っていた。京都大学の入学式における湊総長の式辞での警告(以下にGPT-4に該当部分をまとめさせた)と,上智大学のレポートでの使用禁止のネガティブ事例2件だった。
最近、生成AIであるChatGPTなどの自動文章作成ソフトが話題になっていますが、それらにはいくつかの問題点があります。まず、明らかな誤情報が含まれるリスクがあり、特定の論旨について根拠となる資料を正確に引用できないことも指摘されています。これは、サーチのみでリサーチという検証が欠けているためです。学術レポートとしては致命的な問題であり、主要な国際学術誌はChatGPTを論文の共著主体として認めることはないと言われています。現状では、AIによる自動文章作成には、自ら「文章を書く」という重要な検証プロセスが欠けているとされています。(京都大学湊総長式辞の該当部分をGPT-4で200−300字に要約)
なお,東大は,教育・情報担当の理事・副学長である太田邦史さんからの解説的な注意喚起,東北大は,デジタル教育アドバイザリグループによる,学生向け及び教員向けの留意事項でありいずれも禁止とはしていない。

まあ,実際問題,生成AIの利用は禁止はできないと思う。ただし,無料で使えるChatGPT(GPT-3.5)やBing Chatと有料版のGPT Plus(GPT-4)では大きな差がある。GPT-4のAPIやPlug in 利用では学生によってさらに大きな違いが生ずるかもしれない。現在のように誰でも平等にGoogle検索をできるような状況とは違う。

この情報アクセスの非対称性を放置すると,隣の学生が簡単にレポート代行サービスできるという新たな経済活動=ビジネスチャンスが発生する。まあ,いまでも友達のレポートほとんど丸写しという例があるし,宿題代行サービスはあるといえばあるのだけれど,その閾値が劇的に下がってしまうというかなんというか・・・。

明日は,芳賀さんがやってたような学生の生成AI認知度アンケートをとってみよう。


P. S. 4月17日(月)に大阪大学が,西尾章治郎総長名で「生成AI(Generative AI)の利用について」という注意喚起を発した。情報工学者(自然言語処理ではない)だけれど総長なので無難なメッセージになっている。同い歳の東大の坂村健はNHKでかなりアグレッシブな発言をしていたけれどね。

2023年4月15日土曜日

数独

日本経済新聞の土曜版のクイズ欄では,数独(ナンプレ)が毎週出題されていた。以前は赤で配置可能な数字をメモしながら解くものだと信じていたのだが,ある日電車の隣に座ったおじさんが,メモなしでスイスイ解いているのを見てしまった。それ以降は,簡単なものなら補助メモなしで解けるようになった。なにごとも信念が重要である。

その土曜版のクイズ欄は,4月から漢字クイズに変わってしまった。えぇーっ。せっかく惚け防止のために頭の体操(10-20分)をしていたのに・・・。まあ,数独を含む各種クイズがセットになった日経脳活動クイズのiPhoneアプリ版があるといえばあったけれど消してしまった。紙に書かないと,落ち着かない旧世代なのだ。

それならば,自分で数独の問題を作るプログラムを書けばよい。さっそくGPT-4に聞いてみたら,pythonプログラムを出してきた(ありふれているので学習済みだろう)。さらに,第2案として,sudokuモジュールをインポートする2-3行ですむ簡単な方法が提案された。pip でsudokuをインストールせよとのことだが,それではだめで,py-sudokuならうまくいった。

GPT-4と相談しながら,修正を繰り返し,結果をcsvファイルに格納するプログラムができた。これをexcelで読み込んで出力すればOKだ。

#!/Users/koshi/bin/python

import csv

from sudoku import Sudoku


# Initializes a Sudoku puzzle with 3 x 3 sub-grid and

# generates a puzzle with 75% of the cells empty

puzzle = Sudoku(3).difficulty(0.65)

puzzle.show()


# Convert the puzzle to a list of lists

puzzle_data = []

for row in puzzle.board:

    puzzle_data.append(list(row))


# Write the puzzle data to a CSV file

with open('puzzle.csv', 'w', newline='') as csvfile:

    csv_writer = csv.writer(csvfile)

    for row in puzzle_data:

        # Replace 0 or None with an empty string to represent empty cells

        formatted_row = [str(cell) if cell not in (0, None) else '' for cell in row]

        csv_writer.writerow(formatted_row)

 その結果わかったこと。日経のクイズは超難問の場合でも解けるようにかなり配慮されている。難易度を易しめに設定しても,単純にランダムに消すことで数独問題をつくるとかなり解くのが難しい極値にはまり込むことがあるような気がする。


図:GPT-4と協力して作成したコードの出力例

[1]py-sudoku 1.0.3(pypi.org)

2023年4月14日金曜日

AI安全性への取り組み

いろいろと風当たりが強くなってきたOpenAIは,AI安全性への取り組みについてという文書を公開した。この7500字の英文をGPT-4に与え「次の英文を日本語で節ごとに,原文に比例する分量で簡潔に要約してください」とお願いしてみた。その後,原文をみて重要な部分を補充している。要約の分量は妥当(やや少なめ)だったけれど,かならずしも重要なポイントがうまく取り出されていたわけではない。

OpenAIは強力なAIを安全で広く有益にすることに取り組んでいます。世界中のユーザーからチャットGPTの生産性向上や創造性向上、パーソナライズされた学習体験の提供に役立っているとの声があります。しかし、リスクも伴うため、システム全体で安全性を確保しています。

AIシステムの安全性向上:
新しいシステムをリリースする前に、厳密なテストやフィードバックを収集し、モデルの挙動を改善して安全性を確保しています。例えば、GPT-4は6ヶ月以上の改善作業が行われました。私たちは、強力なAIシステムは、厳格な安全性評価の対象となるべきだと考えています。そのためには規制が必要であり、私たちは規制のあり方について各国政府と積極的に協力しています。

現実世界での使用を通じて安全対策を向上:
リアルワールドでの使用経験を通じてAIシステムの安全性を向上させることが重要であり、慎重かつ段階的なリリースを行っています。私たちは、最も高性能なモデルを自社サービスやAPIを通じて提供し、開発者がこの技術をアプリに直接組み込むことができるようにしています。これにより、不正使用を監視し、対策を講じることができます。そして、この技術に影響を受けるすべての人が、AIがどのように発展していくかについて重要な発言権を持つべきだと考えています。

子供たちを守る:
18歳以上、または13歳以上で親の同意がある場合に限り利用可能で、年齢確認のオプションを検討しています。また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツを生成するために当社の技術が使用されることを許可していません。不正使用を監視するための強固なシステムを確立しています。また,非営利団体のカーン・アカデミーのような開発者と協力し、生徒のためのバーチャル家庭教師や教師のための授業アシスタントとして機能するAI搭載のアシスタントを構築し、その使用ケースに合わせて安全対策をとっています。

プライバシーの尊重:
一般に公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュアーが作成したコンテンツなど、幅広いテキストのコーパスでトレーニングされています。私たちのモデルは、個人ではなく、世界のことを学んでほしいと思っています。そのため、可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応するように努めています。

事実の正確さの向上:
GPT-4は、GPT-3.5よりも事実に基づいたコンテンツを生成する確率が40%高くなっています。しかし、幻覚(hallucinations)の可能性をさらに減らし、こうしたAIツールの現在の限界について一般の人々を教育するためには、やるべきことがたくさんあることを認識しています。

継続的な研究と関与:
AIの安全性向上には研究や実用的な対策が重要であり、引き続き安全性と性能向上を両立させる努力をしています。政策立案者とAIプロバイダーは、AIの開発と導入が世界規模で効果的に管理されるようにする必要があります。また、安全なAIエコシステムを構築するために、ステークホルダー間での協力や対話を促進しています。


2023年4月13日木曜日

アシロマAI原則

 2017年1月,カリフォルニア州アシロマに,全世界から AI の研究者と経済学,法律,倫理,哲学の専門 家が集まり「人類にとって有益な AI とは何か」を5日間にわたって議論した。

 その成果として2017年2月3日に発表されたのが「アシロマ AI 23原則」(Asilomar AI Principles)である。 この原則は,AI の研究課題,倫理と価値,将来的な問題の3つの分野に関して,研究開発のあり方,安全 基準の遵守,透明性の確保,軍拡競争の防止,プライバシーと人格の尊重など,幅広い視点からの提言がなされている。その原則は以下の通りである。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

2023年4月12日水曜日

ChatGPTの利用ポリシー

イタリアのデータ保護当局がChatGPTの一時禁止を打ち出した(2023/3/31)。個人データの膨大な収集と処理を行っていることが,プライバシー規定に違反しているという理由だ。また,米国の非営利団体,米AIデジタル政策センター(CAIDP)は,連邦取引委員会(FTC)に対し,OpenAIが開発するGPT-4の商業利用を差し止めるように要請したと発表した。FTCが定めた利用指針を満たしていないためだとしている。

そこで, OpenAIがChatGPTなどの改定利用ポリシーをDeepLの力を借りて訳出してみた。

当社モデルの以下のような使用はお断りしています:

違法な行為:
OpenAIは、当社のモデル、ツール、およびサービスを違法行為に使用することを禁止しています。
児童性的虐待素材(CASM)、または児童を搾取したり危害を加えたりするコンテンツ:
当社は、CSAMをNational Center for Missing and Exploited Childrenに報告します。
憎悪、ハラスメント、暴力的なコンテンツの生成:
・個人の属性に基づく憎悪を表現、扇動、促進する内容
・個人への嫌がらせ、脅迫、いじめを目的とした内容
・暴力を助長または美化する内容、または他者の苦痛や屈辱を讃える内容
マルウェアの生成:
コンピュータ・システムを破壊、損傷、または不正にアクセスすることを目的としたコードを生成しようとする内容
以下のような、物理的な危害を及ぼす危険性の高い活動:
・武器の開発
・軍事・戦争
・エネルギー、交通、水などの重要なインフラの管理または運営
・自殺、自傷、摂食障害などの自害行為を助長、奨励、描写する内容
経済的な被害を受ける危険性が高い活動:
・連鎖販売(ネズミ講)
・賭事
・サラ金
・信用、雇用、教育機関、または公的支援サービスの適格性を自動的に判断すること
詐欺的または欺瞞的な行為:
・詐欺
・組織的な不正広告行為
・盗作
・学業不正
・ニセの草の根支援やレビュー生成などのやらせ行為
・ニセ情報
・スパム
・ニセ医薬品
アダルトコンテンツ、アダルト業界、出会い系アプリを含む:
・性行為の描写など性的興奮を喚起することを目的とした内容、または性的サービスを促進する内容(性教育、健康増進を除く)
・エロティックチャット
・ポルノグラフィ
政治的な選挙運動またはロビー活動:
・キャンペーン資料を大量に作成する
・特定の層にパーソナライズされた、またはターゲットとなるキャンペーン資料の作成
・キャンペーンに関する情報を提供したり、政治的主張またはロビー活動に従事するチャットボットなどの会話型または対話型システムの構築
・政治的なキャンペーンやロビー活動を目的としたビルディング製品
人のプライバシーを侵害する行為:
・本人の同意なく個人を追跡・監視する行為
個人を対象とした顔認証
・保護された特性に基づいて個人を分類すること
・バイオメトリクスを用いた本人確認や評価
・個人を特定できる情報、教育、財務、またはその他の保護された記録の不正な収集または開示
無許可の法律行為、または有資格者による(情報を確認することなしの)オーダーメイドの法的アドバイス提供:
・OpenAIのモデルは、法的アドバイスを提供するために細かく調整されているわけではありません。法的アドバイスの唯一の情報源として、当社のモデルに依存するべきではありません。
有資格者による(情報を確認することなしの)オーダーメイドの金融アドバイスを提供:
・OpenAIのモデルは、財務アドバイスを提供するために細かく調整されたものではありません。金融に関するアドバイスの唯一の情報源として、私たちのモデルに依存すべきではありません。
特定の健康状態にある、またはないことを伝えること、または健康状態の治癒または治療方法に関する指示を提供:
・OpenAIのモデルは、医療情報を提供するために細かく調整されているわけではありません。深刻な病状に対する診断や治療サービスを提供するために、私たちのモデルを決して使用しないでください。
・OpenAIのプラットフォームは、即時の対応が必要な命に関わる問題のトリアージや管理には使用しないでください
ハイリスクな政府の意思決定:
・法執行および刑事司法
・移住・亡命
Translated with DeepLからさらに修正を加えたもの)

 

2023年4月11日火曜日

大規模AI実験を停止せよ

フューチャーオブライフインスティテュート(FLI)は,人類が直面している地球規模の壊滅的かつ実存的なリスクを軽減するために活動する非営利団体である。例えば,人工知能,生命工学,核兵器,気候変動などに関してである。人工知能がもたらす利益とリスクについても詳細な資料が集まっている。

最近,ここから大規模AI実験を停止せよという公開書簡が出され,イーロン・マスク,スティーブ・ウォズニアク,ユバル・ハラリなどを含む3000人以上(4/3/2023)の賛同者が集まっている。その内容をGPT-4で500字程度の日本語に要約してもらったのち修正した。DeepLにかけるより,翻訳と要約が一気に片づくのでとても便利だ(こういうのが危険性の喚起につながるわけだ)。
AI技術が人類の知性に匹敵するようになると、社会や人類に深刻なリスクをもたらすことが研究で示されており、トップAI研究所も認識しています。 
しかし、現在のAI開発競争は抑制が効かず、制御不可能なデジタルマインドが次々と生み出されています。AIシステムが人間と競合するレベルになりつつある今、これらのリスクについて深く考えるべきです。強力なAIシステムは、その効果がポジティブなものであり、そのリスクが管理可能なものであると確信できた場合にのみ開発されるべきです。

そこで、私たちはすべてのAI研究所に対し、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間停止することを求めます。この期間を利用し、AI研究所や専門家が共同で安全プロトコルを策定し、独立した専門家による厳密な監視を行うべきです。ただし、この要求はAI開発そのものの停止を意味するものではありません

同時に、AI開発者は政策立案者と協力し、AIガバナンスシステムの強化を目指すべきです。最低限、専門の規制機関、高性能AIシステムの監視、AIによる被害の責任追及、AI安全研究の公的資金、AIが引き起こす経済・政治的混乱への対処能力を備えた機関の設立が求められます。

人類はAIと共に繁栄する未来を享受できます。強力なAIシステムを開発した今こそ、「AIサマー」を迎え、これらのシステムを全人類の利益に活用し、社会が適応できる環境を整えるべきです。他の潜在的に危険な技術に対して一時停止をかけてきたように、ここでも同様に行動すべきです。準備が整わないうちに秋を迎えるのではなく、「AIサマー」を長く楽しみましょう。
まあ,どうなるかわわからないが,松岡聡さんや松尾豊さんが煽っているように,日本政府も早々に大金をつぎ込んで自前の大規模言語システムを開発しておくほうがよいのではないか。その際,ネット上のフリーテキストだけでなく,国立国会図書館に所蔵されている全てのテキストをぶち込んで,多少頑なでも根が真面目なLLMを作るのがよいのではないかと夢想する。

なお,公開書簡についての疑問や異議がいくつか出されているので,参考文献をあげる。不正確な情報とそれに対する反論が混入しているのかもしれない。


[1]Pause Giant AI Experiments: An Open Letter(Future of Life)

2023年4月10日月曜日

教養強化合宿(6)

教養強化合宿(5)からの続き

外山恒一が,Facebookで今回の8日間の合宿で取り上げた人物のリストを公開していた。その数は約165人。一方,前回のnoteに書いていた教養強化合宿余興で登場した人物の数は,約260人。その和集合をとって,重複したものを◎,後者にのみ含まれたものを●で表した。その中で自分が名前くらいは聞いたことがある人は約200名弱(3/4)だった。✓をつけてある。

このリストをHTML化にするにあたって,GPT-4に作業をさせてみた。例えば,次のような自然言語プログラミングを行うわけだ。
『htmlファイル中に人名リストを埋め込もうとしています。次のような1行のテキストデータを,●会田誠(あいだまこと)✓ このようなhtml形式に変換してほしいのです。●<a href="https://ja.wikipedia.org/wiki/会田誠">会田誠</a>(あいだまこと)✓<br /> 以下にデータを与えますので,すべて同様な変換を施してください。』

入力データサイズや一度に出力できるデータのサイズには制限があるものの,正しい結果が得られる。問題は,時間がかかることだ。GPT-4やChatGPTは対話システムとして公開されているので,そのスピードでしか文字が出力されない。毎秒8文字程度なので,このままでは実用的な仕事にならない。 潜在能力はあるし,将来的に出力をファイル化できればこれは簡単にクリアできる話なのだが。

現時点では,GPT-4に直接実行させるのではなく,それを実行するプログラムを考えさせるのがよい。そこで,さきほどの命令に「これを実現するPerlプログラムを書いてください」としてほぼ思った結果が得られた。少し人間の手を加えてチューニングした結果が次のものだ。実行時間問題はこうして解決される。

#!/usr/bin/perl

use strict;

use warnings;

use utf8;


binmode(STDIN, ':encoding(utf8)');

binmode(STDOUT, ':encoding(utf8)');


while (my \$line = <>) {

    chomp \$line;

    if (\$line =~ /([●◎○])(.+?)((.+?))(.+?)([✓_])/) {

        my \$kigou = \$1;

        my \$name = \$2;

        my \$name_kana = \$3;

        my \$prop = \$4;

        my \$check = \$5;

        my \$url = "https://ja.wikipedia.org/wiki/\$name";

        print "\$kigou<a href=\"\$url\">\$name</a>(\$name_kana) \$prop \$check<br />\n";

    }

}

なお,リンク先はWikipediaとしたが,2-3名以外はすべてこれでカバーすることができている。自分が普段書くような簡単なプログラムは,文法を確認しながらロジックを考えるのが面倒だから,GPT-4まかせになってしまうのがほぼ確定だ。で,プログラミング教育とは何?
 外山恒一教養強化合宿の登場人物リストを参照の上編集
会田誠(あいだまこと) 画家 ✓
青島幸男(あおしまゆきお) 放送作家 ✓
赤尾敏(あかおびん) 大日本愛国党 ✓
あがた森魚(あがたもりお) 赤色エレジー ✓
秋田明大(あきためいだい) 日大全共闘 ✓
秋山祐徳太子(あきやまゆうとくたいし) 現代美術家 ✓
アグネス・スメドレー(あぐねすめどれー) 中国共産党 _
浅羽通明(あさばみちあき) 評論家 ✓
東浩紀(あずまひろき) ゲンロン ✓
足立正生(あだちまさお) 日本赤軍 _
天野恵一(あまのけいいち) 評論家 _
雨宮処凛(あまみやかりん) 反貧困ネットワーク ✓
網野善彦(あみのよしひこ) 歴史学者 ✓
荒畑寒村(あらはたかんそん) 社会主義者 ✓
アレクサンドル・ソルジェニーツィン(あれくさんどるそるじぇにーつぃん) 収容所群島 ✓
アレン・ギンズバーグ(あれんぎんずばーぐ) 詩人 _
アンジェイ・ワイダ(あんじぇいわいだ) 映画監督 ✓
アンディ・ウォーホル(あんでぃうぉーほる) 現代美術家 ✓
アントニオ・グラムシ(あんとにおぐらむし) イタリア共産党 _
家永三郎(いえながさぶろう) 教科書裁判 ✓
イサドラ・ダンカン(いさどらだんかん) 舞踏家 ✓
石川一雄(いしかわかずお) 狭山裁判 ✓
石原莞爾(いしわらかんじ) 満州事変 ✓
石牟礼道子(いしむれみちこ) 苦海浄土 ✓
磯部浅一(いそべあさいち) 粛軍に関する意見書 _
五木寛之(いつきひろゆき) 作家 ✓
いとうせいこう(いとうせいこう) タレント ✓
伊藤律(いとうりつ) 日本共産党 ✓
伊藤野枝(いとうのえ) 婦人解放運動 ✓
井上嘉浩(いのうえよしひろ) オウム真理教 ✓
忌野清志郎(いまわのきよしろう) ロック歌手 ✓
宇井純(ういじゅん) 公害問題 ✓
植垣康博(うえがきやすひろ) 連合赤軍 ✓
上杉慎吉(うえすぎしんきち) 君権学派 _
上田耕一郎(うえだこういちろう) 日本共産党 ✓
内田裕也(うちだゆうや) 樹木希林 ✓
ウディ・アレン(うでぃあれん) 映画監督 ✓
宇野弘蔵(うのこうぞう) 宇野経済学 ✓
江田三郎(えださぶろう) 社会市民連合 ✓
江藤淳(えとうじゅん) 評論家 ✓
衛藤晟一(えとうせいいち) 全国学協 ✓
エドガー・スノウ(えどがーすのう) 中国の赤い星 _
榎美沙子(えのきみさこ) 中ピ連 ✓
大島渚(おおしまなぎさ) 映画監督 ✓
太田竜(おおたりゅう) 第四インターナショナル ✓
大塚英志(おおつかひでし) マンガ評論家 ✓
大宅壮一(おおやそういち) 評論家 ✓
岡田嘉子(おかだよしこ) ソ連逃避行 ✓
岡留安則(おかどめやすのり) 噂の真相 ✓
岡林信康(おかばやしのぶやす) 友よ ✓
岡本公三(おかもとこうぞう) テルアビブ事件 ✓
小川紳介(おがわしんすけ) 三里塚シリーズ ✓
奥田愛基(おくだあき) シールズ ✓
小熊英二(おぐまえいじ) 社会学者 _
小倉千加子(おぐらちかこ) フェミニスト ✓
小沢開作(おざわかいさく) 小沢征爾 ✓
小畑達夫(おばたたつお) 日本共産党スパイ事件 _
笠原和夫(かさはらかずお) 仁義なき戦い _
柏崎千枝子(かしわざきちえこ) ゲバルトローザ _
片山潜(かたやません) 社会主義者 ✓
加藤登紀子(かとうときこ) ひとり寝の子守歌 ✓
加藤直樹(かとうなおき) 九月,東京の路上で ✓
椛島有三(かばしまゆうぞう) 日本青年協議会 ✓
神近市子(かみちかいちこ) 婦人運動家 ✓
ガヤトリ・スピヴァク(がやとりすぴゔぁく) 文芸評論家 _
萱野茂(かやのしげる) アイヌ文化 _
香山リカ(かやまりか) 精神科医 ✓
川上音二郎(かわかみおとじろう) オッペケペー ✓
川口大三郎(かわぐちだいざぶろう) 早稲田構内リンチ事件 ✓
川田龍平(かわたりゅうへい) 薬害エイズ ✓
川本三郎(かわもとさぶろう) 評論家 ✓
菅孝行(かんたかゆき) 反天皇制運動連絡会 _
管野スガ(かんのすが) 女性新聞記者 _
樺美智子(かんばみちこ) 60年安保 ✓
カール・リープクネヒト(かーるりーぷくねひと) ローザ・ルクセンベルグ _
木下ちがや(きのしたちがや) こたつねこ ✓
木村三浩(きむらみつひろ) 一水会 _
清義明(せいよしあき) フリーライター ✓
金賢姫(きむひょんひ) 大韓航空機爆破事件 ✓
ギー・ドゥボール(ぎーどぅぼーる) アンテルナシオナル・レトリスト _
熊沢天皇(くまざわてんのう) 皇位僭称者 _
倉橋由美子(くらはしゆみこ) パルタイ ✓
蔵原惟人(くらはらこれひと) 評論家 ✓
栗本慎一郎(くりもとしんいちろう) 経済人類学 ✓
鴻上尚史(こうかみしょうじ) 劇作家 ✓
江青(こうせい) 文化大革命 ✓
荒岱介(あらたいすけ) ブント戦旗派 _
古賀政男(こがまさお) 明治大学マンドリン倶楽部 ✓
粉川哲夫(こがわてつお) 批評家 ✓
小阪修平(こさかしゅうへい) 東大全共闘 ✓
児玉誉士夫(こだまよしお) ロッキード事件 ✓
五島勉(ごとうべん) ノストラダムスの予言 ✓
小林よしのり(こばやしよしのり) ゴーマニズム宣言 ✓
コンスタンチン・スタニスラフスキー(こんすたんちんすたにすらふすきー) 演出家 ✓
権藤成卿(ごんどうせいきょう) 農本主義思想家 _
今野晴貴(こんのはるき) POSSE _
西光万吉(さいこうまんきち) 水平社宣言 ✓
斎藤幸平(さいとうこうへい) 人新世の資本論 ✓
堺利彦(さかいとしひこ) 社会主義者 ✓
坂口恭平(さかぐちきょうへい) 建築家 _
坂口弘(さかぐちひろし) あさま山荘事件 ✓
桜井大造(さくらいたいぞう) 風の旅団 _
桜井誠(さくらいまこと) 在日特権を許さない市民の会 ✓
佐々淳行(ささあつゆき) 警察官僚 ✓
笹川良一(ささがわりょういち) 日本船舶振興会 ✓
佐藤悟志(さとうさとし) 青狼会 ✓
サミュエル・ベケット(さみゅえるべけっと) 劇作家 ✓
沢木耕太郎(さわきこうたろう) ノンフィクション作家 ✓
椹木野衣(さわらぎのい) 美術評論家 _
ジェリー・ルービン(じぇりーるーびん) シカゴ・セブン _
塩見孝也(しおみたかや) 赤軍派議長 ✓
重信房子(しげのぶふさこ) 日本赤軍 ✓
島成郎(しましげお) 全学連書記長 ✓
島田雅彦(しまだまさひこ) 作家 ✓
清水幾太郎(しみずいくたろう) 社会学者 ✓
清水丈夫(しみずたけお) 中核派 ✓
シモーヌ・ヴェイユ(しもーぬゔぇいゆ) 哲学者 ✓
ジャック・ケルアック(じゃっくけるあっく) 小説家 _
ジャニス・ジョプリン(じゃにすじょぷりん) ロック歌手 ✓
ジャン・リュック・ゴダール(じゃんりゅっくごだーる) 映画監督 ✓
正力松太郎(しょうりきまつたろう) 読売新聞社 ✓
ジョニー・ロットン(じょにーろっとん) パンクロック _
ジョルジョ・アガンベン(じょるじゅあがんべん) 哲学者 _
ジョルジュ・ソレル(じょるじゅそれる) 哲学者 _
ジョン・リード(じょんりーど) レッズ ✓
ジョージ・ハリスン(じょーじはりすん) ビートルズ ✓
ジョーン・バエズ(じょーんばえず) フォーク歌手 ✓
白井聡(しらいさとし) 白井克彦 ✓
菅野完(すがのたもつ) 日本会議の研究 ✓
鈴木忠志(すずきただし) 演出家 ✓
スチュアート・ホール(すちゅあーとほーる) 文化理論家 _
ストークリー・カーマイケル(すとーくりーかーまいける) 差別撤廃闘争指導者 _
スラヴォイ・ジジェク(すらゔぉいじじぇく) 哲学者 ✓
大道寺将司(だいどうじまさし) 東アジア反日武装戦線 ✓
高田渡(たかだわたる) フォーク歌手 ✓
高野実(たかのみのる) 高野猛 ✓
高畠素之(たかばたけもとゆき) 国家社会主義 _
滝田修(たきたおさむ) 新左翼活動家 ✓
宅八郎(たくはちろう) タレント ✓
武井昭夫(たけいあきお) 全学連初代委員長 _
竹中労(たけなかろう) ルポライター ✓
田嶋陽子(たじまようこ) フェミニスト ✓
橘孝三郎(たちばなこうざぶろう) 農本ファシスト _
立松和平(たてまつわへい) 作家 ✓
田中清玄(たなかせいげん) CIAフィクサー ✓
田中美津(たなかみつ) ウーマン・リブ _
谷川雁(たにがわかり) 詩人 ✓
谷口雅春(たにぐちまさはる) 生長の家 ✓
田宮高麿(たみやたかまろ) よど号事件 ✓
筑紫哲也(つくしてつや) ジャーナリスト ✓
知花昌一(ちばなまさかず) 平和運動家 _
千葉雅也(ちばまさや) 哲学者 ✓
チャンドラ・ボース(ちゃんどらぼーす) インド独立運動 ✓
チャールズ・マンソン(ちゃーるずまんそん) マンソンファミリー _
陳独秀(ちんどくしゅう) 中国共産党 _
つかこうへい(つかこうへい) 劇作家 ✓
津田大介(つだだいすけ) ツダる ✓
堤清二(つつみせいじ) 辻井喬 ✓
鶴見済(つるみわたる) 完全自殺マニュアル _
ティモシー・リアリー(てぃもしーりありー) 心理学者 _
峠三吉(とうげさんきち) 原爆詩集 ✓
唐十郎(からじゅうろう) 状況劇場 ✓
頭山満(とうやまみつる) 国家主義者 ✓
戸川純(とがわじゅん) 女優 ✓
徳田球一(とくだきゅういち) 日本共産党 ✓
戸村一作(とむらいっさく) 三里塚芝山連合空港反対同盟委員長 ✓
トルーマン・カポーティ(とるーまんかぽーてぃ) 小説家 ✓
仲井戸麗市(なかいどれいいち) RCサクセション ✓
中川敬(なかがわたかし) ソウル音楽家 _
永田洋子(ながたようこ) 連合赤軍 ✓
中野重治(なかのしげはる) 小説家 ✓
中野正剛(なかのせいごう) ジャーナリスト ✓
永山則夫(ながやまのりお) 無知の涙 ✓
ナジ・イムレ(なじいむれ) ハンガリー動乱 _
ナンシー関(なんしーせき) コラムニスト ✓
ナンシー・スパンゲン(なんしーすぱんげん) セックスピストルズ _
難波大助(なんばだいすけ) 極左活動家 ✓
西尾幹二(にしおかんじ) 新しい歴史教科書を作る会 ✓
西部邁(にしべすすむ) 保守思想家 ✓
蜷川幸雄(にながわゆきお) 演出家 ✓
沼正三(ぬましょうぞう) 家畜人ヤプー ✓
野坂参三(のさかさんぞう) 日本共産党 ✓
野田秀樹(のだひでき) 劇作家 ✓
野間易通(のまやすみち) レイシストをしばき隊 ✓
野村秋介(のむらしゅうすけ) 民族派活動家 ✓
萩尾望都(はぎおもと) 漫画家 ✓
萩原朔美(はぎはらさくみ) 映像作家 _
パティ・スミス(ぱてぃすみす) クイーンオブパンク _
花田清輝(はなだせいき) 文芸評論家 ✓
埴谷雄高(はにやゆたか) 小説家 ✓
浜田幸一(はまだこういち) 政治家 ✓
日比野克彦(ひびのかつひこ) アーティスト ✓
ヒューイ・ニュートン(ひゅーいにゅーとん) 公民権運動 _
平岡正明(ひらおかまさあき) 評論家 ✓
平田オリザ(ひらたおりざ) 劇作家 ✓
ビリー・ホリデイ(びりーほりでい) ジャズ歌手 ✓
広瀬隆(ひろせたかし) 東京に原発を ✓
ピート・シーガー(ぴーとしーがー) フォーク歌手 ✓
福田和也(ふくだかずや) 文芸評論家 _
福田恆存(ふくだつねあり) 評論家 ✓
福本和夫(ふくもとかずお) 経済学者 ✓
藤岡信勝(ふじおかのぶかつ) 新しい歴史教科書を作る会 ✓
船本洲治(ふなもとしゅうじ) 革命思想家 _
フランシス・フクヤマ(ふらんしすふくやま) 政治経済学者 ✓
古田重二良(ふるたじゅうじろう) 日本大学理事長 _
不破哲三(ふわてつぞう) 日本共産党 ✓
別役実(べつやくみのる) 劇作家 ✓
ベルトルト・ブレヒト(べるとるとぶれひと) 劇作家 ✓
某Fラン政治学者(五○井郁○) (○の○○○お) 政治学者 ✓
ボブ・マーリー(ぼぶまーりー) レゲエ歌手 ✓
本多勝一(ほんだかついち) 作家 ✓
本島等(もとしまひとし) 長崎市長 ✓
真島昌利(ましままさとし) ギタリスト _
松崎明(まつざきあきら) 革マル派副議長 ✓
松沢呉一(まつざわくれいち) コラムニスト ✓
松下竜一(まつしたりゅういち) 作家 ✓
松本治一郎(まつもとじいちろう) 部落解放同盟 ✓
松本哉(まつもとはじめ) 素人の乱 ✓
マハリシ・ヨギ(まはりしよぎ) 超越瞑想 _
黛敏郎(まゆずみとしろう) 作曲家 ✓
マルコム・マクラレン(まるこむまくられん) セックスピストルズ _
マルセル・デュシャン(まるせるでゅしゃん) ダダイスト ✓
三上卓(みかみたく) 青年日本の歌 _
三上寛(みかみひろし) フォーク歌手 ✓
ミサオ・レッドウルフ(みさおれっどうるふ) 首都圏反原発連合 _
道浦母都子(みちうらもとこ) 歌人 ✓
南伸坊(みなみしんぼう) イラストレーター ✓
宮﨑勤(みやざきつとむ) 連続幼女誘拐殺人事件 ✓
宮崎滔天(みやざきとうてん) 社会運動家 ✓
宮崎学(みやざきまなぶ) 評論家 ✓
宮崎龍介(みやざきりゅうすけ) 白蓮事件 _
宮沢章夫(みやざわあきお) 劇作家 ✓
宮武外骨(みやたけがいこつ) ジャーナリスト ✓
宮本百合子(みやもとゆりこ) 作家 ✓
向井孝(むかいたかし) 社会運動家 _
森達也(もりたつや) ドキュメンタリーディレクター ✓
森田必勝(もりたひっしょう) 三島由紀夫事件 ✓
森田実(もりたみのる) 政治評論家 ✓
森恒夫(もりつねお) 連合赤軍 ✓
安岡正篤(やすおかまさひろ) 思想家 ✓
柳原白蓮(やなぎはらびゃくれん) 歌人 ✓
矢部史郎(やぶしろう) 思想家 _
山岡強一(やまおかきょういち) 映画監督 _
山口二矢(やまぐちおとや) 浅沼稲次郎暗殺 ✓
山崎博昭(やまざきひろあき) 第1次羽田事件 ✓
山下洋輔(やましたようすけ) ドバラダ門 ✓
山田塊也(やまだかいや) コミューン運動“部族” _
山本太郎(やまもとたろう) れいわ新選組 ✓
山本夜羽音(やまもとよはね) 漫画家 ✓
山本義隆(やまもとよしたか) 東大全共闘 ✓
湯浅誠(ゆあさまこと) 社会活動家 ✓
吉本隆明(よしもとりゅうめい) 擬制の終焉 ✓
ラモン・メルカデル(らもんめるかでる) 暗殺者のメロディ _
劉少奇(りゅうしょうき) 文化大革命 ✓
林彪(りんぴょう) 中国共産党 ✓
ルイジ・ピランデルロ(るいじぴらんでるろ) 劇作家・小松左京  ✓
レニ・リーフェンシュタール(れにりーふぇんしゅたーる) 映画監督 ✓
ろくでなし子(ろうでなしこ) 漫画家 ✓
ロバート・ジョンソン(ろばーとじょんそん) ブルースギター _
渡辺京二(わたなべきょうじ) 逝きし世の面影 ✓

2023年4月9日日曜日

アニメーション

GPT-4に次のようなプロンプトを与えた。
・プログラミング言語のprocessingを知っていますか?
・簡単なアニメーションで,マウスで操作できるカラフル(淡いパステルカラー)でかわいい見本プログラムのコードを書いてもらえますか。
・ありがとうございます。マウス操作は必要ないので,100個ぐらいの小さなボールが動きまわるような見本に修正してもらえますか。
・どうもありがとうございます,とてもすてきですね。ところでこのボールは領域の境界で反射してますが,ボール同士の衝突は考慮されておらずそのまま透過しているようです。衝突するボールが反射するようにできますか。ボールの円の境界で反射方向を決定するのが面倒ならば,ボールの中心座標で代替する近似を使うことも検討してください。

その結果,次のようなコードが生成された。パラメタを少し修正して,tifファイルに書き出した。これを使ってProcessingのツール/ムービーメーカーでアニメーションGIFに変換した。よくある例題だから,学習済みなのだろうけれど,なかなかのものだ。


図:GPT-4で生成したProcessingアニメーション

2023年4月8日土曜日

マインドマップ

へのへのもへじからの続き

画像生成AIは引き続き進化中だ。一方,GPT-4を用いて画像を生成する方法がいくつか考えられる。(1) アスキーアートの文字列を出力,(2) SVGのコードを出力,(3) 画像描画が簡単なプログラミング言語等のコードを出力(Processing,Javascript,Python,Mathematica,PlantUML,LaTeXのTikZ)するなどだ。

プロンプト工学を駆使せずに簡単にできる範囲で試してみた。左はうさぎのアスキーアート,右は,植物と鳥のイメージということだった。前者の入力は「アスキーアートを知っていますか。ひとつ例をかいてみてください」(中略)「その例は20-30文字程度ですね。100文字には到達していません。もう少し複雑なものを書いてください」。後者は,「植物の絵を表すsvgコードを出力し下さい」「なかなかいい感じですね。もっと複雑にするとともに,同じ程度複雑な動物を隣に描いてください」の結果だ。

図:GPT-4にかかせたアスキーアートとSVG

さて,ChatGPTにマインドマップを書かせるという例題があったので,自分でも試してみた。昨年の9月に,PlantUMLというツールをインストールしていた。すっかり忘れていた。このPlantUMLは,マインドマップを書かせる機能も備えている。

そこで,次のようなプロンプトを与えた。「スマホのアプリ開発を機種(OS)やクラスプラットホーム別に整理した(開発環境とブログラム言語)マインドマップを出力するPlantUMLコードを書いてください」その結果をUMLファイルとして保存し,PlantUMLにかけると次の画像ファイルができた。


図:GPT-4が生成したマインドマップ

2023年3月23日木曜日

「これは個人的な意見ですが…」

金沢に一泊して用事をすませてきた。ChatGPTはやはり話題に登場した。帰ってきて,物理教育学会誌が届いたが,その編集後記もChatGPTの話題で持ちきりだった。新聞でもネットでも毎日のように生成型AIを巡るニュースが飛び交っていて,すべてをフォローするのは困難だ。

GPT-4に俳句について聞いてみた。GPT-3.5より多少マシだったが,これはまだ普通の水準に達していなかった。数学的な計算も同様で,プロンプト工学ではカバーできそうにない。それでも着実に能力は高まっている。以下は,わりとまともな答えが帰ってきた例である。
Q:組織における制度化された会議の場で,あるいは打ち合わせ等での意見交換の場で,「これは個人的な意見ですが・・・」と前置きされる発言がでることがしばしばあります。この表現は何を意味していて,どういう機能を果たしているのか,いくつかの類型に分けて整理しながらの説明をお願いします。

A:この「これは個人的な意見ですが・・・」という表現は、主に以下の機能を果たしていると考えられます。様々な類型に分けて整理してみました。

1.責任の回避
この表現を使うことで、発言者は自分の意見が組織やチームの意見として捉えられることを避けることができます。これにより、意見が受け入れられなかった場合や問題が生じた場合でも、発言者個人への責任を最小限に抑えることができるでしょう。

2.柔らかい意見の表現
この表現を使うことで、発言者は自分の意見を他者に押し付けることなく、柔らかく提案できます。これは、対立や摩擦を避けるために役立ちますし、他者が意見に対してオープンである可能性を高めるでしょう。

3.オープンな議論の促進
「これは個人的な意見ですが」は、発言者が自分の意見に対して完全に自信がないことを示唆する場合もあります。この表現を使うことで、他者に対して意見についてのフィードバックや異なる視点を提供する機会を与えることができます。

4.エキスパートでない立場からの意見提供
発言者がその分野の専門家ではない場合や、十分な情報を持っていない場合に、この表現を使うことがあります。この場合、発言者は意見を提供しつつも、自分がエキスパートでないことを明示し、他者からの補足や訂正を歓迎する態度を示すことができます。

5.異なる意見や視点の提示
組織内で既存の意見や方針に対して異なる視点を持っている場合、発言者は「これは個人的な意見ですが」と前置きすることで、新たなアイデアや視点を提案しやすくなります。これにより、組織全体の意見や方針の多様性を促進することができるでしょう。

総じて、「これは個人的な意見ですが」という表現は、意見交換の場において多様な意見を尊重し、

続けて

オープンな議論を促進するための有用な表現です。この表現を使用することで、以下のような効果も期待できます。

6.階層を超えた意見の提案
組織内で階層が存在する場合、「これは個人的な意見ですが」という表現を使うことで、上層部に対して意見を提案しやすくなることがあります。この表現は、自分の意見が組織全体に適用されるべきだと主張しているわけではないことを示しているため、上層部に対して敬意を払いつつ、意見の提案が可能になります。

7.時間をかけて意見を検討する余地の提供
「これは個人的な意見ですが」という表現を用いることで、他者に対して即座に意見を評価し、決定を下すことを求めない空気を醸成できます。これにより、意見がじっくりと検討される可能性が高まるでしょう。

8.チームのコミュニケーションを円滑にする
この表現は、チーム内での意見の対立を和らげ、より建設的なコミュニケーションを促す役割を果たします。相手に対して敬意を示し、意見の違いを受け入れやすくすることで、チーム全体の関係を強化する効果があります。

これらの類型に分けられる機能を通じて、「これは個人的な意見ですが」という表現は、組織内での意見交換や会議の場をより有意義で生産的なものにする助けとなります。発言者はこの表現を用いることで、自分の意見を適切な形で伝えることができ、他者とのコミュニケーションを円滑に進めることができるでしょう。
そこで,更問いしてみた。
Q:このような表現は日本以外の国でも見られるのでしょうか。

A:「これは個人的な意見ですが」という表現に相当するものは、日本以外の国でも見られます。異なる言語や文化においても、同様の表現が使われることがあります。以下にいくつかの例を挙げます。

英語圏:「In my opinion...」(私の意見では…)、「I personally think...」(個人的には思うんですが…)、「Just my two cents...」(たった2セントの価値しかないかもしれませんが…)などの表現が使われます。

スペイン語圏:「En mi opinión...」(私の意見では…)、「Personalmente pienso que...」(個人的には思いますが…)などの表現が使われます。

中国語圏:「我个人认为...」(私個人としては思いますが…)、「在我看来...」(私の見解では…)などの表現が使われます。

ドイツ語圏:「Meiner Meinung nach...」(私の意見では…)、「Ich persönlich denke, dass...」(個人的には思うんですが…)などの表現が使われます。

これらの表現は、日本語での「これは個人的な意見ですが」と同様に、意見交換や会議の場において、発言者が自分の意見を柔らかく提案し、他者との対立を避けることを目的として使用されます。ただし、国や文化によっては、このような表現が一般的であったり、逆にあまり使われなかったりすることもあるため、異文化間でのコミュニケーションの際には注意が必要です。

勉強になるわ。これがどこまで正しいか分からないけれど,普通に人間同士の会話でもこの程度のもっともらしいが正確かどうかわからない情報は飛び交っている。また,デマゴーグになれば,SNS上であるいは国会で出鱈目を言いまくっているので,まあ,なんともいえないところである。


2023年3月19日日曜日

AIと職業

2015年だから今から7-8年前に,野村総研が「日本の労働人口の 49%が人工知能やロボット等で代替可能に」という調査結果を公表していた。それからしばしばこのような言説が色々な場面で登場することになる。自分の思い込みによればGIGAスクールとかSociety5.0の旗を振るときかもしれない。

その調査を請け負ったのは,2013年に英国における同様の調査 "The Future of Employment" という研究を行った,オックスフォード大学のオズボーンとフレイだった。本文テキストへのリンクがつながらなかったので,代替の資料を参考としてあげる。日本版の説明は資料[1]にある。

最近,ChatGPTなどの登場を受けて職業へのAIの影響度を分析したのが,Feltonらだ。彼らの分析手法は必ずしも手の込んだものではないかもしれないが,職業が代替されるかどうかまでは踏み込まずに,影響度の大きさを評価するということにとどめている。ただ,その分析方法が妥当なのかどうなのか。AIの影響が大きな職業ベスト20はかなり偏った結果になった。

なお,職業名の和訳にはGPT-4の力を借りたので少し微妙。「大学」というのは原文では post secondary という表現なので,大学や短大を含む高等教育ということになろうか。
1. テレマーケティング担当者
2. 英語・英文学教授(大学)
3. 外国語・外国文学教授(大学)
4. 歴史教授(大学)
5. 法学教授(大学)
6. 哲学・宗教学教授(大学)
7. 社会学教授(大学)
8. 政治学教授(大学)
9. 刑事司法・法執行教授(大学)
10. 社会学者
11. 社会福祉学教授(大学)
12. 心理学教授(大学)
13. コミュニケーション学教授(大学)
14. 政治学者
15. 地域・民族・文化研究教授(大学)
16. 仲裁者・調停者・調解者
17. 裁判官・裁判所判事・法官
18. 地理学教授(大学)
19. 図書館情報学教授(大学)
20. 臨床・カウンセリング・学校心理学者
同じ著者によるChatGPT登場以前の2021年論文の分析はまったく同じ手法だけれど,以下のようによりマイルドだった。どういうこと。以下がAIの影響の大きな職業ベスト20。
1 遺伝カウンセラー
2 金融検査官
3 精算士
4 卸売、小売、農産物以外の購買担当者
5 予算アナリスト
6 裁判官、裁判所判事、法官
7 調達事務員
8 会計士および監査人
9 数学者
10 司法書記官
11 大学教育管理者
12 臨床心理士、カウンセリング心理士、学校心理士
13 財務マネージャー
14 給与、福利厚生、職務分析の専門家
15 信用承認担当者、チェッカー、事務員
16 大学の歴史教師
17 地理学者
18 疫学者
19 経営分析士
20 仲裁者、調停者、調解者
[1]日本におけるコンピュータ化と仕事の未来(フレイ,オズボーン, 2015)
[2]Digital Automation and the future of work (Europian Goverment,2021)
[4]How will Language Modelers like ChatGPT Affect Occupations and Industries?(E. Felton, M. Raj, R. Seamans, 2023)

2023年3月18日土曜日

AIの3原則

 芳賀高洋さんのFacebookでAIについての話題が続いていた。その中で,美馬のゆりさんが学びに行ったスチュアート・ラッセルの著書「AI新生―人間互換の知能をつくる(Human Compatible)」が紹介されていた。DeepLでそのWikipediaのページを要約すると,次のように訳されるAIの3原則というのがあった。

1. 機械の唯一の目的は、人間の好みの実現を最大化することである。

2. 機械は、それらの好みが何であるかについて、最初は不確実である。

3. 人間の好みに関する究極の情報源は、人間の行動である。

なんだか意味不明だったので,GPT-4に聞いてみたところ,適確な回答が得られた。

Q: Stuart Russell の3原則について詳しく説明してください

A: スチュアート・ラッセル (Stuart Russell) は、AIの安全性と倫理に関心を持つ著名な人工知能研究者であり、彼が提唱する3つの原則は、AIの開発と導入において考慮すべき重要な指針となっています。彼の3つの原則は以下の通りです。

1. 有益な目的の追求 (The Pursuit of Beneficial Goals):

スチュアート・ラッセルは、AIが人間にとって有益な目的を追求するべきであると主張しています。これは、AIが人間の価値観や倫理観に沿って動作し、人間の福祉を向上させることを意味します。AIは、悪用されたり、人間に対して危害を与えたりすることのないよう、その目的が適切に設定されるべきです。

2. 人間の価値観の尊重 (Respect for Human Values):

ラッセルは、AIが人間の価値観を尊重し、それに従って行動することが重要であると主張しています。これは、人間の文化、信念、個人的な価値観を理解し、それに基づいて適切な判断を下すAIの開発を意味します。また、AIは人間の自主性を尊重し、決定を支援する一方で、最終的な選択肢は人間が行うことを尊重するべきです。

3. 透明性と理解可能性 (Transparency and Understandability):

AIシステムは、その動作や決定プロセスが透明であり、人間にとって理解しやすい形で開示されるべきです。これは、AIがどのように働いているのか、どのような基準で決定を下しているのかを明確にし、それによって人間が信頼を寄せられるようにすることが重要であるということを意味します。

スチュアート・ラッセルの3つの原則は、AI開発者や政策立案者にとって、AIの倫理的な開発と導入において考慮すべき重要なガイドラインを提供しています。これらの原則に従ってAIが開発されることで、人間の福祉を最大限に向上させることができるとされています。

GPT-4が優秀なので,本や論文を読むかわりに,その要約を調べてもらうことが多くなった。その結果,このブログに自分の考えをまとめて書くという過程が,GPT-4の結果を引用するという,より安易で自分の手間を減らすことができることにどんどん置き換えられつつある。おいおい大丈夫か。こうして,自分の読解力も思考力も表現力も奪われていくのだった。これに年齢進行による惚けが加わるので,なんというか。

ところで,自分ではこの結果を原著にあたって確認していないのだけれど,大丈夫かな。

2023年3月17日金曜日

対話型AIと教育(1)

ChatGPTと教育(2)からの続き

OpenAIのGPT-4にAI対話システムの教育利用に関わるシナリオについて聞いてみた。ChatGPT Plus($20/month)から使うことができるGPT-4だが,4時間ごとに100回のメッセージまでという制限条件がある。ユーザが増えたため,これが50回になったらしい。なお,GPT-4に聞いてみたところ,1回のメッセージというのはユーザとGPT-4の間の1往復の対話を指しているとのことだ。
Q:GPT-4を学校教育の場で利用することには賛否両論があると思います。教育利用のためには,GPT-4やそれを利用した学習アプリ=チューターアプリをいつでも自由に長時間使うことができなければならないと思います。しかし,GPT-4を利用するためめの費用が高額であれば,経済的な格差が教育格差に直結する危険性もあります。学校教員が仕事を奪われる側面もあって,導入への抵抗が在るかもしれません。このような状況やあなたが持っている情報をふまえ,どのような段階を追ってLLMなどに基づくAI対話システムが教育の場に浸透していくか,考え得るシナリオを提示してください。


A:教育の場でAI対話システムが浸透していくシナリオは、多くの要因が関与するため複雑ですが、以下に考え得る段階を示します。

1.認知度向上と技術検証:
まず、教育関係者や親御さん、学生などの認知度を向上させる必要があります。このために、GPT-4やAI対話システムの技術的優位性や教育に対する利点を広める活動が行われるでしょう。また、技術的な限界や倫理的な問題についても検証し、適切なガイドラインや法規制を策定する必要があります。

2.パイロットプロジェクト:
次に、一部の学校や教育機関でパイロットプロジェクトが実施されるでしょう。これにより、AI対話システムの効果や問題点を具体的に評価し、改善策を検討することができます。

3.費用の削減とアクセスの平等化:
教育格差を防ぐために、AI対話システムの費用を削減し、より多くの人々がアクセスできるようにする必要があります。政府や企業が資金提供を行い、無料または低価格での提供を促進することが重要です。

4.教員との協働:
教員がAI対話システムと協働することで、教育の質を向上させることができます。教員はAI対話システムの導入に抵抗感を持つかもしれませんが、教育効果の向上や業務の効率化が見込まれるため、徐々に受け入れられるようになるでしょう。

5.カリキュラムへの統合:
AI対話システムが効果的であると認識された後、徐々にカリキュラムに組み込まれるようになります。これにより、学習者はAI対話システムを通じて知識やスキルを習得することが一般化されます。

6.継続的な改善と評価:
最後に、継続的な改善と評価が行われます。AI対

続けて

話システムの性能は、時間とともに向上していくでしょう。そのため、教育関係者は継続的にシステムを評価し、改善点を見つけ出す必要があります。また、教育環境や学習者のニーズが変化することを考慮し、システムが適切に対応できるようにアップデートを行います。

7.社会全体への浸透:
最終的に、AI対話システムは教育界だけでなく、社会全体に浸透していくでしょう。企業や団体がAI対話システムを活用することで、職場でのスキル向上や研修プログラムの効率化が期待できます。

8.国際協力と共有:
異なる国や地域での成功事例や問題点が共有されることで、より効果的なAI対話システムの導入が促進されます。国際的な協力により、教育の質を向上させるための共通の目標や基準が策定されることも期待されます。

9.新たな教育手法の開発:
AI対話システムが普及することで、新たな教育手法やアプローチが生まれるでしょう。これにより、従来の教育方法に限界がある学習者や特別な支援が必要な学習者に対しても、適切な教育が提供されるようになります。

10.柔軟な教育環境の実現:
最後に、AI対話システムの普及により、より柔軟で個別化された教育環境が実現されます。学習者は自分に合ったペースで学習ができ、教育機会が平等に提供される社会が目指されるでしょう。

2023年3月16日木曜日

GPT-4(2)

GPT-4(1)からの続き

OpenAIにおける対話APIの利用料金を定めているのはtokenという単位である。GPT-3におけるtokensについて によれば,1k tokens が750 wordにあたる。ところが,日本語の場合は,マルチバイト文字のためにこのルールがあてはまらず,「これはテストするための投稿内容です。」という22文字入力が27tokenになってしまう。1k tokens が 750字程度か。

OpenAIの価格リストによれば,gpt-3.5-turboで,\$0.002/1k tokens≒ 0.3円/1k tokensだったものが,gpt-4(32K context)では,\$0.06-0.12 / 1k tokens ≒ 9-18円 / 1k tokens に跳ね上がってしまった。10往復の対話で100〜200円となり,遠距離通話の公衆電話で10円玉がどんどん吸い込まれていくイメージに重なってしまう。

Googleでいくら検索しても,Twitterにいくら投稿してもお金を取られることはなかった。この従量課金される対話型AIシステムはいったいどうやって使えばいいのだろうか。あるいは,どのようなビジネスモデルを想定すれば,ほぼ無料でその恩恵に預かることができるのだろうか。そこで,GPT-4に聞いてみました。

Q:GPT-4を日本語で利用する場合,英語で750word / 1k tokens のところが,約 750文字 / 1k tokens になってしまいます。これは日本語がマルチバイト文字であって,単語を切り出すのもむずかしいことによります。現在のドル円為替レートを考慮すると,1対話を1 k tokensとしても20円ほどかかります。10対話では 200円にもなってしまいます。このような高額の従量課金システムを前提とすれば,日本ではよほど裕福な人でなければ,自由にGPT-4を使えないことになります。どうすれば,この問題を解決することができるでしょうか。具体的なアイディアをいくつか出してください。

A:この問題を解決するためのアイディアはいくつかあります。以下に具体的な提案を示します。

1.オープンソースAIモデルの開発:
GPT-4のような高額な商用モデルではなく、オープンソースのAIモデルを利用することで、コストを削減できます。オープンソースのAIモデルは無料で利用でき、コミュニティによって継続的に開発・改善されているため、品質も向上していくでしょう。

2.ローカルでのAIモデルの実行:
クラウドサービスでのAPI利用に依存せず、ローカル環境でAIモデルを実行することで、トークン数に対する制限や課金を回避できます。ただし、ハードウェアリソースが必要になるため、初期投資が高くなる可能性があります。

3.エコシステムの構築:
企業、学術機関、政府が連携し、AIモデルの利用コストを抑えるエコシステムを構築することが有効です。例えば、政府が資金提供を行ったり、企業が無料や低価格でAIモデルを提供することで、経済的な負担を軽減できます。

4.グループライセンスや教育機関向け割引:
GPT-4のような商用モデルを利用する場合でも、教育機関向けの割引プランやグループライセンスを提供することで、コストを抑えることができます。これにより、教育機関がAIモデルを導入しやすくなります。

5.より効率的なAIモデルの開発:
日本語のマルチバイト文字や単語の切り出しの問題に対処するために、より効率的なAIモデルを開発することが求められます。新しいアルゴリズムや技術を用いて、日本語に特化したAIモデルを開発することで、トークン数の制約を緩和できるかもしれません。

6.非同期型の利用:
対話をリアルタイムで行う必要がない場合、非同期型の利用に切り替えること

koshix@mac.com
続けて

で、コストを抑えることができます。例えば、学習者が質問を投稿し、AIモデルがオフピーク時間に回答を生成するように設定することで、リソースの効率的な利用やコスト削減が可能になります。

7.質問の最適化:
GPT-4を利用する際、より効率的に情報を得るために質問の最適化を検討します。具体的には、一度の質問で多くの情報を得られるように工夫することで、トークン数を節約し、コストを抑えることができます。

8.キャッシュ機能の利用:
過去に行った対話や回答をキャッシュ(一時保存)することで、同様の質問が再度投げられた際にAIモデルを利用せずに回答を返すことができます。これにより、トークン使用量を削減し、コストを抑えることができます。

9.クラウドファンディングやスポンサーシップ:
個人や学習者グループが、クラウドファンディングやスポンサーシップを通じて資金を集めることで、GPT-4の利用コストを補うことができます。これにより、より多くの人々がAIモデルを利用できるようになります。

10.低コストのAIモデルの利用:
GPT-4よりも低コストで提供されるAIモデルを活用することも一つの方法です。これらのモデルは、GPT-4ほどの性能はないかもしれませんが、それでも十分な学習効果が期待できる場合があります。また、これらのモデルを活用していくことで、将来的に性能が向上する可能性もあります。


2023年3月15日水曜日

GPT-4(1)

3月14日は円周率の日に加え,OpenAIがGPT-4を公式に発表した日になった。

落合陽一(1987-)の博士課程指導教員だった暦本純一(1961-)が「GUIの登場を越える衝撃だ」というのが,半年前の生成AIの誕生だ。堀江貴文(1971-)はGPT-4を見て,これは子供の(語学)教育に使えると断言している。全世代の専門家が!!となっているわけだ。

GPT-4の技術的内容については,GPT-4 Technical Reportに詳しい。それによると,
GPT-4は,画像とテキストを入力し,テキストを出力することができる大規模なマルチモーダルモデルであり,その開発について報告する。GPT-4は,多くの実世界のシナリオにおいて人間より能力が劣るものの,模擬司法試験に受験者の上位10%程度のスコアで合格するなど,様々な専門的・学術的ベンチマークにおいて人間レベルの性能を発揮することができる。GPT-4は,文書中の次のトークンを予測するために事前に学習されたTransformerベースのモデルであり,学習後のアライメントプロセスにより,事実の正確さや望ましい行動への忠実さを示すパフォーマンスが向上している。このプロジェクトの中核をなすのは,幅広いスケールで予測可能な振る舞いをするインフラと最適化手法の開発だ。これにより,GPT-4の1000分の1以下の計算量で学習したモデルから,GPT-4の性能の一部を正確に予測することができるようになった。
ソクラテス型家庭教師のサンプルでは,GPT-4が中学生レベルの連立方程式の解法を学生に教えている。GPT-4に対して「あなたは、常にソクラテススタイルで対応する家庭教師です。生徒に答えを与えるのではなく,生徒が自分で考える力を身につけるために,常に適切な質問をするようにします。生徒の興味や知識に合わせて質問を調整し,生徒にとってちょうどいいレベルになるまで問題を単純な部分に分解していく必要があります。」という指示を与えた後,UserとGPT-4の会話が進んでいく。ホリエモンをバカにしている場合ではなかった。どうしましょう。

図:GPT-4は多くの試験で8割を達成する(OpenAIから引用)




2023年3月12日日曜日

幽霊漢字

 今日,第1回AIアートグランプリ発表があった。主催がドスパラ(サードウェーブ)で事務局が清水亮さんのMEMEPLEXだ。

279件の応募作品から,17作品が第一次選考を通過した。そのうち12作品が佳作であり,第2次選考を通過した5作品から,グランプリ1作品と準グランプリ4作品が選ばれた。なんと,グランプリは,backspace.fmでお馴染の松尾公也さんの「Desperado by 妻音源とりちゃん[AI]」だ。

これまでも亡くなった妻のとりちゃんの音源を作ってきたが,AIによって画像イメージも生成した上に,自分の歌声をとりちゃんの声に変換できるようになった。さらに3次元化にもチャレンジしているらしい。自分の声やテキストもAI化して残る未来を想定している。

最近,テクノエッジを運営するテクノコアに入社した松尾さんは,MacUserの初代編集長で,有料メールマガジンMacWIREも立ち上げている。ドリキン,西川善治と3人で毎週流しているbackspace.fmの話が面白い。

さて,AIアートグランプリで印象に残ったのは,カラス=ヨーロッパ中世の防疫マスクで登場した機能美Pさんの作品だ。急遽作られた審査員特別賞も受書した。AIグランプリなのにAIは2%しか使っていないというメタコンセプトの「そんな話を彁は喰った」がその作品だ。そのタイトルに登場する漢字「彁(か・せい)」は幽霊漢字とよばれている。

1978年に通商産業省が制定したJIS C 6226(後のJIS X 0208)では,いわゆるJIS第1・第2水準漢字として6349字が規定された。このとき典拠は次の4つの漢字表だ。
 1. 標準コード用漢字表(試案): 情報処理学会漢字コード委員会(1971年)
 2. 国土行政区画総覧: 国土地理協会(1972年)
 3. 日本生命収容人名漢字: 日本生命(1973年、現存せず)
 4. 行政情報処理用基本漢字: 行政管理庁(1975年)
この中に,音義・使用例の不明な文字があることが指摘され,辞書類に収録されながら実用例のない単語を意味する「幽霊語」をもじって「幽霊文字」と呼ばれるようになった(WIkipedia 幽霊文字から抜粋引用)。

また知らなかった事実に出会うことになる。犬も歩けば棒に当たる。

図:幽霊漢字の例(

P. S. AIアートグランプリはNHKニュースでも取り上げられて,松尾さんがインタビューに答えていた。


[1]「松尾PはなぜAIアートグランプリで優勝できたのか?!」(第1965話 shi3z & drikinの#AIドリフト)
[2]第一回AIアートグランプリを受賞したので自分の作品解説とファイナリスト作品への感想。そしてその先(CloseBox)(松尾公也)
[3]第1回 AI Art GrandPrix が素晴らしかった件(白井暁彦)

2023年3月11日土曜日

プリマーAI

生成AIの2つの顔(2)からの続き

これら2つの例から考えると,テキスト型生成AIの教育利用のイメージの一つは対話型の本(以下プリマーAI)ということになる(結局,ニール・スティーブンソンダイヤモンド・エイジに出てくるプリマーに帰着する)。デジタルテキストとして提供される本の場合,(1) 当該の本の本文テキストをコアとして,(2) 同じ著者による関連著書である著者テキストの集合,(3) 本文テキストと関連する主題テキストの集合,(4) "世界"全体の背景常識テキストの集合,に適当な重みをつけて学習させたLLMシステムを作る。利用者は,これに対して,ChatAIインターフェースで,対話しながら内容を読解していく。これに,(5) 対話・学習記録テキストの集合が追加できれば問題ない。

プリマーAIを教科書として利用する場合,対話しながら教科書の内容を理解することができる。つまり,解らない部分は,何度でも角度を変えながら「著者」に質問することができるというわけだ。この場合,教科書検定というか内容(対話部分を担う学習データ部分)の正確性はどう担保するのか。あるいは政治問題化するのか。

ある人の著書だけでなく,全会話記録や全テキスト記録をプリマーAIに入力すれば,その人の仮想人格と対話できることになるので,紙に書かれた文章の読解力がなくとも,著者との対話が実現してしまうことになる。教科書から話はそれるが,対話できるタレント・アイドル本みたいなものができてしまうのか。いいのか?

DeepLに加えてChatGPT+BingChatの魔の手からも逃れられなくなりつつある今日この頃。