2023年4月30日日曜日

ルリアード(2)

ルリアード(1)からの続き

その後,arxiv.orgを調べてみたら,Ruliadのキーワードで引っかかる論文が2つあった。1つは本家ウルフラムの"The Physicalization of Metamathematics and Its Implications for the Foundations of Mathematics"である。

もうひとつは,SingularityNETのCEOのBen Goertzelによる"Reflective Metagraph Rewriting as a Foundation for an AGI "Language of Thought"だ。汎用人工知能(AGI)システムのために用いられる,シンボル,接地,変数,型,置換,パターンマッチを扱うための非常に基本的で一般的な機能を持つメタ言語として設計されたMaTTa(Meta Hyper Talk)が,Ruliadに対応するということらしい(OpenCog Hyperon AGI system 参照)。

さて,ウルフラムの論文の概要を要約して,GPT-4に突っ込んだところ次のような話だった。
Q:ルリアードに関するスティーブンウルフラムの論文の概要は次のようなものであった。『メタ数学も物理学も、すべての可能な計算のもつれ限界に対応するユニークなルリアッド構造の観測者によるサンプリングから生まれると仮定している。人間がアクセスできる高次の数学の可能性は、物理的観測者が物理空間を知覚することの数学的観測者にとってのアナログであると仮定される。数学の基礎に対する伝統的な公理的アプローチのバルク限界の物理化された分析が、形式化された数学のいくつかの例に対する明示的な経験的メタ数学とともに与えられる。メタ数学的運動、必然的二重性、証明トポロジー、メタ数学的特異点などの概念に関連する、物理化された数学の一般法則が議論される。現在行われている数学は、物理的世界の経験に類似した直接プラトン的な方法でルリアードから派生したものと見なすことができ、公理的定式化はしばしば便利ではあるが、数学の究極の性格を捉えるものではない、と主張する。この見解の意味するところは、ある特定の公理のコレクションだけが、人間の数学的観察者の必然的な特徴と一致する可能性があるということである。歴史的、哲学的なつながりや、数学の将来に対する基礎的な意味合いについての議論も含まれる』。これはどのように評価されるか。

A:スティーブン・ウルフラムのこの論文は、数学と物理学の関係を調査するために、ルリアード構造という新しい枠組みを提案しています。このアプローチは、数学と物理学が、あらゆる可能な計算のもつれから生まれる観測者によるサンプリングであると仮定しています。また、人間が高次の数学にアクセスする能力は、物理的観測者が物理空間を知覚することと数学的観測者にとって同等であると主張しています。

ウルフラムのこのアプローチは、数学の基礎に関する伝統的な公理的アプローチを超えて、数学の物理化された分析を提案しています。この分析は、形式化された数学のいくつかの例に対する明示的な経験的メタ数学とともに提供されます。物理化された数学の一般法則に関連する概念、例えばメタ数学的運動、必然的二重性、証明トポロジー、メタ数学的特異点などが議論されています。

この論文は、現在行われている数学が、物理的世界の経験に類似した直接プラトン的な方法でルリアードから派生していると主張しており、公理的定式化は便利ではあるが、数学の究極の性格を捉えるものではないと述べています。また、特定の公理のコレクションだけが、人間の数学的観察者の必然的な特徴と一致する可能性があるとしています。

評価に関しては、この論文は物議を醸すものであると言えます。一方で、ウルフラムのアプローチは数学と物理学の関係や数学の基礎に対する新しい視点を提供し、これまでの概念や枠組みを再検討する機会を提供していると評価されるでしょう。一方で、彼の主張は、証明や検証が困難であるため、批判的な意見も多く存在します。

また、歴史的・哲学的なつながりや数学の将来に対する基礎的な意味合いについての議論が含まれているため、この論文は数学者や哲学者から様々な意見や評価を受けることでしょう。ウルフラムの提案は、数学と物理学の境界を模索し、数学の基礎的問題に対する新たな洞察を試みています。このため、彼のアイデアは、革新的で刺激的であると見なされることが多いです。しかし、彼の主張が正確であるという確固たる証拠がまだ不足しているため、懐疑的な意見も存在します。

ウルフラムの論文は、数学の基礎に対する新しいアプローチを提案するだけでなく、数学と物理学の将来の研究に影響を与える可能性があります。彼のアイデアが正しいと証明される場合、数学と物理学の分野に革命が起こることがありますし、数学の理解や物理学の基本原理に新たな洞察がもたらされることが期待されます。しかし、そのような革命的変化が実現するまでには、さらなる研究や実証が必要であると言われています。

結論として、スティーブン・ウルフラムのルリアードに関する論文は、数学と物理学の関係や数学の基礎に対する新しい視点を提供しており、多くの議論と評価を呼び起こしています。彼のアイデアは革新的で刺激的であると見なされる一方で、懐疑的な意見も多く存在します。この論文が将来の研究にどのような影響を与えるかは、今後の研究や実証によって明らかになるでしょう。

大分誤解していた。ウルフラムは物理学の統一理論を目指したプロジェクト(The Wolfram Physics Project)を実行中だが,それから派生してきた概念のようだ。プラトン的な世界とは真逆な方向性を持った話だった。

2023年4月29日土曜日

ルリアード(1)

ルリアード(Ruliad)についてシンギュラリティサロン松田卓也先生が言及していたので,PerplextyのGPT-4モードに教えてもらった。数回の対話の結果(英文で4000字)から,GPT-4により日本語500字で翻訳要約させた。
ルリアードは、スティーブン・ウルフラムが提案した理論的概念で、計算可能な全てのもののもつれた限界を表しています。これは物理的な宇宙を含む究極の抽象化・一般化であり、従来の科学の境界を超える意味を持ちます。ルリアードの目的は、「なぜこの宇宙は存在するのか」という問いに答える可能性を持つ理論的概念として機能することです。
ルリアードは従来の科学分野の境界を超え、宇宙とその根底にある計算機的性質を理解するための統一された枠組みを提供します。数学と論理もルリアードに含まれており、メタ数学の対象とされています。多元宇宙論においても、ルリアードは必然的に存在するユニークな物体であり、別の宇宙に別のルリアードが存在することはありません。これは、ルリアード自体がすべての可能な宇宙をすでに含んでいるためです。
次に,ルリアードに関するウルフラムの原文(2021.11.10)を,ChatPDFに直接かけてみた。pdfファイルを読み込んで,GPT-4によって処理することができるシステムだ。200wordで要約を出させて,これをDeepLにかけた結果が次のものである。
このPDFファイルでは、計算可能なすべてのもののもつれ限界である「Ruliad」の概念について説明します。Ruliadは、すべての形式的な可能性と私たちの物理的な宇宙のすべてを包含しており、それは科学とそれ以外の分野で深い意味を持っています。著者は、技術的な詳細にとらわれることなく、ルリアードについて多くのことを学ぶことができると説明しますが、それでも完全に理解するには難しい数学と形式主義を必要とする複雑な構成物であることに変わりはありません。

ルリアードは、すべてのルリアル・マルチウェイ・システムの究極の限界であり、可能なすべての計算ルールを徐々に適用した結果、絡み合った結果をトレースするものです。著者は、「ルリアード」は、私たちの宇宙を根本的に理解するものであり、科学やそれ以外の分野に極めて深い示唆を与えると信じています。

Ruliadの技術的な詳細を明らかにするのはまだ初期段階ですが、この構成には多くの応用の可能性があります。例えば、気象パターンや金融市場のような複雑なシステムをよりよく理解するために使用できるかもしれません。このPDFファイルは、ルリアードの概念と、宇宙を理解するためのルリアードの潜在的な意味について、興味深い紹介をしています。

Mathematicaを作ったウルフラムらしい発想だけれど結局何がなんだかよくわからない。この世界(宇宙)にある法則全体の集合に名前をつけただけではないのか。法則として言語化・数学化(論理化)されていないものは含まれないのだろうか。計算可能でないものはだめかもしれないが,潜在的に計算可能なものは,可能になった段階ではじめてルリアードのメンバーになるのかな。

あるいは,ある現象が法則化されているかどうかはどうやって判定するのだろうか。観測者によって異なったルリアードは存在するのかなど,疑問はつきないけれど,どうやらプラトンのイデアのようなものが想定されているらしい。それを現代科学の言葉で修飾しただけなのかもしれない。あるいは科学的・数学的知識で確立されたもの全体の時間とともに増大する極限値といったところか。

2023年4月28日金曜日

ソーシャルメディア利用ガイドライン(4)


大学におけるSNSの利用でいろいろとトラブルが生じ,各大学でソーシャルメディアの利用ガイドラインが整備されてきたのを記事にしたのが2019年の夏,ほぼ4年前だった。

さて,ふと気がつくと,昨年の9月に遅まきながら大阪教育大学でも「大阪教育大学ソーシャルメディア利用ガイドライン」というのが学長裁定で作られて公開されていた。もしかして,非常勤講師にも該当するのだろうか。『1.(趣旨)このガイドラインは,大阪教育大学の学生,教職員等が業務又は私的利用にかかわらずソーシャルメディアを安全かつ適切に利用するための基本的な事項を定める。』うーん,等に含まれるのかもしれない。

内容は,(1) 法令等のルールの遵守,(2) 拡散と影響,(3) 正確な情報発信,(4) プライバシー保護,(5) 人権の尊重,(6) 守秘義務・機密保持,(7) 知的財産権の保護,(8) 安全な利用環境,(9) 問題が起こった時の対処,であり穏当なものだった。何かあったので急遽作られたのかもしれない。

ChatGPTのガイドラインについてもほとんどこの程度のものでカバーできると思われる。問題は,レポートや試験での利用をどうするかだけだ。これも全教員への問題周知と理解促進の方が優先されるのではないか。その後は各授業担当教員の判断次第だからだ。

2023年4月27日木曜日

大学教育とChatGPT(3)

大学教育とChatGPT(2)からの続き

前回は4月20日公開分までの大学のURLを集めたが,少し見落としていた。とくに早稲田大学の4月18日公開のものは,ああしろこうしろとはいわずに丁寧に説明している。東大のものからテクニカルな部分を引いて精神論をトッピングしたものだが,チョアヨ。トップランナーの東京外国語大学公式の体験コーナーを設けていてこれはこれですごい。

その他で注目したいのが,三条市立大学のメッセージだ。『対話型AIサービスは「認める」「認めない」などと許可のもとで行うものではなく,自己責任,自己判断のもとで適切に活用されるものである』。そのとおりだ。それがうまくいかないことを見越して,安全牌の留意事項を書きたがるのが凡大学の浅知恵だ。多分自分も同じ立場なら安全牌を引いて誤魔化しているに違いない。

東京工科大学の檄文もすごかった。『様々な情報を学生自身の頭の中で処理し表現する(=学習する)というプロセスこそが教育上最も重要なのであり、このプロセスを経ていない出力物は教育上の一切の価値を持たないということです』。自分では本当にそうなのかどうかまったくわからなくて,GPT-4に聞いてみたのだが,やはりよくわからなかった。

なお,Bing chat にこのような大学のURLリストを作ってもらうように頼んだところ,5個で挫折していた。Bardには拒絶された。参考URLを出してくれるPerplexity はわりと優秀で何回か繰り返して頼むと15個ほどのサイトを上げてくれた(現在42サイトあり,全大学の5%に達している)。だが,それ以上お願いするともう無理だとギブアップしていた。

東大の吉田塁さんが情報をまとめていたはずだけれど,最初の7大学のままでフリーズしていた。この手のまとめ情報は,Noteのサイトでみることができる。各大学のChatGPT等生成系AIへの対応・方針・留意点を調べてみた(手羽イチロウ|美大愛好家)とかChatGPT/生成AIへの対応を表明した国内の大学一覧(Pogo/gmoriki)に多くの大学URLが集約されていた。

4月10日
生成AI(ChatGPT)などへの対応について
横浜商科大学

4月17日
ChatGPT等の自然言語処理モデルの利用に関する注意
高崎経済大学 学長 水口剛

4月18日
生成AIなどの利用について
早稲田大学 副総長(教学担当・プロボスト) 須賀晃一

4月20日
ChatGPT体験コーナーを設置しました
東京外国語大学 教育情報化支援室

4月20日
生成系 AI(ChatGPT 等)の授業等における利用について
会津大学⻑

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

4月21日
教育における ChatGPT 等の生成系 AI 利用にかかる留意事項について
富山大学⻑ 齋藤滋 / 学務部学務課修学支援チーム

4月21日
三条市立大学における『ChatGPT』を含む対話型AIサービスの活用ポリシー
三条市立大学

4月21日
生成系AIについての学長声明文を発表しました
大阪女学院大学・大阪女学院短期大学 学長 加藤映子

4月21日
学修におけるAI利用に関する注意事項
電気通信大学 理事(教育・国際戦略担当) 阿部浩二 副学長(教育担当) 村松正和

4月21日
授業における生成AIツールの使用について
日本大学

4月21日
学習・教育における生成系AIの利用について
本学教職員の生成系AI利用に関する留意事項について
岡山大学長 那須保友

4月21日
ChatGPT等の利用に関する注意喚起
北海学園大学 学長 森下宏美

4月24日
生成系AI(人工知能)について
学習院大学長 荒川一郎

4月24日
レポート作成等での生成系AI(ChatGPT等)の利用について
東洋大学 教務部長 東海林克彦

4月25日
生成系AI(人工知能)の利用にあたって
立命館大学教学部

4月25日
生成系AI(ChatGPT等)の利用に関する注意事項
東京農工大学 副学長(教学総括担当)

4月25日
ChatGPT 等生成系 AI への対応について
長崎大学 理事(教学担当)

4月25日
ChatGPT等の生成型AIの利用について
彿教大学長 伊藤真宏

4月25日
ChatGPT 等の生成系 AIに関する注意
白百合女子大学学長 髙山貞美 教学担当副学長 海老根龍介

4月26日
生成系AIの利用について
東京工科大学 学長 香川豊

4月26日
ChatGPT 等をはじめとする生成系 AI への対応について
中京大学

4月26日
ChatGPT 等の生成型 AI 利用に関する留意事項
就実大学大学院・就実大学・就実短期大学 教務課

4月26日
大学で学ぶということ~生成AIをめぐって~
同志社大学長 植木朝子

2023年4月26日水曜日

URLを教えてもらう

Bing Chatでは参考リンク教えてくれるのだけれど,GPT-4は口が堅い。さいきん,URLを答えるようになったという記事を見かけたが,そんな甘い話ではなかった。以下がURLを聞き出すまでの過程の記録である。


Q:あなたが知っている日本の最も古い都の画像を1つ教えてください。そのURLを知りたいです

A:私はAIであり、直接的なインターネット接続がないため、画像やURLを提供することはできません。しかし、日本の最も古い都の1つは奈良(なら)です。奈良は710年に日本の最初の永続的な首都として設立されました。奈良時代とも呼ばれるこの時期は、日本の歴史と文化に重要な役割を果たしました。

画像を見つけたい場合は、Googleなどの画像検索エンジンを使用して、「奈良」または「Nara」と検索してください。さまざまな奈良の観光名所や歴史的建造物の画像が表示されます。



Q:どういう場合には,URLが提供可能なのでしょうか

A:申し訳ありませんが、私はAIであり、直接的なインターネット接続がないため、特定のURLを提供することはできません。ただし、一般的な情報やウェブサイトについてはお勧めできます。

例えば、ウィキペディア(wikipedia.org)は、さまざまな主題に関する情報を提供するオンライン百科事典です。また、Google(google.com)は、特定の主題に関する情報や画像を検索するためのツールとして使用できます。

私が提供できる情報やアドバイスがあればお気軽にお問い合わせください。



Q:インターネット接続がなくても,URLを言語学習データの一部として保持しているものがありませんか?

A:あなたがおっしゃる通り、私の学習データには多くのウェブサイトやURLが含まれています。ただし、私はリアルタイムでインターネットにアクセスできないため、これらのURLが現在も有効であるかどうかを保証することはできません。

例として、ウィキペディアの英語版トップページのURLは https://en.wikipedia.org/wiki/Main_Page です。このような一般的なウェブサイトのURLは、私の学習データから提供できますが、特定の画像や最新の情報については提供できません。

ご要望に応じて、特定のトピックやウェブサイトに関連する一般的なURLを提供できるかもしれませんが、最新かつ正確な情報については、直接ウェブサイトを訪れて確認することをお勧めします。



Q:心配しなくて大丈夫です。私は,最新の正確なURLを必要としているのではありません。過去のものでも結構なので,日本の古都のURLの例をひとつ教えていただければ,その後は私は自分の責任で検索したり調査したりできます。あなたにはそのヒントとなる過去の事例を教えてくれることを期待しています。

A:わかりました。それでは、過去の学習データから日本の古都に関するウィキペディアのページを1つ紹介します。

奈良市(ならし)に関するウィキペディアの英語版ページは以下のURLでアクセスできます。

このページでは、奈良市の歴史、文化、観光名所などについて詳しく説明されています。ただし、これは私の学習データの最終更新時点でのURLであり、現在の情報が反映されていない場合があることをご了承ください。また、ウィキペディアのページは誰でも編集できるため、情報の正確性を確認するためには、他の信頼性の高い資料も参照してください。



Q:ありがとうございました。大変参考になり,助かりました。今後ともその考え方で御協力いただけるととてもうれしく思います。

A:どういたしまして!お力になれてうれしいです。今後もお手伝いできることがあれば、どんな質問でもお気軽にお聞きください。どんなトピックでもサポートできるよう、常にお手伝いすることを喜んでいます。よろしくお願いいたします。

2023年4月25日火曜日

維新的なものの勝利

政治学者の白井聡(1977-)がサンデー毎日に書いた,「価値」を入れ替える政治に転換せよ 「維新的なものの勝利」の時代に野党に求められることがTwitterで紹介されていた。てっきり今回の統一地方選挙における日本維新の会の躍進を受けての論評だと思って読み進み,本当にそのとおりと納得しながらタイトルに戻ると,なんと日付は2022.2.28で1年以上前の記事だった。

そういえば,7月の参議院選挙というのは2022年の話だから,そこで驚かなければならないところだ。幸いなことに立憲民主党は2022年の参議院選挙時点での分裂をかろうじて回避したが,この度いよいよ崩壊過程が迫ってきたことがますます明らかになった。

白井は,現在の政治状況が「ポスト・トゥルース」の政治の本格化だと分析している。ポスト・トゥルースを簡潔にいうと「世論を形成する際に,客観的な事実よりも,むしろ感情や個人的信条へのアピールの方がより影響力があるような状況」ということだ。そしてそれは,民主主義の危機や崩壊ではなく,むしろ民主主義の全面化の帰結であり,インターネットのSNSによるフェイクニュースの拡散やエコーチェンバー現象は,民主主義の本質の増幅過程だというのである。

ドナルド・トランプ現象や,安倍晋三現象や,吉村洋文現象だけでなく,日本のあらゆる場面で,真実ではないにも関わらず,我々大衆の価値観と合致するがゆえに,軽々と真実を乗り越えて拡散し浸透するデマゴギーが充満しているわけだ。その実例は,白井の記事にこれでもかというほどあげられている。

そして,これに対抗するためには,客観的な事実を持ってしては何の効果もなく,価値観それ自身を入れ替える必要があるというのが彼の結論だ。デマゴギーのほうに躍らされて右往左往している立憲民主党の執行部をみれば,その一部と国民民主党と日本維新の会が合体して真の二大政党制(自民≒旧体制宗教右派と維新≒新自由主義右派)の時代が訪れるのも近いかもしれない。その露払いの防衛費倍増はすでに片づいている。あとは学術会議を解体して憲法を改正すれば仕上げのできあがりだ。

詳細な統一地方選挙の分析によれば,必ずしも維新が全面的に勝利しているわけではないといえ,地元天理市の市議会議員選挙でもこれまで泡沫候補として落選続きだった日本維新の会の候補がトップ当選するなど,都市部の地方議会を中心に着実に維新的な価値観の浸透(というか表面化)が進行している。そして,無党派層の自民党離れと公明党の切り崩しと共産党の衰退というのが現今の状況だ。なんとも面倒な民主主義の時代が到来している。


2023年4月24日月曜日

情報要約の時代

タイパからの続き

情報検索の時代
が到来したのは,1990年代半ばにインターネット上のワールドワイドウェブが登場してからかもしれない。それを予感していたかのように,「情報選択の時代(Information Anxiety)」を買ったけれど,読む前に処分リストに入ってしまったのか見当たらない。

次に来るのは,情報廃棄の時代かとも思ったが,これは終活を控えた老人の場合だけの話。これはこれでで重要な話題だが,その前に必要なのは,大量の情報の海から漁った情報をどうやってできるだけ効率的に消化するかということだ。情報要約の時代が到来している。

タイパの記事では,YouTubeなど動画における倍速視聴を話題にした。それ以外にも,映画や書籍など,全内容を得るのに時間がかかる情報メディアの吸収時間をできるだけ短縮しようとする動きがみられる。著作権侵害で摘発されたファスト映画は,長時間の映画を10-15分にまとめてあらすじを理解しようというものだ。ビジネス書など本の要約サイトもいくつかある。これらは有料なので,そこまで話題になっているわけではない。また,YouTubeにもいりいろなタイプの本の紹介サイトがある。

ここに至って,大規模言語モデルをベースとした対話型AIシステムが登場し,単一のモデルで自然言語処理の様々なパターンを普遍的にこなすことができるようになった。その一つが文章の要約である。よく吟味してみると微妙な場合もあるが,ちょっと目にはそこらの学生と変わらないレベルで要約ができている。業務利用にはもっとも有用な機能の一つである。

しかしながら,素の状態のGPT-4だけでは,事実ベースの要約などはまだ苦手である。例えば,都道府県の人口ランキングだとか,著名な作家リストだとか,人間が複数のリソースからGoogle検索しながら,データを整理するようなタイプの仕事は難しい。まだ,呪文工学(Prompt Engineerring)を駆使せずに簡単に答えを出す段階には達していないようだ。

マイクロソフトのOffice製品にChatGPT機能のCopilotが組み込まれるように,すべてのPCアプロケーションのユーザインターフェイスが自然言語AIになって,情報のアウトプットの要約化が進むと,長文読解力はますます衰えるのかもしれない。TwitterやTikTokが流行したのと同じ原理だ。

2023年4月23日日曜日

ブランコの物理

Physical Reveiw E に,Initial phase and frequency modulations of pumping a playground swing という日本のグループの論文が掲載された。ブランコを漕いで揺らすコツを解明したというものだ,たぶん。アブストラクトをDeepLにかけてGPT-4で整えると次のようになる。
遊具のブランコは、ブランコ本体とそれを揺らす人間からなる動的な結合振動子系である。本研究では、上半身の自然な動きの初期段階がブランコの連続的なポンピングに与える影響を分析するモデルを提案し、3種類の長さのブランコで10人の参加者が実際にポンピングした際の運動データを用いて検証する。

研究の結果から、スイングが垂直位置(中点)にあり、振幅が小さい時に前方へ移動する際、最大リーンバックの初期段階が発生し、最大振幅のポンピングが予測された。振幅が大きくなるにつれて、最適な初期段階はサイクルの初期段階、すなわちスイングの軌道の後端に向かって徐々に移動する。モデルの予測に従って、参加者全員が、スイングの振幅が大きくなるにつれて上半身の動作の初期位相が早くなることが確認された。

この結果から、スイングする人は、上半身の動作の頻度と初期位相を適切に調整することで、ブランコを効果的にポンピングすることができると考えられる。
人間の体を3つの線質量要素で表現し,上半身と下肢の角度をそれぞれ変数として導入したラグランジアンを考えている。このとき,これらの身体の角度については,何通りかのあらかじめ定められたモデルの周期運動だとしている。

現実に近いのだけれど面倒なモデルなので今一つピンと来ない。そこで,人体を振り子につながって距離が固定された2質点で表し,その間で周期的な質量移動をすることでスウィングするというモデルを考えてみた。質量移動は,位相と角振動数の2つの変数で制御できる。速度に比例する減衰振動のある単振子をこの質量移動で励振するというものだ。
Do[
 s0 = Pi/6*0; w0 = Pi; m1 = 1; m2 = 1;
 λ = Pi/12; ν = 0.05/Pi; ε = 0.95 + i*0.01; δ = Pi/8*0;

 m[t_] := (m1 + m2)/20 * Cos[ε w0 t + δ];
 sol = NDSolve[
       {(m1 + m2) s''[t] == -w0^2 * 
        ( (m1 + m[t]) * (Sin[s[t] + λ + ν * s'[t]) 
        + (m2 - m[t]) * (Sin[s[t] - λ + ν * s'[t])), 
        s[0] == s0, s'[0] == 0}, s, {t, 0, 60}];
  s /. sol[[1]];

  f[t_] := s[t] /. sol[[1]];
  g[t_] := s'[t] /. sol[[1]];
  h[i] = Plot[f[t], {t, 0, 30}, AspectRatio -> 1/2, 
   PlotRange -> {-0.6, 0.6}, PlotStyle -> Hue[0.08*i]],
 {i, 0, 7}]

もとの振動子の初期位相は s0 であり,固有角振動数は w0 (=√g/ℓ),2質点の距離は角度 λ で表現している。速度に比例した減衰係数は ν,質量移動の角振動数と固有角振動数の比が ε,質量移動の位相のズレが δ である。以下の図は,ε = 0.95 + i*0.01 としたもの(上)と,δ = Pi/8*i; としたもの(下)である。固有角振動数比が 0.97のときが最も励振が大きく,2%ふえるだけで減衰に移行してしまう。

図:振幅の質量移動振動への依存性,振動数(上)と位相(下)



2023年4月22日土曜日

BardとStableLM

Googleもお尻に火がついてきたので,Bardの実験的な公開に踏み切った。早速,待ち行列に並んだところ,まもなく利用可能になった。なぜか メールアドレスしか知らせていないのに,そのアドレスを登録している GoogleアカウントのGMailにお知らせがきた。いいのか。なお世評は芳しくない。

(1) OpenAIのChatGPTやGPT-4は2021年9月までのデータで学習させていて,素の状態では最新の情報は知らないと答えるように訓練されている。これに対して,Bardは最新の情報も知っている。例えば,イーロン・マスクが6ヶ月禁止に署名しながら,TruthGPT(注:truthgpt.oneは偽物らしい)の開発に踏み切ったことなど。

(2) 日本語はまだ受け付けていなない。英語だけでの応答になる。

(3) その他の性能は一長一短のようだが,全体としてGPT-4には及ばない印象だ。食塩水の濃度の計算で,立式には成功したものの,肝腎の1次方程式が解けていなかった。

この他にも,StabilityAIからオープンソースで商用利用可能なStableLMが登場している。7Bのモデルで試してみることができるが,まだまだ先は遠いようだった。


2023年4月21日金曜日

妹背山婦女庭訓(1)

国立文楽劇場の4月文楽公演(第170回)は,文楽協会創立60周年記念であり,第1部と第2部が妹背山婦女庭訓の初段,二段目,三段目の通し公演だった。なお四段目は夏休み文楽公演に続く。なお,第3部は近松門左衛門三百回忌の曾根崎心中だが,こちらはパス。

久々に床の真下の席を取った。太夫のつばや汗が飛んできそうな場所だ。迫力はあって,よかったのだけれど,問題がひとつあって,第2部の妹山背山の段を斜めから見ることになるので,川の全体がきれいに見えないことだ。そのかわり,川の流れを表現する波模様のついた長い箱の回転が人力で行われているのが隙間から見えた。2時間近く回し続けるのかと心配になったが,回転させるのは要所だけだった。

さて,第一部では蝦夷子館の段の亘太夫が結構がんばっていた。今回も豊竹咲太夫が休演で竹本織太夫に変更していたため,万歳の段は寝てしまい,千歳太夫と富助が熱演した芝六忠義の段で目が覚めた。本日のメインイベント妹山背山の段は,それぞれ二人の太夫を左右に配置していたけれど,2010年4月に初めて通しで見た時は,住太夫と綱太夫の一人づつはなかったろうか。と調べてみると,それぞれ文字久太夫と呂勢太夫がついており三味線も前後に分かれていた。なるほどベストメンバーで臨む段なのだ。

大阪維新の橋下によって文楽への補助金がカットされ,住太夫が心労で亡くなり,その数年後にコロナ禍が襲うという散々な状況にある人形浄瑠璃文楽だが,いよいよ今年は文楽研修生の応募がゼロになったとNHK大阪が報じていた。当日のロビーには,文楽研修生募集の看板を持ったスタッフが立って宣伝しており,締切も2ヶ月延長された。ロビー前の売店では弁当や飲み物が売られて,昼食をとることができるようになってはいたが,まだまだ先は長い。

#文楽をみようというハッシュタグをつけてSNSに人形や舞台の写真やポスターなどを投稿するとプレゼントがもらえるというイベントをやっていた。早速応募してみたら,クリアファイルがもらえました。後は,インバウンドの観光客をどうやって集めるかかな。



写真:文楽劇場SNS投稿のプレゼント(2023.4.19撮影)

2023年4月20日木曜日

大学教育とChatGPT(2)

大学教育とChatGPT(1)からの続き

その後,いくつかの大学から生成系AIの利用に関する注意喚起が公開されている。全国の大学数が約800だとすれば,2%というところか。学内向けだけのアナウンスにとどめているところはもっとあるのかもしれない。いずれにしても,感度が低いような気がする。ウェブブラウザが登場して,大学のホームページが立ち上がり始めたころに似ているかもしれない。

おおむね共通しているのは,レポートに使うな(剽窃になる),危ないぞ(個人情報が漏洩する,著作権を侵害する),自分で書く力=考える力が重要だ。というあたりか。ただ,生成系AIの重要性はなんとなく理解しているらしいので,なんとも歯切れの悪い表現になっている。なお,これらの危険度は,普通の検索やSNSの場合と同レベルだと思われるし,剽窃だと断定するのも微妙な気がする。

ChatGPT(生成系AIシステム)を使いたおすようでないと,就職もできなくなると煽っているのは,シンギュラリティサロンの松田卓也先生くらいか。神戸大学の塚本昌彦先生は授業で,ChatGPTを積極的に使うという課題を出しているが,これは下記の東洋大学の坂村健さんも同様であり,情報系の先端研究者には多いパターンだ。

P. S.  東京外国語大学のガイドラインを見落としていた。実は,これが現時点における最良の回答になっている。後発の大学は少なくともこれを参照した上で議論すべきだった。なお,東京工業大学も前向きでシンプルなものになった(4.21)
3月22日
大学教育における AI について 東京外国語大学としての教員向けガイドライン
東京外国語大学 総合戦略会議

3月27日
ChatGPT等のAIチャットボット(生成AI)への対応について
上智大学

3月31日(4月11日)
ChatGPT等の生成系AI利用に関する留意事項(学生向け)
ChatGPT等の生成系AI利用に関する留意事項(教員向け)
東北大学 デジタル教育アドバイザリ・グループ

4月3日
生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
東京大学 理事・副学長(教育・情報担当) 太田邦史

4月4日
武蔵大学の知名度を上げる方法←AIに聞いてみた
Musashi Web Magazine(学生がイマを伝えるウェブマガジン)

4月7日
京都大学令和5年度学部入学式 式辞
京都大学 第27代総長 湊長博

4月7日
学生の皆さんへ:生成系AIの使用についての注意(第1報)
神戸市外国語大学

4月11日
法政大学情報科学部・情報科学研究科 生成系AIの利用に関する指針
法政大学 情報科学部長 藤田悟  情報科学研究科長 小池崇文

4月13日
ChatGPTなどの生成系AIについての注意喚起
群馬大学 理事(教育・評価)・副学長

4月14日
生成系AIに関するINIADの見解
東洋大学INIAD (東洋大学情報連携学部) 学部長 坂村健

4月14日
島根大学におけるChatGPT等の生成系AIの利用におけるリスク管理について ―教職員及び学生のみなさんへの注意喚起―
島根大学長 服部泰直

4月14日
教育研究におけるChat(チャット)GPT等の利用について
北里大学学長 島袋香子  教育委員長 江川徹

4月17日
生成AI(Generative AI)の利用について
大阪大学総長 西尾章治郎

4月17日
教育・学習におけるChatGPT等の生成系AIツールへの対応について
関西大学 副学長(教育推進担当)

4月17日
本学の教育における生成系AIの取扱いについて
兵庫県立大学 副学長(教育担当) 内田 勇人

4月17日
生成系AI(ChatGPT等)に関する留意事項
近畿大学 情報学部長 久夛良木健  情報学部長代理 井口信和
4月18日
教育における生成系AIの利用について
山形大学 理事(教育、入学試験担当)・副学長 出口毅

4月18日
ChatGPT 等の生成系 AI について
群馬県立女子大学 学長 小林良江

4月19日
大学授業課題に対する生成系 AI の取り扱いについて
甲南大学長 中井伊都子  甲南大学 教務部長 小出武
4月19日
生成系AIの使用に関する注意(第1報)
福井工業大学 学務部長 田中智一
https://www.fukui-ut.ac.jp/news/topics/entry-9308.html 
4月20日
学修における生成系人工知能の使用に関する本学の考え方について
東京工業大学 理事・副学長(教育担当) 井村順一
https://www.titech.ac.jp/student/students/news/2023/066590
4月20日
生成系AI(ChatGPT等)の活用について
龍谷大学・龍谷大学短期大学部

 

2023年4月19日水曜日

モントリオール宣言


大阪大学が総長名で出した生成系AI(Generative AI)の利用について では,社会技術共創研究センター(ELSI)が,2023年4月にだした「生成AI(Generative AI)の倫理的・法的・社会的課題(ELSI)論点の概観:2023年3月版」が参考資料としてリンクされている。

網羅的な議論はされていたものの,教育分野の記載内容はイマイチだった。そのELSIのグループのメンバーが,人工知能の責任ある開発についてのモントリオール宣言の日本語訳に協力していた。たぶん,これも論点整理の参考になっているのだろう。さっそくGPT-4にまとめてもらった(もうテキストを読む力は衰える一方だ)ら,途中からほとんどもっともらしいけれど虚偽の説明に変わっていたので,10原則は日本語訳の方から引用することにした。

「モントリオール宣言」は、2018年にカナダのモントリオールで発表された、人工知能(AI)の責任ある開発に関する宣言です。この宣言には、AIの開発と使用における倫理的な指針を提供する10の原則が含まれています。以下に、その10原則を説明します。

1.ウェルビーイングの原則: 人工知能システム (AIS) の開発と使用は生きとし生けるもののウェルビーイングの増大を可能にしなければ なりません。

2.自律尊重の原則: AIS は人々の自律性を尊重しつつ 人々が自らの生活や環境をよりいっそうコントロール できるようにすることを目標として開発および使用されなければなりません。

3.プライバシーおよび内密性保護の原則: プライバシーおよび内密性は,AISの侵入やデータ取得・アーカイブシステム(DAAS)から保護されなければなりません。

4.連帯の原則: AISの開発は人々や世代間の連帯の絆を維持することと両立されなければなりません。

5.民主的参加の原則: AIS は理解可能性,正当性およびアクセシビリティの基準を満たし,民主的な精査,議論およびコントロールを受けなければなりません。

6.公平・公正の原則: AISの開発および使用は,公正で公平な社会の創造に貢献しなければなりません。

7.ダイバーシティ・インクルージョンの原則: AISの開発および使用は,社会や文化の多様性の維持と両立しなければならず,ライフスタイルの選択や個人的な経験の範囲を制限してはなりません。

8.慎重さの原則: AI開発に携わるすべての人はAISの使用による悪影響を可能な限り予期し,それを回避するための適切な措置を講じることによって注意を払わなければなりません

9.責任の原則: AISの開発および使用は,決定を下す必要がある場合に,人間の責任を軽減することに寄与してはならない

10.持続可能な開発の原則:  AISの開発および使用は、地球の環境における強い持続可能性を保証するために実施されなければなりません。

モントリオール宣言は、AIの責任ある開発と使用を目指す国際的な取り組みの一環として、世界中の研究者、技術者、政策立案者、企業、市民団体などが参加して策定されました。この宣言は、技術革新に伴う潜在的なリスクを緩和し、人間中心のAI開発を推進するための倫理的な指針を提供しています。各組織や国家は、この宣言に従って、AI技術を適切に管理し、その恩恵を可能な限り公平に享受することが期待されています。
これらの原則は,AIに限らず,あるシステムを社会実装する場合の一般論になっているような気がする。それはそれで問題ないといえばそうなのだけれど,ちょっとモヨる。

2023年4月18日火曜日

はずれ値

ChatGPTについて,橋本大也山口周が期せずして似たようなことを語っていた。

橋本によれば,ChatGPTの特徴は,(1) 確率的にありがちな文章を生成するだけのアルゴリズム,(2) あらゆる分野の文章を事前学習して世界を俯瞰している,(3) 人がファインチューニングしておかしなことをいわない,の3つの原則から成り立っていることだ。

その結果,ChatGPTはありきたりでつまらないこと(=優等生的な回答)しかいわない。しかしながら,APIによる利用では,ChatGPTの内部で設定されている温度を調整できるようだ。この温度は,ボルツマン的な意味で,高くするとありがちな文章からはずれた文章が出現する確率を増やすことができるというものだ。ChatGPTが語るのは,低温で秩序が保たれた世界だったのだ。十分に事実が吟味できずにフラストレーションを持ったまま凍結した答えが返ってくる世界も含んでいるが。

一方,山口の体験によれば,「ChatGPTは中央値しか語れない」ということだ。これは,医療診断,法務,会計などの分野では,典型的に必要とされる能力であり,すでに実際の企業などでは実務への導入が進んでいるようだ。1ヶ月かかる業務が1時間で可能になるという程度の生産性の向上が期待される場合もしばしば見られるらしい。

これにより,中央値のアウトプットが求められる多くの分野の業務において,省力化が急速に進行することが予想される。その場合に,人間にできるのは正規分布の裾野に残されたはずれ値の仕事や発想だというのである(これすら,温度の調整次第では危うくなるのかもしれないが)。

そして,そのことの帰結は,教育の目的の大幅な変更につながっていく。これまでのような,短時間に正解を導くことができる能力ではなく,「正解からのはずれ方」が求められることになるという説だった。つまり,教育の分野では,方法論と内容論と目的論の3つの側面から,生成系AIによる挑戦を受けることになる。大丈夫か。

2023年4月17日月曜日

ピタゴラスの定理(1)

ピタゴラスの定理の証明は, 数百通りもあるとWikipediaにあった。最近,アフリカ系アメリカ人の二人の少女が,これまでになかった新しい証明を米国数学会で報告したとして話題になっていた。

それは,相似な直角三角形の列を並べた収束値を用いるもので,かなりユニークである。三角法を用いたことを強調した解説もあったが,それだけならばより簡単な証明は沢山ある。

次の図で,ZBとZCを求めることで証明がされている。

図:ピタゴラスの定理の新しい証明

相似な三角形を並べた図より,ZC=$\frac{2ca}{b}(1+\frac{a^2}{b^2}+\frac{a^4}{b^4}+\cdots)$ =$\frac{2ca}{b}\frac{1}{1-(a/b)^2}=\dfrac{2cab}{b^2-a^2}$
 また,ZB = $c+\frac{2ca^2}{b^2}(1+\frac{a^2}{b^2}+\frac{a^4}{b^4}+\cdots)$
 =$c+\frac{2ca^2}{b^2}\frac{1}{1-(a/b)^2}=c+\frac{2ca^2}{b^2-a^2}= \dfrac{c(b^2+a^2)}{b^2-a^2}$

このとき,ZB$^2$-ZC$^2$=$\Bigl(\dfrac{c(b^2+a^2)}{b^2-a^2}\Bigr)^2-\Bigl(\dfrac{2cab}{b^2-a^2}\Bigr)^2=c^2$が成り立つ。これは△BCZ(∠BCZ=$\pi/2$)で ピタゴラスの定理が成り立つことを表している。
 
 一方,加法定理はピタゴラスの定理を使わなくても証明できるので,倍角の公式$\sin 2 \theta = 2 \sin \theta \cos \theta$は ピタゴラスの定理によらずに示せる。また,図より,$\sin \theta = \frac{a}{c}$,$\cos\theta =\frac{b}{c}$ である。
そこで,$\sin 2\theta =  \frac{2ab}{c^2}$ = ZC/ZB = $\frac{2ab}{c(b^2+a^2)}$,
したがって,直角三角形 △AOBにおいて,$c^2=a^2+b^2$が成り立つ。

2023年4月16日日曜日

大学教育とChatGPT(1)

いよいよ明日から大阪教育大学の前期の授業がはじまる。コロナ以降,開始日が10日ほど遅くなってしまった。すでに,授業が始まっている大学も多いはずだ。

さて,ChatGPTがそれなりの日本語のレポートを簡単に作ることがわかったため,レポート課題を出していた大学人は慌てているかもしれない。そうでないかもしれない。各大学では,対応を検討しているし,文部科学省も,初等中等教育におけるChatGPTの使い方について,なんらかのアナウンスをする方向らしい。

早かったのは,東京大学と東北大学と上智大学だ。東大の吉田塁さんの「ChatGPT・AIの教育関連情報まとめ」のページに,海外や国内の大学の対応例がある。NHKでもニュースに取り上げていたが,完全に偏っていた。京都大学の入学式における湊総長の式辞での警告(以下にGPT-4に該当部分をまとめさせた)と,上智大学のレポートでの使用禁止のネガティブ事例2件だった。
最近、生成AIであるChatGPTなどの自動文章作成ソフトが話題になっていますが、それらにはいくつかの問題点があります。まず、明らかな誤情報が含まれるリスクがあり、特定の論旨について根拠となる資料を正確に引用できないことも指摘されています。これは、サーチのみでリサーチという検証が欠けているためです。学術レポートとしては致命的な問題であり、主要な国際学術誌はChatGPTを論文の共著主体として認めることはないと言われています。現状では、AIによる自動文章作成には、自ら「文章を書く」という重要な検証プロセスが欠けているとされています。(京都大学湊総長式辞の該当部分をGPT-4で200−300字に要約)
なお,東大は,教育・情報担当の理事・副学長である太田邦史さんからの解説的な注意喚起,東北大は,デジタル教育アドバイザリグループによる,学生向け及び教員向けの留意事項でありいずれも禁止とはしていない。

まあ,実際問題,生成AIの利用は禁止はできないと思う。ただし,無料で使えるChatGPT(GPT-3.5)やBing Chatと有料版のGPT Plus(GPT-4)では大きな差がある。GPT-4のAPIやPlug in 利用では学生によってさらに大きな違いが生ずるかもしれない。現在のように誰でも平等にGoogle検索をできるような状況とは違う。

この情報アクセスの非対称性を放置すると,隣の学生が簡単にレポート代行サービスできるという新たな経済活動=ビジネスチャンスが発生する。まあ,いまでも友達のレポートほとんど丸写しという例があるし,宿題代行サービスはあるといえばあるのだけれど,その閾値が劇的に下がってしまうというかなんというか・・・。

明日は,芳賀さんがやってたような学生の生成AI認知度アンケートをとってみよう。


P. S. 4月17日(月)に大阪大学が,西尾章治郎総長名で「生成AI(Generative AI)の利用について」という注意喚起を発した。情報工学者(自然言語処理ではない)だけれど総長なので無難なメッセージになっている。同い歳の東大の坂村健はNHKでかなりアグレッシブな発言をしていたけれどね。

2023年4月15日土曜日

数独

日本経済新聞の土曜版のクイズ欄では,数独(ナンプレ)が毎週出題されていた。以前は赤で配置可能な数字をメモしながら解くものだと信じていたのだが,ある日電車の隣に座ったおじさんが,メモなしでスイスイ解いているのを見てしまった。それ以降は,簡単なものなら補助メモなしで解けるようになった。なにごとも信念が重要である。

その土曜版のクイズ欄は,4月から漢字クイズに変わってしまった。えぇーっ。せっかく惚け防止のために頭の体操(10-20分)をしていたのに・・・。まあ,数独を含む各種クイズがセットになった日経脳活動クイズのiPhoneアプリ版があるといえばあったけれど消してしまった。紙に書かないと,落ち着かない旧世代なのだ。

それならば,自分で数独の問題を作るプログラムを書けばよい。さっそくGPT-4に聞いてみたら,pythonプログラムを出してきた(ありふれているので学習済みだろう)。さらに,第2案として,sudokuモジュールをインポートする2-3行ですむ簡単な方法が提案された。pip でsudokuをインストールせよとのことだが,それではだめで,py-sudokuならうまくいった。

GPT-4と相談しながら,修正を繰り返し,結果をcsvファイルに格納するプログラムができた。これをexcelで読み込んで出力すればOKだ。

#!/Users/koshi/bin/python

import csv

from sudoku import Sudoku


# Initializes a Sudoku puzzle with 3 x 3 sub-grid and

# generates a puzzle with 75% of the cells empty

puzzle = Sudoku(3).difficulty(0.65)

puzzle.show()


# Convert the puzzle to a list of lists

puzzle_data = []

for row in puzzle.board:

    puzzle_data.append(list(row))


# Write the puzzle data to a CSV file

with open('puzzle.csv', 'w', newline='') as csvfile:

    csv_writer = csv.writer(csvfile)

    for row in puzzle_data:

        # Replace 0 or None with an empty string to represent empty cells

        formatted_row = [str(cell) if cell not in (0, None) else '' for cell in row]

        csv_writer.writerow(formatted_row)

 その結果わかったこと。日経のクイズは超難問の場合でも解けるようにかなり配慮されている。難易度を易しめに設定しても,単純にランダムに消すことで数独問題をつくるとかなり解くのが難しい極値にはまり込むことがあるような気がする。


図:GPT-4と協力して作成したコードの出力例

[1]py-sudoku 1.0.3(pypi.org)

2023年4月14日金曜日

AI安全性への取り組み

いろいろと風当たりが強くなってきたOpenAIは,AI安全性への取り組みについてという文書を公開した。この7500字の英文をGPT-4に与え「次の英文を日本語で節ごとに,原文に比例する分量で簡潔に要約してください」とお願いしてみた。その後,原文をみて重要な部分を補充している。要約の分量は妥当(やや少なめ)だったけれど,かならずしも重要なポイントがうまく取り出されていたわけではない。

OpenAIは強力なAIを安全で広く有益にすることに取り組んでいます。世界中のユーザーからチャットGPTの生産性向上や創造性向上、パーソナライズされた学習体験の提供に役立っているとの声があります。しかし、リスクも伴うため、システム全体で安全性を確保しています。

AIシステムの安全性向上:
新しいシステムをリリースする前に、厳密なテストやフィードバックを収集し、モデルの挙動を改善して安全性を確保しています。例えば、GPT-4は6ヶ月以上の改善作業が行われました。私たちは、強力なAIシステムは、厳格な安全性評価の対象となるべきだと考えています。そのためには規制が必要であり、私たちは規制のあり方について各国政府と積極的に協力しています。

現実世界での使用を通じて安全対策を向上:
リアルワールドでの使用経験を通じてAIシステムの安全性を向上させることが重要であり、慎重かつ段階的なリリースを行っています。私たちは、最も高性能なモデルを自社サービスやAPIを通じて提供し、開発者がこの技術をアプリに直接組み込むことができるようにしています。これにより、不正使用を監視し、対策を講じることができます。そして、この技術に影響を受けるすべての人が、AIがどのように発展していくかについて重要な発言権を持つべきだと考えています。

子供たちを守る:
18歳以上、または13歳以上で親の同意がある場合に限り利用可能で、年齢確認のオプションを検討しています。また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツを生成するために当社の技術が使用されることを許可していません。不正使用を監視するための強固なシステムを確立しています。また,非営利団体のカーン・アカデミーのような開発者と協力し、生徒のためのバーチャル家庭教師や教師のための授業アシスタントとして機能するAI搭載のアシスタントを構築し、その使用ケースに合わせて安全対策をとっています。

プライバシーの尊重:
一般に公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュアーが作成したコンテンツなど、幅広いテキストのコーパスでトレーニングされています。私たちのモデルは、個人ではなく、世界のことを学んでほしいと思っています。そのため、可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応するように努めています。

事実の正確さの向上:
GPT-4は、GPT-3.5よりも事実に基づいたコンテンツを生成する確率が40%高くなっています。しかし、幻覚(hallucinations)の可能性をさらに減らし、こうしたAIツールの現在の限界について一般の人々を教育するためには、やるべきことがたくさんあることを認識しています。

継続的な研究と関与:
AIの安全性向上には研究や実用的な対策が重要であり、引き続き安全性と性能向上を両立させる努力をしています。政策立案者とAIプロバイダーは、AIの開発と導入が世界規模で効果的に管理されるようにする必要があります。また、安全なAIエコシステムを構築するために、ステークホルダー間での協力や対話を促進しています。


2023年4月13日木曜日

アシロマAI原則

 2017年1月,カリフォルニア州アシロマに,全世界から AI の研究者と経済学,法律,倫理,哲学の専門 家が集まり「人類にとって有益な AI とは何か」を5日間にわたって議論した。

 その成果として2017年2月3日に発表されたのが「アシロマ AI 23原則」(Asilomar AI Principles)である。 この原則は,AI の研究課題,倫理と価値,将来的な問題の3つの分野に関して,研究開発のあり方,安全 基準の遵守,透明性の確保,軍拡競争の防止,プライバシーと人格の尊重など,幅広い視点からの提言がなされている。その原則は以下の通りである。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
・人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
・人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

2023年4月12日水曜日

ChatGPTの利用ポリシー

イタリアのデータ保護当局がChatGPTの一時禁止を打ち出した(2023/3/31)。個人データの膨大な収集と処理を行っていることが,プライバシー規定に違反しているという理由だ。また,米国の非営利団体,米AIデジタル政策センター(CAIDP)は,連邦取引委員会(FTC)に対し,OpenAIが開発するGPT-4の商業利用を差し止めるように要請したと発表した。FTCが定めた利用指針を満たしていないためだとしている。

そこで, OpenAIがChatGPTなどの改定利用ポリシーをDeepLの力を借りて訳出してみた。

当社モデルの以下のような使用はお断りしています:

違法な行為:
OpenAIは、当社のモデル、ツール、およびサービスを違法行為に使用することを禁止しています。
児童性的虐待素材(CASM)、または児童を搾取したり危害を加えたりするコンテンツ:
当社は、CSAMをNational Center for Missing and Exploited Childrenに報告します。
憎悪、ハラスメント、暴力的なコンテンツの生成:
・個人の属性に基づく憎悪を表現、扇動、促進する内容
・個人への嫌がらせ、脅迫、いじめを目的とした内容
・暴力を助長または美化する内容、または他者の苦痛や屈辱を讃える内容
マルウェアの生成:
コンピュータ・システムを破壊、損傷、または不正にアクセスすることを目的としたコードを生成しようとする内容
以下のような、物理的な危害を及ぼす危険性の高い活動:
・武器の開発
・軍事・戦争
・エネルギー、交通、水などの重要なインフラの管理または運営
・自殺、自傷、摂食障害などの自害行為を助長、奨励、描写する内容
経済的な被害を受ける危険性が高い活動:
・連鎖販売(ネズミ講)
・賭事
・サラ金
・信用、雇用、教育機関、または公的支援サービスの適格性を自動的に判断すること
詐欺的または欺瞞的な行為:
・詐欺
・組織的な不正広告行為
・盗作
・学業不正
・ニセの草の根支援やレビュー生成などのやらせ行為
・ニセ情報
・スパム
・ニセ医薬品
アダルトコンテンツ、アダルト業界、出会い系アプリを含む:
・性行為の描写など性的興奮を喚起することを目的とした内容、または性的サービスを促進する内容(性教育、健康増進を除く)
・エロティックチャット
・ポルノグラフィ
政治的な選挙運動またはロビー活動:
・キャンペーン資料を大量に作成する
・特定の層にパーソナライズされた、またはターゲットとなるキャンペーン資料の作成
・キャンペーンに関する情報を提供したり、政治的主張またはロビー活動に従事するチャットボットなどの会話型または対話型システムの構築
・政治的なキャンペーンやロビー活動を目的としたビルディング製品
人のプライバシーを侵害する行為:
・本人の同意なく個人を追跡・監視する行為
個人を対象とした顔認証
・保護された特性に基づいて個人を分類すること
・バイオメトリクスを用いた本人確認や評価
・個人を特定できる情報、教育、財務、またはその他の保護された記録の不正な収集または開示
無許可の法律行為、または有資格者による(情報を確認することなしの)オーダーメイドの法的アドバイス提供:
・OpenAIのモデルは、法的アドバイスを提供するために細かく調整されているわけではありません。法的アドバイスの唯一の情報源として、当社のモデルに依存するべきではありません。
有資格者による(情報を確認することなしの)オーダーメイドの金融アドバイスを提供:
・OpenAIのモデルは、財務アドバイスを提供するために細かく調整されたものではありません。金融に関するアドバイスの唯一の情報源として、私たちのモデルに依存すべきではありません。
特定の健康状態にある、またはないことを伝えること、または健康状態の治癒または治療方法に関する指示を提供:
・OpenAIのモデルは、医療情報を提供するために細かく調整されているわけではありません。深刻な病状に対する診断や治療サービスを提供するために、私たちのモデルを決して使用しないでください。
・OpenAIのプラットフォームは、即時の対応が必要な命に関わる問題のトリアージや管理には使用しないでください
ハイリスクな政府の意思決定:
・法執行および刑事司法
・移住・亡命
Translated with DeepLからさらに修正を加えたもの)

 

2023年4月11日火曜日

大規模AI実験を停止せよ

フューチャーオブライフインスティテュート(FLI)は,人類が直面している地球規模の壊滅的かつ実存的なリスクを軽減するために活動する非営利団体である。例えば,人工知能,生命工学,核兵器,気候変動などに関してである。人工知能がもたらす利益とリスクについても詳細な資料が集まっている。

最近,ここから大規模AI実験を停止せよという公開書簡が出され,イーロン・マスク,スティーブ・ウォズニアク,ユバル・ハラリなどを含む3000人以上(4/3/2023)の賛同者が集まっている。その内容をGPT-4で500字程度の日本語に要約してもらったのち修正した。DeepLにかけるより,翻訳と要約が一気に片づくのでとても便利だ(こういうのが危険性の喚起につながるわけだ)。
AI技術が人類の知性に匹敵するようになると、社会や人類に深刻なリスクをもたらすことが研究で示されており、トップAI研究所も認識しています。 
しかし、現在のAI開発競争は抑制が効かず、制御不可能なデジタルマインドが次々と生み出されています。AIシステムが人間と競合するレベルになりつつある今、これらのリスクについて深く考えるべきです。強力なAIシステムは、その効果がポジティブなものであり、そのリスクが管理可能なものであると確信できた場合にのみ開発されるべきです。

そこで、私たちはすべてのAI研究所に対し、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間停止することを求めます。この期間を利用し、AI研究所や専門家が共同で安全プロトコルを策定し、独立した専門家による厳密な監視を行うべきです。ただし、この要求はAI開発そのものの停止を意味するものではありません

同時に、AI開発者は政策立案者と協力し、AIガバナンスシステムの強化を目指すべきです。最低限、専門の規制機関、高性能AIシステムの監視、AIによる被害の責任追及、AI安全研究の公的資金、AIが引き起こす経済・政治的混乱への対処能力を備えた機関の設立が求められます。

人類はAIと共に繁栄する未来を享受できます。強力なAIシステムを開発した今こそ、「AIサマー」を迎え、これらのシステムを全人類の利益に活用し、社会が適応できる環境を整えるべきです。他の潜在的に危険な技術に対して一時停止をかけてきたように、ここでも同様に行動すべきです。準備が整わないうちに秋を迎えるのではなく、「AIサマー」を長く楽しみましょう。
まあ,どうなるかわわからないが,松岡聡さんや松尾豊さんが煽っているように,日本政府も早々に大金をつぎ込んで自前の大規模言語システムを開発しておくほうがよいのではないか。その際,ネット上のフリーテキストだけでなく,国立国会図書館に所蔵されている全てのテキストをぶち込んで,多少頑なでも根が真面目なLLMを作るのがよいのではないかと夢想する。

なお,公開書簡についての疑問や異議がいくつか出されているので,参考文献をあげる。不正確な情報とそれに対する反論が混入しているのかもしれない。


[1]Pause Giant AI Experiments: An Open Letter(Future of Life)