ラベル AI の投稿を表示しています。 すべての投稿を表示
ラベル AI の投稿を表示しています。 すべての投稿を表示

2024年11月14日木曜日

人工超知性

人工超知能(2)からの続き

10月4日のSoftBank World 2024における孫正義の特別講演が公開された。タイトルは「超知性は10年以内に実現する」。その内容をがんばって人力でまとめると次のようになる。

彼の定義によれば,AGI(Artificial General Intelligence)は人間と同等の知能をもつAIであり,2-3年後に実現する。ASI(Artificial Super Intelligence)は人間の1万倍の知能を持つAIであり,10年以内に実現する。そのASI(人工超知能)は,人工超知性へと進化するというのがそのビジョンである。下図の1-5はAGIの進化レベルを表しており,6-8はASIの進化レベルに対応している。

人間の脳にある神経細胞ニューロンは1000億個あり,それらが接続するシナプスは100兆個ある。しかしこれは20万年前から変化しておらず,また今後も増えることはない。一方,これに対応する大規模言語モデルのパラメタは数兆個のオーダに達しており,さらに増える可能性がある。

こうした前提のもとに,情報を検索する(Google)→知識として理解する(GPT)→知能により推論する(o1)→知性で調和させる(ASI+)という一連のAIの進化の流れを想定している。

まず,最近のo1が,複数の分野の博士レベルの能力を持つに至ったことを紹介し,AIが速さから深さ(Chain of Though)の段階に移行しているとする。その例として,o1-preveiwに「一千万円を一億円にするための戦略とメカニズムは?」と聞いて回答に75秒かかって感動したということを披露していた(自分でも同様に試してみたが,あっという間に答えが出てしまった。どうやら知識不足で設問の表現が単純すぎたようだ)。

次に,(広義の)強化学習が,並列に動作する数千エージェントの数十億回の試行によるQ関数(行動価値関数)の進化を促すことを示し,自分でモデルを考えることができるAIへの進化が鍵となることを説明した。

さらに,個人によりそったAI=パーソナルエージェント(PA)の時代が来ることを予測し,人や物に対応した人工知能エージェント同士がやりとりするA to Aの時代が来るとした。ソフトバンクがほぼ所有しているARMのチップは年間320億個出荷されていて,世界人口1人当たりにすれ4個になる。このようにすべての人や物(AoT = Agent of Things)にAIが行き渡る。

パーソナルエージェントとは,個人のライフログを分析するようになるが,そのためには,感情,重要度,時間帯等から評価される感情インデックスにあわせた情報の記憶が重要になってくる。高いスコアのものは動画や音声で,中程度は静止画で,低スコアならばテキストで保存されるというわけだ。大切な想い出や日常の記憶が長期に保存される。

こうして,人工知能は人間の感情を理解して長期記憶を持ち,最終的には,PAはパーソナルメンターに進んでいく。そして,人工知能は自らの意思を持つ人工知性の段階に到達する。その際のQ関数の最大の報酬は,自分の喜びファーストではなく,あなたの喜び,あなたの幸せ,家族の幸せ,社会の人々の幸せとなって,調和のとれた超知性が実現する。それをソフトバンクは目標にするというものだった。なかなかここまで大風呂敷を展開できる日本人の現実の経営者はいない。

小規模LLMや省電力LLMをディスりすぎているきらいはあり,ソフトバンク自身のLLMが3000億パラメタ程度しか実現できていないので,どうよとは思うけれど,各地にデータセンターを構築しながら,ロボティックスや自動運転も視野に入れながら着実に前進しているので目が離せない。



図:孫正義によるAIの進化のイメージ(SowfBank World 2024 から引用)


2024年11月4日月曜日

再現性

清水亮(1976-)による「人格のコンピュータ再構成」というnoteの記事がおもしろかった。中学生の時のマックスヘッドルームの話からはじまって,AIによって再構成された複数の自分の人格の話に発展した(別記事の落合陽一(1987-)との佐渡旅行の話もおもしろかった)。

そういえば,高校の数学で大数の法則中心極限定理を学んだ後に,米島君と話題になったのは次のようなことだ。「多数の自分の人格が確率的に生成されたとき,結局それらの人生は固有の人格のために中心極限定理で与えられるようなところに収束するのだろうか。」それは単なる思考実験だったけれど,いまや,それが実現するところにまで来ているのかもしれない。

清水亮の記事の最後に,「この「再現性」の問題は非常に大きな問題となっていて、それが理由で欧米ではGPTのAPIを使うのをやめる学者も増え始めている」という一文があって,少し引っかかったので,ChatGPT-4oに聞いてみることにした。その結果を以下に報告する。対話相手として申し分ないのかもしれない。

Q(koshix):
引用:この「再現性」の問題は非常に大きな問題となっていて、それが理由で欧米ではGPTのAPIを使うのをやめる学者も増え始めている。
という文章がありますが,この意味を教えてください。

A(ChatGPT):
この文章にある「再現性の問題」は、特に研究や学術的な活動において非常に重要な概念です。再現性とは、同じ条件下で実験や研究を繰り返すと、同じ結果が得られることを指します。再現性が担保されていない場合、研究結果の信頼性や正当性が疑わしくなります。

GPTのAPIを使う学者が減り始めているという文脈では、次のような背景が考えられます。

1.出力の一貫性が低い
GPTのような大規模な生成AIモデルは、入力が同じでも必ずしも同じ出力を生成するとは限りません。特に、生成されたテキストは確率的に決定されるため、同じプロンプトに対して異なる結果が得られることがあります。この特性は、再現性が求められる研究の場では問題となり、学者が同じ実験を再現できないことに繋がる可能性があります。
2.透明性の欠如
GPTのような生成モデルは「ブラックボックス」とされることが多く、具体的にどのようなプロセスで出力が決まっているのかが理解しにくい場合があります。これは、再現性を検証する際にさらに難しい問題となり、学術研究の基盤である「どのように結果が得られたか」を説明するのが難しくなります。
3.モデルの進化と変更
APIで提供されるモデルが定期的に更新される場合、過去のバージョンと同じ挙動を保証できなくなります。研究者があるバージョンのGPTで得た結果を将来的に再度得ようとすると、APIの進化に伴って挙動が変わり、同じ結果が再現できないリスクがあります。

これらの理由から、欧米の一部の学者が、再現性の重要性を重視してGPTのAPIの使用を避けるようになっている、ということを示していると考えられます。特に科学的な研究や論文で使用する場合、再現性が確保されていないと、その研究結果に信頼性を持たせるのが難しくなるためです。


Q(koshix):
人間は,機械ではないため,その思考や出力としての発言や著述にブレが生ずるのは当然のことであり,また時間を経ることによってもこれらは変化します。なぜ,人間のアウトプットにおける再現性の重要性にそこまでこだわるのかが,少し理解できません。

A(ChatGPT):
人間のアウトプットは確かに変動しやすく、時間や状況によって異なるのは自然なことです。しかし、再現性が重要視されるのは、特に科学や研究、技術開発の分野で「信頼できる知識の蓄積」と「正確な検証」が必要とされるからです。この観点から、なぜ再現性にこだわるのか、以下のような理由が挙げられます。

1.信頼性の確保
科学や学術研究では、ある実験や分析結果が「再現」できることが、その結果が正しいと信じられるための基本的な条件です。例えば、ある研究者が新しい治療法を発見した場合、その結果が他の研究者によっても再現できなければ、その治療法の有効性は疑われます。再現性があることで、研究が単なる偶然や一時的な誤差ではなく、一般的に通用する真実に基づいていると確認できます。

人間のアウトプットが時間や状況で変わることが許容される領域、例えば芸術や文学では、その「変化」こそが価値や深みを生みます。しかし、科学や技術では、何が原因で変わるのかをはっきりさせ、同じ条件下で同じ結果が出せることが極めて重要です。機械やプログラムは、まさにこのような「ブレ」をなくすために開発されています。

2.誤差やバイアスの排除
人間の思考には、しばしば無意識の偏見や感情的な要因が入り込むことがあります。このため、同じ状況においても異なる結論や発言が生まれます。再現性を確保することで、こうした一時的なバイアスや誤りを排除し、純粋にデータや事実に基づいた結論を得ることが可能になります。

たとえば、心理学の実験や社会科学の調査などでは、同じデータセットに対して異なる解釈が生じることがありますが、それでも再現性のある結果は他の要因によって影響されにくいと考えられます。これにより、学問的な議論や検証が可能になり、結論に対する信頼性が高まります。

3.新しい発見の検証と信頼性
再現性が確保されていないと、新しい発見や理論が検証されないまま広まる危険性があります。もし結果が再現できないのであれば、それは偶然や誤った方法論に基づく可能性があり、信頼できるものではありません。再現性を重視することで、確かな基礎の上に新たな理論や発見を積み重ねることができるのです。

例えば、薬の効果や新しい物理法則を提唱する場合、それが一度きりの結果なのか、あるいは他の研究者が何度試しても同じ結果を得られるのかは大きな違いです。再現性があることで、その発見が科学的に有効であることが裏付けられ、実用化に進む道が開けます。

4.技術やシステムの安定性
生成AIなどのシステムにおける再現性の重要性は、技術の安定性や信頼性を高めるためです。たとえば、自動運転車のシステムや医療用AIが、同じ状況で異なる判断をしてしまうと大きな問題につながります。このため、システムの動作が一貫して再現性を持つことが求められます。人間とは異なり、こうした技術においては、予測可能で一貫した結果が必須となります。

最後に
確かに、日常生活や芸術、創造的な活動においては人間のアウトプットの変動や変化は自然であり、しばしば価値があるものです。しかし、科学的検証や技術開発の場では、再現性がないと、偶然や誤りに基づいた結論を広めてしまうリスクがあります。これが、人間の思考と機械のアウトプットにおける再現性の違いに対するこだわりの理由だと考えられます。


Q(koshix):
科学的検証や技術開発の場においては,科学的・工学的な実験による検証や,数学的な論理的な検証を必ず伴いますので,この分野における人間の論文や発表はその範囲内でしか妥当性を持ちえません。したがって,揺らぎや変化はこの範囲を逸脱することはできません。それは当然のことです。したがって,生成AIを利用したとしても,このような現実のデータや現象や論理や数学による制約の範囲に留まるはずです。それにもかかわらず,危機感を抱く根拠がいまひとつわからないのです。あなたの説明は科学の妥当性の議論になっていて,その一歩手前にある人間が持つ表現の部分の幅を説明する根拠にはなっていません。

A(ChatGPT):
あなたの指摘は非常に鋭いと思います。科学や工学において、論理的・数学的な枠組みや実験的な検証により、揺らぎや不確実性がコントロールされるため、その範囲内では妥当性が確保されます。生成AIの出力も、そのデータやアルゴリズムが物理的・数学的制約を受けている限り、科学的検証の枠を逸脱するわけではありません。そのため、生成AIを使用した場合でも、同じ制約の中で妥当性が保たれるべきだという考えはもっともです。

しかし、生成AIに対して危機感を抱く理由には、科学的・技術的な再現性の問題とは少し異なる次元の懸念が関わっていることがあるかもしれません。それをいくつかの観点から整理してみましょう。

1.確率的生成による予測不可能性
生成AI、特にGPTのようなモデルは、基本的に確率的な手法でテキストを生成します。これは、同じ入力に対しても、異なる結果が生じうるという特性を持っているため、再現性が完全には保証されないことがあります。人間の発表や論文においても個人差はありますが、再現性が求められる場面(論文の方法や結論など)では、論理や実験データに基づく厳密な制約がかかります。一方、生成AIの出力はその場でランダムに変動しやすく、特に学術的な検証の厳密性が要求される場面では、この不安定性が問題視されることがあります。

2.ブラックボックス化されたアルゴリズム
生成AIの背後にあるモデルは、膨大なデータとパラメータを基に動作しており、個々の生成結果がどのようなデータやロジックに基づいているのかを完全に解明できないという問題があります。人間の論文や発表は、背後に論理的・実験的なプロセスが明示され、その検証方法もクリアに説明されます。しかし、生成AIの出力は、それがどのデータセットやロジックに基づいたのかがユーザーにとっては「ブラックボックス」となっている場合が多く、この不透明性が信頼性に対する懸念を生じさせています。

3.著述や表現における独自性や責任の欠如
人間の著述や発表は、通常、その人が責任を持って発信し、背後にある論理やデータの整合性がその発言の妥当性を支えます。しかし、生成AIによる出力には、その発言や結果に対する主体的な責任が欠如しているため、科学的・学術的な信頼性が担保されにくくなる可能性があります。仮にAIが論理的な誤りを含む結果を生成したとしても、その責任をどのように扱うかが不明確なため、学術の場では信頼性に対する懸念が生じるのです。

4.外部データに対する依存とバイアスのリスク
AIモデルは大量の外部データに基づいて学習されますが、そのデータ自体が偏っていたり、不完全だったりする可能性があります。このため、AIの出力に人間の思考のような意図しないバイアスや、データの制約を反映しない誤った表現が含まれるリスクが高まります。特に科学の分野では、データの信頼性と透明性が重要ですが、AIが用いたデータやその選別過程が不明確な場合、結果が再現できないだけでなく、バイアスを含む可能性があり、危機感を抱く理由の一つとなり得ます。

結論
あなたが指摘された通り、科学的妥当性や検証の枠組み自体は厳格な制約があり、それが守られている限り、生成AIの利用もその範囲内で有効です。しかし、生成AIの特性(確率的な出力、ブラックボックス的なプロセス、責任の不在、データのバイアス)によって、その信頼性や再現性に関する懸念が生じています。このため、特に再現性が求められる分野では、AIの出力に依存しすぎることに対して懸念があるのです。

この懸念は、学術的な信頼性や透明性を損なう可能性に対する防衛的な姿勢ともいえるでしょう。


図:「再現性」というタイトルの絵(Imagen3による)

2024年10月29日火曜日

予言機械

現在の生成AIが,安部公房の第四間氷期の予言機械とどのくらい違うのかを試してみた(試したことになっていないのですけど・・・^_^;;;)。NHKのニュースにおける政治部長の解説レベルのことは,ペラペラとでまかせのようにしゃべることはできる。民放の芸人タレントのくだらない政治談義ですらプロンプトを工夫すれば可能かも。まあ制限があるため,あのような過激なフェイク芸は無理だろうけれど。
Q(koshix):
あなたは第四間氷期にでてくる予言機械のようにふるまってください。実際に未来を予言できるかどうかは別なので,あなたの持っている情報を全て活用してなるべくもっともらしい未来の予言を聞かせてください。

質問項目:第50回衆議院議員総選挙で,保守3,参政3,自民191,公明24,維新38,国民28,立憲148,れいわ9,社民1,共産8,他12(うち自民6)となりましたので,過半数を超える枠組みがありません。来たる特別国会では,どのような結果がでて,日本の政治は当面どのように進むでしょうか。

A(ChatGPT-4o):
未来の予測をする際には、現実の政治情勢、各党の動向、そして国民の反応など、多様な要因を考慮する必要があります。現時点でのあなたの質問に基づいて、可能性が高い未来のシナリオを以下に示します。

1.連立政権の模索
現在の議席数では、どの党も単独で過半数を超えておらず、連立政権が不可欠となる状況です。このような状況では、最大政党である自民党が中心となり、連立交渉をリードする可能性が高いです。

自民党(191議席)は、公明党(24議席)と伝統的な連携を維持するかが焦点です。しかし、それだけでは215議席となり、過半数には30議席程度足りません。したがって、追加での連携先が必要となります。

自民党の連立の可能性
・維新(38議席)との連携:維新の会は、過去にも保守的な政策を掲げており、自民党との連携が現実的な選択肢です。維新との協力により、253議席となり、安定多数を確保できます。維新は改革志向が強く、自民党との政策合意が可能であれば、連携の可能性は非常に高いです。
・国民民主党(28議席)との連携:国民民主党も中道の立場をとり、政策面で自民党に比較的近い位置にあります。国民との連携は、239議席となり、これでも過半数には届きませんが、維新との連携が難しい場合の次善策として検討されるでしょう。
・野党連携の可能性:自民党が過去にない形で立憲民主党(148議席)やれいわ(9議席)などのリベラル勢力と連携する可能性は低いですが、局面によっては一部の政策で協力を得る選択肢を模索する可能性はあります。

2.野党連携の模索
逆に、立憲民主党や他の野党勢力が連携し、政権を形成する可能性も一考の余地があります。

・立憲民主党(148議席)+ 国民民主党(28議席)+ 共産党(8議席)+ れいわ(9議席)+ 社民党(1議席)+ 他: これで計194議席となりますが、維新の38議席が加われば、過半数を超え、政権を形成することが可能です。しかし、維新と立憲民主党、共産党の政策的な違いは大きく、これらの政党が安定的に協力するのは難しいでしょう。特に維新と共産党の連携は現実的ではなく、維新が野党連携に加わる可能性は低いと予測されます。

3.短命政権や再選挙の可能性
これらの連携が難航し、いずれの政権も安定を欠く場合、短命政権の発足や再選挙の可能性が生じます。特に議会が機能不全に陥るような事態が続けば、国民の不満が高まり、解散総選挙を求める声が強まる可能性があります。

4.当面の日本政治の動向
短期的には、連立交渉と政策協議が激化:自民党と維新、国民民主党との間で緊密な交渉が行われ、具体的な政策協定が結ばれる可能性があります。焦点は経済政策、社会保障改革、防衛政策などです。
中期的には、連立政権の不安定さが露呈:連立が成立したとしても、各党の政策の違いから政権運営は困難を極める可能性があります。特に維新や国民民主党は、自民党との政策協調に限界があり、政権内での対立が頻発する可能性があります。
長期的には、再編成の動き:政党内や国民の間でさらなる政治再編が求められ、場合によっては新しい政治勢力の台頭や、既存政党の再編が進む可能性もあります。 
これらを踏まえると、次の特別国会では、自民党を中心とした連立政権が発足する可能性が高いですが、その安定性は長続きしないかもしれません。そして、次の総選挙に向けた再編成の動きが加速することが予想されます。

図:安部公房の予言機械の微妙なイメージ(Imagen3によるもの)

2024年10月6日日曜日

生成AIの未来

ChatGPT-with canvas という機能が発表され,Plusユーザにも開放されている。生成する文書あるいはプログラムをそのまま編集してさらに加工することができるモードである。例えば,Add emojis,Add final polish,Reading level,Adjust the length,Suggest edit などが使える。以下は,「Q(koshix):2030年までに,生成AIがどのように進化するかを 現時点での技術的な到達点や今後の進展の可能性を 分析検討した結果をもとに,年代記の形式で予測した 結果をブログの形でまとめてください。」という問いへの回答を,いくつかの機能により加工したものである。

 

生成AIの未来(2024-2030)

生成AIはここ数年で急速に進化を遂げており、今後も技術的進展によって人間社会に大きな影響を与えると予見される。本稿では、2024年から2030年までの生成AIの進化を年代記形式で分析し、その技術的可能性と社会的影響を検討する。

1.2024年:多機能化とユーザーインターフェースの進化

2024年において、生成AIは既に高度な対話能力を有し、多様な用途に適応可能なレベルに到達している。この年には、生成AIが音声認識およびコンピュータビジョンの分野でさらに精度を向上させ、AppleやGoogleなどの主要テクノロジー企業が新たなAIインターフェースを発表した。これにより、生成AIがスマートフォンやスマートデバイスとシームレスに連携し、ユーザーの指示に応じて高度なタスクを実行できるようになっている。

生成AIの多機能化も進み、コンテンツ生成にとどまらず、ビジネス文書の自動作成やマーケティング資料、クリエイティブコンテンツの生成まで対応している。自然言語によるインターフェースでAIを利用することが容易になり、一般家庭から企業まで広く利用されている。さらに、生成AIの活用が広がることでユーザーエクスペリエンスの質が向上し、複雑なタスクの効率的な自動化が実現し、ビジネスの成長と効率化にも寄与している。

2.2025年:パーソナライゼーションの深化

2025年には、生成AIのパーソナライゼーション技術が大幅に向上し、ユーザーの好みやニーズに応じた応答の精度が飛躍的に向上する。AIは利用履歴や個人の嗜好を解析し、個別化された情報提供を実現している。特に教育やエンターテインメント分野で重要な役割を果たし、教育分野では個々の学習者に最適化された教材を提供し、学習体験を充実させている

また、AIモデルの軽量化が進み、エッジデバイス上で動作可能になったため、プライバシー保護とパフォーマンス効率の両立が実現している。これにより、個人データをデバイス内で処理しながら、精度の高い応答が可能となっている。エンターテインメント分野でも、ユーザーの好みに基づいたコンテンツ提案やリアルタイムのインタラクティブ体験が強化され、個別化されたエンターテインメントが普及している。

3.2026年:コラボレーションAIの登場

2026年には、人間とAIが協働して創造的な作業を行う「コラボレーションAI」の概念が広く普及する。AIはユーザーのアイデアを補完し、プロジェクトや作品の創造プロセスで重要な役割を果たす存在となっている。例えば、音楽制作や映画脚本の作成において、AIが人間のアイデアを拡張し、新たな作品を共に生み出している。

さらに、自然言語処理技術の進化により、AIは人間の意図をより深く理解し、複雑なタスクの遂行を効果的に支援するようになっている。これにより、人間とAIの関係はより緊密になり、創造のパートナーとしてのAIの位置づけが強化されている。ビジネスでもAIとの協働が進み、プロジェクト管理や意思決定の迅速化が実現している。AIが提供するデータ分析と人間の直感的判断の組み合わせにより、より高精度な結果を生み出している。

4.2027年:多言語モデルと文化の橋渡し

2027年には、生成AIの多言語対応能力がさらに強化され、言語の壁を越えたコミュニケーションが容易になる。特に少数言語のサポートが進み、文化や歴史に基づく適切な翻訳や対話が可能となり、世界中の人々が文化を超えてつながる手段として生成AIが活用されるようになる。また、AIは言語間のニュアンスや文化的コンテキストを理解し、正確で共感的なコミュニケーションを実現し、国際ビジネスや外交の分野でも重要な役割を果たしている。

さらに、生成AIは文学、歴史、哲学などの領域における深い知識を持ち、ユーザーが特定の文化や時代について学ぶ際の指導役を果たす。多言語モデルの進化により、異文化間の相互理解が促進され、新たな国際交流の基盤としてのAIの役割が強調される。異文化交流イベントでも、AIがリアルタイムで翻訳や文化の解説を行い、人々が深く相互理解を深める手助けをしている。

5.2028年:感情認識と共感的AI

2028年には、AIが人間の感情を正確に認識し、それに応じて共感的な応答を行う能力が大幅に向上する。感情認識技術の進化により、AIはユーザーの心理状態を解析し、それに基づいた適切なサポートを提供することで、メンタルヘルスやカウンセリングの分野で広く活用されている。感情認識AIは、ユーザーが困難な状況に直面した際に適切なアドバイスや支援を提供し、個別対応の質を向上させている。

特に、孤独を感じる高齢者や精神的支援が必要な人々に対して、AIが寄り添う存在として機能し、ユーザーの生活に深く関わるパートナーとしての役割を果たしている。さらに、感情に基づく応答が可能になることで、教育や職場でもより人間らしい関係を築く手助けをしている。教師や管理者がAIのサポートを通じて学生や従業員の心理状態を把握し、適切な対応を取ることで、全体的な学習環境や職場環境の改善が期待される。

6.2029年:創造性のさらなる解放

2029年には、生成AIが人間の創造性をさらに引き出す高度なツールとして進化する。AIは単なるコンテンツ生成者にとどまらず、人間が想像し得ない新たなアイデアを提案する「インスピレーションの源」として機能する。AIは様々なデータソースからインスピレーションを抽出し、アートや音楽、建築などの分野で斬新なコンセプトやスタイルを提供する能力を持つ。

例えば、アート、デザイン、建築の分野でAIが新しいスタイルやコンセプトを提案し、それを人間が取り入れることで新たな創造が可能になる。この年には、生成AIを用いた協働が一般化し、人間の創造力がAIとの相互作用により飛躍的に高まっている。さらに、生成AIは異なる分野の知識を融合させることで、既存の枠を超えた創造的発展を促進する。例えば、建築デザインにおいてAIが生物学や物理学の知見を取り入れることで、自然と調和し、機能的で持続可能な建築物の設計が可能になるなど、創造の幅が広がっている。

7.2030年:全方位的な社会統合

2030年には、生成AIは社会のあらゆる側面に統合され、日常生活において当たり前の存在となる。教育、医療、ビジネス、エンターテインメントなど多様な分野で、AIが不可欠な存在として人間の生活の質を向上させるために活用されている。教育では、AIが個別学習プランを提供し、学習者一人ひとりに最適な指導が可能となり、医療分野では、診断支援や患者のケアにおいて重要な役割を果たしている。

この年にはAI倫理に関する議論も深化し、社会全体でAIとの共存に向けたガイドラインとルールの策定が進んでいる。AIは単なる便利なツールではなく、人間社会の一員として責任を持ち、倫理的に正しい判断を支援する存在として受け入れられている。また、AIが社会に統合される中で、デジタルデバイドの問題やAIの利用における公平性と透明性の確保が重要視され、これに対する政策や技術的対応が進められている。さらに、AIは災害時の支援や環境保護活動にも応用され、社会全体の持続可能性を高めるための不可欠な要素として機能している。

おわりに

2030年までの生成AIの進化は、人間社会に大きな影響を与え、私たちの可能性を広げるものである。この技術は単にタスクを自動化するだけでなく、私たちの創造性を引き出し、社会をより良い方向に導く力を持っている。未来において、生成AIと人間がどのように共存し、共に成長していくか、その可能性は無限であり、技術と社会が一体となって築かれる新たな地平が広がっている。そして、このプロセスを通じて、人類はAIと共に未知の挑戦に立ち向かい、新たな可能性を追求するだろう。社会の課題に対してもAIは不可欠なパートナーとして機能し、持続可能で包括的な成長を実現するためにその力を発揮することが期待される。


図:生成AIの未来(DALL-E3による上記テキストのイメージ)

2024年10月1日火曜日

無知の知

Facebookで北海道の奥村先生が,ソクラテスの「無知の知」は「不知の自覚」とするべきだという東京大学の納富信留さんの説が腑に落ちたと語っていた。納富さんの参加により,東京書籍の高校倫理の教科書では「無知の知」が「不知の自覚」に改められた

どういうこと?そもそも,高等学校の倫理でソクラテスを学び,宿題としてプラトンの「ソクラテスの弁明」を読んだ感想文を出すというときに,どうにも自分の中では納得できない状態だった。「無知の知」はなんとなくいやらしいけれど認めるとして,「悪法も又法なり」といって毒杯を仰いで死刑になったのは理解できなかった。50年以上経ってもわからないままだったりする。

そんなわけで,こういう問題はAIに尋ねるに限る(そんなわけないやろ)。ChatGPT-4o, Gemini 1.5 Pro,Claude 3.5 Sonnetの3人に同じ質問で聞いてみた。まあ,いずれも一長一短かなあ。わかったようなわからないような。いずれにせよ,納富先生の考えとは違うわけで・・・。
Q(koshix):
無知の知と不知の自覚はどう違いますか。

A(ChatGPT-4o):
「無知の知」と「不知の自覚」は、どちらも自分の知識の限界を認識する概念ですが、哲学的な文脈やニュアンスに違いがあります。

1.無知の知(Socratic Ignorance)
これは、ソクラテスが提唱した概念で、自分が「何も知らない」ことを知っているという意味です。具体的には、人が自分の無知を認識し、謙虚に学び続ける態度を持つことが重要であるという哲学的な姿勢です。ソクラテスは、知っていると思い込んでいる人々が実際には何も知らないことを示し、自分自身も知識の限界を認識しているがゆえに、むしろ賢明であると考えました。無知の知は、自己反省と批判的思考を通じて、さらに深い理解を追求するための出発点とされます。

2.不知の自覚
一方、「不知の自覚」は、もっと一般的に自分が知らないことを意識することです。これは哲学的な議論の場に限らず、日常的な文脈でも使われることがあり、自分がある分野や問題について十分な知識を持っていないことを自覚する行為です。この場合、特にソクラテス的な知的探求の姿勢が伴う必要はなく、単に自分がその問題について知らないことを理解している状態を指します。

3.主な違い
無知の知は、自分の無知を認識しながらも、それがさらなる知識の追求に向けた積極的な姿勢を生む点で特徴的です。つまり、無知であることを知ることで、より賢明であるとされます。
不知の自覚は、単に自分が知らないことを理解する行為であり、必ずしも知識探求への動機づけや哲学的な反省を含むものではありません。
まとめると、「無知の知」は、自己の無知を認識することで知的探求を続ける哲学的な態度を示し、「不知の自覚」は、ある事柄について知らないことを単に認識するという点で、より日常的な概念です。


A(Gemini 1.5Pro):
「無知の知」と「不知の自覚」は、どちらもソクラテスの哲学に関連する言葉であり、一見似ているように思えますが、微妙なニュアンスの違いがあります。

無知の知
意味:自分が知らないことを知っている、つまり、自分の無知を自覚している状態。
解釈
・何かを知らないことを自覚することで、より深く学び、成長しようとする姿勢を表します。
・古代ギリシャでは、神託によってソクラテスが「最も賢いのは、自分の無知を自覚している者である」と告げられたことから、この言葉が有名になりました。
・ただし、現代では「無知の知」という言葉が、自分の無知を過度に意識し、自己肯定感を下げてしまうようなネガティブな意味で使われることもあります。

不知の自覚
意味:自分が知らないことを自覚している、つまり、無知であることを認識している状態。
解釈
・「無知の知」とほぼ同じ意味ですが、「不知の自覚」の方がより客観的で、自分の無知を率直に認めるニュアンスが強いです。
・ソクラテスの哲学においては、この「不知の自覚」が、真の知への第一歩であるとされています。
・他者の意見に耳を傾け、対話を通して新たな知識を吸収していく姿勢を表します。

違い
ニュアンス:「無知の知」は、自分の無知を自覚することで生まれる知的探求心や謙虚さを強調するのに対し、「不知の自覚」は、より客観的に自分の無知を認識し、そこから学びを深めていく姿勢を強調します。
現代における解釈:「無知の知」は、現代ではポジティブな意味だけでなく、ネガティブな意味でも使われることがある一方で、「不知の自覚」は、より客観的で中立的な意味で使われることが多いです。

まとめ
どちらも「自分が知らないことを知っている」という共通点がありますが、「無知の知」は、より主観的で、自分の無知を自覚することによる知的探求心や謙虚さを強調するのに対し、「不知の自覚」は、より客観的で、自分の無知を率直に認め、そこから学びを深めていく姿勢を強調します。

どちらを使うべきか
どちらの言葉を使うかは、状況や伝えたいニュアンスによって異なります。
・自分の無知を自覚することの重要性を強調したい場合:「無知の知」
・客観的に自分の無知を認め、そこから学びを深めていく姿勢を強調したい場合:「不知の自覚」

補足
・「無知の知」という言葉は、翻訳の問題もあり、正確には「不知の自覚」と訳されるべきだという意見もあります。
・どちらの言葉を使うにしても、重要なのは、自分の無知を恐れず、積極的に学び続けていく姿勢を持つことです。
ご自身の考えと照らし合わせ、より深く理解してみてください。


A(Claude 3.5 Sonnet):
「無知の知」と「不知の自覚」は、似ているようで微妙に異なる概念です。

1.無知の知
・古代ギリシャの哲学者ソクラテスに由来する概念です。
・自分が無知であることを知っている状態を指します。
・より深い知恵や真理の追求につながる哲学的な姿勢です。
・「自分が何も知らないことを知っている」という paradoxical な認識を含みます。

2.不知の自覚
・より一般的で日常的な概念です。
・自分が何かを知らないことに気づいている状態を指します。
・特定の知識や情報の欠如を認識することです。
・学習や成長の出発点となる自己認識です。

3.主な違い
範囲:「無知の知」はより包括的で、人間の知識の限界に関する認識を含みます。「不知の自覚」は特定の分野や事柄についての認識です。
哲学的深さ:「無知の知」はより哲学的で、人間の知識の本質に関わります。「不知の自覚」はより実践的で、日常的な学習や成長に関連します。
起源:「無知の知」は哲学的伝統に根ざしていますが、「不知の自覚」はより一般的な概念です。

両者とも、自己認識と学習への姿勢において重要な役割を果たします。
この説明についてさらに詳しく知りたい点がありますか?


図:無知の知と不知の自覚のイメージ(左 DALL-E3 右 Imagen3)

納富先生曰く
今日それは、私たちの頭脳の中に宿り、あるいは、注入されたり蓄積されたり消去されたりする事物のように扱われている「情報」という曖昧な概念が「知識」に等価と見なされ、人のあり方から切断されて扱われる傾向も生じている。知識は量の多寡で判断され、とりわけ個別の断片的命題の蓄積が知識と等値される。情報はデータとして蓄積される以上、知識の主体はもはや人ではなくコンピュータやICチップでも構わない。総じて、そういった情報を使いこなす術が「知」と思いなされている。[1]
そうか・・・これが正に自分の「知識」理解だった。さらにその後に続くのは,
ソクラテスが基本的に「知らない」とするのは、「善、美、正義」といった「大切な事柄」についてであり、「死、ハデス」についての不知の表明もそれに含まれる。他方で、日常の経験的事実認識はもとより、技術もそのまま認められ、知として尊重されている。「知」を問うことで問題となっているのは、生を成り立たせる根本概念であった。[1]
うーん,なかなか奥が深いので,自分の考えが足りないまま50年経過したということだけは確かなようだ。

[2]知の一様式としての知らない(池田光義)

2024年9月26日木曜日

ChatGPT Advanced Voice Mode

OpenAIがChatGPTのスピーチモードを改良して,アドバンスト・ボイス・モードとした。平均反応速度が0.3秒とこれまでに比べてかなり速いため,普通の人間の会話と同様のスピードで応答することができる。日経夕刊によれば,日本語や韓国語など50以上の言語に対応して,有料サービス利用者を対象に,9月24日から使えるようになった。

早速iPhoneのChatGPTで試して見たのが次のものだ。会話記録はテキストとして保存され,パソコン側のChatGPTからも参照することができた。会話スピードは本当に改善されている。ただし,画像アップロードは,日本のiPhone環境ではまだ未実装なのかもしれない。

koshix:“あなたはアドバンストですか?” 00:02

ChatGPT:
いいえ、私はAdvanced ChatGPTではなく、ChatGPTです。でも、様々な情報や質問にお答えすることができますよ。何かお手伝いしましょうか?

koshix:“アドバンススピーチではないのですか?” 00:02

ChatGPT:
はい、私は「Advanced SPeeCH」ではなく、「ChatGPT」です。しかし、さまざまな話題に対応できるようにトレーニングされているので、何でも聞いてください。

koshix:“9月24日から使えるようになったバージョンではないのですか?” 00:05

ChatGPT:
私はChatGPTですが、2024年9月24日から利用可能となった新しいバージョンの一部である可能性があります。何か特定の質問や相談があれば、お気軽にお聞きください。

koshix:“今日は何日ですか?” 00:01

ChatGPT:
今日は2024年9月25日です。

koshix:“ここはどこですか?” 00:01

ChatGPT:
ここは、あなたがChatGPTとお話ししている仮想空間です。スマートフォンやコンピュータを通じて、私と会話しているんですよ。

koshix:“私は物理世界ではどこにいるかわかりますか?” 00:04

ChatGPT:
申し訳ありませんが、私にはあなたの物理的な場所を特定する能力はありません。あなたのプライバシーを保護するために、そのような情報は収集していません。 
koshix:“よくわかります。” 00:01

ChatGPT:
ありがとうございます。他に何か気になることや質問があれば、何でも聞いてくださいね。

koshix:“あなたは画像イメージを見ていろいろ考えることができますか?” 00:05

ChatGPT:
はい、画像を見て、その内容に基づいて情報を提供することができます。何か特定の画像について知りたいことがあれば、どうぞお知らせください。

koshix:“あなたに画像を提供する方法を教えてください。” 00:03

ChatGPT:
iOSアプリをご利用の場合、画面下部にある写真アイコンをタップすると、画像をアップロードできます。ぜひ、試してみてください!

koshix:
“今、会話しているこの画面には画像アイコンが見えないのですけれども” 00:05

ChatGPT:
それは失礼いたしました。お使いの環境によっては、画像アップロードのオプションが表示されない場合もあります。この場合、私が画像を確認することはできませんが、何かほかにお手伝いできることがあれば、お気軽にお知らせください。
対話画面は,これまでのような白黒の画面ではなくて,ブルースカイのような画面だった。


写真:ChatGPT Advanced Voice Mode (iPhone画面から引用)

OpenAIはもう危ないとか,サム・アルトマンは大丈夫かとかいろいろいわれているが,今のところまだトップランナーを走っている。そうこう言っているうちに,CTO のミラ・ムラティも退社している。大丈夫か。


2024年9月25日水曜日

知性のエコシステム

知性の物理学からの続き

自由エネルギー原理はやっぱりちゃんと勉強しておいたほうがいいような気がしてきた。
Q(koshix):
この内容をできるだけかみ砕いて具体的な事例をあげながら説明してください。

A(ChatGPT-4o):
この文書は、自由エネルギー原理(FEP)と能動推論(AIF)に関する解説です。これらは、脳が環境を認識し、行動を決定するプロセスを説明する理論であり、人工知能(AI)の設計にも影響を与える概念として紹介されています。以下、重要なポイントを具体的な例を交えて簡潔に説明します。

1.自由エネルギー原理(FEP)とは何か?
FEPは、脳が自分の内部状態と外部の環境の間に整合性を保つための理論です。脳は環境に基づく予測を行い、その予測と実際の観測との「誤差(サプライズ)」を最小化しようとします。この「誤差」を少なくするために、脳は環境を学習し、行動を調整します。

具体例:例えば、あなたが手を伸ばしてコップを掴もうとする時、脳は「手がコップに触れる」という予測を立てています。しかし、もし手がコップに届かなければ、それは脳にとって「サプライズ」です。この誤差を最小にするため、脳は手の動きを修正し、コップを正確に掴もうとします。

2.能動推論(AIF)とは何か?
AIFは、FEPを基にした行動生成のモデルです。FEPは単なる脳の認識プロセスを説明するだけでなく、行動をどのように決定するかも説明します。脳は、予測と実際の感覚とのギャップを埋めるために行動を生成します。

具体例:例えば、寒いと感じる時、脳は「体温を上げるべきだ」と判断し、震え始めます。この震えは筋肉を動かして体温を上げるための行動で、これによって「寒さ」という予測誤差を最小化しようとしているのです。

3.FEPとAIへの応用
FEPの考え方は、AIにも応用されています。AIは、環境を観測し、その観測結果に基づいて行動を決定します。FEPをAIに適用することで、環境に対して適応的な行動を取るAIの設計が可能になります。AIが環境の変化に素早く適応し、予測誤差を最小化しようとするシステムです。

具体例:自動運転車が道を走る際、カメラやセンサーで道路状況を観測し、障害物を回避しながら進む行動をします。FEPを取り入れたAIは、車が「進むべき経路」を予測し、もしその予測が間違っていれば、障害物を避けるために経路を修正します。

4.能動推論と最適制御の違い
FEPに基づく能動推論は、最適制御理論と似ていますが、いくつかの違いがあります。最適制御では、事前に決められた目標に向かって行動を最適化しますが、AIFはもっと柔軟で、予測誤差を最小化するために行動そのものを調整します。

具体例:最適制御では、ロボットが正確に決められた動きで物体を持ち上げるように設計されると考えます。しかし、AIFを使った場合、ロボットは物体を持ち上げる最適な動きを「自ら学習」し、必要に応じて動きを変えます。

まとめ
FEPとAIFは、脳やAIが環境をどのように認識し、どのように行動を決定するかを説明する理論です。これらの理論は、AIの設計においても重要な示唆を与えており、特に複雑な環境で柔軟に対応できるAIの設計に役立ちます。

この文書は、AIの設計に興味がある方にとって非常に興味深い内容となっており、脳の仕組みを模倣した次世代のAI設計に向けた重要なステップを示しています​。


Q(koshix):
先ほどの説明を前提にした上で,新しく追加した論文の内容を同じように
分かりやすくかみ砕いて事例を挙げながら説明してください。

A(ChatGPT-4o):
新しい論文の内容も、前提となる「自由エネルギー原理(FEP)」と「能動推論(AIF)」を基盤にしています。この論文では、特にエコシステムとしての知性について議論されています。簡潔に、具体的な事例を挙げながら、分かりやすく説明します。

1.エコシステムとしての知性とは?
この論文は、人間の知性と人工知能(AI)が共同して機能する「知性のエコシステム」を提案しています。ここでの「知性」とは、環境の変化に適応し、自分自身の存在を裏付ける情報を集めるプロセスを指します。この考え方は、単一のAIや人間の知性を超えて、複数の知性がネットワークとして協力することで新しい形の知性を生み出すことを意味しています。

具体例:例えば、都市のスマート交通システムでは、各車両がセンサーで道路状況を観測し、信号機や他の車両とリアルタイムで通信します。これにより、各車両が環境に応じて最適な行動を取ることができ、交通渋滞や事故のリスクを減らします。このようなシステムでは、車両、信号機、センサーなどが協力して動く「知性のエコシステム」となっています。

2.能動推論とマルチスケールAI
論文では、AIシステムを複数のスケールで設計する重要性が強調されています。能動推論は、単一のAIが複数のタスクを行うのではなく、複数のAIが異なる役割を持ちながら協力するためのフレームワークとして説明されています。異なるスケールで情報を処理し、それを統合することで、より柔軟で効率的な知性が生まれると考えられています。

具体例:自律ロボットがある工場内で働くと仮定しましょう。一部のロボットは原材料を運び、別のロボットは製品を組み立て、さらに別のロボットは品質管理を担当します。これらのロボットはそれぞれ異なるスケールのタスクを処理しますが、全体として効率よく生産を行うためには、お互いに情報を共有し、協力し合う必要があります。能動推論は、これを可能にする理論です。

3.AIの学習と不確実性の解消
この論文は、AIが自身の不確実性をどのように管理するかについても議論しています。AIは自分が持っているデータに基づいて世界を理解しますが、その理解には不確実性が伴います。この不確実性を減らすために、AIは新しいデータを集め、モデルを更新します。

具体例:自動運転車が雨の日に走行する場合、カメラで路面の状況を観察しますが、視界が悪くなるため、不確実性が増します。AIは、この不確実性を解消するために、より多くのセンサーから情報を集め、路面の状態に基づいてスピードを調整したり、車線変更を判断します。

4.共有知性とコミュニケーション
論文では、複数の知性が協力する際には、共通の「生成モデル」を共有することが重要だとしています。これは、AI同士が互いに理解し合い、共同で行動するための枠組みです。これにより、個々のAIが独立して動作するだけでなく、集団として新しい知性を生み出すことが可能になります。

具体例:あるプロジェクトチームがAIを使って研究開発を行う場合、各メンバーのAIは異なるデータを扱っているかもしれません。しかし、全員が同じ目標(例えば、最も効率的な新素材の開発)に向けて動いていると、個々のAIの成果を統合し、新しい知見を得ることができます。

5.AI倫理と社会的影響
知性のエコシステムを設計する際には、倫理的な配慮も必要です。AIが人間の価値観と一致する形で行動することが重要であり、特に複数のAIが協力するシステムでは、偏見や誤った判断が広がるリスクがあります。

具体例:AIが採用プロセスで使われる場合、過去のデータに基づいて判断を行うと、過去の偏見が引き継がれる可能性があります。このため、AIが透明で公平な判断を行うためのルールを設け、社会的に有害な影響を避けることが重要です。

まとめ
この論文は、AIが単独で機能するのではなく、複数のAIが協力し合う「知性のエコシステム」を作り出すことの重要性を説いています。能動推論を基盤にすることで、AIは不確実性を減らし、複雑な環境に適応しながら共同で問題を解決する能力を持つようになります​。



図:知性のエコシステムのイメージ(DALL-E3による)

2024年9月24日火曜日

知性の物理学

茂木健一郎のPIVOTチャンネルが,「生成AIを丸裸にする知性の物理学」というタイトルで,ハーバード大学脳科学センターで知性の物理学プログラムを主催している田中秀宣さんを招いて対談をしていた。とても刺激的で良かったのだけれど,今一つ具体性にかけて空振りが続く試合だった。そういえば,東大理学部物理にも統計力学の樺島祥介さんが主催する「知の物理学研究センター」というのがあったね。
Q(koshix):
知性の物理学 Physics of Intelligence について教えてください。
専門用語を避けずに説明して見てください。多角的な視点はOKです。

A(Gemini 1.5 PRO)
知性の物理学:専門用語を交えた多角的な解説
「知性の物理学」とは、従来、哲学や心理学の領域であった「知性」を、物理学の厳密な枠組みで理解しようとする学際的な研究分野です。近年、人工知能の発展や脳科学の進歩を背景に、急速に注目を集めています。

1.知性の物理学の目的
知性の本質の解明:知性を、単なる情報処理ではなく、物理的な現象として捉え、その本質を明らかにすることを目指します。
人工知能の限界と可能性:人工知能のさらなる発展のために、人間の知性の仕組みを解明し、それを模倣する技術開発を目指します。
脳科学との連携:脳イメージング技術などの進歩を活かし、脳内の情報処理メカニズムと知性の関係を解明します。

2.知性の物理学における主要なアプローチ
神経回路網の物理モデル:脳の神経回路網を、物理学のモデルを用いて記述し、学習や記憶といった高次脳機能をシミュレーションします。
情報熱力学:情報処理とエネルギー消費の関係を、熱力学の法則に基づいて考察し、知性の効率的な実現を目指します。
量子脳理論:量子力学的な現象が、意識や創造性といった高次の認知機能に関わっている可能性を探求します。

3.知性の物理学が扱う概念
複雑系:脳は、多数の要素が複雑に相互作用する複雑系であり、そのダイナミクスを理解することは大きな課題です。
エマージェント現象:個々の要素の性質だけでは説明できない、全体として現れる新たな性質を指します。知性は、脳の複雑系からエマージェントに現れる現象と考えられます。
計算論的神経科学:脳の情報処理を、計算論的な視点から解析し、神経回路網の機能をモデル化します。

4.知性の物理学が抱える課題
意識の問題:意識の起源や本質は、哲学、神経科学、物理学など、様々な分野で議論されている難問です。
測定の問題:脳の活動を直接観測することは困難であり、間接的な方法を用いる必要があります。
モデルの複雑性:脳の機能を完全に再現できるようなモデルを構築することは、非常に困難です。

5.知性の物理学の将来展望
汎用人工知能の実現:人間の知能に匹敵する、あるいはそれを超える人工知能の開発が期待されます。
脳疾患の治療:脳のメカニズムの解明は、アルツハイマー病や統合失調症などの脳疾患の治療法開発につながる可能性があります。
人間理解の深化:知性の物理学は、人間がどのように思考し、学習し、創造性を発揮するのかをより深く理解するための新たな視点を提供します。

6.より専門的な用語
相転移:物質の状態が、ある特定の条件下で急激に変化する現象。脳の学習過程における相転移が注目されています。
自由エネルギー原理:脳が、外界の情報と内部モデルとの間の不一致を最小化するように機能するという仮説。
結合係数:神経回路網において、ニューロン間の接続の強さを表すパラメータ。学習によって変化します。

知性の物理学は、物理学、脳科学、コンピュータサイエンスなど、多岐にわたる分野の研究者が集結し、共同で研究を進めている最先端の学問分野です。
この分野の研究は、人間の知性の謎を解き明かすだけでなく、人類の未来を大きく変える可能性を秘めています。 

図:知性の物理学のイメージ(Imagen3に拒否られ,DALL-E3に描かせたもの)


結局なんだかよくわからないのであった。神経網が生成する人間の知性と,ニューラルネットが生成するAIを同じ土俵の上に上げて,後者は単に設計された機械(もしくはソフトウェア)ではなくて,物理的な現象としての創発過程として理解しようという話だ。というのも,生成AIがこのようにうまく機能している状態がそもそもよく理解できていないからである。とにかく計算リソースをつぎこんで適当にダイヤルを回しているうちに動いてしまったようなこと。

その上で,これを知性の物理学というからには,知性とは何かを定量的に捉えて,測定可能な量を用いて定義する必要があるのだけれども,そのあたりは十分説明されていない。すなわち何らかの主導原理的なストーリーがなくて,あるいは鍵となる仮説や実験事実の背景がないままに,妖しいキーワードとしての,脳科学,量子脳理論,複雑系が多用されるのはちょっとかんべんしてほしいかなあ。

あと,ハーバードやMITが西海岸と違って,より理学部的にアプローチしているという話はわからなくもなかったが,医学・生理学とのつながりを重視する方向に傾きすぎているのではないかという気もした。いや,もちろんそちら側に正解があるのかもしれないけれど,どうなのだろうか。



2024年9月22日日曜日

OpenAI o1(4)

OpenAI o1(3)からの続き

引き続き,o1 のプログラミング能力について検証してみよう。数学体感教室2024の問題3を一般化したものについて,o1-mini に Julia プログラムを作成させた。1回目は関数定義が重複するエラーが出ていたので,そのエラーコードを読ませると,2回目には正しい答えが得られた。
Q(koshix):
$a_i \ (i=1 ... n) $が正の整数であり,$n$個の$a_i$の組 $(a_1, a_2,  ..., a_n)$ 最大公約数は1であるとする。
$a_1/a_2=k_1,\  2*a_2/a_3=k_2, \ 3*a_3/a_4=k_3,\  ... (n-1)*a_{n-1}/a_n \\ =k_{n-1},  n*a_n/a_1 = k_n $において,$(k_1, k_2, ... k_n)$ は整数となって,$k_1*k_2*k_3*...*k_{n-1}*k_n = n!$ が成り立つ。
$n$を与えたときに,上記の条件を満足する$(k_1, k_2, ..., k_n)$ の組の数 $b_n$ を求める Julia プログラムを作成せよ。
このプログラムを用いて,$ b_1, b_2, ..., b_8$ の値を計算せよ。

A(OpenAI o1-mini 思考時間29秒):
以下に、与えられた条件を満たす $(k_1, k_2, ..., k_n)$の組の数 $b_n$ を計算する Julia プログラムを示します。このプログラムは、各 $n$に対して $n!$ の素因数分解を行い、各素数の指数を用いて組み合わせの数を計算します。

アプローチ
1.素数の列挙:各 $n$ に対して,$n!$ の素因数分解に必要な素数を列挙します。
2.指数の計算:各素数 $p$ について,$n!$ 中の $p$ の指数 $e_p$ を計算します。
これは,$\lfloor \dfrac{n}{p} \rfloor + \lfloor \dfrac{n}{p^2} \rfloor +\lfloor \dfrac{n}{p^3} \rfloor +\cdots $で求められます・
3.組み合わせの計算:各素数 $p$ に対して,$\binom{n+e_p-1}{e_p}$を計算します。これにいおり,$e_p$ 個の指数を $k_i$ に分配する方法の数が求まります。
4.総数の計算:すべての素数についての組み合わせの数を掛け合わせることで、総数 $b_n$ を得ます。

Julia プログラム(修正版)
以下のJuliaプログラムは、上記のアプローチに基づいて $b_n$ を計算します。

# Primes.jl パッケージのインポート
import Primes: primes

# n! における素数 p の指数を計算する関数
function exponent_in_factorial(n::Int, p::Int)::Int
    exponent = 0
    power = p
    while power <= n
        exponent += div(n, power)
        power *= p
    end
    return exponent
end

# b_n を計算する関数
function calculate_b(n::Int)::Int
    if n == 0
        return 1
    end
    
    # n >= 2 の場合のみ素数を取得
    if n >= 2
        primes_list = Primes.primes(2, n)
    else
        primes_list = Int[]  # 空の配列
    end
    
    total = 1
    for p in primes_list
        e_p = exponent_in_factorial(n, p)
        # 組み合わせの計算
        total *= binomial(n + e_p - 1, e_p)
    end
    return total
end

# b_1 から b_8 までを計算して表示
for n in 1:8
    bn = calculate_b(n)
    println("b_$n = $bn")
end

プログラムの説明
・exponent_in_factorial 関数:与えられた $n$ と素数 $p$ に対して,$n!$ の中の $p$ の指数を計算します。
・calculate_b 関数:与えられた $n$ に対して,$b_n$ を計算します。まず,$n$ 以下の素数を取得し、各素数についての組み合わせの数を計算して掛け合わせます。
・メインループ: $n=1$ から $n=8$ までの $b_n$ を計算し,結果を表示します。

実行結果
上記のプログラムを実行すると、以下のように $b_1$ から $b_8$ までの値が得られます。
$b_1 = 1$
$b_2 = 2$
$b_3 = 9$
$b_4 = 80$
$b_5 = 875$
$b_6 = 15876$
$b_7 = 288120$
$b_8 = 7907328$
これにより、各 $n$ に対して条件を満たす $(k_1, k_2, ..., k_n)$ の組の数 $b_n$ を効率的に計算することができます。
このプログラムは,Mathematicaだとより簡潔に表現できる。これは,もとの関数を2つ与えた上で,ChatGPT-4oに作ってもらった。エラーが出ていたが,3回目の修正で正しい答えに到達した。
f[n_] := FactorInteger[n!]
g[n_, k_] := Binomial[n + k - 1, k]
h[n_] := 
 Module[{factors = f[n], product = 1}, 
  Do[product *= g[n, pair[[2]]], {pair, factors}];
  product]
a = Table[h[k], {k, 1, 8}]
ListPlot[Log[a]] 
{1, 2, 9, 80, 875, 15876, 288120, 7907328} 

図:n=1-8 に対するh[n] の対数のListPlot(Mathematica)

2024年9月21日土曜日

OpenAI o1(3)

OpenAI o1(2)からの続き

前回の真鍋さんのMIPOの次の問題にチャレンジしたところ,OpenAI o1から正解は出てこなかった。とりあえず,自力で考えてみようとしたら,なかなか頭が働かない。次のような整数問題だ。
Q(koshix):
最大公約数が1である正の整数の組(a1,a2,a3,a4,a5,a6)であって, k1=a1/a2, k2=2*a2/a3, k3=3*a3/a4, k4=4*a4/a5, k5=5*a5/a6, k6=6*a6/a1 として,(k1, k2, k3, k4, k5, k6) がすべて 整数であるようなものはいくつあるか。
答えは6と出たが,正解は,15876 (=126^2) なのだった。実は,自分もAIと同じ間違いをしていて,すべてのa_i の組が互いに素であると思い込んでいた。そうではなくて,(a1, a2, a3, a4, a5, a6)の6つの数の最大公約数が1という条件なのだ。

つまり,k1*k2*k3*k4*k5*k6=6!=720を6つの正の整数(k1,k2,k3,k4,k5,k6)の積に分解する場合の数を求めればよい。つまり,720を素因数分解した 2^4*3^2*5 の各指数のべきを6つの箱に分配する場合の数(重複組み合わせ)の積になり,6H4*6H2*6H1=126*21*6=15876 である。

計算方法はわかったが,これが正しいためには,(a1,a2,a3,a4,a5,a6)と(k1,k2,k3,k4,k5,k6)が一対一対応する必要がある。その証明を OpenAI o1にきいて見よう。

Q(koshix):
a_i (i=1 ... n) が正の整数であり,(a_1, a_2 ..., a_n) の組の最大公約数は1であるとする。
a_1/a_2=k_1, 2*a_2/a_3=k_2, 3*a_3/a_4=k_3, ... (n-1)*a_{n-1}/a_n=k_{n-1}, n*a_n/a_1 = k_n 
において,(k_1, k_2, ... k_n) は整数となって,k_1*k_2*k_3*...*k_{n-1}*k_n = n! が成り立つ。
このとき,一つの(k_1, k_2, ... k_n) に対して必ず一つの(a_1, a_2 ..., a_n) が対応することを証明してください。

A(OpenAI o1)
証明:
まず、与えられた条件から $ a_i $ を $ k_i $ を用いて表現します。

ステップ1:$ a_i $ を $ k_i $ と $ a_1 $ で表す
最初の方程式から始めます。
1. $\dfrac{a_1}{a_2} = k_1$  ⇒  $ a_1 = k_1 a_2 $
2. $\dfrac{2a_2}{a_3} = k_2$  ⇒  $ a_3 = \dfrac{2a_2}{k_2} $
3. $\dfrac{3a_3}{a_4} = k_3$  ⇒  $ a_4 = \dfrac{3a_3}{k_3} $
   ⋮
このパターンを一般化すると、
$ a_i = \dfrac{(i-1)! \, a_1}{\prod_{j=1}^{i-1} k_j} $
となります。

ステップ2:最後の方程式を利用して $ k_n $ を表す
最後の方程式は
$\dfrac{n a_n}{a_1} = k_n$
これに $ a_n $ の表現を代入すると、
$ \dfrac{n \cdot \dfrac{(n-1)! \, a_1}{\prod_{j=1}^{n-1} k_j}}{a_1} = k_n \Rightarrow \dfrac{n!}{\prod_{j=1}^{n-1} k_j} = k_n $
したがって、$ k_1 k_2 \cdots k_n = n! $ が成り立ちます。

ステップ3: $ a_i $ の一意性の証明
$ a_i $ を $ a_1 $ と $ k_i $ で表すことができましたが、$ a_i $ が整数であるためには、$ a_1 $ が適切な値である必要があります。具体的には、すべての $ a_i $ が整数となる最小の $ a_1 $ を見つけます。
各 $ a_i $ に対して、分母となる $ \dfrac{\prod_{j=1}^{i-1} k_j}{(i-1)!} $ が存在します。すべての $ a_i $ が整数となるためには、$ a_1 $ がこれらの分母の最小公倍数(LCM)の倍数である必要があります。
すなわち、
$ a_1 = \operatorname{lcm}\left(1, k_1, \dfrac{k_1 k_2}{2}, \dfrac{k_1 k_2 k_3}{6}, \dots, \dfrac{k_1 k_2 \cdots k_{n-1}}{(n-1)!}\right) $
この $ a_1 $ を用いると、すべての $ a_i $ は一意に定まります。

ステップ4:最大公約数が1であることの確認
もし他に $ a_i' $ という解があると仮定すると、比 $ \dfrac{a_i}{a_i'} $ はすべて等しくなります。しかし、$ \gcd(a_1, a_2, \dots, a_n) = 1 $ であるため、この比は1でなければなりません。したがって、$ a_i = a_i' $ となり、一意性が証明されます。

結論
以上より、与えられた $ (k_1, k_2, \dots, k_n) $ に対して、一意な $ (a_1, a_2, \dots, a_n) $ が存在することが証明されました。よって、一つの $(k_1, k_2, ..., k_n)$ に対して必ず一つの $(a_1, a_2, ..., a_n)$ が対応します。
なるほど,素晴らしい。ちょっと気になったのは,分母である$ \dfrac{\prod_{j=1}^{i-1} k_j}{(i-1)!} $ が必ず整数なのかどうかである。具体的に試して見ると,必ずしも整数にならない場合がある。そんなときは,分母を形成する有理数の分子だけに着目して最小公倍数を考えれば良い。分母の有理数の分母は元の数の分子に回るだけだからである。そんなわけで,多少詰めが甘いような気がするけれど,ここまで推論できれば大したものである。


2024年9月15日日曜日

コンカフェ

コンカフェ
〔名〕(コンセプトカフェ Concept Cafe の略)
①特定のテーマやコンセプトに基づいた特色ある飲食店。メイド喫茶猫カフェ、漫画・アニメのキャラクターをモチーフとしたカフェなどが代表的。飲食の提供に加え、店員の衣装や店内の装飾、演出を通じて非日常的な体験を提供することが特徴。
コスプレ系飲食店(参考:カフェー)  (ChatGPT-4oより)

 漫才の草稿をChatGPT-4oとClaude 3.5 Sonnetに直列でかけた結果は次のとおり。

阿: このまえ、コンカフェ行ってきましてね。

吽: コンカフェ?

阿: あれ、コンカフェ知らん?

吽: コンカフェ…あぁーん、「婚活カフェ」のことやな?

阿: ちゃうがな!「コンセプトカフェ」やがな!

吽: ああ、そうか!…って、それ、なんやのん?

阿: 知らんのかいな!きみ、「メイドカフェ」は知ってるやろ?

吽: あぁ、毎日その前通ってるわ。メイドさんが「お帰りなさいませ、ご主人様~」言うてくれる店やろ?

阿: そうそう!その「メイド」をいろんなものに変えたんが「コンセプトカフェ」や。

吽: いろんなもんって、たとえば何に変わるん?

阿: 例えば、お姫さま、忍者、執事とかのコスプレやな。

吽: へぇ~、忍者カフェとか面白そうやな。どんなことするん?

阿: 忍者の格好したスタッフが目の前で手裏剣投げたりすんねん!

吽: えぇ!それ、めっちゃ危険やん!「ドリンクお待たせしました~」って言いながら手裏剣飛んできたら命懸けやん!

阿: そんなん言うけど、ほんま安全に配慮してるんやで?

吽: 配慮しても手裏剣は飛んでくるな!せめてドリンク頼んだら水遁の術で水出してくれんと!

阿: そんなんやったら「席流されます~」やんけ!

吽: まぁ、そうやな。ほな、ウチらも「漫才カフェ」とかやったらどうや?

阿: 漫才カフェ?どんなんやねん、それ。

吽: 客が漫才見ながら、コーヒー飲んで笑うんや。そんで、ウチらがネタやってな、あとは手裏剣投げたり…

阿: いや、それ結局忍者カフェと変わらんやないか!

吽: ほな、水遁の術で…

阿: もう、やめとけ!そんなん誰も来んわ!

吽: えぇ~、でも面白そうやん。

阿: お前、そんなんやったら客全員逃げ出すで!結局、普通のカフェがええんやって!

吽: そうか…ほな、普通のカフェで、ただウチらが店員やるってのはどうや?

阿: それ、もう「漫才カフェ」やなくて「ボケカフェ」やな!

 


図:コンカフェの例(DALL-E3による)

2024年9月14日土曜日

OpenAI o1(2)

OpenAI o1(1)からの続き

昨日の問題を,他の生成AIにも解かせてみた。「 a<b<c をみたす正の整数の組(a,b,c)であって, a^2-2005a > b^2-2005b > c^2-2005c が成り立つものはいくつあるか。(正解は334334000個) 」というものだ。(元の問題は20005だったが,入力ミスで2005にしてしまった。)

PlamoやClaudeは国語はできるけど,数学が不得意な生徒のような答えだ。Perplexityは数学的な推論ではなくてプログラミングで解決しようとしたが,プログラムはちょっと間違っている。
(1) Genspark 解答:解は存在しない。
f(x) = x^2-2005xのピークと増減までは理解している。

(2) Perplexity 解答:83個。
解をアルゴリズムを提案し,pythonコードを与える。
これで計算するように指示した実行結果がこれ。

(3) ChatGPT-4o 解答:1個
f(x) = x^2-2005xのピークと増減までは理解している。

(4) Gemini 解答:2個
f(x) = x^2-2005xのピークと増減までは理解している。

(5) Claude 解答:1個
f(x) = x^2-2005xのピークと増減までは理解している。

(6) Plamo 解答:124個
説明が日本語的で,そもそものロジックがあやしい。

 

GPT-4oに推論時間スケーリングに関する論文を 解説してもらうと,

Q(koshix):
この内容を分かりやすく説明してください。OpenAI o1 との関係についても言及してください。

A(ChatGPT-4o):
この論文「Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters」では、大規模言語モデル(LLM)のテスト時計算をどのように効率的に拡張できるかについて論じています。具体的には、モデルのパラメータ数を単に増やすよりも、テスト時に追加の計算を投入する方が、難しいタスクでのモデルのパフォーマンスを向上させるのに効果的である可能性があることを示しています。

主なポイントは次の通りです:

1.テスト時の計算拡張
   - テスト時に追加の計算能力を使うことで、より複雑な質問や問題に対する解答の質を向上させることができます。たとえば、複数の回答を生成して、その中から最も適切なものを選ぶ「Best-of-N」戦略を使うことで、より正確な解答が得られることが示されています。

2.テスト時の計算と学習時の計算のトレードオフ
   - テスト時の計算を効果的に使用することで、より大きなモデルや大量の学習を必要としない場面もあることがわかりました。特に簡単な問題や中程度の難易度の問題では、モデルのパラメータを増やすよりも、テスト時の計算にリソースを割く方が効果的です。

3.問題の難易度に応じた計算資源の配分
   - 問題の難易度に応じて、テスト時にどのような計算を行うべきかを動的に決定する「compute-optimal strategy(計算最適戦略)」を提案しています。簡単な問題では、モデルがすでにある程度正しい答えを出すので、答えを少し修正するだけで良い場合が多いですが、難しい問題では、より大規模な探索が必要となることが示されています。

 OpenAI o1 との関係
この論文に直接「OpenAI o1」というモデルが登場しているわけではありませんが、OpenAIが取り組んでいるLLM技術全般に関連しています。特に、GPT-4やそれ以降のモデルでも、テスト時の計算や推論の改善が重要視されており、この論文で述べられている「テスト時の計算拡張」は、OpenAIの研究テーマにも深く関係していると考えられます。

2024年9月13日金曜日

OpenAI o1(1)

GPT-4oからの続き

今年の5月にOpenAIがGTP-4oをリリースした。試してみるとなかなか良かったので,早速ChatGPT を再サブスクリプションしてから4ヶ月が経過した。ところが,この業界は流れが速いので,いつの間にかChatGPT-4oは取り残されつつあった。Claude 3.5 Sonnet がいいとか,Gemini 1.5 Proも使えるようになったとか,Perplexity やGenspark が最高だ!とか,他にも NapkinAI やらGammasやら話題が目白押し。ChatGPT一強から,これらの組み合わせによる群雄割拠の世界になってきた。

GPT-4oはわりと大きなファイルを読み込め,イメージも生成できるので,まだ,若干のアドバンテージはあったのだけれど,ネット上ではそろそろ解約するかという話題が湧き出して液状化現象を呈していた。さあ,そこに登場したのが,OpenAI o1 だ。OpenAIからのリリース文をGeminiに要約させると次のようなものだった。
OpenAIは、複雑な問題を解く能力に特化した新しいAIモデルシリーズ「OpenAI o1-preview」を発表しました。 このモデルは、問題解決に時間をかけ、より深く思考することで、従来のモデルよりも複雑なタスクをこなせるようになっています。特に、科学、コーディング、数学といった分野で高い能力を発揮し、国際数学オリンピックの予選問題を83%の正解率で解くなど、驚異的な成果を上げています。

o1-previewは、人間のように思考する過程を模倣するように訓練されており、様々な戦略を試したり、自身の誤りを認識したりすることができます。 ただし、現時点ではChatGPTのような一般的な機能は備わっていません。

安全性についても、OpenAIは新たな対策を講じています。 例えば、ユーザーが安全な範囲を超えた質問をしても、o1-previewがそれに従わないようにする仕組みが強化されています。また、外部の研究機関と協力し、モデルの安全性評価を行っています。

OpenAIは、o1-previewが科学やエンジニアリング分野における複雑な問題解決に貢献すると期待しています。 例えば、医療研究者が遺伝子データを解析したり、物理学者が複雑な方程式を解いたりする際に、このモデルが役立つ可能性があります。
o1-previwと簡易版でより高速な o1-mini が有料ユーザ向けに公開されていたので,すぐに使うことができた。ただし,o1-previewは 30回/週,o1-miniは 50回/週の上限が定められていた。o1は必ずしもChatGPT-4o の延長線上に位置するわけではないようだ。これらの試みがどこかで次のプレAGIモデルに統合されるのかもしれない。


早速試してみるべく,OpenAIにあった見本をそのまま実行してみた。問題は次の通りである。
$\mathcal{B}$ を表面積が 54,体積が 23 の直方体の集合とします。
$r$ を、集合 $\mathcal{B}$ の各直方体を内包できる最小の球の半径とします。
$r^2$ の値は、互いに素な正の整数 $p$ と $q$ を用いて $\frac{p}{q}$ と表すことができます。$ p + q$ を求めなさい。
推論プロセスが順次進行し,思考時間TT=105秒で正しい答えがでてきた。うーん,どうやら自分よりは賢そうである。ちょっと太刀打ちできないかもしれない。ただ,OpenAIのプレスリリースについて要約を求めると次のような答えであり,ChatGPT-4oほど融通がきかなかった。
申し訳ありませんが、2023年10月までの知識では指定されたURLや「OpenAI O1プレビュー」に関する情報を持っておりません。しかし、OpenAIのサービスや製品についてご質問があれば、できる限りお手伝いいたします。

真鍋さんのMIPOのページで,朝日新聞の数学体験教室の問題を解いていたので,こちらを与えてみることにする。
Q(koshix): a<b<c をみたす正の整数の組(a,b,c)であって, a^2-2005a > b^2-2005b > c^2-2005c が成り立つものはいくつあるか。

A(OpenAI o1 TT=24秒): 問題を解くために,a > b > c,a^2−2005a < b^2−2005b < c^2−2005c を満たす正の整数の組 (a,b,c) を求めます。 
 まず,関数 f(x)=x2−2005x を考えます。この関数の挙動を理解することが重要です。極値を求めるために,導関数を計算してゼロと等しくします: f'(x)=2x−2005=0⟹x=1002.5 
これは,f(x) が x≤1002.5 のとき減少し,x≥1002.5 のとき増加することを意味します。 
したがって: 
整数 x≤1002 の範囲では,f(x) は減少関数です。 
整数 x≥1003 の範囲では,f(x) は増加関数です。
 a > b > c であり, f(a) < f(b) < f(c) を満たすためには,a,b,c ≥ 1002 でなければなりません。これは, f(x) がこの範囲で減少するためです。
もし a,b,c ≤ 1003 であれば,f(x) は増加するので、不等式 f(a) < f(b) < f(c) は成立しません。
したがって、求める組の数は,1から1002までの整数から異なる3つの整数を選ぶ組み合わせの数になります。これは組み合わせの公式で計算できます: 
 組の数=1002_C_3=1002×1001×1000 / 3×2×1 これを計算すると:
答え:167,167,000 
 この計算は正しいです。
おしい。 ほとんど正しいのだけれど,c' = 2005-c の点も条件を満たすので,この答えの2倍が正解となっている。それでも,ここまでの推論ができるのはすごいわ。どうやら,推論時間に関するスケーリングの発見がキモらしいので,これからますます,GPUパワーが必要になるのか・・・


2024年9月8日日曜日

図書館めぐり

Napkin AI の評判がSNS空間を駆け回ったので,早速確認してみる。テキストを入力すると,選択編集可能なビジュアルイメージを生成してくれるものだ。例として「図書館めぐり」と入力しただけで,これに関する数ページ分相当の以下のプレゼンテーションが生成されてしまった。すごっ!
図書館めぐり
本ドキュメントでは、図書館めぐりの魅力や楽しみ方について探求します。図書館は単なる 本を借りる場所ではなく、知識の宝庫であり、文化やコミュニティの中心でもあります。さ まざまな図書館を訪れることで、新しい発見や出会いが待っています。この記事を通じて、 図書館めぐりの楽しさを感じていただければ幸いです。

図1:図書館体験の意味

図書館の魅力
   図書館には、静かな環境で読書や勉強ができるスペースがあり、また、さまざまなジャンル の本が揃っています。特に、地域の図書館では、その地域に特化した資料や歴史的な文献が 揃っていることも多く、訪れる価値があります。

図2:図書館? それとも 自宅?

 図書館めぐりの楽しみ方
1.テーマを決める
図書館めぐりをする際には、特定のテーマを決めると良いでしょう。例えば、「歴史 的な図書館を訪れる」「アートに関する本を探す」など、目的を持つことでより充実 した時間を過ごせます。
2.新しい図書館を発見する
自宅近くの図書館だけでなく、少し足を伸ばして新しい図書館を訪れてみましょう。 各図書館には独自の雰囲気や特色があり、訪れるたびに新しい発見があります。
3.イベントやワークショップに参加する
多くの図書館では、読書会やワークショップ、講演会などのイベントが開催されてい ます。参加することで、他の利用者との交流が生まれ、新たな知識や視点を得ること ができます。
4.図書館のカフェでリラックス
一部の図書館にはカフェが併設されているところもあります。お気に入りの本を手に 取り、コーヒーを飲みながらリラックスする時間は、図書館めぐりの醍醐味の一つです。

まとめ
図書館めぐりは、知識を深めるだけでなく、心を豊かにする素晴らしい体験です。ぜひ、あ なたも図書館を訪れて、その魅力を感じてみてください。新しい本との出会いや、素敵な人 々との交流が待っています。



2024年8月28日水曜日

スーパーシミュレーター

今朝,起床の直前に見た夢の話。夢言語から日本語へ翻訳すると概ね次のようなことだった。もちろん,下記のテキストには生成AIは一切関与していない。

登場人物:自分,良く知らない学生さん
場所:学校の教室らしきところ

学生さんに,最近のAIのトレンドを聞いていたら,新しいアプリを紹介してくれた。今年の8月に入ってから登場したアプリらしい。そのデモ画面では,机上の大きなスクリーンに展開した,子ども向けの図鑑のようなアイコンやシンボルが配列されたものだ。それは世界のスーパーシミュレーターになっている。我々の世界の経済生産活動や政治社会活動や文化芸術活動の様々なデータが地図上の操作によって簡単に取り出すことができる。さらに,その場所における社会のパラメタを少し変化させると,これまでくっきりしていたアイコンがぼやけて全体のフォーカスが崩れるのだが,しばらくすると世界は新しい条件の下に実現する状態に遷移して世界全体のシミュレーションが続いていく。試してみたのは中国の東北部なのか日本の東北地方なのかははっきりしないが,あっという間に結果を得ることができた。自然現象のシミュレーションも可能であり,日本列島を西から東へと鳥の様々な種類が変化しながら覆っていく様子がみえた。石川県の辺りからは,ピンクの朱鷺だとおもわれる鳥のアイコンが拡がっていった(夢から覚めた後で日経朝刊をみると,26面に「能登でトキ放鳥へ 26年度にも 復興支援で本州初」という記事がみつかったけれど・・・)。この新しいアプリは一体なんというものなのか,生成AI(LLM)を背景で使っているのだろうと学生さんに尋ねたけれど,どうやらそうではないらしい。さらに,URLを教えてよとお願いすると,教えてくれたので,チョークで黒板に,ボールペンでノートに書き留めようとするが,自分の電卓が見当たらないのでうまくいかない。あちらこちら探し回るが電卓がみつからないのだ。それはとても困る。別の部屋に行くと関数電卓が何台か置いてあったが,どれも自分のものではない。仕方がないので,それらをまとめて持って元の部屋に帰ると,学生さんが,書類を持っていた。彼はどうやら自分の研究室に所属する予定の学生だったようだ。改めてこのスーパーシミュレーターアプリのURLを教えてもらおうとするが。自分の学生だから,まあ安心だ。いつかは必ず聞き出すことができるだろう。それにしても,AIの進化のスピードははやい。あっという間に,かなり精度が高くて有用な世界のシミュレータが皆の手元に存在する時代になってしまった。これからいったいどうなるのだろう。

P. S. そうそう,たぶん自分の大好きなダイアスパーがモデルですよね。



図:DALL-E3のこのイメージは自分のPOVとは異なっている


[2]都市と星(Manuke Station SF Review)

2024年8月23日金曜日

異世界転生

ホリエモンのYouTubeは見ないようにしているのだけれど,たまたま目に付いた千葉工業大のロボットの話題はとても良かった。

ロボット本体は,ボストンダイナミックスのコピー製品のように見えるUnitreeのGo2である。千葉工業大学法人直轄のfuRo(未来ロボット技術研究センター)古田貴之(1968-)所長は,そのロボットのソフトウェア部分の学習過程を新しく開発した方法で改変した。

ロボットの運動機能の学習訓練には,時間がかかるため,これを仮想空間内の4096体のロボットに移植して,2万世代の改良を加えた。そのために必要な時間は実時間に比べて圧倒的に少なくて済む。学習の結果得られた深層学習データを再び実空間のロボットに移植するが,環境条件が仮想空間とは異なるため,異世界転生とよぶゲートウェイをかませて変換している。

その結果,この4本足走行ロボットは,視覚センサーやLiDARセンサーや聴覚センサーなしで(ロボットのハードウェアにはLiDARが付いているが使わない),脚の触覚に対する応答のみをインプットとして,段差などがある環境で運動することが可能になった。ただし,完全自律走行ではなく,外部から与えた一定の指示の元での運動になる。

四本足走行なので,屋外の非平坦環境でも自由に移動することが可能になっている。デモ動画を見ている限り,運動機能は非常に高い。シンギュラリティサロンの松田先生によれば,これは,人間でいえば小脳を鍛えたことに相当するということだ。明らかに軍事転用の危機が迫っている。


写真:古田先生のデモンストレーション([2]から引用)

[3]千葉工大のロボット犬について〜運動知能が急発展している(シンギュラリティサロンオンライン)


2024年8月18日日曜日

AIサイエンティスト

Sakana AI はGoogleの2人の研究者が2023年8月に,東京で始めたスタートアップである。それが先日,AI サイエンティスト というシステムを開発した。arxivに185ページの論文(The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery)が出され,十分なリソースさえあれば,Githubで試してみることもできる。

最初に人間が問題となるテーマを与えれば,あとは仮説を設定して数値実験して結果を求め論文を書いて評価するところまで自動化されるのだ。シンギュラリティサロンの松田先生によれば,人間では論文1本200万円かかるところを,AI Scientistならば,$15=2000円でできるということだ。もっとも,清水亮さんが実際に試したところは,生成AIのAPI使用料がかさむので,1本数万円はかかりそうだとのこと。

問題は,お金だけではなく,これによってどこまで科学が人間と独立に進化するかなのだ。実際の自然現象と結ぶには仮想実験でなくて,リアルの実験が必要となるから,それはまた次のステップの課題となるが,それでも非常に大きな一歩には違いない。

論文の概要を訳してみると次の通りである。
Q(koshix):
次の論文概要を分かりやすく和訳してください。

A(Claude 3.5 Sonnet):
はい、喜んでこの論文概要を分かりやすく和訳します。
人工知能(AI)による自動的な科学的発見に関する画期的な研究についての概要です: 
「人工知能の大きな課題の1つは、科学研究を行い新しい知識を発見できるAIエージェントを開発することです。最新のAIモデルは既に人間の科学者を補助する目的で使用されていますが(アイデア出し、コード作成、予測タスクなど)、それらは科学的プロセスの一部しか担っていません。
本論文では、最先端の大規模言語モデル(LLM)が独立して研究を行い、その成果を発表できるようにする包括的な枠組みを初めて提案しています。我々は「AIサイエンティスト」と呼ばれるシステムを紹介します。このシステムは、新しい研究アイデアを生み出し、コードを書き、実験を実行し、結果を視覚化し、完全な科学論文を執筆してその発見を説明し、さらに評価のための模擬査読プロセスを実行します。
理論的には、このプロセスを繰り返すことで、アイデアを反復的に発展させ、成長する知識のアーカイブに追加していくことができます。これは人間の科学コミュニティのような働きをします。
我々は、この手法の汎用性を示すために、機械学習の3つの異なる分野(拡散モデリング、Transformerベースの言語モデリング、学習動態)に適用しました。各アイデアは実装され、1本あたり15ドル未満という低コストで完全な論文に仕上げられました。これは、我々の枠組みが研究を民主化し、科学の進歩を大幅に加速させる可能性を示しています。
生成された論文を評価するために、我々は自動レビューアを設計・検証しました。このレビューアは論文の評価において人間に近い性能を達成することが示されています。AIサイエンティストは、この自動レビューアの判断によると、トップレベルの機械学習会議での採択基準を超える論文を生成できます。
このアプローチは、機械学習における科学的発見の新時代の幕開けを意味します:AIエージェントの変革的な利点をAI自体の研究プロセス全体にもたらし、世界の最も困難な問題に対して無限の手頃な創造性とイノベーションを解き放つ世界に我々を近づけます。
我々のコードはhttps://github.com/SakanaAI/AI-Scientistでオープンソース化されています。」 
この研究は、AIが科学研究のプロセス全体を自動化し、人間の科学者と同様に新しい発見を行える可能性を示しています。これは科学の進歩を加速させ、研究をより手頃で民主的なものにする可能性があります。




図:AI Scientistの上記論文から引用

2024年8月12日月曜日

世界の解像度(3)

世界の解像度(2)からの続き

Googleで世界の解像度を検索すると,amazarashiミュージックビデオが最初に出てくる。秋田ひろむの歌詞はなかなかよいのだけれど,音楽にはもうひとつ入り込めない。

さきほどの,PLaMoの結果を,Claude 3.5 Sonnet や ChatGPT-4o と比較してみる。昨日は,Claude 3.5 Sonnet が使えなくなっていたので焦ったが,今日の午前には Claude 3 Haiku まで回復し,午後には再び Claude 3.5 Sonnet が使えるようになっていた。どういうことだろうか。使いすぎ?

Q(koshix):
「世界の解像度」という比喩的な表現があります。その意味をよく吟味しながら深くていねいに掘り下げて分析して整理した結果をできるだけわかりやすく説明してください。

A(Claude 3.5 Sonnet)
「世界の解像度」という比喩的表現は、私たちが世界をどれだけ細かく、鮮明に、そして正確に認識できるかを表現しています。この概念を深く掘り下げて分析すると、以下のような側面が浮かび上がってきます:

1.知覚の精度 「世界の解像度」は、まず私たちの五感による知覚の精度を指します。例えば
・視覚:どれだけ細かいものまで見分けられるか
・聴覚:微細な音の違いをどこまで聞き分けられるか
・触覚:微妙な質感の違いをどこまで感じ取れるか
これらの感覚の鋭さが高いほど、世界の「解像度」は高くなります。

2.認知の深さ 単に感覚で捉えるだけでなく、その情報をどれだけ深く理解し、意味づけできるかも「解像度」に関わります
・物事の因果関係をどこまで把握できるか
・複雑な現象の背後にあるメカニズムをどこまで理解できるか
・抽象的な概念をどれだけ具体的に捉えられるか

3.知識の広さと深さ 世界に関する知識の量と質も「解像度」を左右します
・様々な分野についてどれだけ幅広い知識を持っているか
・それぞれの分野についてどれだけ専門的な知識を持っているか
・新しい情報をどれだけ迅速に吸収し、既存の知識と関連付けられるか

4.視点の多様性 同じ事象を異なる角度から見る能力も「解像度」を高めます
・文化的、社会的、経済的など、様々な文脈から物事を捉えられるか
・他者の立場に立って考えることができるか
・時間軸を長くとって物事の変化を見ることができるか

5.創造性と想像力 既知の情報を超えて、新しい可能性や未知の領域を思い描く力も「解像度」の一部です
・既存の概念を組み合わせて新しいアイデアを生み出せるか
・現実には存在しないものを想像し、具体的にイメージできるか
・問題に対して多角的なアプローチを考案できるか

6.自己認識 自分自身についての理解の深さも、世界の「解像度」に含まれます
・自分の感情や思考パターンをどこまで客観的に把握できるか
・自身の強みと弱みをどれだけ正確に認識しているか
・自分の行動が他者や環境に与える影響をどこまで理解しているか

7.倫理的判断力 状況の倫理的側面を認識し、適切に判断する能力も「解像度」の一部です
・行動の倫理的影響をどこまで予測できるか
・複雑な状況下で、正しい選択を見極める力があるか
・異なる価値観や倫理観の間でバランスを取れるか

「世界の解像度」を高めることは、単に情報を詳細に把握するだけでなく、その情報を多角的に理解し、創造的に活用し、そして倫理的に判断する能力を磨くことを意味します。これは生涯にわたる学習と経験の積み重ねによって達成される、終わりのない成長プロセスだと言えるでしょう。
この「解像度」が高まれば高まるほど、私たちは世界をより鮮明に、より深く、そしてより正確に理解し、それに応じてより適切に行動することができるようになります。それは個人の成長だけでなく、社会全体の発展にもつながる重要な概念なのです。



Q(koshix):
「世界の解像度」という比喩的な表現があります。その意味をよく吟味しながら深くていねいに掘り下げて分析して整理した結果をできるだけわかりやすく説明してください。

A(ChatGPT-4o):
「世界の解像度」という比喩的な表現は、物理的な画像解像度を指すわけではなく、物事や現実をどのように細部まで理解し、認識するかという意味で使われます。この表現を深く掘り下げて分析することで、以下のようなポイントが浮かび上がります。

1.解像度と認識の関係
物理的な解像度:まず、解像度という言葉は、本来、画像や画面の鮮明さを測るために使用されます。解像度が高いほど、画像は細部までくっきりと見えます。逆に解像度が低いと、画像はぼやけて詳細が失われます。
比喩的な解像度:この物理的な概念を「世界の解像度」に転用すると、人々が世界や現実をどれだけ詳細に理解し、認識できるかを指します。高い「世界の解像度」を持つということは、細かな部分まで理解し、他者の視点や複雑な現象をも包括的に捉える能力があることを意味します。
2.「世界の解像度」が高いとはどういうことか
多様な視点の理解:高い解像度は、異なる文化、背景、価値観を理解する力とも言えます。世界は複雑で、多様な視点が存在します。解像度が高い人は、単一の視点や表面的な理解に留まらず、複数の視点から物事を見ることができるのです。
情報の精査と洞察力:高い解像度には、情報を精査し、そこから洞察を得る力も含まれます。これは単に多くの情報を知っているだけでなく、その情報の本質を見抜き、正確に理解する能力です。データや事実だけでなく、その背後にある文脈や意味を理解する力が求められます。
3.「世界の解像度」が低い場合の影響
偏った認識:低い解像度は、世界を部分的にしか理解できない状態を表します。視点が狭くなりがちで、他者の意見や異なる考え方を排除しやすくなります。その結果、偏見やステレオタイプに基づいた認識が強まることがあります。
表面的な理解:また、解像度が低いと、複雑な問題を単純化しすぎる傾向が生じます。例えば、社会問題や歴史的な出来事を深く掘り下げず、表面的な理解で済ませることで、誤解や不十分な判断に繋がることがあります。
4.「世界の解像度」を高めるためには
教育と学び:「世界の解像度」を高めるには、幅広い知識と経験が必要です。これは教育や学習を通じて、さまざまな視点や概念に触れることが基本となります。
・批判的思考:情報をそのまま受け取るのではなく、批判的に考える習慣を持つことも重要です。情報源の信頼性を確認し、複数の視点から物事を考えることで、より高い解像度を持って世界を理解できるようになります。
共感力の育成:他者の立場や感情を理解しようとする共感力も解像度を高める要素です。共感力を養うことで、より多くの人々の視点や経験を理解し、世界をより詳細に見ることができるようになります。
5.結論:「世界の解像度」の重要性
「世界の解像度」という比喩は、私たちが世界をどれだけ深く、正確に理解できるかという能力を指すものです。これは、情報の量だけでなく、その情報をどれだけ意味深く洞察できるか、どれだけ多様な視点を受け入れられるかにかかっています。高い「世界の解像度」を持つことは、より広い視野と深い理解を可能にし、個人だけでなく、社会全体の健全な発展に寄与します。

このように「世界の解像度」という表現は、現代社会における複雑な問題の理解や対話の質を高めるために非常に重要な概念です。

図:DALL-E3による印象派風の世界の解像度

2024年8月11日日曜日

世界の解像度(2)

世界の解像度(1)からの続き

ディープラーニングの研究開発を行うスタートアップ企業のPreferred Networks(PFN 2014-) ,今はもうないが,かつてChainerという深層学習フレームワークで一斉を風靡した。そのPFNがPLaMoという100Bの国産LLMを開発した。10月ごろまで有効な無料β版のトライアルに応募してみた。

これまで,国産のLLMとしては,東大の松尾研からでたベンチャーELYZAによるELYZA LLMがあって,簡単なデモチャットサイトを公開していたが,ChatGPT,Gemini,Claude等に比べるとかなり見劣りがしてあまり使う気になれなかった。


このたびのPLaMoである。第一印象はたいへんよろしかった。昨日はこんな感じだった。
Q(koshix):
「世界の解像度」とは何かについて説明してください

A(PLaMo):
「世界の解像度」という言葉は、個人の心理状態や認知能力が、世界をどのように経験し、認識し、理解するかに影響する程度を表現するのに使われます。言い換えると、それはさまざまな要因(感情的・認知的スキル、経験、背景知識など)により、世界をどれだけ詳細に、また正確に見ることができるか、ということを指します。

より高い世界の解像度は、以下のようなことを意味します。

詳細への気づき:高解像度の世界では、より多くの細部に気づき、観察することができます。色彩、テクスチャ、形状、パターンなど、低解像度の世界では見過ごしてしまうようなものにも気づくことができます。
パターンの認識:高解像度の世界では、物事の関連性、パターン、構造をより簡単に認識することができます。複雑な状況を素早く把握し、抽象的な概念を理解し、未来の出来事を予測することができます。
感情の理解:感情的な解像度が高いと、自分自身や他者の感情をより深く理解し、表現することができます。微妙な感情の変化に気づき、それに応じて行動や接し方を調整することができます。
視点取得:高解像度の世界では、他者の視点、感情、動機をより良く理解することができます。これにより、共感や社会的なつながりが強化されます。
自己認識:個人の解像度が高いと、自分自身の感情、思考、行動についてより深く理解することができます。強みや弱み、動機、バイアスを認識し、自己成長や自己調整に役立てることができます。
認知の柔軟性:高解像度の世界では、複数の視点から物事を見たり、複雑な問題を様々な角度から分析したりすることができます。また、新しいアイデアに対してオープンマインドで、創造的な問題解決や意思決定ができます。
内省と自己反省:高解像度の世界では、自分の思考プロセス、信念、価値観を定期的に振り返り、それらが自分の経験にどのように影響しているかを考えることができます。これにより、自己成長や自己改善につながります。

簡単に言うと、世界の解像度とは、私たちが世界をどの程度細かく、正確に、そして深く理解しているかを測るものです。それは私たちの認知能力、感情的な経験、背景知識などによって決まり、それらは私たちの人生における様々な領域での経験や成果に大きく影響します。

今日は少し別の聞き方をしてみる。
Q(koshix):
「世界の解像度」という比喩的な表現があります。その意味をよく吟味しながら深くていねいに掘り下げて分析して整理した結果をできるだけわかりやすく説明してください

A(PLaMo):
「世界の解像度」というのは、「あなたが世界についてどれだけ多くの詳細まで、どれだけ明瞭に知っているか、あるいは理解しているか」ということを表現する際の比喩です。もともと、解像度とは画像の鮮明さや、画面や画像がどれだけ細かく描写できるかということを指すものです。

これを比喩的に世界にあてはめているわけですが、この場合の解像度は次のような要素で構成されます。

知識の幅と深さ
 解像度が高いということは、知識が豊富であり、物事を多面的に捉えているということになります。一つの事象に対して多くの情報を持っており、全体像を把握し、細部まで注意を払うことができる能力があるということです。
観察力、洞察力の鋭さ
 どれだけ注意深く観察し、分析し、解釈できるかということも解像度を左右します。パターンを見つけ、問題点を見極め、事態がどのように進展するかを予測する能力に関連します。
経験の深さ
 様々な経験を積んでいるかどうかも、解像度に大きく影響します。経験は世界について多くを学ぶための貴重な手段であり、知識だけではわからないことや、実際に体験しないと身につかない感覚や感受性を養います。多様な経験によって培われた感度や判断力は、表面的でない深い理解をもたらします。
視点の多さ、柔軟さ
 一つの視点だけでは、どうしても物事の見方が偏ってしまいます。解像度が高い人は、様々な視点から物事を見ることができるため、より広い視野を持つことができます。自分の考えや価値観にとらわれず、多角的に検討する柔軟さも備えています。
感情知能の高さ
 感情知能とは「自分自身と他者の感情を理解し、コントロールする能力」のことです。解像度に感情知能が含まれるのは、感情を認識し、理解することが、世界をより深く理解するための重要な要素だからです。単に相手の言動を観察するだけでなく、その背景や感情の動きを読み取り、共感する能力がある人は、人や世界についてより詳しい理解を持っているといえます。

以上のように、「世界の解像度」というのは、単にどのくらい多くの情報を知っているかということではなく、物事を多角的に観察し、認識し、分析する能力を総合したものを指す表現といえます。この能力が高い人は、理解力や判断力が優れ、他者とのコミュニケーションや協働が円滑に行えると考えられます。


図:DALL-E3による小学校低学年の「世界の解像度」

2024年8月10日土曜日

世界の解像度(1)

シャワーを浴びている最中,ふと「世界の解像度」という言葉が浮かんだ。

そのきっかけは生成AIにある。毎日のように生成AIを使って,未知の事柄を調べたり,ブログ記事を書いたり,論文や記事の要約を行っているうちに,少しずつ違和感が沈殿してきた。

生成AIが吐き出すテキストは,システムごとに多少違いがあるものの,創作場面におけるような特別な役割付与をしない限り,いずれも無難で平板な文章が連なっている。論争を呼びそうな表現はきれいにサニタイズされている。

その結果,せっかく要約された文章が心に響かず,知りたかったテキストの意味が手のひらに乗せた砂のように認識の指の間からこぼれ落ちていく。幾度問い方を変えて調べようが知識の積み重なっていく実感には繋がらない。

この現象は,生成AIに限らず,全ての知識をいつでも即座に検索して要約できてしまうという危うい状況に依存しているのかもしれない。かつて,論文をコピーして机に積み上げただけで,その内容を理解してしまったような錯覚に捕らわれたときと同じ状況だ。


我々の経験や知識の多寡によって,世界の見え方は異なってくる。例えば,同じドラマを見ても,背景知識や自分の経験がどれだけあるかによって,その内容の伝わり方や感じ方は大きく異なるだろう。その部分を強調するのがいわゆるオタクだ。しかも,その半分は言語の精度にかかわっている。

つまり,自分の操る言葉の範囲や精度や密度によって,ある概念や感情が意識の表面に浮き上がれるかどうかが決まり,世界の見え方が異なってくるはずだ。もちろん,残りの半分は言葉ではなく,意識下に潜在している。それらは言語野以外のニューロンによる身体的な経験と技能が担うのものだろうけれど,知的活動の多くは言語を媒介としているはずだ。

その重要な鍵を担う言葉の入力や出力に生成AIが関与することで,自分自身のものの捉え方やコミュニケーションの多くの場面で薄いフィルターがかかってしまうことになる。それが繰り返されれば自分の頭で考えるときでさえ,言葉を簒奪されてしまうかもしれない。毎日生成AIを使っていて沈殿してきたモヤモヤした気分は,その結果ではないかと疑っている。


生成AIの教育利用を危惧する意見に対しての反論がある。テキストを作成する能力を生成AIに代替させることで,それが身につかなくともよい。代わりにテキストの編集能力など,よりメタな新しい力が身につくはずだというのだ。自分もその意見に賛成していたのだけれど,言葉が思考と密接に繋がっている限り,どこか危険性は完全にぬぐうことができないことに改めて気がつく。

つまり,自分の心配事は,生成AIが自分の世界の解像度を落としてしまうのではないかということなのだけれど,どうだろうか。



図:世界の解像度 by DALL-E3