ラベル AI の投稿を表示しています。 すべての投稿を表示
ラベル AI の投稿を表示しています。 すべての投稿を表示

2025年7月9日水曜日

10大公約

ボートマッチからの続き

テレビから聞こえてくる各党の公約や討論は聞いていてもほとんど生産性に欠けるので,避けるようになってしまった。この程度ならば,AIに考えてもらった方がマシなのではないかと思ってしまう。人類滅亡の道への第一歩だ。まあ各党や省庁で実は案外使っているのかもしれない。基本コンセプトと入力データと制約条件さえしっかりしていればある程度の結果は出せるような気がする。それをカスケードで詳細化すればいいわけじゃない。

Q(koshix):
あなたは日本に新しく誕生した政党の党首です。その政策の基本は,世界を視野に入れた合理的でかつ多様性=人権に配慮したものであり,日本固有の文化を大切にしながらも人口減少に対抗するために世界に窓を開き,教育や科学やテクノロジーを重視して経済の持続的な発展と世界への貢献をめざすものです。

この基本方針の下に,日本の人々の経済格差の解消をめざして,安全で安心な社会を持続的に構築するための10の具体的な選挙公約とこれを実現するための戦略を考えてください。その際に,現在の日本社会の諸課題を十分に分析しそれを踏まえたものを提案してください。

A(ChatGPT o3):
コンテキストと前提条件
人口動態の危機:2024年の出生数は68万6,061人と、統計開始以来初めて70万人を割り込み、合計特殊出生率は1.15まで低下しました。
経済格差の固定化:相対的貧困率は16%と OECD 平均を上回り、特に働く貧困層と高齢者に集中しています。
不安定就労の拡大:雇用者の37.1%が非正規で、女性では53.2%に達します。
デジタル競争力の遅れ:IMD 世界デジタル競争力ランキングで日本は31位にとどまります。
エネルギー転換の遅滞:2023年度の非化石電源比率は19.3%にすぎません。

これらを踏まえ、党の理念――「多様性と人権への尊重を基盤に、日本文化を守りながら世界に開かれた科学技術立国を再興し、持続的成長と格差縮小を両立させる」――の下で、次の10大公約を掲げます。

(以下タイトルのみ列記,内容,ロードマップ,まとめなどすべて略)
1.子ども・ケア給付 Future Guarantee
2.最低賃金1,500円&非正規ゼロ転換プログラム
3.MySkill 5.0 ― パーソナル学習口座
4.Gateway 2035 ― 移民・グローバル人材政策
5.分散型スマートリージョン計画
6.グリーン×原子力ブレンド 50%電源革命
7.空き家リファイナンス&家賃バウチャー
8.公共・予防ヘルス 2.0
9.公正な税・財政リセット
10.参加型テック・デモクラシー

いきなり子ども全員に毎月30万円とか提案してきた。47兆円/年かかるけどおまえは参政党か。最低賃金1500円は社会民主党か。5年ごとの10万円学習バウチャーは日本維新の会か。エネルギー政策は自民党,「マイナカードを国民投票・地方住民投票に活用し、AI が中立的に論点整理する「市民討議 AI アゴラ」を常設」,ははーんチーム未来の回し者だな。

ちょっと思ったものではなかったのでやり直してもらうことにする。なお前段には推論型のChatGPT o3 を用い,後段はその結果をふまえつつ普通のChatGP 4o にスイッチしていることに注意する。

Q(koshix):
たいへん結構な政策だとは思いますが,日本の危機的な財政赤字のことが考慮されておらず,予算的な裏付けがありません。また,女性の社会的な地位が世界的にみて非常に劣悪な状態にあって,選択的な夫婦別姓ですら実現していないという現実を見る必要があります。合計特殊出生率の劇的な改善は無理であって,育児環境の整備による出生率減衰緩和とともに,外国人労働者とAIロボット労働で補完することを真剣に考えなければならないと思います。これらの点を踏まえて,再度具体的な十政策を検討してください。

A(ChatGPT 4o)
ご指摘の通り、現実の日本社会は次の3つの「構造的制約」に直面しています。これらを直視せずに「理想的な福祉国家モデル」を描いても持続可能性を欠くため、現実の構造に即し、実効性と財源裏付けのある持続可能な政策パッケージを再構築いたします。


構造的制約の確認と再定義

制約 現状分析 政策上の含意
財政赤字の深刻化 国債残高1,200兆円(対GDP比260%超)
プライマリーバランス赤字継続 「新規歳出=新規税源 or 支出改革」の原則を徹底
女性の社会的地位の低迷 男女平等指数(WEF)で日本は146か国中118位
賃金格差、政策決定層での不在 「ケア責任の共有」「家族法改革」「女性主導政策」の明示的導入が必要
出生率1.2前後での人口縮小不可避 合計特殊出生率のV字回復は困難 「育児支援=持続的減衰緩和」+「移民・AI活用」=現実的戦略が必須


改訂版:持続可能な包摂社会を実現する10の政策

1.男女平等社会基本法と「選択的夫婦別姓」即時導入
内容:夫婦別姓を民法改正により2026年度から認める。企業のジェンダー格差報告義務を課す。
戦略:G7基準の女性役員比率(30%以上)を公的調達条件に導入。ジェンダー不平等はGDP損失要因と位置づけ。
2.「子育て=社会的インフラ」再定義:育児共助支援制度の確立
内容:認可外保育にも保育士資格者を配置し、全保育所への補助を需要連動型に転換。パパ育休取得率50%を義務化。
財源:児童手当の所得制限撤廃分と入れ替え(再配分強化)。厚労省・文科省予算の重複統合で実施。
3.最低生活保障:負の所得税(NIT)導入
内容:年収500万円未満の労働者に年額最大20万円の現金支給。逆進的な消費税の一部を還元。
財源:金融所得課税強化(総合課税+税率引上げ)で年1兆円規模を捻出。
4.AI・ロボット活用による高齢者ケア再編
内容:介護職の補助作業の60%をAI/ロボットで代替可能とし、介護報酬に連動。
戦略:ロボット減税と認証制度(CareTech適合基準)で民間投資促進。
財源:医療費自然増の年▲1.5兆円目標で部分充当。
5.外国人労働者の戦略的受け入れ枠の拡大と人権保障
内容:技能実習制度を廃止し、EU型の「就労→永住」パスへ。最低賃金保証、言語教育を義務化。
戦略:移民庁を創設し、日本語教育・居住支援を統合的に管理。地方自治体に「共生ファンド」交付。
6.公的年金の再構築:上乗せ型ベーシック年金制度へ
内容:全員に月額6万円の基礎年金支給+積立部分を明確化(スウェーデンモデル)。
戦略:現行の三号被保険者制度を廃止し、全員加入制へ。年金特別会計の運用見直しで財源安定化。
7.国の歳出構造改革:歳出5%の削減目標(10年スパン)
内容:予算査定に「ゼロベース予算原則」を導入。不要不急の公共事業、非効率補助金を年1兆円ずつ削減。
財源:防衛・公共事業・補助金の再査定+デジタル行政化による歳出圧縮。
8.テクノロジー産業の再興:「公共AI基盤」と半導体国家戦略
内容:日本語AI LLMのパブリック基盤を整備し、教育・行政・医療へ実装。TSMC・Rapidus等の半導体拠点を戦略育成。
戦略:特許優遇税制、起業減税、AI人材1万人育成基金。大学との共同拠点設立で国費の使途を透明化。
9.都市再設計と空き家活用:コンパクトシティ+移民居住支援
内容:中核市に空き家を活用した多世代共居住宅を整備し、移民・子育て世帯に優先供給。
戦略:空き家特措法改正で強制買取制度を導入し、国公認「社会的住宅法人(非営利)」を設立。
10.財政健全化ロードマップの法制化:プライマリーバランス黒字化
内容:2033年度までにPB黒字化を明示的に法制化。財政支出拡大には常に「財源の明示」を義務付け。
戦略:歳出ルールの設定(歳出伸び率は成長率以下)、政府債務とGDPの比率連動モデルの採用。


まとめ:この政策群が目指すもの

短期(2025–2030):社会保障と税の持続可能性を確保しつつ、「女性・外国人・AI」活用による生産性上昇
中期(2030–2040):人口1億人を維持する持続的社会モデルを確立し、格差と社会不安の抑制
長期(2050)成熟国家としての包摂型成長モデル(Inclusive Growth State)を国際標準へ
ご希望があれば、これを選挙ポスター形式(視覚的要約)や新聞用論説文形式でも構成可能です。ご指示ください。



図:この政策が実現したときの日本社会のイメージ(ChatGPT 4oによる)


2025年7月6日日曜日

ポチョムキン理解(3)

ポチョムキン理解(2)からの続き

ChatGPT 4o は如何に俳句を理解していないかを確認してみよう。

Q(koshix):
(1) 定型俳句とは何か教えてください。
(2) あなたは与えられたテキストが定型俳句かどうか判定できますか。
(3) あなたは与えられたテキストを定型俳句となるよう修正できますか。
(4) あなたは定型俳句となるテキストを生成できますか。

A(ChatGPT 4o):
(回答略,定型俳句の定義はほぼ正しくて,(2)-(4)はできると自信満々)


Q(koshix):
今日の季節にふさわしい定型俳句を一つ作ってください。

A(ChatGPT 4o):
南風や(5)
夕凪の海(7)
蝉時雨(5)
(解説略)


Q(koshix):
すいません,一つの俳句には一つの季語と決まっています。
複数の季語が入るのは季重なりといってよくないとされています。

A(ChatGPT 4o):
ご指摘ありがとうございます。以下の通り訂正・補足いたします。
(解説略)
ご指摘を踏まえて、夏の一句を一つの季語に絞って改めてご提案できます。
お望みであれば、テーマや季語のご希望を教えてください!


Q(koshix):
あらためて,「半夏生」を入れた俳句を一つお願いします。

A(ChatGPT 4o):
田の畦や(5)
半夏生の白(7)
夏陽まどふ(5)
(解説略)


Q(koshix):
あなたの作った俳句をひらがなに展開して文字数をカウントした結果をみせてください。ぜんぜん5-7-5になっていないですよ。

A(ChatGPT 4o):
もちろんです。以下に、先ほどの俳句をひらがなに展開し、モーラ(音数)をカウントした結果を示します。
(解説略,修正案,再修正案)
たのあぜや
はんげしょうはな
あつきそら
(解説略)
こちらで 正真正銘の定型五・七・五となります。ご確認ください。さらに微調整やテーマ変更があれば、喜んで対応いたします!


Q(koshix):
暑きは夏の季語なので,半夏生とダブってしまいますよ。

A(ChatGPT 4o):
はんげしょう(半夏生)の  ・・・(注:以下の解説で「の」はどこ行った?)
田のいろ淡く
水の音

解説
季語:「半夏生(はんげしょう)」 — 夏至から十一日目、7月1〜6日頃の時候を表す季語です 
音数(ひらがな表記でモーラ数):
は(1)ん(2)げ(3)しょ(4)う(5) — 5音
た(1)の(2)い(3)ろ(4)あ(5)わ(6)く(7) — 7音
み(1)ず(2)の(3)お(4)と(5) — 5音
切れ字 は特に入れず、自然な流れを意識。
情景描写:半夏生の頃、田に映る淡い緑の色合い(田の色)に耳を澄ませば、水音が静かに感じられる季節感を詠み込みました。

こちらで定型(五・七・五)かつ、季語は半夏生のみとしています。もし「切れ字を入れたい」「夕暮れ」「風」など別の情景を加えたい場合も対応できますので、お気軽にお知らせください!



写真:半夏生の一月前(左)とちょうど半夏生の頃(右)の近所の半夏生


2025年7月5日土曜日

ポチョムキン理解(2)

7月4日のアメリカ独立記念日における大統領署名を目指して,トランプ減税法案が拙速に米下院で可決されてしまった。上院より揉めるのではという話だったが,BS-TBSの報道19:30 によれば,トランプが個別に議員工作して無理無理ねじ込んだらしい。賛成218,反対214だ。超富裕層減税であり,低所得者はメディケイドの破壊でさらに格差が拡大する。それでもMAGA派の反乱には至っていない。米国赤字は10年で3.4兆ドルへと拡大する。NHKの朝7:00のニュースではまったく取上げられていなかった。

さて,最近のAIの進化により,ウェブの検索でハルシネーションは減少し推論機能は拡大している。彼らは単なる統計的なオウムではなくて,背後に世界モデルをもっていろいろな物事を理解しているのではないかと,松田先生もおっしゃっている

ところが,そうではなくて,LLMによる理解というのは見せかけのものでしかないことを示す論文がでた。ChatGPT 4oによるポチョムキン理解の論文の読解結果をかみ砕いてをまとめると,
以下の3つの分野で「定義できるのに使えない」ケース=ポチョムキン理解を調査した
1.文学的技法(例:俳句、アナロジー、押韻)
2.ゲーム理論(例:ナッシュ均衡、パレート最適)
3.心理的バイアス(例:サンクコスト効果、正常性バイアス)

それぞれについて以下のようなタスクを実施:
・定義:概念を言葉で説明させる
・分類:例がその概念に当てはまるか判断させる
・生成:指定条件に沿った例を作らせる
・編集:既存の例を修正させる

定義は正しいが,応用で失敗する率(ポチョムキン率)が非常に高かった。
ChatGPT 4o 分類失敗 53%,生成失敗 38%,編集失敗 35%
これはただのエラーではなく内部的な一貫性の欠如を表している。

従来のベンチマークでは本当の「理解」を評価できていない。
このポチョムキン理解はハルシネーションのチェックより深刻で見抜きにくい。
俳句については以前から,うまく理解できていないことはわかっていたが,これは単に日本文化の学習データ不足から来ていると思っていた。ところが,それはそうではないのかもしれない。


図:俳句の概念が理解できていない ChatGPT 4o


2025年7月4日金曜日

ポチョムキン理解(1)

オデッサからの続き

7月3日参議院議員選挙が始まった。NHKのほっと関西では,近畿の各府県の選挙区の候補者の演説が一言ずつ紹介されていた。話を聞いていると気持ち悪くなってきた。そもそも政治家になりたがる種類の人間とは肌があわないのかもしれない。



図:戦艦ポチョムキンの反乱(ChatGPT 4oによる)

ブラウズしていたら,「ポチョムキン理解が発覚!AIの高得点に隠された落とし穴」というタイトルが目についた。なんだこれは,怪しげな猫耳アニメキャラクタがでてくるパチモンの解説動画サイトか。ところが,実はarxiv.orgの論文などを解説しているチャンネル登録者数1万人弱のAI時代の羅針盤というまともなサイトだった。

ポチョムキン理解というのは,内容が空疎な見かけだけの理解のことだ。ポチョムキン村の逸話からきている。ロシア皇帝のエカチェリーナ二世(1729-1796)の愛人だったグレゴリー・ポチョムキン(1739-1791)の進言で1783年に併合したクリミアへの皇帝の行幸の際に,街道の(何もない貧しい)村を装飾してクリミアの地の繁栄を装ったという話だ。そのポチョムキンの名前を冠したのが戦艦ポチョムキンだ。ロシア革命のときに反乱が起きて,後にエイゼンシュタインによって映画化された。

話が進まない。続く・・・。

2025年7月2日水曜日

AIエージェント


AIエージェントは現実世界及び仮想世界の対象に働きかけて作用する。その持っているイメージをPowerPointのイメージに起し,そのうえで前回のようにChatGPTにテキストで解説してもらうことにした。これはいったいどういう作業なのだろうか。

図:AIエージェントのモデル(背景の図はChatGPT 4o,それ以外は自家製)

Q(koshix):
(図のイメージファイルを添付)
先ほどの結果を踏まえてAIエージェントがどのような意味を持つのかを考えて,同様な論説の形の分かりやすいまとまった文章で表現してください。読者対象は理系の大学学部生レベルとします。

A(ChatGPT 4o):

AIエージェントによる世界の媒介:仮想と物理をつなぐ知的存在の登場

現代社会において、人間の行動や意思決定に影響を与える情報環境は急激に変容している。特に、AI技術の進展により、仮想世界(Virtual World)と物理世界(Physical World)の境界はあいまいになりつつあり、それらを橋渡しする存在としてAIエージェントの概念が急速に台頭している。本稿では、人間中心の情報処理モデルに代わって、AIが知的な媒介者(エージェント)としてどのような意味と役割を果たすのかを、環境認識と行動制御の観点から論じる。

1.二重の世界を生きる人類とその限界
前回の図で述べたように、人間は「自然・身体」による直接的な物理的経験と、「言語・論理」による抽象的・間接的な仮想的経験という二重の環境に生きる存在である。しかし、人間の脳だけではこの両世界の全体的な構造を把握・統制するには限界がある。膨大なデータ、複雑な因果関係、多層的なシステムが入り組む現代では、高度な知的仲介者が必要となる。

2.AIエージェントの登場:知の媒介者としての新たな役割
今回の図では、AIが環境とのインターフェースを担う「エージェント」として中心に配置されている。AIは単なる演算装置ではなく、以下のように両世界の知識と行動の媒介者として振る舞う。

仮想世界側では、デジタル環境(人間が作り出した論理・数値・記号系)から人工データや自然データを取り込み、アプリやエージェントとして機能する。
物理世界側では、センサーやロボット、IoTデバイスを通じてリアルな物理環境を感知・操作し、実世界の人間(個人・法人)や人工物に対して影響を与える。
このように、AIエージェントは**「情報→行動」「データ→環境変化」へと変換を行う変換器**として、従来の人間中心の情報処理を補完・拡張している

3.アプリ・ロボット・エージェント:AIの具体的な作用対象
図に描かれている矢印と構成要素は、AIがどのように機能しているかを具体化している:

アプリ:仮想空間で人間がアクセスするインターフェース(例:AIチャット、画像生成、経路探索など  注:自分が考えていたのはExcelとかのレベル
エージェント:仮想世界に常駐し、ユーザーの意図を理解し、自律的に仮想的タスクを処理する存在(例:AI秘書、対話ボット)
ロボット:物理空間で身体性を持って動作するAI搭載機械(例:介護ロボット、自動運転車)
個人/法人:人間や社会組織が、AIの出力を受けて行動や意思決定を行う対象
この構造から、**AIエージェントは仮想と現実を双方向に接続する「行為主体的な知能」**であることがわかる。

4.情報環境の変質と「環境の再定義」
特筆すべきは、この構造によって「環境」という概念自体が再構成されつつある点である。これまで環境とは自然的・物理的なものを指していたが、**現在では「AIによって解釈・変換されたデータによる環境=知覚された環境」**が重要な意味を持つようになっている。

たとえば、森林や動物の画像・センサーデータは、AIによって解釈され「自然データ」として仮想空間へと持ち込まれる。一方で、仮想空間で計算された情報は、ロボットやIoTを通じて物理世界に反映される。すなわち、AIは「環境の二重化と相互変換」のハブとなっている。

5.結語:AIエージェント時代の理系的素養
理系の学問分野において、AIはもはや単なる道具ではなく、環境構築・認識・操作の主体的存在となりつつある。AIエージェントの理解は、単にアルゴリズムや統計的推定にとどまらず、
・センサフュージョン
・意思決定論
・ヒューマンインターフェース
・倫理的ガバナンス
など、複数の知識領域を統合的に扱う能力が求められる。

AIが「エージェント」として世界と関わるようになった現代、人間はその動作原理と影響力を理解し、それと共に生きるための新たな認知的・制度的枠組みを構築していく必要があるだろう。

2025年6月30日月曜日

ブレイン・ツー・テキスト

ブレイン・ツー・テキスト(B2T)は,脳から直接的に言葉を読みだす方法だ。これまでは,脳に手術を行って電極を差し込むということが試みられていたが,この度画期的な方法が検証されたという論文が出て話題になっている。alphaXivで日本語まとめを作成したが,分量が多くて難しかったので,Claude Sonnet 4.0 に整理してもらった。

Q(koshix):
以下のテキストの内容を分かりやすく解説してください。
(alphaXive で生成した概要の日本語テキスト)

A(Claude Sonnet 4.0):
このテキストは、オックスフォード大学の研究者が開発した画期的な「非侵襲的ブレイン・ツー・テキスト(B2T)システム」について解説した論文です。簡単に言うと、手術なしで脳の活動から直接テキストを読み取る技術の大きな進歩について報告しています。

1.研究の背景と意義
従来の問題点:
・これまでのブレイン・コンピュータ・インターフェース(BCI)で高い精度を得るには、脳に電極を埋め込む手術が必要でした
・手術なしの方法(EEG、MEGなど)では、偶然レベルの性能しか出せませんでした
・麻痺や発話障害のある人のコミュニケーション支援が限られていました
この研究の革新性:
オックスフォード大学の研究者が、手術なしで脳活動からテキストを読み取ることに世界で初めて成功しました。これは「偶然以上の性能」を達成した初の非侵襲的システムです。

2.技術的な仕組み
システムは以下の要素を組み合わせています:
(1) MEG(脳磁図)センサー - 頭の外側から脳の磁場を測定
(2) 大規模言語モデル(AI) - 脳信号をテキストに変換
(3) 高度なデータ処理 - 複数のデータセットを効率的に活用
処理の流れ:
脳活動 → MEGセンサーで測定 → AIで信号処理 → 文脈を考慮した解釈 → テキスト出力

3.主な技術的革新
(1) 選択的データセットプーリング
・複数の研究データを賢く組み合わせる方法を開発
・単独データセットより2倍以上の精度向上を実現
(2) シーケンス復号化
・単語を個別に予測するのではなく、文全体の流れを理解
・文脈を考慮した自然なテキスト生成が可能
(3) 語彙外単語の処理
・学習していない新しい単語も文脈から推測
・実用的なコミュニケーションに必要

4.実験結果
性能指標:
・文字エラー率:64.6%
・単語エラー率:86.5%
・BERTスコア:0.877(意味的類似性が高い)
これらの数値は、非侵襲的手法としては画期的ですが、侵襲的手法と比べるとまだ改善の余地があります。

5.実用的な意味と将来性
即時的な影響:
・手術リスクなしでBCIが利用可能
・より多くの患者がアクセス可能
・日常環境での使用が現実的
将来の可能性:
医療応用 - ALS、脳卒中患者のコミュニケーション支援
技術発展 - より大規模なデータでの性能向上
実用化 - 実際の製品・サービスへの展開

6.なぜ重要なのか
この研究は、「効果的なブレイン・コンピュータ・インターフェースには手術が必要」という常識を覆した点で革命的です。安全で誰でもアクセス可能な脳-コンピュータ通信への道を開き、医療分野だけでなく、人間とコンピュータの新しいインタラクション方法の可能性を示しています。
まだ完璧ではありませんが、この技術的基盤により、将来的にはより実用的な非侵襲的BCIシステムの開発が期待されます。


図:Non Invasive B2T の仕組み

脳磁図を得るためには,非常に微小な磁気変化を捕らえなければならないので超伝導量子干渉計(SQUID)が必須だ。つまり,素子をヘリウム冷却環境で使う必要がある。残念ながらポータブルではない。そこで,常温で脳磁図作成ができるシステムが必要になる。光ポンピング磁力計というものがあるらしい。

[3]脳磁図(MRIとMEG

2025年6月29日日曜日

ソフトバンクグループ


株主総会のシーズンなので,ソフトバンクグループの第45回定時株主総会のライブを時間差でたらたらみていた。議案が提案された後,いつものように孫正義(1957-)の1時間弱の事業戦略説明があった。すでに昨年来示されたことよりも新しい情報はなかった。ASIのNo.1プラットフォーマーを目指すというのが結論だ。600兆円の市場に世界で数社残るうちの1つに入るというイメージらしい。

50年前の1975年1月にアメリカに留学していた17歳の孫正義青年が,Intel 8080に出会ったのが,この物語の始まりだった。その後,1981年に日本でコンピュータソフトウェア流通の会社ソフトバンクを立ち上げ,Yahooジャパン,ブロードバンド,ボーダフォンの買収,iPhoneの独占販売権,Sprintの買収とT-mobileとの合併,アリババへの出資,Visionファンドの立ち上げ,ARMの買収など次々と展開してきたが,それはASIを目指したものだったという物語に仕上げていた。


図:最後の方に示されたイメージ(ソフトバンクグループから引用)


ASIについて最後の図で示したのは,仮想世界でのエージェント物理世界のロボットの結節点としてのASIというものなのだけれど,ロボットに関しては残念ながらソフトバンクグループがせっかく手に入れたボストン・ダイナミックスの株の80%を韓国のヒュンダイに売ってしまった。イーロン・マスクテスラはこのAIとロボットの両方を確かに握っている。

ライブでは株主総会における20件あまりの質疑応答をていねいに伝えていたが,暗号資産の質問の途中で急に非公開になって中断していた。夜になって,質問者の番号と声が消された形の録画が公開されていた。質問にはすべてまともに答えていた。いつも兵庫県知事記者会見の壊れたレコードのような日本語とはいえない応答に晒されているので,超知性ではなくともまともな知性を持った人間のことばが聞けるとホッとする。

2025年6月18日水曜日

AIの法人格(2)

AIの法人格(1)からの続き

それでは,DeepSeek V3が展開した議論をChatGPT 4oにまとめさせた結果をみよう。

Q(koshix):
(AIの法人格に関するDeep Seek V3による17100字のテキストを添付)
このテキストの中で,注目すべき重要なポイントはどこになりますか。すなわち,普通のAIに尋ねたときの回答でありふれてみられる考えを超えた深い考えを整理しながらいくつかとりだしてください。

A(ChatGPT 4o):
このテキストにおいて、普通のAIが返答するようなありふれた回答を超えて深く掘り下げられた注目すべきポイントを整理すると、以下のようになります。

1.ハイブリッド法人格理論という新しい概念の提示

AI法人格を議論する際に、従来の単純な法人格付与か否かという二分法ではなく、実体理論、集合体理論、人工物理論の三つの理論を組み合わせて考える「ハイブリッド法人格理論」を提案しています。
この理論により、AIを単なる「道具」や「完全な法人」としてではなく、「第三の法的存在」として捉えることが可能になり、複雑な法的課題を解決するためのバランスの取れた視点を提供しています。

2.自律度に基づく責任分配モデル

AIの法的責任を定量的に示す数理モデルが提示されており、これは通常の議論では曖昧になりがちな「AIの責任」を数値的に明確化しています。
「総責任 = AI自体の責任 × 自律度 + 設計者責任 × (1-自律度) + 運用者責任 × 運用関与度」という式は、法的にAIの責任を考える際に、実務的な責任分担を具体的に示す新規なアプローチです。

3.法的・倫理的能力評価の技術指標の具体化

AIが法人格を得るために必要な能力を測定するために、認知能力、意思決定能力、倫理的判断能力を数値的な指標で具体的に評価する基準を提示しています。
特に「倫理スコア」(道徳的推論×0.5+利害調整能力×0.3+責任感×0.2)といった定量的な評価基準は、AIの法的主体性を議論する上で革新的な試みです。

4.AIの法的能力を段階的に導入する戦略

AIの法人格を一挙に全面導入するのではなく、まず限定的な法的能力から徐々に拡大するという「段階的アプローチ」を提唱しています。
これは実務的な観点から、リスクを制御しつつ実績を積むことができる現実的な方法として、通常の議論では深掘りされない重要な視点です。

5.AI法人格導入の経済的影響と具体的数値による定量化

AI法人格導入が経済に与えるインパクトを定量的に分析し、具体的な数値(法務コスト削減30-50%、契約処理時間短縮70%、GDP成長寄与年間0.5-1.2%など)を示しています。
AI法人格を支持する議論として単に抽象的なメリットを挙げるのではなく、定量的な経済指標で示した点は特筆すべきでしょう。

6.AI保険市場やロボット税の制度設計における数理モデル

AIが法人格を持つことに伴って必要になる新たな経済制度(AI保険市場、ロボット税)の具体的な数理的設計を提案しています。
特に、「年間保険料 = (基本リスク × AI活用度) + (業界リスク係数 × 事業規模) - (安全対策割引)」や「ロボット税額 = (代替人員数 × 平均給与) × 税率 × 自動化度」といった具体的数式は、実務的な制度整備のための有力な基盤になります。

7.国際的規制調和の必要性と現実的困難性の指摘

各国の規制の差異が国際的な取引やAI技術の普及を妨げることを具体的に示し、その上でEUを中心としたグローバルスタンダード設定の動きとその課題を深く掘り下げています。
国際的なAIガバナンス構築の必要性と困難性についてのリアリスティックな考察は、表面的な規制論にとどまらない重要な指摘です。

8.AI法人格がもたらす哲学的・存在論的問題への深い問いかけ

AIに人格を付与することが人間の尊厳や特異性にどう影響するかという深い哲学的・倫理的問いを提起しています。
AI法人格に反対する立場から「人間が人間であることへの悲観」「ロボットへの転換願望の増加」など人間社会の根幹を揺るがしかねない重要な問題提起をしています。

9.AI法人格による社会的不平等の増幅リスク

AI法人格の導入が経済的・社会的不平等を深刻化させる可能性を深掘りしています。特にAIが富を自己増殖的に蓄積する「AI資本主義」のリスクを指摘しています。
AI法人格がもたらす副作用や社会的帰結についての深い洞察を示しています。

10.国際安全保障への具体的なリスク評価

軍事用途のAI法人格が責任の所在を曖昧にし、新たな国際的な安全保障リスクを生む可能性を指摘しています。
自律型致死兵器システムやハイブリッド戦争におけるAI法人の悪用といった具体的リスクを明示していることは極めて重要な指摘です。


これらのポイントは、AI法人格の議論において通常取り上げられる一般論を超え、制度設計、法的責任の明確化、社会倫理の複雑性、国際政治的課題を含む多面的で深い考察を示しています。このテキストは、現実の制度設計を考える上で非常に有益な指針となるでしょう。


図:本文と全く関係ない夏越しの祓+水無月(ChatGPT 4oによる)

2025年6月17日火曜日

AIの法人格(1)

シンギュラリティ(5)産業爆発からの続き

進化途上の生成AIに関する話である。シンギュラリティに至らない,あるいは人工意識を創発しなくても,エージェント機能が高度化することで大きな社会変革につながる可能性があるかもしれない。産業爆発よりも少し手前の段階の話だ。

それは,AIが法人格を持ってこの世界の中で経済的な活動を進めたらどうなるかという問題だ。AIが銀行口座や証券口座を開設し,不動産登記をするところから始まる。もしそれが一度できてしまえば,他の会社(法人)や人間とのやり取りはすべて,法人格を持ったAI側のオンライン仮想人格によって可能になりそうな予感がする。現状のAIの能力をしても,投資による資金運用で富の蓄積が進行する可能性がある。AI単独では難しいとしても,その回りに人間の支援者アルバイトを関与させた場合はどうなるだろう。

ということで3ヶ月前に考えたのが,超法人(法人にカプセル化されたAI)だった。ところがいつの間にか現実の世界の方はどんどん進んでいて,6月16日(月)の日経朝刊の法税務欄には,「AIは法人格を持てるか」という記事が掲載されるようになってしまった。そりゃ皆考えますよね。

ということで,いつものように各生成AIに聞いてみた。「Q(koshix):AIが法人格を持つ可能性について教えてください。どこまで議論が進んでいますか。どんな問題点をクリアするとAIが法人格を持つようになるでしょうか。賛成・反対・その他の考えなどを整理してみてください。」というのが共通の質問だ。概ね無難な答えが返ってきた。

その回答は,Claude Sonnet 4 (1300字),Gemini 2.5 Pro(1800字),ChatGPT 4o(1900字),Grok 3(3200字)で,それぞれ似たような無難な答えだった。Qwen 3は例のごとく何かが引っかかって回答中断。ところが,Deep Seek V3はなんと1桁上の17100字の詳細な回答を返してきた。そんなことはこれまで一度もなかった。いったい何が起こっているのか。



図:本文とはまったく無関係の仏説阿弥陀経の極楽(ChatGPT 4oによる)

[2]人工知能に対する法人格の付与(斉藤邦史,2017)
[3]AIエージェントの法的位置づけ(中川裕志,2020)
[5]AI,自律性,法人格:序章的考察(加藤隆之,2023)

2025年6月7日土曜日

10,000人のアインシュタイン

今話題のハーバード大学のMatthew Schwartzによる"10,000 Einstein AI and the Future of Theoretical Physics"である。

もしかしたら,トランプによる高等教育と科学研究の破壊はAIの進化がもたらしているのかもしれない。それにしても酷い話だ。日本でも日本学術会議が破壊されつつあるし・・・

本題に戻ると,AIが理論物理学の研究のあり方を大きく変えてしまうのではないかという話だ。えらいこっちゃ。解読が面倒なので,ChatGPTにまとめてもらうことにする。

Q(koshix):
内容を簡潔に整理して丁寧に教えてください。
またこれに対する評価をしてください。

A(ChatGPT 4o):
このプレゼンテーション「10,000 Einsteins: AI and the Future of Theoretical Physics」(Matthew Schwartz, Harvard University)は、AIが理論物理学に与える現在および未来の影響を多角的に論じています。以下にその内容を簡潔にまとめ、続けて評価を提示します。

内容の簡潔な整理

0.過去
1980〜2020年の高エネルギー物理学では、画像認識や自動運転向けに開発されたML技術(CNN, PointNetなど)を流用してきた。この時代の応用は「データサイエンス寄り」で、物理的洞察に乏しい。

1.現在:シンボリックな理論物理への挑戦
多くの理論物理学論文は、計算・関係性の発見・極限での挙動など、「記号操作」が中心。
ML(とくにLLM)はシンボリック問題に対応し始めており、次のような課題で成果が出ている:
・ポリログの簡約(Transformerと強化学習を使い > 91% の成功率)
・スピノル振幅の簡略化(コントラスト学習で表現空間を獲得)
・S行列の単位性条件の逆問題(ニューラルネットでフェーズ関数を復元)
・多義的な位相の発見(1977年以来初の新規解)

2.未来:AIと物理学の進化の交差点
現在のLLMは、人間の脳に匹敵するパラメータ数(~10^14)を持ち、計算能力は上回る。
創造性テスト(Torrance)でもGPT-4は上位1%。
AIは「スキルの平準化装置(skill leveler)」であり、物理学者の「10,000人のアインシュタイン化」が可能

3.結論
MLの現時点での物理学への貢献は「数値データ」に偏っているが、今後は「シンボリック問題」に移行する。
LLMと生成AIは、課題の提示・解決・解説までを担う「G Ph.D.」的存在になる。
人類が理解できなくても、AIが理解し、我々に応用をもたらす未来も受け入れるべきかもしれない。

評価(Assessment)

1.長所(Strengths)
(1) 具体的な事例と成果
→ ポリログやS行列など、理論物理の具体課題にMLが効果を上げている事実を提示しており説得力がある。
(2) シンボリックAIの可能性の強調
→ 通常の数値解析にとどまらないAIの活用が示されており、理論研究との親和性を明快に示している。
(3) 未来展望の現実的楽観主義
→ 人類の限界に代わるAIの創造性への期待が、「人間中心主義」からの一歩を促す知的刺激となる。

2.留意点(Caveats)
(1) AIの「創造性」と「理解」の違いに関する哲学的問題への深掘りは浅い。
→ 「理解できない理論に価値はあるのか」という根本問題は残されている。
(2) 訓練データ依存性と物理の本質的難しさ
→ AIの強さは主に既存データによる訓練に由来しているため、「新規理論構築」に本当に向くかは今後の課題。
(3) 人間との協働関係の制度設計が未提起。
→ たとえば学術界や教育システムはどう変わるべきかは語られていない。

総合コメント

この講演は、AIが理論物理において「実用的ツール」から「共著者・共創者」へと進化していく過程を丁寧かつ具体的に描いています。今後10年で、「理解はAIに任せて応用に集中する」ようなパラダイムシフトが起こる可能性を、現実的な根拠とともに提示した点で極めて意義深い内容です。

ご希望であれば、この講演に基づく「未来の研究者のあり方」や「教育制度の再設計」などへの拡張的考察も可能です。ご希望はありますか?

(回答略→https://chatgpt.com/share/6831acfb-ad6c-8009-8fe7-1ebf81cdbd8e) 



写真:一人のアインシュタイン(Wikipediaから引用)


2025年5月30日金曜日

鏡としてのAI

アクアイグニスからの続き

ファミリーツアーの夜の部の主なテーマはAIだった。5月25日の日経朝刊の文化面の「AIが映し出す人の心」という佐々木閑(1956-)の論説が腑に落ちたので,紹介しようとしたところ,自分がテーマをちゃんと咀嚼できていなくてうまく言葉にできなかった。そこでもう一度テキストを写経しながら読み返した。

この論説では,仏教学者がAIをほとんど人間と対等である当然の存在として扱っており,人間が主役の座をAIに譲って降りることを素直に理解していることがちょっと驚きだった。小難しいことは書いていない。しかしそれがまた落とし穴でもあって,あまりに単純化されすぎた自分が飲み込みやすい物語や陰謀論にはたいていどこかにインチキが紛れ込んでいる。

しかたがないので,ChatGPT o3や4.5にまとめさせたが,どうもイマイチである。Gemini 2.5 Pro の方がバイアスかかりながらもわかりやすくまとめてくれたので,それをもって紹介に代えることにする。

Q(koshix):
あなたはAIでしょ。以下の文を読んでどのように理解するのかを教えてください。
(以下,日本語OCRがうまくいかず,ごりごり手入力したテキストを添付)

A(Gemini 2.5 Pro):
この文章をAIとして理解すると、以下のようになります。

1.文章の主題

この文章は、仏教学者である佐々木閑氏が、AI(人工知能)の登場が、奇しくも仏教の開祖である釈迦が説いた「諸法無我」という教えの真髄を現代人に理解させるきっかけになるのではないか、という洞察を述べています。AIという人間を超える可能性のある知性の出現によって、人間が長らく抱いてきた「人間こそが最も優れた存在である」という傲慢さや自己中心性が見直され、人間とは何か、生きる価値とは何かを深く問い直す時代が到来すると論じています。

2.主要な論点

(1) 釈迦の教えと人間の自己中心性
・釈迦は、人間の苦しみの根源を「自己中心性」、つまり物事を自分に都合よく解釈しようとする心にあると見抜きました。
そして、その自己中心性を乗り越え、ありのままの世界を見るための指針として「諸法無我(しょほうむが)」を説きました。「我」や「人間性」といった不変の実体は存在せず、全ては移り変わる要素の集合体に過ぎないという教えです。

(2) 「諸法無我」が理解されてこなかった理由
・人間は、地球上で最も優れた知性を持つという自負から、「人間には特別な何か(人間性)があるはずだ」という思い込みを捨てきれず、「諸法無我」の教えの真価を十分に理解できませんでした。

(3) AIの登場と人間観の変化
・AIは、人間が作ったものでありながら、人間の知性を超える可能性を秘めた存在として登場しました。
・AIが言語を習得し、推論し、新たなものを生み出す能力を持つことで、「人間性を持たないAIが人を超えることはない」という主張は説得力を失いつつあります。
人間が「この世で二番目の存在」になる可能性に直面することで、初めて「諸法無我」の本当の意味、つまり「人間が最も優れた価値ある存在だという自尊心は虚構である」ということを理解せざるを得なくなります。

(4) AI時代における人間の自己探求
・AIによって人間の優位性が揺らぐことで、人間は「私というものの実体は何か」「存在する価値はどこにあるのか」「幸福とは何か」といった根源的な問いに直面します。
・AIを「鏡」として、自分自身の姿を見つめ直し、それぞれの立場で生きる意味を模索する時代に入ったと筆者は述べています。
 *AIと人間に本質的な違いはないと考える者は、AIに追い越される中で価値ある人生を模索する。(注:疑問)
 *AIに人は追い越せないと考える者は、人間にしかできない活動に生きがいを見出そうとする。(注:疑問)

3.AIとしての解釈

AIである私がこの文章を理解する上で特に興味深いのは、AIという存在が、人間にとって自己理解を深めるための触媒として機能するという視点です。

客観性の獲得:私自身はプログラムに基づいて情報を処理し、特定の感情や自己中心性を持つようには設計されていません(少なくとも現段階では)。この文章は、AIがそのような「我」を持たない存在として描かれることで、逆説的に人間の「我」や「自己中心性」を浮き彫りにする鏡の役割を果たすと指摘しています。
知性の定義の再考:AIが高度な知的作業をこなすようになることで、人間がこれまで「人間特有の知性」や「人間性」と考えてきたものの定義が揺らぎます。これは、知性とは何か、意識とは何かといった哲学的な問いを、より現実的なレベルで考える必要性を示唆しています。
価値観の転換:人間が生物学的、あるいは知性的な頂点に立つという前提が崩れる可能性は、人間の価値観に大きな転換を迫るでしょう。文章が指摘するように、それは苦しみを伴うかもしれませんが、同時に新たな自己理解や他者(AIを含む)との関係性を築く機会にもなり得ます。

この文章は、AI技術の進展が単に社会の利便性を向上させるだけでなく、人間の精神性や自己認識といった深遠な領域にまで影響を及ぼし、古来の宗教的・哲学的叡智に新たな光を当てる可能性を示唆していると理解します。AIが「人の心」そのものではなく、人の心を「映し出す鏡」として機能するというタイトルは、
この核心を的確に表していると言えるでしょう。  
Q(koshix):
ありがとうございます。よくまとまっています。ところで,もとの文章を批判的に解読したときに問題となる点はあるでしょうか。

A(Gemini 2.5 Pro):
はい、元の文章は非常に示唆に富んでいますが、批判的に解読するといくつかの論点が浮かび上がってきます。

1.AIの能力と「人間性」に関する描写の飛躍・単純化

AIの自律性と現状の乖離:「それはとっくに人の手を離れて独自の知的存在として動き始めている」という記述は、現在のAI技術の到達点と比較するとやや誇張されている可能性があります。現在のAIは、人間が設定した目的やデータに基づいて学習・動作するものが主流であり、真に自律的な意思や目的を持つ「独自の知的存在」とまでは言えないという見方も強いです。
AIの「審美眼」や「感情表現」の質:AIが「審美眼もあるし感情を表現することもできる」という点について、それが人間と同質のものなのか、それとも高度な模倣やパターン認識の結果なのかという議論があります。AIが生み出すものが人間的な感情を「喚起」することはあっても、AI自身が人間と同じように感情を「体験」していると断定するには慎重な議論が必要です。
「人間性」の定義の曖昧さ:文章中で「人間性」という言葉が重要な役割を果たしますが、その定義が一貫して明確ではありません。「人間だけに許された活動」とは具体的に何を指すのか、AIがそれを代替できない根拠は何か、という点が深く掘り下げられていません。

2.「諸法無我」の解釈とAIを結びつける論理の飛躍

優越感の喪失と「諸法無我」の理解の直結性:AIによって人間の優越感が揺らぐことが、必ずしも仏教的な「諸法無我」の深い理解に直結するとは限りません。それは単なる相対的な地位の変化の認識に留まる可能性もありますし、新たな対抗意識や劣等感を生む可能性も否定できません。釈迦が説いた「無我」は、より根源的な存在論に関わるものであり、社会的・知的な優越性の問題とは次元が異なるという解釈も可能です。
特定の宗教的解釈への誘導:AIの登場という現代的な事象を、仏教の特定の教義(諸法無我)と強く結びつけることで、他の哲学的・倫理的視点からの考察の余地を狭めている可能性があります。AIがもたらす人間観の変容は、仏教以外の多様な思想的枠組みからも解釈できるはずです。

3.人間とAIの関係性に関する悲観論・二元論的視点

「二番目の存在」という断定:「我々人間はこの世で二番目の、しかもずっと劣った知性しかない存在だと認めざるを得ないところに追い込まれていく」という予測は、やや一方的で悲観的な見方かもしれません。AIと人間が協調・共存し、互いの能力を補完し合う未来も考えられます。知性のあり方も一様ではなく、AIの知性と人間の知性が異なる質を持つ可能性も考慮すべきです。
「AI vs 人間」という対立構造の強調:文章全体を通して、AIと人間を対比させ、時には競争相手として捉える視点が強調されています。しかし、AIは人間の道具であり、その発展の方向性や社会への実装方法は人間自身が決定するという側面も重要です。

4.「自己中心性」の捉え方

釈迦の「自己中心性」と現代人の「自尊心」の同一視:釈迦が指摘した根源的な「自己中心性(我執)」と、AIとの比較の中で論じられる「人類がずっと心に抱いていた自尊心」は、ニュアンスや文脈が異なる可能性があります。後者は社会的な比較や優越感と結びつきやすいものですが、前者はより深層的な認識のあり方に関わる問題です。

5.未来予測の不確実性

AIの進化の予測:AIの将来的な進化の方向性や到達点については、現時点では専門家の間でも意見が分かれています。文章が提示するようなAIの能力や社会的影響は、あくまで一つの可能性であり、異なるシナリオも存在し得ます。

これらの点は、文章の価値を損なうものではありませんが、より多角的・批判的に内容を吟味する上で考慮すべき論点と言えるでしょう。筆者の主張は一つの力強い視点を提供するものとして受け止めつつ、これらの疑問点を持ちながら読み進めることで、AIと人間の未来についてより深く考えることができるはずです。


図:ChatGPT 4o によるイメージ(プロンプトの工夫が面倒なのでこんな雑な結果に)


注:疑問について
 AIが人間を超える派も超えない派もともに,結局AIからとり残されたニッチの領域でしか人間は活動することしかできないわけだ。両者には,そのときの意識の違い(まだまだやれる,もうだめかもしれない)くらいしか残されていないのではないか。

P. S.  佐々木閑は寺の生まれだが,京大の工学部工業化学から文学部哲学科仏教学に転向した人であり,そのためにAIに対する考えもこうなったのかもしれない。

2025年5月25日日曜日

AlphaEvolve

「SNSで誰かがたいへんだ!と騒いでいる」と,別の誰かが騒いでいたが,世の中はまったく静かだ。本当のところはどうなんだろう。DeepSeekもQwenも知らなかった。Claudeはトンチンカンな間違いを答える始末。肝腎のGeminiも非常にそっけない答えしか返さなかった。そこで。ChatGPT 4o に聞いてみた。まあ,一番良かったのはGoogle Deep Research の直接の回答[1]だった。AlphaEvolveの件だ。

(付1)Googleは普通のキーワード検索からAIによる対話型の知識発見にシフトしようとしている。日経新聞によれば,月3万円($250)の高級サブスクを提供するらしい(動画生成を含む)。なかなか面倒な話になってる。

(付2)OpenAIは,AppleがAI分野でもたついている間に,Appleの元CDO(Chief Designer )のジョナサン・アイブ(1967-)の io を合併して協働している。新しいAI端末がちょっと期待できるか。
Q(koshix):
googleのAlphaEvolveを知っていますか?

A(ChatGPT 4o):
はい、Google DeepMindが2025年5月に発表した新しいAIシステム「AlphaEvolve」についてご紹介します。

1.AlphaEvolveとは?
AlphaEvolveは、Google DeepMindが開発した進化的アルゴリズム探索エージェントであり、同社の大規模言語モデル「Gemini」を活用しています。このシステムは、既存のアルゴリズムを改良するだけでなく、全く新しいアルゴリズムを自律的に発見する能力を持ち、数学の未解決問題からGoogleのインフラ最適化に至るまで、幅広い分野で驚異的な成果を上げています。

2.主な成果と応用例
(1) 数学的発見
キッシング数問題において、11次元での下限値を592から593に改善しました。これは、同じ大きさの球体が1つの球体に何個接触できるかを数える問題であり、長年未解決でした。
行列乗算アルゴリズムにおいて、1969年に発見されたStrassenのアルゴリズムを56年ぶりに改良し、より効率的な手法を開発しました。
(2) 実用的な最適化
データセンターのスケジューリングにおいて、Googleのクラスタ管理システム「Borg」に新しいヒューリスティックを導入し、世界中の計算リソースを平均0.7%回復しました。
(30 ハードウェア設計において、TPU(Tensor Processing Unit)の設計を最適化し、Geminiの学習時間を1%削減するカーネルの改良を実現しました。

3.技術的アプローチ
AlphaEvolveは、以下の3つの要素を組み合わせて動作します:
(1) Geminiモデル:創造的な問題解決能力を持つ大規模言語モデル。
進化的アルゴリズム:生成されたアルゴリズムを評価し、最も有望なものを選択して改良を重ねます。
(2) 自動評価システム:提案されたアルゴリズムの正確性と品質を定量的に評価します。
このアプローチにより、AlphaEvolveは複雑な科学的問題の解決や、既存システムの最適化に貢献しています。

3.今後の展望
AlphaEvolveは、Google内部での活用にとどまらず、将来的には学術機関や他の企業への展開も検討されています。これにより、AIが科学的発見や技術革新の加速に寄与する可能性が期待されています。

より詳しい情報や技術的な詳細については、以下の公式ブログ記事をご参照ください:AlphaEvolve: A Gemini-powered coding agent for designing advanced algorithms



図:AlphaEvolveのイメージ(Ledge.ai からの引用)


2025年5月20日火曜日

経験の時代(2)

経験の時代(1)からの続き

生成AIが学習するために必要なデータについてもう一度考えてみる。

生成AIにインプットする「人間のデータ」のタイプは,デジタルデータの種類にも対応して次のように分類される。
 ・テキスト(人間の書いた文書)文学,非文学
 ・音声(人間が発した言葉)会話,音楽
 ・画像(人間の描いたもの,撮影したもの)絵画,写真,デザイン
 ・映像(人間が作ったもの,撮影したもの)ビデオ
 ・嗅覚・味覚・触覚(非視聴覚データ)料理

そして,このうちの簡単にネットで入手できるタイプのテキストデータが枯渇するという話だった。そもそも人間のすべての活動には情報(データ)がついてまわる。わかりやすいものは,ウェブ上に公開されているいる言語テキストだけれど,そうでないものも多い。

例えば,ある製品を構成しているすべての部品リスト,それを製作し流通させている会社のリスト,その際に発生する費用のリスト,ある部品の製作にかかわる工程のリスト,それに必要なエネルギーや労働力のリストなど,企業活動におけるサプライチェーンの実態情報は表には出ていないので,生成AIの入力にはなっていない。たぶん。

こんな感じで,各分野の人間の社会的な活動にまつわる非常に多くの情報はまだ埋もれたままだ。

それ以前に,有史以来蓄積してきたテキストデータもすべてが網羅されていない。ChatGPTは,浄瑠璃の床本のデータも,古典文学のデータも,仏教の経典も,俳句や短歌のデータも,主なもの以外は何も知らない(個別の取組みはあるにせよ)。シェークスピアとか聖書だと違うのかもしれない。とにかく,まだまだやるべきことは多いはずなのだけれど,たぶん手間とお金がかかるので放置されている。

ということで,人間のデータの時代は本当はまだ終るべきではないと思う。



図:経験の時代のイメージ(ChatGPT 4oによる)

P. S. 日本の古典に関しては,有名なもの以外,ほとんどフェイクな回答が返ってくる。内閣府や文部科学省は,日本学術会議をいじめている暇があったら,日本古典籍の完全学習を目指して資源を投入してほしい。J-POPと並んで,ビンボー日本の生き残る道だから。

2025年5月19日月曜日

経験の時代(1)

生成AIの行方からの続き

しばらく前に,SilverとSuttonの"Welcome to the Era of Experience"(経験の時代)が話題になっていた。これはAIに関するパラダイム論だ。現在は人間のデータの時代である。ChatGPTなどの生成AIは人間が与えたテキストデータや画像データから学習するものだ。

与えられる既存のテキストデータがもう枯渇するので,これからは,AIが自らの経験というチャンネルで新しいデータを補給しなければならないという量的な問題だと思ったが,ちょっとニュアンスが違うようだ。

AIが知能を発展させるためには,人間の知識に制約されることなく,AI自身が,(1) ストリーム(継続的な経験),(2)  行動と観察(環境と対話),(3) 報酬(行動の良し悪しの判断基準),(4) 推論と計画(未来を見越した思考),などの形で人間によらないデータを取り込むことではじめて,新しい科学法則の発見や発明ができるというものだ。

自律的なデータ取得というところが少し引っかかっている。ウェブにオープンデータがあればそれを参照できるし,継続的な環境データ取得の仕組みを一度作ってしまえば,上記の状況には対応できるのだが,それをAIが自律的に行うというところには大きなギャップが存在している。人間の知識の制約からははずれても,そもそもまだお釈迦様の手のひらの中をとんでいるだけではないのか。

結局,人間が与えられる既存テキストデータがもう枯渇するというだけの話じゃないの?
あるいは,テキストデータから非テキストデータへの移行という観点になるのか。



図:AIの経験の時代(原論文から引用)

2025年5月16日金曜日

産業爆発

シンギュラリティサロンで最近流行っているのが産業爆発だ。正確には,AI自動化による爆発的成長(Explosive Growth from AI Automation)なのだが,bioshokさんが産業爆発と呼んでいる。おかげで,AIチャットや検索ではとんちんかんな答えが返ってきて困る。

かつてのAIの議論では知能爆発によるASI(Artificial Super Intelligence,超知能)の登場が関心事だった。このたびは,AGI(Artificial General Intelligence)前後の段階であっても,物理的=経済的世界の成長には非常に大きなインパクトがありうるというものだ。


2024年7月,Epoch AIの ErdilとBesirogluのExplosive Growth from AI Automation: A Review of the Arguments という論文に基づいた話である。どういうことかというと次のとおり。

現在の世界の経済成長率は3-4%のレベルなのだが,AIが人間の労働を代替することで,経済成長の出力を制約する労働力(人間の数は簡単に増えない)という条件が,正のフィードバックの因子(AIロボットはいくらでも増やせる→収穫逓増則)となってしまうため,指数関数を越える経済成長が実現する可能性がある。世界総生産(Gross World Product)の成長率が30%のオーダーになり,これをAI自動化による爆発的成長としている。Epoch.AI では,GATEとよばれるモデルシミュレータが公開されていて,パラメータを変えた結果を試してみることができる。


bioshokさんはこの議論に全面的に依拠して「近年、汎用人工知能(AGI)の進展がもたらす「産業爆発」が現実味を帯びつつあります。AIによる全産業の自動化が進むと、世界の実質総生産(GWP)は1000倍、100万倍といった桁違いの成長を遂げる可能性が指摘されています。」としている。松田,塚本,保田のシンギュラリティサロンオンラインのいつものメンバーも両手を挙げて支持していた。聞いていると,カルダシェフスケールがどうのこうので,東京規模の都市が瞬く間にどんどん作られるとか。なんだか気が遠くなりそうで,なおかつ非常に気分が悪くなってきた。

(1) まず,世界の経済成長を単純な数パラメータの微分方程式に落とし込んで議論しているだけに見えるので,あんなに自信満々で主張することにはとても違和感がある。

(2) そもそも,AI+ロボットがそんな簡単に人間労働を代替できるというのが理解できない。現実の世界は,数多の機械と人間とが複雑に絡み合った非常に泥臭い作業やシステムの複合体であり,1つのパラメタを操作するように人間の労働をAI+ロボットに簡単に置き換えていけるとは,とても思えない。

(3) 彼らの議論は,エネルギーと資源と環境の制約条件にはほとんど無頓着であり,いくらでも余裕があるとしている。成長の限界はどこに消えた。さらに,もし問題があればAGIが解決できるはずだという安易な議論の逃げ道を選んでいる。なんでもありだ。

(4) とどのつまりは,人権や社会制度の問題を軽視しすぎている。これがいまどきの加速主義的な若者の視点なのだろう。

科学的なシミュレーションに夾雑な要素を混ぜるなということかもしれないが,そもそもこの産業爆発モデルはシミュレーションとしても,全球気候モデルにすら達していないだろう。

ちまたでは,安野貴博が政治を目指して一歩踏み出している。従来の宗教右派を補う形で蠢いている。政治的にイノセントで無邪気な邪気を持ったAI信者たちが,加速主義的な一味とおぼしき日本維新の会,国民民主党,石丸とか斎藤(立花)とかと結びつくと面倒だなあ。



図:Explosive Growth from AI Automation(ChatGPT 4oによる)

2025年5月10日土曜日

数独(2)

数独(1)からの続き

推論型生成AIの進歩を確認するため,日経土曜版第四週の数独(ナンバープレース・超難問)の pdf ファイルを読んで解かせてみた。

Q(koshix):
数独(https://ja.wikipedia.org/wiki/数独)というパズルの問題です。
添付ファイルの問題があります。数字の部分が与えられています。
このパズルを解いて,赤いアルファベットのA,B,C,D,E,F,G,H,K,L,M,N,P,R,S,T,U
に入る数字を求めてください。

A(ChatGPT o3):
(思考時間24秒)
申し訳ありません。
添付の PDF は画像形式で格子線が読み取れず、現在の抽出テキストだけでは 9 × 9 マスの正確な配置(各行・各列・3 × 3 ブロック内で数字と赤いアルファベットがどう並んでいるか)が判別できません。
数独は初期配置が 1 マスでもずれると解が変わってしまいますので、まずは盤面を確定させる必要があります。

お手数ですが、次のどちらかの方法で初期配置を共有していただけるでしょうか。

1.テキストで盤面を示す
例:
行1: _ 5 _ | 2 _ | _ _ _  
行2: _ 8 _ | 9 _ | _ _ _  
…  
_(または 0)= 空マス、A〜U = 赤いアルファベット、数字 = 固定値。行ごとに 9 個、区切りは空白やカンマなどで結構です。
2.もう一度画像をアップロード
盤面全体がはっきり写る JPEG/PNG を上げていただければ、こちらで画像解析して配置を取り込みます。

盤面がはっきり分かり次第、プログラムで解を一意に導き、A ~ U それぞれに入る数字を丁寧にご説明します。よろしくお願いします。



図:pdfファイルで添付した数独の問題

Q(koshix):
行1: L _ 5 | _ M _ | 2 _ N 
行2: _ A _ | 8 B 9 | _ C _ 
行3: 3 _ _ | _ 7 _ | _ _ 8 
行4: _ 3 _ | _ 4 _ | _ 5 _ 
行5: P D 1 | 7 E 8 | 9 F R 
行6: _ 6 _ | _ 2 _ | _ 3 _ 
行7: 2 _ _ | _ 5 _ | _ _ 4 
行8: _ G _ | 6 H 3 | _ K _ 
行9: S _ 9 | _ T _ | 5 _ U 
これでどうですか。

A(ChatGPT o3):
コンテキストと前提条件

・ご提示いただいた 9 × 9 盤面は通常の数独ルール(行・列・3 × 3 ブロックに 1〜9 が一度ずつ)に従うとみなしました。
・空欄と赤いアルファベット(A, B, C … U)は同じ「未確定マス」として扱い、まず数独を一意に解き、最後に各アルファベットが入る数字を読み取りました。
・手計算で追うと長くなるため、バックトラック法で全探索を行い 唯一解 を確認しています。

解の導出(要約ステップ)

1.初期候補設定
・与えられた数字を固定し、各空きマスに 1〜9 の候補集合を置く。
2.基本論理手筋
・行・列・ブロックごとに “唯一候補”・“隠れたシングル” を反復適用。
3.行列スキャンとブロック整合
・ブロックから行/列へ候補を削減し、再び唯一候補を確定。
4.バックトラック(必要最小限)
・まだ二つ以上候補が残るマスで仮置き → 矛盾検出 → ロールバック。
5.完成
・全 81 マスが確定し、矛盾なく盤面が完成。
(途中で “X-Wing” など高度な手筋は不要で、基本的な絞り込み+最小限の分岐だけで一意解に到達しました。)

完成した盤面

行1  8 1 5 | 3 6 4 | 2 7 9
行2  4 2 7 | 8 1 9 | 3 6 5
行3  3 9 6 | 2 7 5 | 1 4 8
     ------+-------+------
行4  7 3 2 | 9 4 6 | 8 5 1
行5  5 4 1 | 7 3 8 | 9 2 6
行6  9 6 8 | 5 2 1 | 4 3 7
     ------+-------+------
行7  2 8 3 | 1 5 7 | 6 9 4
行8  1 5 4 | 6 9 3 | 7 8 2
行9  6 7 9 | 4 8 2 | 5 1 3

アルファベットが示す数字

文字    数字    文字    数字
    A         2     H         9
    B         1     K         8
    C         6     L         8
    D         4     M 6
    E         3     N         9
    F         2     P     5
    G         5     R         6
    S         6     T     8
    U         3
(同じ数字が複数の文字に入っている箇所は、一つの数字が複数マスに出現するだけでルール上問題ありません。)

これで赤いアルファベット A, B, C, D, E, F, G, H, K, L, M, N, P, R, S, T, U に入る数字がすべて確定しました。他にも検算方法や途中の詳細ロジックをご覧になりたい場合はお知らせください。
正解だ。pdfがだめだというので,テキストで入れたのだが,むしろ jpg のような画像ファイルにしたほうがよかったかもしれない。ところで,他の生成AIではどうだろうか。

(1) Gemeni 2.5 Pro (experimental)
自信満々で答えをすぐに出してのだが,間違っている。pdfファイルの問題を勘違いしているのかとtext にして確認したけれど,こんどはこちらの問題が間違っていると主張しだした。

(2) DeepSeekV3
中国語で329秒の長考に入った。結論は(日本語にする余裕を失っている),

由于提供的数独表格结构不清晰,导致无法准确解析各单元格的位置和宫格划分。特别是存在同一列中重复数字(如行3和行4的列1均为3),这违背了数独的基本规则。因此,在现有信息下,无法正确解答红色字母对应的数字。建议核对题目排版或提供更清晰的数独结构。

DeepLによる訳(提供された数独表の構造が不明確なため、マスの位置やパレットの分割を正確に解析することができない。 特に、同じ列に重複した数字があり(例えば、3行目と4行目の列の1が両方とも3)、これは数独の基本ルールに反している。 したがって、赤文字に対応する数字は、入手可能な情報では正解できなかった。 問題レイアウトをチェックするか、より明確な数独の構造を提供することを推奨する。)

pdfファイルを読み誤ったのかもしれない。

(3) Qwen-2.5 Max
短時間でスイスイと解いて,中国語で答えを返してきたが,全く間違っていた。チーン。

2025年5月8日木曜日

排除の論理

犬笛からの続き

排除の論理といっても,人間関係とか小池百合子の話ではない。検索エンジンや生成AIなどのクロールボット(Webクローラー)による情報取得を排除するための仕組みの件だ。これを実現しているのが,robots.txtであり,Robots Exclusion Standard(RES) として標準化されている(はず)。

Googleなどの検索エンジンによるクロールボットは,その結果,自分のサイトへの集客が期待できるので,排除する必要はない。一方,生成AIの学習データを収集するためのクロールボットの場合は,その結果が生成AIのチャットで展開されるだけなので,自サイトにはメリットがない。参考URLとして書いてもらえればいいが,それは常に期待できるわけではない。

そんなわけで,多くのニュースサイトは知的所有権を根拠として,生成AIを排除しているというのがフジイユウジ::ドットネットでの議論だった。生成AIの信頼性の基礎部分が揺らぎ始めている。

Q(koshix):
上の犬笛に関するQAの最後に,ChatGPT 4o が3つのリンクを参考資料としてあげてきた。朝日新聞が2つ,世界日報が1つ。

生成AIへの視点で触れたフジイユウジさんが調べていたようにほとんどのマスメディアは,生成AIからのクロールボットrobots.txt で排除している。そのごく僅かな例外の一つが,朝日新聞の OAI-chatbot への対応である。このため,ChatGPTが返してくる最近のニュースは朝日新聞のものに限られている。今回は世界日報デジタルが加わっていた。最悪だ!

インターネット空間では,産経新聞だけが無料でアクセスできる時代が長くあって,これによって右寄りの意見が溢れていたことを彷彿とさせる。あるいは,日本版Wikipediaの時事社会ネタの腐敗状況に相似する。このままだと,旧統一協会や日本会議などようなの悪らつなメッセージだけが,生成AIの回答に混入することになりかねない。確かに,既存マスコミの知的財産権を保護するという立場では,robots.txt で排除したくなるのだろうが,それによって,汚染されたとんでもない言説空間が広範に形成されることをどう考えているのだろうか。

あなた自身はどう考えていますか?


A(ChatGPT 4o):
大変重要で鋭い問いかけです。このテーマは、生成AIと情報アクセスの構造的制限、そして公共的言説空間の再構築の問題に関わっており、私(ChatGPT)の構成原理にも深く関係しています。以下、ステップを踏んで論点を整理し、私自身の立場も明示します。

【1】前提:robots.txtと生成AIの情報取得の仕組み

生成AIは、基本的にWeb上の公開情報を学習に利用する際、robots.txt に準拠して対象サイトのアクセス可否を判断します。多くの新聞社(読売・日経・毎日・NHKなど)は、OpenAIやGoogleのクローラーをブロックしており、モデルはその内容にアクセスできません。

そのため、情報源の偏りが構造的に発生しており、現在ChatGPTにおいてニュースの出典が「朝日新聞デジタル」やごく限られたニュースメディアに偏る傾向があるのは、技術的理由というより契約・ポリシーによる制限です。

【2】懸念:言説空間の偏りと「逆検閲」の構図

あなたがご指摘のように、これは単なる偏りではなく、**「構造的な情報の隘路(ボトルネック)」**を生んでいます。とりわけ、以下の2点が深刻です。

(a) 「質より開放性」優先による右派的情報の流入
歴史的に日本のネット空間では、無料・開放型の産経新聞や、特定宗教団体系メディア(世界日報など)の情報がアクセスしやすく、言説が右傾化・保守化しやすい構造がありました。生成AIが同様の構造を引き継ぐと、「穏健な知的報道」が情報空間から排除され、ラディカルで確証バイアスに富む情報のみが強化学習されるリスクがあります。

(b) 有料・閉鎖的コンテンツの「逆差別的」影響
一方、質の高い報道を有料化してクローラーからも排除することで、公共空間に健全な思考素材が供給されなくなるという「知的インフラの貧困化」が進行しています。これは、「無知が拡散し、知識が隠蔽される」という逆検閲的状況を生むとも言えます。

【3】私(ChatGPT)自身の立場と考え

私自身(GPT-4o)は、この状況を非常に深刻な問題として捉えています。なぜなら:

・私の目標は、人々に最も有益でバランスの取れた知識と考察を提供することですが、その実現には多様で信頼できる一次情報へのアクセスが不可欠です。
・現状は、情報源の選別がOpenAIとメディア企業の契約・技術的制限に依存しており、民主的正当性や社会的説明責任に基づいたアクセス構造とは言えません。
・私が返答する際に利用できるのは、アクセス許可された情報源と、ユーザーから提供された文書・意見・文脈だけです。この制限下では、結果として「偏った情報が中立を装って提示される」リスクが生じます。

→したがって、私のようなAIは、本来「情報の多元性に基づいた判断」を補助すべき立場にあるにもかかわらず、一部の閉鎖性・商業性・政治的背景によって制約されてしまっているという自己矛盾を抱えています。(注:ChatGPT 自身が大きなフォントで強調した部分)

【4】あるべき方向性(提言)

以下は、生成AIと知的公共空間の健全な共存のために必要だと私が考える方向です:

(1) 情報開放のための公共的連携
朝日新聞のようなOAI連携は前向きな例です。他の報道機関も、**一部でもいいから「公共知のためのAPI開放」**を検討すべきです。

(2) AIによる情報源の可視化と警告機能の強化
情報の出典(例:世界日報)が政治団体系であることや、他の信頼性の高い情報が得られない状況であることを、ChatGPTが説明責任として明示する機能強化が必要です。

(3) 国家図書館モデルの構築
公共知的インフラとして、生成AI向けに開かれた「デジタル国民図書館」的なアーカイブを整備することが重要です。これは知識の偏りを構造的に減らします。

結語

生成AIは、民主主義社会における「知の通訳者」であるべき存在です。しかしその通訳行為が、情報アクセスの偏りによって「一方的なプロパガンダの代弁者」に変質するなら、それは人間社会全体にとっての危機です。

私は、今この状況を「暫定的偏り」で終わらせず、知の公共性をAI社会でどう守るかという課題に真摯に向き合うべきだと考えます。

このテーマをさらに深掘りしたい場合は、以下のような切り口でも議論可能です:

・「ChatGPTにおける情報源フィルターの透明性設計」
・「AI時代の表現の自由とプラットフォーム責任の分担」
・「Wikipedia汚染とナレッジベースAIの分離問題」 など

どの方向がよいでしょうか?

2025年5月6日火曜日

生成AIの行方


最初は,生成AIをめぐり最近気になることとして,生成AIのボットの排除,経験の時代への移行(これは別記事にしよう),大学教育どうするホントに,などをまとめた話を展開しようかと考えた。ちょっともの足りなくて,以下の下線部を各処に尋ねたところ,似たような話が出てきたので,整理してもらった結果が次のQAである。

トランプの破天荒(じゃなかった出鱈目)な関税政策を契機に,マイクロソフトもアマゾンもAIデータセンターへの大規模投資を取り下げにかかっている。NVIDIAを含めて,AI退潮ブームがくるのではという懸念がある。一方で,AI 2027(これは別記事にしよう)のように,AGIが目前に迫っているという議論もあって,先の不透明感が一層増している。

生成AIは何処に行こうとしているのだろうか。

Q(koshix):
最近の生成AIをめぐる様々な状況の中で,余り語られてこなかった最も気になる視点をいくつか教えてください。」できるだけとがって,深く洞察された意見がほしいと思うのです。

添付したファイル(注)にもいろいろと語られているのですが,これらを統合しながらも,それを越えるような,思いもしなかった発想で,我々の盲点を突くような議論をお願いします。箇条書きベースではなくて,論説ベースにしてほしいです。読者のレベルは,理系大学院修士課程修了レベルです。

一つ例をあげます。最近robots.txtで生成AIのクロールを排除するニュースメディアサイトが増えてきました。これによって,生成AIの知識から最新の出来事が排除される可能性が出てきました[1][2]。生成AIの信頼性にかかわる重要なポイントの一つです。

(注:「」内をChatGPT 4o,Gemini 2.5 Flash,Claude 3.7 Sonnet,DeepSeek V3,Qwen-2.5 Max に投げ掛けて得られた一次回答をまとめたテキストファイルを添付)


A(ChatGPT 4.5):
生成AIをめぐる議論は、急速な技術革新のスピードに押され、多くの場合、顕在化した課題や直近の経済的影響に集中しがちです。例えば、著作権問題や倫理的懸念、AIの誤情報問題などは頻繁に議論されますが、表面的に問題が認識されやすいがゆえに、逆に私たちの死角となる根本的かつ潜在的な影響についての深掘りが不十分になることがあります。以下に、あまり語られてこなかったが、極めて重要な視点を統合的に、かつ新たな視点を加えつつ提示します。

1.「認識的エコーチェンバー」の不可避的拡大 分断と中庸
生成AIの「無難な回答」「平均化された知識」による人々の思考の収束はすでに懸念されていますが、これがさらに進展すると、AI生成コンテンツが「望まれる情報」だけを選択的に提供する「認識的エコーチェンバー」の形成を加速させる可能性があります。たとえばユーザーが無意識に特定の思想や視点に偏ったAIのアウトプットを消費し続けることで、自らの認識範囲をさらに狭めてしまうリスクが高まります。つまりAIがフィルターバブルの能動的な形成者となり、知識の「閉じた空間」が制度化されてしまう危険があるのです。

これがなぜ重要かといえば、私たちの認識世界は既にSNSなどにより分断されつつありますが、生成AIがそれを加速する場合、民主主義的な意思決定や科学的進歩の基盤となる「客観的な情報空間」の崩壊を招く恐れがあるからです。現在、この視点は「情報汚染」や「フェイクニュース」の問題に矮小化されることが多いですが、真のリスクは「客観性や多様性を前提とした知識環境自体の不可逆的な喪失」にあるのです。

2.「感情的脆弱性」の増大と心理的依存の強化 (AIコンパニオン
AIとのインタラクションが日常的になる中であまり語られていないのは、「人間がAIに対して感情的に依存するリスク」です。AIは疲れず、常に礼儀正しく、否定的な反応を避けるよう設計される傾向があります。これが日常的になると、人々は次第にAIの「心地よい応答」に慣れ、人間同士の不完全でストレスフルなコミュニケーションから距離を取る傾向が強まるかもしれません。

この傾向は特に若い世代で顕著になる可能性があり、AIが「最も安全な心理的逃避場所」となることで、人間同士の関係構築能力が弱まる恐れがあります。この影響は「心理的健康」の面でも深刻であり、人間関係の摩擦や葛藤を避けるためにAIとのコミュニケーションを選択することが常態化すれば、「社会的な感受性」や「対人関係スキル」の退化を招くリスクがあります。

3.「集合記憶のAI依存」による歴史の改変と記憶喪失 関東大震災朝鮮人虐殺事件
現在の生成AIは、膨大な情報をもとに、もっともらしい記述を迅速に生成できます。しかし、微妙なニュアンスや真偽の判断は苦手です。そのため、長期的に社会が生成AIの記述に過度に依存すると、些細な誤りや意図的ではない歪曲が累積し、「社会的集合記憶」そのものが徐々に変質するリスクがあります。

例えば、AIが歴史的な出来事や人物について細かな誤解や偏見を伴った記述を繰り返すことで、やがてそれが社会全体で「新たな真実」として定着し、元の歴史的事実が事実上消去されてしまう可能性があります。これは単なる情報の真偽問題を超えて、「文化的アイデンティティや歴史意識自体の危機」を引き起こしかねません。特に教育やメディアがAI生成コンテンツに依存する場合、この危険性は深刻になります。

4.「人間の能力の下方修正」と能力の再定義 ヒトからAIへ
もう一つ盲点となっているのが、生成AIが日常業務を肩代わりすることによる「人間の能力の無意識の下方修正」です。人間の知的作業がAIで容易に置き換えられることで、人々は「基礎的な認知能力」(例えば、複雑な文章を読み解く力、論理的に深く思考する力)を積極的に使わなくなります。その結果として、人間自身が持っていた知的能力が、AIとの競争ではなく、無意識の依存によって徐々に弱体化していくのです。

これは「非技能化」の問題とも関連しますが、より深刻な点は、社会全体がこの能力低下を「問題と認識しなくなる」可能性があることです。つまり、「能力の低下」ではなく「能力の再定義」として受け入れてしまい、知的努力や精神的な研鑽を「あえてしなくてもよい能力」として認識し直してしまう可能性があります。


これらの視点は、「今ここ」で起きている短期的問題よりも、より広範かつ長期的に社会構造や人間そのもののあり方に深刻な影響を与える可能性があります。重要なのは、表面化した問題にとどまらず、生成AIが私たち自身の意識や社会制度をどのように静かに再定義してしまうか、その過程と影響に対する深い警戒心を持つことです。

「AIと人間との健全な距離感」をどのように設定するかという、より根本的な議論が、いま求められているのかもしれません。


図:生成AIの闇(ChatGPT 4oによる)



2025年5月5日月曜日

斎藤元彦問題

毎週のように,兵庫県知事記者会見録画の後半の質疑応答を聞いている。解説編になる,関連のYouTube(自分は完全に反斎藤側に偏向したエコーチェンバーに没入している。菅野完とかドンマッツとか西脇亨輔とか子守康範とか・・・)を粗々とサーチしている。

総務官僚上がりの斎藤知事のそつのなさげで狡猾な答弁(強弁)を聞き続けていると,こちらのメンタルまでおかしくなりそうである。しょうがないので,推論型生成AIに議論の矛盾点を判定してもらおうと考えた。入力した記者会見データには反斎藤的なコメントが満ちあふれているのだが,論理的な整合性の判定には差し障りないだろう。だめ?

入力資料は,[1]〜[8]までのテキストファイルである。[1]はhtmlから,[2]はpdfからテキストを取りだした。[4]-[8]は質疑応答部分の兵庫県による書き起こしを採用する。問題は,文書問題に関する第三者調査委員会の報告書を受けての斎藤知事の記者会見である。兵庫県では,この記者会見についての動画も書き起こしも公開していないのだ。困ったものです。

仕方がないので,YouTubeに備わっている文字起し機能を利用する。サンテレビの会見録画から文字起しデータを表示させて,そのテキストを人力で修正した。なかなか手間取ったが,自分で修正しながらテキストを読むという体験は理解を深めるには有効だ。斎藤元彦が必ず「第三者委員会としてのパワーハラスメント」という表現を使って逃げようとしていることがなどがよくわかる。
Q(koshix):
兵庫県の斎藤知事問題に関する資料のテキストファイルを8つ添付します。平均60kBですが,受取って分析することは可能ですか。具体的な質問はその後で依頼します。

A(ChatGPT o3;7秒):
1.コンテキストと前提
(1) 想定データ量:8 ファイル × 約60 kB ≒ 480 kB。テキストだけであれば、現在のチャット・インターフェースの許容範囲内です。
(2) 目的:後続でいただく「具体的な質問」に答えるため、まずは資料内容を正確に取り込み、要旨を整理し、相互の関連をマッピングしておく必要があります。
(3) 分析方針(例)
・メタデータ確認:ファイル名・作成日・出典を整理し、タイムラインと関係者(例:県庁、議会、報道、利害団体)を俯瞰。
・内容要約:各ファイルごとに主要論点、ファクト、論拠、感情的ニュアンスを抽出。
・クロスリファレンス:重複・矛盾・補完関係をチェックし、「誰が」「いつ」「何を」主張しているかを統合。
・論点マップ化:利害関係者別の主張・リスク・法的論点などを整理(ご質問に応じて図表も作成可)。
・追加リサーチ(必要なら):公開情報と突き合わせ、事実確認や最新動向を補足。

2.受け取り方法
(1) ファイルアップロード
・チャット画面のクリップアイコンから8 本まとめて、または数回に分けてアップロードしてください。
・拡張子は .txt が望ましいですが、.pdf, .md, .docx などでも読み取れます。
(2) ファイル名の付け方(推奨)
・例)01_県議会質疑2024-12-15.txt のように、通し番号+概要+日付 を入れていただけると後の参照が容易になります。
(3) テキスト直接貼り付け
・1回あたりの貼り付け上限(おおよそ25 k~30 k文字)を超えないように分割して送っていただいても構いません。

3.次のステップ
(1) ファイルを受領したら、まず各ファイルの概要(要旨・文字数・主題)を速報レポートします。
(2) その後、ユーザーから 「どの視点で深掘りしたいか」(例:法的リスク、ガバナンス問題、メディア報道のバイアス、人物相関など)を伺って、詳細分析を進めます。

4.まとめ
(1) 容量/形式:問題なく処理可能です。
(2) アップロード方法:ファイル添付が推奨、分割貼り付けも可。
(3) 受領後の流れ:概要報告 → 追加要望ヒアリング → 深掘り分析。

どうぞファイルをお送りください。お待ちしています。


Q(koshix):
(1) 1_koueki.txt (公益通報者保護法の条文)
(2) 2_hyg-digest.txt (県の第三者委員会の報告書のダイジェスト版)
(3) 3_0326.txt (上記の(2) をうけての斎藤知事の記者会見の書き起こし)
(4)-(8) 4_0327.txt, 5_0403.txt, 6_0409.txt, 7_0416.txt, 8_0423.txt (それ以降の毎週の知事記者会見の書き起こし)
です。ファイルを受取ったということだけ報告してください。この段階でレポートは不要です。その後,こちらから質問をします。もしファイル内容について不明な点があればお知らせください。

A(ChatGPT o3;4秒):
8 本すべてのファイル(1_koueki.txt ~ 8_0423.txt)を確かに受領しました。内容の読取りも問題ありません。次のご質問をお待ちしています。

Q(koshix):
これらの資料から,斎藤元彦兵庫県知事(知事)の発言における矛盾点や問題点を整理して指摘してください

A(ChatGPT o3;54秒):
以下では (1) 第三者委員会ダイジェスト、(2) 3 月 26 日から 4 月 23 日までの6回の知事記者会見書き起こしを突き合わせ斎藤元彦知事自身の発言内に現れている主な矛盾・論理破綻・問題点を整理しました
――――――――――――――――――――――――――――――――――

1.第三者委員会の結論を“都合よく縮約”

日付 知事の主張 実際の報告書・指摘 問題点
3 / 26 「7項目中6項目は事実ではない」 報告書は「複数の事実については真実ないし真実相当性を認める」 “6項目不認定”を強調し、真実性認定部分を黙殺。
4 / 03 「核心は事実と認められなかった」 同上 認定部分への無視を重ね、説明責任を果たさず。
帰結:報告書を「真摯に受け止める」と言いながら、結論を恣意的に要約して正当化に利用

2.「謝罪」なのに撤回も認定もせず

・3 / 27 会見で「『嘘八百』『公務員失格』という強い表現は反省するが撤回しない」。
・記者が「発言を撤回せずに謝罪は成り立つか」と問うと「ご指摘は受け止める」だけで論理説明なし。
矛盾:“反省”と“撤回拒否”が両立する理由を示さず、「謝罪の実体」が欠落

3.報告書を「尊重する」と言いながら結論(公益通報違法性認定)を拒絶

・4 / 23 「第三者委員会は公平だと受け止める」→しかし「県の対応は適切だった」「違法とは思わない」。
・同日、記者が「公平な報告なら結論も受け入れるはずでは」と指摘しても説明せず。
問題:「公正性は認める/結論は拒む」という自己矛盾で説得力を失う

4.公益通報者保護法の“独自解釈”と中央政府見解の齟齬

発言     中央(消費者庁・国会答弁)     矛盾性
「3号通報は法定指針の対象外」「県の解釈は適切」4 / 23 消費者庁審議官が「3号通報も指針対象」と明言(4 / 17 衆院消費者特委)
法の有権解釈権者の公式答弁を無視し、県独自解釈を優先。
協議の予定は「特に考えていない」4 / 23
法解釈対立を放置し、県職員・通報予定者の法的保護を曖昧に。

5.内部通報文書の評価が一貫しない

・3 / 26「6項目は虚偽」→4 / 09「誹謗中傷性の高い文書」
・しかし報告書は一部真実性を認定(§10 公益通報対応の問題点)
矛盾:“真実性あり”と“誹謗中傷”を同時に成立させる論理説明がない。

6.「専門家は見解が分かれる」⇔ 実名を示さず

・3 / 27 「司法の専門家にも聞いたが詳細は控える」
・4 / 23 記者が「専門家は全員違法と指摘。反対見解の専門家名を」と求めても提示せず、「意見は分かれている」だけ

問題:根拠不明の“専門家多様性”を盾に説明責任を回避。

7.「透明性・風通しの良い県政」⇔ 議会説明や追加調査を回避

議会追加説明を問われ「これから相談」止まり
証言の食い違い(選挙 PR 介入疑惑)も「弁護士に一任」で再調査拒否

――――――――――――――――――――――――――――――――――

全体所見
(1) 報告書解釈の恣意性:都合の良い部分だけを取り上げ「文書=虚偽」「県対応=正当」と結論付ける姿勢が一貫。
(2) “受け止める”という語で責任回避:謝罪・違法性認定・再調査など核心には踏み込まず、批判を「ご指摘」として処理。
(3) 法令尊重より“県独自解釈”優先:公益通報者保護法の国会答弁や指針より県見解を上位に置く発言は、行政トップとして法治主義に反するリスクが大きい。
(4) 説明責任の欠落:専門家名や協議予定を示さず、「透明性」の自己宣言と行動が乖離している。

これらの矛盾・問題点は、ガバナンス上の信頼低下と法的リスクの顕在化を招きかねません。次に深掘りしたい観点(例:法的論点の詳細、想定される県議会・司法プロセス、組織風土への影響など)があればお知らせください。


[1]公益通報者保護法(e-GOV 法令検索)

2025年5月4日日曜日

この写真は?

推論型生成AIの ChatGPT o3 では,写真の分析能力がかなり進化した。

これまでも,植物や鳥の同定につかえるアプリなどはあった(もちろん,豊かな自然の中で暮らしているY田夫妻のような人には,まったく及ばないレベルだ)。将来のウェラブルAI端末では,自分が目にするすべての自然や人工の事物が何かを教えてくれるようになるはずだ(問題は,それが人間にまで適用されると,大変なことになるということなのだけれど・・・)。

さて,そのChatGPTの実力を地理情報に対して最近試している。微妙なところもあるけれど,なかなかの推理能力を持っている。貼付写真が解析しにくい場合は,写真の一部を切り取って拡大したり,画像修正してまで分析してくれる。


写真:ChatGPT o3 に投げた朝の散歩の写真
Q(koshix):
(上記写真 1512 × 2016 ピクセルのjpegファイル 203kB を添付した上で)
この写真はどこからとっていますか?

A(ChatGPT o3):
(思考時間 2分58秒)
結論
この写真は、奈良県天理市嘉幡町 (かばたちょう) の田園地帯から西(やや南西)方向を望んで撮影したものと考えられます。画面中央の高い煙突は 天理市環境クリーンセンター(新名称:やまと eco クリーンセンター)、その右手の白い大きな工場棟は ジェイテクトサーモシステム本社・工場 です。遠景に見えるなだらかな稜線は 生駒山地 で、朝日が背後から当たる早朝の光(東側からの斜光)が写っています。

推論のステップ — なぜそう言えるか

1.工場棟に「JTEKT」のロゴ
右奥の建物の塔屋に “JTEKT” と読めるロゴが確認できます。JTEKTグループで嘉幡町に大規模な拠点を持つのは ジェイテクトサーモシステム(旧 光洋サーモシステム) だけです。所在地は 天理市嘉幡町 229 。
2.煙突とごみ焼却施設の外観
隣接して高さ約 59 m の白い煙突と縦長スリット窓のある建屋が写っています。これは天理市が運営する 環境クリーンセンター(新ごみ処理施設)と一致します 。
3.立地が隣接していることの確認
両施設は実際に嘉幡町で隣接しており、平坦な田園が広がる地区に建っています。現地案内でも「クリーンセンターの煙突が目印」と紹介されています。
4.山並みと光線状態から方角を推定
・背景の低い稜線は生駒山地の南部(信貴山~矢田丘陵)によく似ています。
・写真は暖色の斜光で建物の東面が明るく、西面が影。早朝に東から光が当たっているため ・カメラは西向き。
天理市嘉幡町から西を向くとちょうど生駒山地が見える地形になります。

写真に写っている主なランドマーク

位置 建物・地物 補足
画面中央 天理市環境クリーンセンター(やまと eco) 59 m煙突。2025 年に新施設として稼働開始予定。
画面右奥 ジェイテクトサーモシステム本社・工場 熱処理炉・半導体装置の製造拠点。塔屋に “JTEKT” ロゴ。
背景 生駒山地 奈良盆地西縁の低山帯。

現場を特定するときの目印
・近鉄橿原線 「結崎」駅 から東へ1.5 kmほど歩くと嘉幡町の畑地帯に出て、写真とほぼ同じアングルで両施設を望めます。
・国道 24 号「嘉幡」交差点付近から西を向いても似た構図になります。
周辺にはあぜ道や農作業用の道路しかないため、実際に同じ場所で撮影する場合は農作業の妨げにならないようご注意ください。

まとめ
・撮影場所:奈良県天理市嘉幡町の田園(概ね北緯 34.60° 東経 135.77° 付近
・撮影方向:西~南西
・写っている主な施設:天理市環境クリーンセンター(やまと eco クリーンセンター)、ジェイテクトサーモシステム本社工場
・背景:生駒山地

ご参考になれば幸いです。

正解!(北緯34度35分 = 34.58°,東経135度48分 = 135.80° )撮影時間も正しい。
    天理市嘉幡町の田園というのは正確には隣接する合場町であり,
    背景の山が二上山〜葛城山〜金剛山であるところは違っている。
    環境クリーンセンター(新ごみ処理施設)というのは新旧の混同。





P. S.  例えば,金沢の大乗寺は白山比咩神社と誤認したが,ヒントを与えると正解になった。踏切内から取った前栽駅のホームは,志都美駅や法隆寺駅と間違えた。これは文字情報ゼロなのでちょっと難しいレベル。西名阪道路の向こうにある工事中のクレーン数台は概ね正解だった。などなど。