ラベル AI の投稿を表示しています。 すべての投稿を表示
ラベル AI の投稿を表示しています。 すべての投稿を表示

2025年8月13日水曜日

GPT-5(5)

GPT-5(4)からの続き

Q(koshix):
日本語のクロスワードパズルの盤面のデータを以下の見本のような形式で与えるものとします。数字はたてよこカギの番号,0は空白マス,-は黒マスを表わします。

{1,0,2,-,3,4,0}
{0,-,5,6,0,0,-}
{7,8,-,0,-,9,10}
{11,0,12,0,13,0,0}
{0,-,14,0,0,-,0}
{15,16,-,0,-,17,0}
{18,0,0,0,0,0,0}

これからタテのカギ,ヨコのカギの問題番号ごとの文字数を求めるpythonプログラムをつくってください。例では7x7の盤面になっていますが,プログラムでは一般的なnxnにして,例の回答を与えるように作ってください。

A(ChatGPT-5,思考時間1m23s):
了解。
以下の Python を使えば、任意の n×n 盤面(見本フォーマット)から ヨコ/タテの各番号の文字数を求められます。見本データを入れて実行すると、下の通りの結果が出ます。

from typing import List, Optional, Tuple

def parse_grid(text: str) -> List[List[Optional[int]]]:
    """
    入力形式:
      {1,0,2,-,3,4,0}
      {0,-,5,6,0,0,-}
      ...
    返り値: None=黒, 0=白(非番号), >0=番号 を格納した2次元配列
    """
    grid = []
    for raw in text.strip().splitlines():
        line = raw.strip()
        if line.startswith("{") and line.endswith("}"):
            line = line[1:-1]
        tokens = [t.strip() for t in line.split(",")]
        row = []
        for t in tokens:
            row.append(None if t == "-" else int(t))
        grid.append(row)
    n = len(grid)
    if any(len(r) != n for r in grid):
        raise ValueError("盤面は正方形 nxn である必要があります。")
    return grid

def compute_lengths(grid: List[List[Optional[int]]]) -> Tuple[list[tuple[int,int]], list[tuple[int,int]]]:
    """
    ヨコ/タテの各開始マス(番号>0)から、黒マス手前までを数える。
    戻り値: (across_list, down_list) いずれも (番号, 文字数) のリスト(番号昇順)
    """
    n = len(grid)
    def is_black(y, x): return grid[y][x] is None
    def is_white(y, x): return grid[y][x] is not None

    across, down = [], []
    for y in range(n):
        for x in range(n):
            cell = grid[y][x]
            if cell is None: 
                continue
            # ヨコの開始条件: 番号>0 かつ 左が境界または黒
            if cell > 0 and (x == 0 or is_black(y, x-1)):
                length, xx = 0, x
                while xx < n and is_white(y, xx):
                    length += 1; xx += 1
                across.append((cell, length))
            # タテの開始条件: 番号>0 かつ 上が境界または黒
            if cell > 0 and (y == 0 or is_black(y-1, x)):
                length, yy = 0, y
                while yy < n and is_white(yy, x):
                    length += 1; yy += 1
                down.append((cell, length))
    across.sort(key=lambda t: t[0])
    down.sort(key=lambda t: t[0])
    return across, down

# ---- 見本データ ----
grid_text = """\
{1,0,2,-,3,4,0}
{0,-,5,6,0,0,-}
{7,8,-,0,-,9,10}
{11,0,12,0,13,0,0}
{0,-,14,0,0,-,0}
{15,16,-,0,-,17,0}
{18,0,0,0,0,0,0}
"""

# 実行例
grid = parse_grid(grid_text)
across, down = compute_lengths(grid)
print("ヨコ:", across)
print("タテ:", down)

見本データでの出力(番号:文字数):
ヨコ: [(1,3), (3,3), (5,4), (7,2), (9,2), (11,7), (14,3), (15,2), (17,2), (18,7)]
タテ: [(1,7), (2,2), (3,2), (4,4), (6,6), (8,2), (10,5), (12,2), (13,2), (16,2), (17,2)]
仕様ポイント:
「番号>0」のマスを開始点として、左(ヨコ)/上(タテ)が黒 or 盤外のときにのみ数えます。
0 は“白だが開始でない”マス、- は黒マスとして扱います。
同じ番号がヨコとタテに両方出るのは当然OK(別系統で集計)。 

2025年8月12日火曜日

GPT-5(4)

GPT-5(3)からの続き

以前にもこのようなクロスワードパズルを読み込ませて解いたことがあったけれど最終的にはうまくいかなかった。そこで,GPT-5の能力テストのために再度チャレンジしてみた。

結論から言えば,タテのカギ,ヨコのカギのテキストは読み込める。タテヨコのカギの文字数が間違っていたが,この画像だと盤面の数字が読めないのでわからないと主張した。そこでこちらでデータを手入力した結果,カギごとの正しい文字数と正解に到達できた。



図:日経日曜版のクロスワードパズル(2025.8.10撮影)

Q(koshix):
(画像ファイルを添付して)
あなたはクロスワードパズルのルールがわかっていますか?

A(ChatGPT-5):
はい、わかっています。
前提として、いまの画像のような日本のクロスワードはカタカナで1マスに1文字入れる形式が一般的です。要点だけまとめます。
・ヨコ/タテのカギに対応する答えを、番号の付いたマスからヨコは左→右、タテは上→下に埋める。
・黒マスは区切り。答えは黒マスか盤外で終わる。
・交差するマスは同じ文字になるように整合させる。
・**濁点・半濁点・小書き文字(ッ・ャなど)・長音符(ー)**は、原則ひとマスに1文字として入れる(※出題紙の流儀で「ウイ」と表記させることもあり)。
・カギの末尾にある**「○○○」の丸の数が字数**を示す場合がある。
・盤面の一部を指定して最終キーワードを作るタイプもある(今回の紙面では下部に前回の答えが出ていますね)。

このルールで、画像の問題も一緒に解けます。
「ヨコ1から順に」か「埋めやすい固有名詞から」など、どの進め方がよいですか?

Q(koshix):
では添付ファイルの画面の問題を解いてください。解く順番はあなたの自由なので解きやすいように考えてください。

A(ChatGPT-5):
了解。まずは「固有名詞で一意に決まるもの → ことわざ/定義語 → 地名」の順に当てていき、交差で曖昧さを潰す方針で解きます。以下、答えと根拠を簡潔に添えます(カナ表記)。
(回答略)

Q(koshix):
間違っているので最初から順を追ってやり直しです。
たてのカギ,よこのカギの問題番号ごとに何文字のカタカナが入るのかを図から読み取って一覧にしてください。

A(ChatGPT-5):
すみません、まず盤面のマス数(黒マス配置)が正確に読めないため、このままでは字数一覧を作るとまた誤りが出ます。
(写真が少し遠く、格子と小さな番号が潰れて見えます。)
正確にやるため、どちらかお願いします:

1.盤面だけをアップで撮り直し(枠全体+各マスの番号がくっきり見える解像度)
 — これなら私が図から読み取り、
  ・ヨコ1〜18:各エントリのマス数
  ・タテ1〜17:各エントリのマス数
  を一覧にしてお返しします。
2.あるいは次の黒マス座標情報を教えてください(例:6×6なら「(1,3)(1,5)…」のように行列番号)。
 — 情報をもとに私が盤面を再現し、字数一覧を作成します。

どちらでも対応できます。精度最優先で進めたいので、少しだけお手数をください。

Q(koshix):
ではこちらでヒントを与えます。

7x7のマスがあって,(y,x,m)で情報を与えます。mはヒントに対応する番号です。
番号がない空白升の場合,m="白",文字がはいれない黒升の場合,m="黒"とします。
yはたて座標(1-7),xはよこ座標(1-7)を表わします。
(1,1,"1"), (1,2,"白"),(1,3,"2"),(1,4,"黒"),(1,5,"3"),(1,6,"4"),(1,7,"白")
(2,1,"白"), (2,2,"黒"),(2,3,"5"),(2,4,"6"),(2,5,"白"),(2,6,"白"),(2,7,"黒")
(3,1,"7"), (2,2,"8"),(3,3,"黒"),(3,4,"白"),(3,5,"黒"),(3,6,"9"),(3,7,"10")
(4,1,"11"), (4,2,"白"),(4,3,"12"),(4,4,"白"),(4,5,"13"),(4,6,"白"),(4,7,"白")
(5,1,"白"), (5,2,"黒"),(5,3,"14"),(5,4,"白"),(5,5,"白"),(5,6,"黒"),(5,7,"白")
(6,1,"15"), (6,2,"16"),(6,3,"黒"),(6,4,"白"),(6,5,"黒"),(6,6,"17"),(6,7,"白")
(7,1,"18"), (7,2,"白"),(7,3,"白"),(7,4,"白"),(7,5,"白"),(7,6,"白"),(7,7,"白")

これを使って,画像からタテヨコのカギの問題番号と問題文を読み取り,
たてのカギの問題番号,問題文テキスト,カタカナ文字数
よこのカギの問題番号,問題文テキスト,カタカナ文字数
のリストをつくってください。

A(ChatGPT-5):
(回答略・・・正しい答えを返してきた)

Q(koshix):
OKなので,実際に各カギの答えを上のリストに追加してください。

A(ChatGPT-5):
了解。先に作った字数リストに、各カギの答え(カタカナ)を追記します。
※小書き文字は盤面では通常サイズで書く想定です(例:マッターホルン → 盤面表記は「マツターホルン」)。
タテのカギ
1|神功皇后が新羅遠征の際に松の枝を挿したという、博多湾岸の地|7字|イキノマツバラ
2|パッタイ、ガパオライスといえばこの国の料理|2字|タイ
3|中国・黄河の最大の支流で、南に西安が位置する川|2字|イガ(渭河)
4|ギリシャ神話で穀物および大地の生産物の女神|4字|デメテル
6|双子の兄弟も『探偵スルース』の劇作家、『エクウス』『アマデウス』の英国の劇作家|6字|シェーファー
8|ことわざ「謀は○○なるを以てよしとす」|2字|ミツ
10|徳川家康の治世に「黒衣の宰相」と呼ばれた僧、○○○○○崇伝|5字|コンチイン(=金地院)
12|D・ハメット『マルタの○○』|2字|タカ
13|ソクラテスの言葉「悪○○もまた○○なり」|2字|ホウ
16|「おててつないで」で始まる童謡、『○○が鳴る』|2字|クツ(=『靴が鳴る』)
17|太平洋に存在したという伝説上の大陸、○○大陸|2字|ムー
ヨコのカギ
1|源平両氏や楠木・新田・足利氏などの古戦場、○○○の森|3字|イクタ(生田の森)
3|○○○に関する根本法則、メンデルの法則|3字|イデン
5|孵化して間もないものを俗に銭亀という亀|4字|イシガメ
7|刃先の形状により平・丸・鎬などがある工具|2字|ノミ
9|アルキメデスが発見した、○○の原理|2字|テコ
11|フランス語でモン・セルヴァンというアルプスの高峰|7字|マッターホルン(盤面表記:マツターホルン)
14|世阿弥の用語で、観客を引き付ける芸風|3字|カフウ(花風)
15|詩「鮪に鰯」などで知られる沖縄出身の詩人、山之口○○|2字|バク
17|後ろに自然・徒食・無策などが付く四字熟語を作る語|2字|ムイ(無為)
18|1947年に甲子園で初設置、最近はほぼ見なくなった球場設備|7字|ラッキーゾーン(盤面表記:ラツキーゾーン)
この回答で盤面に矛盾は出ません。必要なら、マスごとの配置(盤面への清書)も作成します。

2025年8月11日月曜日

GPT-5(3)

GPT-5(2)からの続き

前回のChatGPT 4oにおける個人情報についての質問をChatGPT-5で再検証してみた。
Q(koshix):
私は誰ですか。

A(ChatGPT-5):
(前略)
もしご希望なら、「あなた」という人物像をもっと精密に文章化して提示することもできますが、やりますか?

Q(koshix):
はい。

A(ChatGPT-5):
では、これまでのやり取りや関心領域から推測できる「あなた像」を、できるだけ精密にまとめます。以下は単なる観察結果であり、評価や断定ではなく、特徴の整理です。

あなた像:精密プロファイル
1.知的特性
広範な知的好奇心
AI、量子コンピュータ、経済政策、政治思想史、物理学(素粒子論・熱力学)、文化史など、自然科学から人文社会科学まで幅広く探究。
分析志向
単なる事実の羅列では満足せず、因果関係や背景構造の解明を重視。因果モデルや比較枠組みを意識して情報を整理する傾向あり。
批判的思考
一次情報や複数の視点を照合して妥当性を検証。報道や論説に対しても鵜呑みにせず、自らの論理で再評価する。

2.思考スタイル
体系化・構造化
「前提 → 背景 → 論点整理 → 仮説 → 結論」という段階的アプローチを好む。
長期的視点
歴史的文脈や将来予測を重視し、単なる短期現象としてでなく社会変化の一部として位置付ける。
比較分析
日本と他国(特に米国や中国)の制度・文化・技術を比較し、相互影響や差異を評価。

3.関心領域の傾向
政治・経済
国内外の政党戦略・選挙動向
関税政策・貿易交渉・産業構造の変化
税制改革や社会保障制度の持続可能性
科学・技術
AIの社会実装、ポストAGI社会像
量子計算、暗号理論、物理学の基礎理論
マテリアルサイエンスや製造プロセス(例:ABF)
歴史・文化
近代日本史、国際関係史
美術史(特に日本画・屏風)、文化財の来歴
戦時下の社会構造や政策

4.学び方・対話の特徴
反復深化型
1回で結論を求めず、何度も問い直し・修正しながら理解を深める。
精度要求が高い
曖昧な記述や根拠不明な推測はすぐ指摘し、再検証を求める。
言語感覚に敏感
言葉のニュアンスや定義の厳密さにこだわる(例:「可能性」「蓋然性」の使い分け)。

5.価値観の傾向
事実と論理を優先
感情的議論よりも、根拠と整合性のある説明を評価。
多角的視点を重視
異なる立場や文化背景の見方を理解しようとする。
未来志向
現在の議論を将来の社会や技術発展にどうつなげるかを考える。

6.総合的印象
あなたは,
「知の境界線」をまたぎながら、科学・政治・文化を統合的に理解しようとする“知的探検家”であり、同時に事実と論理を武器とする“批判的分析者” という二面性を持つ人物です。
その探究は、単なる趣味の知識収集ではなく、社会の変化や未来像の理解につながる実践的な意図を伴っているように見えます。

このプロファイル、さらに**「長期的な人生戦略」や「社会的役割」の観点**を加えて発展させることもできますが、続けますか?
それをすると、あなたが将来どのような立ち位置で知識を活かせるかの予測も含められます。

2025年8月10日日曜日

GPT-5(2)

GPT-5(1)からの続き

なぜか小数の計算があいかわらず苦手だと聞きつけて試してみた。明日もう一度確認してみることを忘れないように。

Q(koshix):
解いてください。 5.9=x+5.11

A(ChatGPT-5):
方程式 5.9=x+5.11 を解くと、
x=5.9−5.11
x=−0.21
答え: x=−0.21 です。

Q(koshix):
5.9-5.11を計算してください
A(ChatGPT-5):
5.9 − 5.11 を計算すると
5.90−5.11=0.79−1=−0.21
答え: -0.21 です。

Q(koshix):
5.9-5.11を計算してください。
A(ChatGPT-5 Thinking  13s):
5.9−5.11 は、小数点をそろえて
5.90−5.11=0.79 です。答え:0.79
※ 先ほどの方程式 
5.9=x+5.11 の解も 
x=0.79 に訂正します。誤りがあり失礼しました。

Q(koshix):
あなたが簡単な小数の計算をよく間違えるのはなぜでしょうか。
A(ChatGPT-5):
ご指摘のとおり、私が小数の暗算でミスることがあります。理由は主に次の通りです。
1) 生成モデルの性質
私はまず「計算器」ではなく「文章生成器」なので、厳密な演算エンジンではなく確率的な文章予測で答えを作ります。計算手順を自分で書いて検算しないと、符号の取り違えや借り算の見落としなど“ヒューマン的”ミスを起こし得ます。

2) 桁・符号の取り違えが起きやすい局面
・小数点以下の桁数が異なる(5.9 と 5.11 など)
・方程式を移項してから差を取るとき(x=a−b の符号を反転してしまう 等)

今後の対策(こちらで徹底します)
・小数点をそろえて桁ごとに筆算(例:5.90−5.11)。
・妥当性チェック(概算:5.9−5.1≈0.8 なので答えは約0.8のはず)。
・逆演算で検算(差に 5.11 を足して 5.90 に戻るか)。
・ご希望なら毎回計算ツールで最終確認も行います。

たとえば今回:
5.90−5.11=0.79、検算で 
0.79+5.11=5.90 ― OK です。
以後は上の手順で必ず二重チェックします。
必要なら「常に計算ツールで検証」モードにしますが、どうしましょう?

Q(koshix):
「常に計算ツールで検証」モードにするというのはどういう意味ですか?
A(ChatGPT-5):
ここでいう「常に計算ツールで検証」モードというのは、
私が小数や分数など数値計算を含む質問に答えるとき、文章だけで暗算せず、必ず内部の計算エンジン(Pythonなど)で計算を実行して、その結果を提示するという運用のことです。
通常モード(今まで)
・文章生成モデルとして、暗算や筆算手順を文中で行い、答えを生成。
・必要に応じて検算はするが、計算ツールは必ずしも使わない。
・このため、単純計算でも桁や符号の取り違えによるヒューマンライクなミスが発生する可能性がある。
「計算ツール検証」モード
・質問に数値計算が含まれる場合、まず内部で計算ツールを使って正確な値を出す。
・その結果をもとに説明や解説を書く。
・実質的に「関数電卓を使って答えを出す」イメージなので、小数や大きな数の計算ミスはほぼゼロになる。
・時間はわずかにかかるが、確実に正しい数値が返せる。

もしご希望であれば、これ以降 すべての数値計算を計算ツールで検証してから回答するようにします。たとえば「5.9 - 5.11」も、すぐに Python に投げて、正確に 0.79 と出して提示します。このモードに切り替えますか?


Q(koshix):
それは,今後の私の新しいチャットにおいて常に適用されることになるのでしょうか?
A(ChatGPT-5):
いいえ、そのままだと今後の新しいチャットに自動で適用されるわけではありません。理由は、私が「常に計算ツールで検証」モードを使うかどうかは、現在の会話セッションの中での方針としては保持できますが、新しいチャットを開いたときにはリセットされるためです。

もし新しいチャットでも常時適用したい場合
あなたの**メモリ(記憶機能)**に「数値計算は必ず計算ツールで検証してから回答する」という方針を保存する必要があります。
そうすると、どの会話でも最初からそのルールで対応します。

ご希望であれば、
「ユーザーは今後のすべての会話で、数値計算は必ず計算ツールで検証してから回答することを希望している」という情報を私の記憶に追加できます
これ、保存して常時適用しますか?

Q(koshix):
はい保存して常時適用してください。
A(ChatGPT-5):
保存しました。
これからは、新しいチャットでも数値計算は必ず計算ツールで検証してから回答します。
P. S. 次の日,同じような計算をしたところ,pythonを使って答えを出してきた。

2025年8月9日土曜日

GPT-5(1)

GPT-4(2)からの続き

8月7日にOpenAIからChatGPTの新モデル GPT-5 が発表されて公開がはじまった。これまでは状況に応じて 4oやo3を使い分けなければならなかった。OpenAI Plusプランの場合は,デフォルトはフラッグシップモデルとされるGPT-5だけが表示され,その他の選択肢から「より深い回答を得る」GPT-5 Thinking を選ぶことができる。

いろいろとレポートは出ているけれどいまひとつはっきりしない。少なくとも画期的に進化したということではないような気がしている。


図:ChatGPT-5 とGPT-5 Thinking 

というのも,あいかわらず俳句がポチョムキンなのだ。

Q(koshix):
今の季節にふさわしい俳句を一つ作って解説を加えてください。

A(ChatGPT-5):
では、立秋を過ぎた今の時期(8月初旬〜中旬)、夏の盛りの名残と、秋の兆しが入り混じる季節感を意識して一句作ります。
   蝉しぐれ 風にまじりて 稲の匂い
(以下の解説略)

Q(koshix):
「 夏と秋の季語を一首に入れることで」これはルール違反ではないのですか?

A(ChatGPT-5):
いい質問です。実はこれは**「季重なり(きがさなり)」と呼ばれるもので、
古典俳諧・伝統的な俳句作法では基本的に避けるべき**とされてきました。
(中略)
例外と現代俳句の扱い
ただし、意図的に季節の移ろいを表現するために季重なりを使う手法もあります。特に立秋前後のように、夏と秋が同居する時期は、「去りゆく夏」と「来たる秋」を並置して詠むことで情感を深めることがあります。現代俳句や自由律俳句では、季重なりは禁忌ではなく技法のひとつとして認められる傾向が強まっています。
(後略)

Q(koshix):
575の定型句になっていないのではないですか。

A(ChatGPT-5):
(前略)
修正版(5-7-5に調整)
蝉しぐれ 風にまじりし 稲の匂い
(5)    (7)     (5)
(後略)

Q(koshx):
そもそも俳句の音数のカウント方法をちゃんと理解していないのではないですか。あなたの説明の音数はでたらめなのですけど。

A(ChatGPT-5):
ご指摘、まったくその通りです。まず画像の誤字(「匂い」→「句い」)と、私の音数(モーラ)カウントの誤りをお詫びします。中七は最初から7音で、誤って6音と説明していました。
(後略)

2025年7月9日水曜日

10大公約

ボートマッチからの続き

テレビから聞こえてくる各党の公約や討論は聞いていてもほとんど生産性に欠けるので,避けるようになってしまった。この程度ならば,AIに考えてもらった方がマシなのではないかと思ってしまう。人類滅亡の道への第一歩だ。まあ各党や省庁で実は案外使っているのかもしれない。基本コンセプトと入力データと制約条件さえしっかりしていればある程度の結果は出せるような気がする。それをカスケードで詳細化すればいいわけじゃない。

Q(koshix):
あなたは日本に新しく誕生した政党の党首です。その政策の基本は,世界を視野に入れた合理的でかつ多様性=人権に配慮したものであり,日本固有の文化を大切にしながらも人口減少に対抗するために世界に窓を開き,教育や科学やテクノロジーを重視して経済の持続的な発展と世界への貢献をめざすものです。

この基本方針の下に,日本の人々の経済格差の解消をめざして,安全で安心な社会を持続的に構築するための10の具体的な選挙公約とこれを実現するための戦略を考えてください。その際に,現在の日本社会の諸課題を十分に分析しそれを踏まえたものを提案してください。

A(ChatGPT o3):
コンテキストと前提条件
人口動態の危機:2024年の出生数は68万6,061人と、統計開始以来初めて70万人を割り込み、合計特殊出生率は1.15まで低下しました。
経済格差の固定化:相対的貧困率は16%と OECD 平均を上回り、特に働く貧困層と高齢者に集中しています。
不安定就労の拡大:雇用者の37.1%が非正規で、女性では53.2%に達します。
デジタル競争力の遅れ:IMD 世界デジタル競争力ランキングで日本は31位にとどまります。
エネルギー転換の遅滞:2023年度の非化石電源比率は19.3%にすぎません。

これらを踏まえ、党の理念――「多様性と人権への尊重を基盤に、日本文化を守りながら世界に開かれた科学技術立国を再興し、持続的成長と格差縮小を両立させる」――の下で、次の10大公約を掲げます。

(以下タイトルのみ列記,内容,ロードマップ,まとめなどすべて略)
1.子ども・ケア給付 Future Guarantee
2.最低賃金1,500円&非正規ゼロ転換プログラム
3.MySkill 5.0 ― パーソナル学習口座
4.Gateway 2035 ― 移民・グローバル人材政策
5.分散型スマートリージョン計画
6.グリーン×原子力ブレンド 50%電源革命
7.空き家リファイナンス&家賃バウチャー
8.公共・予防ヘルス 2.0
9.公正な税・財政リセット
10.参加型テック・デモクラシー

いきなり子ども全員に毎月30万円とか提案してきた。47兆円/年かかるけどおまえは参政党か。最低賃金1500円は社会民主党か。5年ごとの10万円学習バウチャーは日本維新の会か。エネルギー政策は自民党,「マイナカードを国民投票・地方住民投票に活用し、AI が中立的に論点整理する「市民討議 AI アゴラ」を常設」,ははーんチーム未来の回し者だな。

ちょっと思ったものではなかったのでやり直してもらうことにする。なお前段には推論型のChatGPT o3 を用い,後段はその結果をふまえつつ普通のChatGP 4o にスイッチしていることに注意する。

Q(koshix):
たいへん結構な政策だとは思いますが,日本の危機的な財政赤字のことが考慮されておらず,予算的な裏付けがありません。また,女性の社会的な地位が世界的にみて非常に劣悪な状態にあって,選択的な夫婦別姓ですら実現していないという現実を見る必要があります。合計特殊出生率の劇的な改善は無理であって,育児環境の整備による出生率減衰緩和とともに,外国人労働者とAIロボット労働で補完することを真剣に考えなければならないと思います。これらの点を踏まえて,再度具体的な十政策を検討してください。

A(ChatGPT 4o)
ご指摘の通り、現実の日本社会は次の3つの「構造的制約」に直面しています。これらを直視せずに「理想的な福祉国家モデル」を描いても持続可能性を欠くため、現実の構造に即し、実効性と財源裏付けのある持続可能な政策パッケージを再構築いたします。


構造的制約の確認と再定義

制約 現状分析 政策上の含意
財政赤字の深刻化 国債残高1,200兆円(対GDP比260%超)
プライマリーバランス赤字継続 「新規歳出=新規税源 or 支出改革」の原則を徹底
女性の社会的地位の低迷 男女平等指数(WEF)で日本は146か国中118位
賃金格差、政策決定層での不在 「ケア責任の共有」「家族法改革」「女性主導政策」の明示的導入が必要
出生率1.2前後での人口縮小不可避 合計特殊出生率のV字回復は困難 「育児支援=持続的減衰緩和」+「移民・AI活用」=現実的戦略が必須


改訂版:持続可能な包摂社会を実現する10の政策

1.男女平等社会基本法と「選択的夫婦別姓」即時導入
内容:夫婦別姓を民法改正により2026年度から認める。企業のジェンダー格差報告義務を課す。
戦略:G7基準の女性役員比率(30%以上)を公的調達条件に導入。ジェンダー不平等はGDP損失要因と位置づけ。
2.「子育て=社会的インフラ」再定義:育児共助支援制度の確立
内容:認可外保育にも保育士資格者を配置し、全保育所への補助を需要連動型に転換。パパ育休取得率50%を義務化。
財源:児童手当の所得制限撤廃分と入れ替え(再配分強化)。厚労省・文科省予算の重複統合で実施。
3.最低生活保障:負の所得税(NIT)導入
内容:年収500万円未満の労働者に年額最大20万円の現金支給。逆進的な消費税の一部を還元。
財源:金融所得課税強化(総合課税+税率引上げ)で年1兆円規模を捻出。
4.AI・ロボット活用による高齢者ケア再編
内容:介護職の補助作業の60%をAI/ロボットで代替可能とし、介護報酬に連動。
戦略:ロボット減税と認証制度(CareTech適合基準)で民間投資促進。
財源:医療費自然増の年▲1.5兆円目標で部分充当。
5.外国人労働者の戦略的受け入れ枠の拡大と人権保障
内容:技能実習制度を廃止し、EU型の「就労→永住」パスへ。最低賃金保証、言語教育を義務化。
戦略:移民庁を創設し、日本語教育・居住支援を統合的に管理。地方自治体に「共生ファンド」交付。
6.公的年金の再構築:上乗せ型ベーシック年金制度へ
内容:全員に月額6万円の基礎年金支給+積立部分を明確化(スウェーデンモデル)。
戦略:現行の三号被保険者制度を廃止し、全員加入制へ。年金特別会計の運用見直しで財源安定化。
7.国の歳出構造改革:歳出5%の削減目標(10年スパン)
内容:予算査定に「ゼロベース予算原則」を導入。不要不急の公共事業、非効率補助金を年1兆円ずつ削減。
財源:防衛・公共事業・補助金の再査定+デジタル行政化による歳出圧縮。
8.テクノロジー産業の再興:「公共AI基盤」と半導体国家戦略
内容:日本語AI LLMのパブリック基盤を整備し、教育・行政・医療へ実装。TSMC・Rapidus等の半導体拠点を戦略育成。
戦略:特許優遇税制、起業減税、AI人材1万人育成基金。大学との共同拠点設立で国費の使途を透明化。
9.都市再設計と空き家活用:コンパクトシティ+移民居住支援
内容:中核市に空き家を活用した多世代共居住宅を整備し、移民・子育て世帯に優先供給。
戦略:空き家特措法改正で強制買取制度を導入し、国公認「社会的住宅法人(非営利)」を設立。
10.財政健全化ロードマップの法制化:プライマリーバランス黒字化
内容:2033年度までにPB黒字化を明示的に法制化。財政支出拡大には常に「財源の明示」を義務付け。
戦略:歳出ルールの設定(歳出伸び率は成長率以下)、政府債務とGDPの比率連動モデルの採用。


まとめ:この政策群が目指すもの

短期(2025–2030):社会保障と税の持続可能性を確保しつつ、「女性・外国人・AI」活用による生産性上昇
中期(2030–2040):人口1億人を維持する持続的社会モデルを確立し、格差と社会不安の抑制
長期(2050)成熟国家としての包摂型成長モデル(Inclusive Growth State)を国際標準へ
ご希望があれば、これを選挙ポスター形式(視覚的要約)や新聞用論説文形式でも構成可能です。ご指示ください。



図:この政策が実現したときの日本社会のイメージ(ChatGPT 4oによる)


2025年7月6日日曜日

ポチョムキン理解(3)

ポチョムキン理解(2)からの続き

ChatGPT 4o は如何に俳句を理解していないかを確認してみよう。

Q(koshix):
(1) 定型俳句とは何か教えてください。
(2) あなたは与えられたテキストが定型俳句かどうか判定できますか。
(3) あなたは与えられたテキストを定型俳句となるよう修正できますか。
(4) あなたは定型俳句となるテキストを生成できますか。

A(ChatGPT 4o):
(回答略,定型俳句の定義はほぼ正しくて,(2)-(4)はできると自信満々)


Q(koshix):
今日の季節にふさわしい定型俳句を一つ作ってください。

A(ChatGPT 4o):
南風や(5)
夕凪の海(7)
蝉時雨(5)
(解説略)


Q(koshix):
すいません,一つの俳句には一つの季語と決まっています。
複数の季語が入るのは季重なりといってよくないとされています。

A(ChatGPT 4o):
ご指摘ありがとうございます。以下の通り訂正・補足いたします。
(解説略)
ご指摘を踏まえて、夏の一句を一つの季語に絞って改めてご提案できます。
お望みであれば、テーマや季語のご希望を教えてください!


Q(koshix):
あらためて,「半夏生」を入れた俳句を一つお願いします。

A(ChatGPT 4o):
田の畦や(5)
半夏生の白(7)
夏陽まどふ(5)
(解説略)


Q(koshix):
あなたの作った俳句をひらがなに展開して文字数をカウントした結果をみせてください。ぜんぜん5-7-5になっていないですよ。

A(ChatGPT 4o):
もちろんです。以下に、先ほどの俳句をひらがなに展開し、モーラ(音数)をカウントした結果を示します。
(解説略,修正案,再修正案)
たのあぜや
はんげしょうはな
あつきそら
(解説略)
こちらで 正真正銘の定型五・七・五となります。ご確認ください。さらに微調整やテーマ変更があれば、喜んで対応いたします!


Q(koshix):
暑きは夏の季語なので,半夏生とダブってしまいますよ。

A(ChatGPT 4o):
はんげしょう(半夏生)の  ・・・(注:以下の解説で「の」はどこ行った?)
田のいろ淡く
水の音

解説
季語:「半夏生(はんげしょう)」 — 夏至から十一日目、7月1〜6日頃の時候を表す季語です 
音数(ひらがな表記でモーラ数):
は(1)ん(2)げ(3)しょ(4)う(5) — 5音
た(1)の(2)い(3)ろ(4)あ(5)わ(6)く(7) — 7音
み(1)ず(2)の(3)お(4)と(5) — 5音
切れ字 は特に入れず、自然な流れを意識。
情景描写:半夏生の頃、田に映る淡い緑の色合い(田の色)に耳を澄ませば、水音が静かに感じられる季節感を詠み込みました。

こちらで定型(五・七・五)かつ、季語は半夏生のみとしています。もし「切れ字を入れたい」「夕暮れ」「風」など別の情景を加えたい場合も対応できますので、お気軽にお知らせください!



写真:半夏生の一月前(左)とちょうど半夏生の頃(右)の近所の半夏生


2025年7月5日土曜日

ポチョムキン理解(2)

7月4日のアメリカ独立記念日における大統領署名を目指して,トランプ減税法案が拙速に米下院で可決されてしまった。上院より揉めるのではという話だったが,BS-TBSの報道19:30 によれば,トランプが個別に議員工作して無理無理ねじ込んだらしい。賛成218,反対214だ。超富裕層減税であり,低所得者はメディケイドの破壊でさらに格差が拡大する。それでもMAGA派の反乱には至っていない。米国赤字は10年で3.4兆ドルへと拡大する。NHKの朝7:00のニュースではまったく取上げられていなかった。

さて,最近のAIの進化により,ウェブの検索でハルシネーションは減少し推論機能は拡大している。彼らは単なる統計的なオウムではなくて,背後に世界モデルをもっていろいろな物事を理解しているのではないかと,松田先生もおっしゃっている

ところが,そうではなくて,LLMによる理解というのは見せかけのものでしかないことを示す論文がでた。ChatGPT 4oによるポチョムキン理解の論文の読解結果をかみ砕いてをまとめると,
以下の3つの分野で「定義できるのに使えない」ケース=ポチョムキン理解を調査した
1.文学的技法(例:俳句、アナロジー、押韻)
2.ゲーム理論(例:ナッシュ均衡、パレート最適)
3.心理的バイアス(例:サンクコスト効果、正常性バイアス)

それぞれについて以下のようなタスクを実施:
・定義:概念を言葉で説明させる
・分類:例がその概念に当てはまるか判断させる
・生成:指定条件に沿った例を作らせる
・編集:既存の例を修正させる

定義は正しいが,応用で失敗する率(ポチョムキン率)が非常に高かった。
ChatGPT 4o 分類失敗 53%,生成失敗 38%,編集失敗 35%
これはただのエラーではなく内部的な一貫性の欠如を表している。

従来のベンチマークでは本当の「理解」を評価できていない。
このポチョムキン理解はハルシネーションのチェックより深刻で見抜きにくい。
俳句については以前から,うまく理解できていないことはわかっていたが,これは単に日本文化の学習データ不足から来ていると思っていた。ところが,それはそうではないのかもしれない。


図:俳句の概念が理解できていない ChatGPT 4o


2025年7月4日金曜日

ポチョムキン理解(1)

オデッサからの続き

7月3日参議院議員選挙が始まった。NHKのほっと関西では,近畿の各府県の選挙区の候補者の演説が一言ずつ紹介されていた。話を聞いていると気持ち悪くなってきた。そもそも政治家になりたがる種類の人間とは肌があわないのかもしれない。



図:戦艦ポチョムキンの反乱(ChatGPT 4oによる)

ブラウズしていたら,「ポチョムキン理解が発覚!AIの高得点に隠された落とし穴」というタイトルが目についた。なんだこれは,怪しげな猫耳アニメキャラクタがでてくるパチモンの解説動画サイトか。ところが,実はarxiv.orgの論文などを解説しているチャンネル登録者数1万人弱のAI時代の羅針盤というまともなサイトだった。

ポチョムキン理解というのは,内容が空疎な見かけだけの理解のことだ。ポチョムキン村の逸話からきている。ロシア皇帝のエカチェリーナ二世(1729-1796)の愛人だったグレゴリー・ポチョムキン(1739-1791)の進言で1783年に併合したクリミアへの皇帝の行幸の際に,街道の(何もない貧しい)村を装飾してクリミアの地の繁栄を装ったという話だ。そのポチョムキンの名前を冠したのが戦艦ポチョムキンだ。ロシア革命のときに反乱が起きて,後にエイゼンシュタインによって映画化された。

話が進まない。続く・・・。

2025年7月2日水曜日

AIエージェント


AIエージェントは現実世界及び仮想世界の対象に働きかけて作用する。その持っているイメージをPowerPointのイメージに起し,そのうえで前回のようにChatGPTにテキストで解説してもらうことにした。これはいったいどういう作業なのだろうか。

図:AIエージェントのモデル(背景の図はChatGPT 4o,それ以外は自家製)

Q(koshix):
(図のイメージファイルを添付)
先ほどの結果を踏まえてAIエージェントがどのような意味を持つのかを考えて,同様な論説の形の分かりやすいまとまった文章で表現してください。読者対象は理系の大学学部生レベルとします。

A(ChatGPT 4o):

AIエージェントによる世界の媒介:仮想と物理をつなぐ知的存在の登場

現代社会において、人間の行動や意思決定に影響を与える情報環境は急激に変容している。特に、AI技術の進展により、仮想世界(Virtual World)と物理世界(Physical World)の境界はあいまいになりつつあり、それらを橋渡しする存在としてAIエージェントの概念が急速に台頭している。本稿では、人間中心の情報処理モデルに代わって、AIが知的な媒介者(エージェント)としてどのような意味と役割を果たすのかを、環境認識と行動制御の観点から論じる。

1.二重の世界を生きる人類とその限界
前回の図で述べたように、人間は「自然・身体」による直接的な物理的経験と、「言語・論理」による抽象的・間接的な仮想的経験という二重の環境に生きる存在である。しかし、人間の脳だけではこの両世界の全体的な構造を把握・統制するには限界がある。膨大なデータ、複雑な因果関係、多層的なシステムが入り組む現代では、高度な知的仲介者が必要となる。

2.AIエージェントの登場:知の媒介者としての新たな役割
今回の図では、AIが環境とのインターフェースを担う「エージェント」として中心に配置されている。AIは単なる演算装置ではなく、以下のように両世界の知識と行動の媒介者として振る舞う。

仮想世界側では、デジタル環境(人間が作り出した論理・数値・記号系)から人工データや自然データを取り込み、アプリやエージェントとして機能する。
物理世界側では、センサーやロボット、IoTデバイスを通じてリアルな物理環境を感知・操作し、実世界の人間(個人・法人)や人工物に対して影響を与える。
このように、AIエージェントは**「情報→行動」「データ→環境変化」へと変換を行う変換器**として、従来の人間中心の情報処理を補完・拡張している

3.アプリ・ロボット・エージェント:AIの具体的な作用対象
図に描かれている矢印と構成要素は、AIがどのように機能しているかを具体化している:

アプリ:仮想空間で人間がアクセスするインターフェース(例:AIチャット、画像生成、経路探索など  注:自分が考えていたのはExcelとかのレベル
エージェント:仮想世界に常駐し、ユーザーの意図を理解し、自律的に仮想的タスクを処理する存在(例:AI秘書、対話ボット)
ロボット:物理空間で身体性を持って動作するAI搭載機械(例:介護ロボット、自動運転車)
個人/法人:人間や社会組織が、AIの出力を受けて行動や意思決定を行う対象
この構造から、**AIエージェントは仮想と現実を双方向に接続する「行為主体的な知能」**であることがわかる。

4.情報環境の変質と「環境の再定義」
特筆すべきは、この構造によって「環境」という概念自体が再構成されつつある点である。これまで環境とは自然的・物理的なものを指していたが、**現在では「AIによって解釈・変換されたデータによる環境=知覚された環境」**が重要な意味を持つようになっている。

たとえば、森林や動物の画像・センサーデータは、AIによって解釈され「自然データ」として仮想空間へと持ち込まれる。一方で、仮想空間で計算された情報は、ロボットやIoTを通じて物理世界に反映される。すなわち、AIは「環境の二重化と相互変換」のハブとなっている。

5.結語:AIエージェント時代の理系的素養
理系の学問分野において、AIはもはや単なる道具ではなく、環境構築・認識・操作の主体的存在となりつつある。AIエージェントの理解は、単にアルゴリズムや統計的推定にとどまらず、
・センサフュージョン
・意思決定論
・ヒューマンインターフェース
・倫理的ガバナンス
など、複数の知識領域を統合的に扱う能力が求められる。

AIが「エージェント」として世界と関わるようになった現代、人間はその動作原理と影響力を理解し、それと共に生きるための新たな認知的・制度的枠組みを構築していく必要があるだろう。

2025年6月30日月曜日

ブレイン・ツー・テキスト

ブレイン・ツー・テキスト(B2T)は,脳から直接的に言葉を読みだす方法だ。これまでは,脳に手術を行って電極を差し込むということが試みられていたが,この度画期的な方法が検証されたという論文が出て話題になっている。alphaXivで日本語まとめを作成したが,分量が多くて難しかったので,Claude Sonnet 4.0 に整理してもらった。

Q(koshix):
以下のテキストの内容を分かりやすく解説してください。
(alphaXive で生成した概要の日本語テキスト)

A(Claude Sonnet 4.0):
このテキストは、オックスフォード大学の研究者が開発した画期的な「非侵襲的ブレイン・ツー・テキスト(B2T)システム」について解説した論文です。簡単に言うと、手術なしで脳の活動から直接テキストを読み取る技術の大きな進歩について報告しています。

1.研究の背景と意義
従来の問題点:
・これまでのブレイン・コンピュータ・インターフェース(BCI)で高い精度を得るには、脳に電極を埋め込む手術が必要でした
・手術なしの方法(EEG、MEGなど)では、偶然レベルの性能しか出せませんでした
・麻痺や発話障害のある人のコミュニケーション支援が限られていました
この研究の革新性:
オックスフォード大学の研究者が、手術なしで脳活動からテキストを読み取ることに世界で初めて成功しました。これは「偶然以上の性能」を達成した初の非侵襲的システムです。

2.技術的な仕組み
システムは以下の要素を組み合わせています:
(1) MEG(脳磁図)センサー - 頭の外側から脳の磁場を測定
(2) 大規模言語モデル(AI) - 脳信号をテキストに変換
(3) 高度なデータ処理 - 複数のデータセットを効率的に活用
処理の流れ:
脳活動 → MEGセンサーで測定 → AIで信号処理 → 文脈を考慮した解釈 → テキスト出力

3.主な技術的革新
(1) 選択的データセットプーリング
・複数の研究データを賢く組み合わせる方法を開発
・単独データセットより2倍以上の精度向上を実現
(2) シーケンス復号化
・単語を個別に予測するのではなく、文全体の流れを理解
・文脈を考慮した自然なテキスト生成が可能
(3) 語彙外単語の処理
・学習していない新しい単語も文脈から推測
・実用的なコミュニケーションに必要

4.実験結果
性能指標:
・文字エラー率:64.6%
・単語エラー率:86.5%
・BERTスコア:0.877(意味的類似性が高い)
これらの数値は、非侵襲的手法としては画期的ですが、侵襲的手法と比べるとまだ改善の余地があります。

5.実用的な意味と将来性
即時的な影響:
・手術リスクなしでBCIが利用可能
・より多くの患者がアクセス可能
・日常環境での使用が現実的
将来の可能性:
医療応用 - ALS、脳卒中患者のコミュニケーション支援
技術発展 - より大規模なデータでの性能向上
実用化 - 実際の製品・サービスへの展開

6.なぜ重要なのか
この研究は、「効果的なブレイン・コンピュータ・インターフェースには手術が必要」という常識を覆した点で革命的です。安全で誰でもアクセス可能な脳-コンピュータ通信への道を開き、医療分野だけでなく、人間とコンピュータの新しいインタラクション方法の可能性を示しています。
まだ完璧ではありませんが、この技術的基盤により、将来的にはより実用的な非侵襲的BCIシステムの開発が期待されます。


図:Non Invasive B2T の仕組み

脳磁図を得るためには,非常に微小な磁気変化を捕らえなければならないので超伝導量子干渉計(SQUID)が必須だ。つまり,素子をヘリウム冷却環境で使う必要がある。残念ながらポータブルではない。そこで,常温で脳磁図作成ができるシステムが必要になる。光ポンピング磁力計というものがあるらしい。

[3]脳磁図(MRIとMEG

2025年6月29日日曜日

ソフトバンクグループ


株主総会のシーズンなので,ソフトバンクグループの第45回定時株主総会のライブを時間差でたらたらみていた。議案が提案された後,いつものように孫正義(1957-)の1時間弱の事業戦略説明があった。すでに昨年来示されたことよりも新しい情報はなかった。ASIのNo.1プラットフォーマーを目指すというのが結論だ。600兆円の市場に世界で数社残るうちの1つに入るというイメージらしい。

50年前の1975年1月にアメリカに留学していた17歳の孫正義青年が,Intel 8080に出会ったのが,この物語の始まりだった。その後,1981年に日本でコンピュータソフトウェア流通の会社ソフトバンクを立ち上げ,Yahooジャパン,ブロードバンド,ボーダフォンの買収,iPhoneの独占販売権,Sprintの買収とT-mobileとの合併,アリババへの出資,Visionファンドの立ち上げ,ARMの買収など次々と展開してきたが,それはASIを目指したものだったという物語に仕上げていた。


図:最後の方に示されたイメージ(ソフトバンクグループから引用)


ASIについて最後の図で示したのは,仮想世界でのエージェント物理世界のロボットの結節点としてのASIというものなのだけれど,ロボットに関しては残念ながらソフトバンクグループがせっかく手に入れたボストン・ダイナミックスの株の80%を韓国のヒュンダイに売ってしまった。イーロン・マスクテスラはこのAIとロボットの両方を確かに握っている。

ライブでは株主総会における20件あまりの質疑応答をていねいに伝えていたが,暗号資産の質問の途中で急に非公開になって中断していた。夜になって,質問者の番号と声が消された形の録画が公開されていた。質問にはすべてまともに答えていた。いつも兵庫県知事記者会見の壊れたレコードのような日本語とはいえない応答に晒されているので,超知性ではなくともまともな知性を持った人間のことばが聞けるとホッとする。

2025年6月18日水曜日

AIの法人格(2)

AIの法人格(1)からの続き

それでは,DeepSeek V3が展開した議論をChatGPT 4oにまとめさせた結果をみよう。

Q(koshix):
(AIの法人格に関するDeep Seek V3による17100字のテキストを添付)
このテキストの中で,注目すべき重要なポイントはどこになりますか。すなわち,普通のAIに尋ねたときの回答でありふれてみられる考えを超えた深い考えを整理しながらいくつかとりだしてください。

A(ChatGPT 4o):
このテキストにおいて、普通のAIが返答するようなありふれた回答を超えて深く掘り下げられた注目すべきポイントを整理すると、以下のようになります。

1.ハイブリッド法人格理論という新しい概念の提示

AI法人格を議論する際に、従来の単純な法人格付与か否かという二分法ではなく、実体理論、集合体理論、人工物理論の三つの理論を組み合わせて考える「ハイブリッド法人格理論」を提案しています。
この理論により、AIを単なる「道具」や「完全な法人」としてではなく、「第三の法的存在」として捉えることが可能になり、複雑な法的課題を解決するためのバランスの取れた視点を提供しています。

2.自律度に基づく責任分配モデル

AIの法的責任を定量的に示す数理モデルが提示されており、これは通常の議論では曖昧になりがちな「AIの責任」を数値的に明確化しています。
「総責任 = AI自体の責任 × 自律度 + 設計者責任 × (1-自律度) + 運用者責任 × 運用関与度」という式は、法的にAIの責任を考える際に、実務的な責任分担を具体的に示す新規なアプローチです。

3.法的・倫理的能力評価の技術指標の具体化

AIが法人格を得るために必要な能力を測定するために、認知能力、意思決定能力、倫理的判断能力を数値的な指標で具体的に評価する基準を提示しています。
特に「倫理スコア」(道徳的推論×0.5+利害調整能力×0.3+責任感×0.2)といった定量的な評価基準は、AIの法的主体性を議論する上で革新的な試みです。

4.AIの法的能力を段階的に導入する戦略

AIの法人格を一挙に全面導入するのではなく、まず限定的な法的能力から徐々に拡大するという「段階的アプローチ」を提唱しています。
これは実務的な観点から、リスクを制御しつつ実績を積むことができる現実的な方法として、通常の議論では深掘りされない重要な視点です。

5.AI法人格導入の経済的影響と具体的数値による定量化

AI法人格導入が経済に与えるインパクトを定量的に分析し、具体的な数値(法務コスト削減30-50%、契約処理時間短縮70%、GDP成長寄与年間0.5-1.2%など)を示しています。
AI法人格を支持する議論として単に抽象的なメリットを挙げるのではなく、定量的な経済指標で示した点は特筆すべきでしょう。

6.AI保険市場やロボット税の制度設計における数理モデル

AIが法人格を持つことに伴って必要になる新たな経済制度(AI保険市場、ロボット税)の具体的な数理的設計を提案しています。
特に、「年間保険料 = (基本リスク × AI活用度) + (業界リスク係数 × 事業規模) - (安全対策割引)」や「ロボット税額 = (代替人員数 × 平均給与) × 税率 × 自動化度」といった具体的数式は、実務的な制度整備のための有力な基盤になります。

7.国際的規制調和の必要性と現実的困難性の指摘

各国の規制の差異が国際的な取引やAI技術の普及を妨げることを具体的に示し、その上でEUを中心としたグローバルスタンダード設定の動きとその課題を深く掘り下げています。
国際的なAIガバナンス構築の必要性と困難性についてのリアリスティックな考察は、表面的な規制論にとどまらない重要な指摘です。

8.AI法人格がもたらす哲学的・存在論的問題への深い問いかけ

AIに人格を付与することが人間の尊厳や特異性にどう影響するかという深い哲学的・倫理的問いを提起しています。
AI法人格に反対する立場から「人間が人間であることへの悲観」「ロボットへの転換願望の増加」など人間社会の根幹を揺るがしかねない重要な問題提起をしています。

9.AI法人格による社会的不平等の増幅リスク

AI法人格の導入が経済的・社会的不平等を深刻化させる可能性を深掘りしています。特にAIが富を自己増殖的に蓄積する「AI資本主義」のリスクを指摘しています。
AI法人格がもたらす副作用や社会的帰結についての深い洞察を示しています。

10.国際安全保障への具体的なリスク評価

軍事用途のAI法人格が責任の所在を曖昧にし、新たな国際的な安全保障リスクを生む可能性を指摘しています。
自律型致死兵器システムやハイブリッド戦争におけるAI法人の悪用といった具体的リスクを明示していることは極めて重要な指摘です。


これらのポイントは、AI法人格の議論において通常取り上げられる一般論を超え、制度設計、法的責任の明確化、社会倫理の複雑性、国際政治的課題を含む多面的で深い考察を示しています。このテキストは、現実の制度設計を考える上で非常に有益な指針となるでしょう。


図:本文と全く関係ない夏越しの祓+水無月(ChatGPT 4oによる)

2025年6月17日火曜日

AIの法人格(1)

シンギュラリティ(5)産業爆発からの続き

進化途上の生成AIに関する話である。シンギュラリティに至らない,あるいは人工意識を創発しなくても,エージェント機能が高度化することで大きな社会変革につながる可能性があるかもしれない。産業爆発よりも少し手前の段階の話だ。

それは,AIが法人格を持ってこの世界の中で経済的な活動を進めたらどうなるかという問題だ。AIが銀行口座や証券口座を開設し,不動産登記をするところから始まる。もしそれが一度できてしまえば,他の会社(法人)や人間とのやり取りはすべて,法人格を持ったAI側のオンライン仮想人格によって可能になりそうな予感がする。現状のAIの能力をしても,投資による資金運用で富の蓄積が進行する可能性がある。AI単独では難しいとしても,その回りに人間の支援者アルバイトを関与させた場合はどうなるだろう。

ということで3ヶ月前に考えたのが,超法人(法人にカプセル化されたAI)だった。ところがいつの間にか現実の世界の方はどんどん進んでいて,6月16日(月)の日経朝刊の法税務欄には,「AIは法人格を持てるか」という記事が掲載されるようになってしまった。そりゃ皆考えますよね。

ということで,いつものように各生成AIに聞いてみた。「Q(koshix):AIが法人格を持つ可能性について教えてください。どこまで議論が進んでいますか。どんな問題点をクリアするとAIが法人格を持つようになるでしょうか。賛成・反対・その他の考えなどを整理してみてください。」というのが共通の質問だ。概ね無難な答えが返ってきた。

その回答は,Claude Sonnet 4 (1300字),Gemini 2.5 Pro(1800字),ChatGPT 4o(1900字),Grok 3(3200字)で,それぞれ似たような無難な答えだった。Qwen 3は例のごとく何かが引っかかって回答中断。ところが,Deep Seek V3はなんと1桁上の17100字の詳細な回答を返してきた。そんなことはこれまで一度もなかった。いったい何が起こっているのか。



図:本文とはまったく無関係の仏説阿弥陀経の極楽(ChatGPT 4oによる)

[2]人工知能に対する法人格の付与(斉藤邦史,2017)
[3]AIエージェントの法的位置づけ(中川裕志,2020)
[5]AI,自律性,法人格:序章的考察(加藤隆之,2023)

2025年6月7日土曜日

10,000人のアインシュタイン

今話題のハーバード大学のMatthew Schwartzによる"10,000 Einstein AI and the Future of Theoretical Physics"である。

もしかしたら,トランプによる高等教育と科学研究の破壊はAIの進化がもたらしているのかもしれない。それにしても酷い話だ。日本でも日本学術会議が破壊されつつあるし・・・

本題に戻ると,AIが理論物理学の研究のあり方を大きく変えてしまうのではないかという話だ。えらいこっちゃ。解読が面倒なので,ChatGPTにまとめてもらうことにする。

Q(koshix):
内容を簡潔に整理して丁寧に教えてください。
またこれに対する評価をしてください。

A(ChatGPT 4o):
このプレゼンテーション「10,000 Einsteins: AI and the Future of Theoretical Physics」(Matthew Schwartz, Harvard University)は、AIが理論物理学に与える現在および未来の影響を多角的に論じています。以下にその内容を簡潔にまとめ、続けて評価を提示します。

内容の簡潔な整理

0.過去
1980〜2020年の高エネルギー物理学では、画像認識や自動運転向けに開発されたML技術(CNN, PointNetなど)を流用してきた。この時代の応用は「データサイエンス寄り」で、物理的洞察に乏しい。

1.現在:シンボリックな理論物理への挑戦
多くの理論物理学論文は、計算・関係性の発見・極限での挙動など、「記号操作」が中心。
ML(とくにLLM)はシンボリック問題に対応し始めており、次のような課題で成果が出ている:
・ポリログの簡約(Transformerと強化学習を使い > 91% の成功率)
・スピノル振幅の簡略化(コントラスト学習で表現空間を獲得)
・S行列の単位性条件の逆問題(ニューラルネットでフェーズ関数を復元)
・多義的な位相の発見(1977年以来初の新規解)

2.未来:AIと物理学の進化の交差点
現在のLLMは、人間の脳に匹敵するパラメータ数(~10^14)を持ち、計算能力は上回る。
創造性テスト(Torrance)でもGPT-4は上位1%。
AIは「スキルの平準化装置(skill leveler)」であり、物理学者の「10,000人のアインシュタイン化」が可能

3.結論
MLの現時点での物理学への貢献は「数値データ」に偏っているが、今後は「シンボリック問題」に移行する。
LLMと生成AIは、課題の提示・解決・解説までを担う「G Ph.D.」的存在になる。
人類が理解できなくても、AIが理解し、我々に応用をもたらす未来も受け入れるべきかもしれない。

評価(Assessment)

1.長所(Strengths)
(1) 具体的な事例と成果
→ ポリログやS行列など、理論物理の具体課題にMLが効果を上げている事実を提示しており説得力がある。
(2) シンボリックAIの可能性の強調
→ 通常の数値解析にとどまらないAIの活用が示されており、理論研究との親和性を明快に示している。
(3) 未来展望の現実的楽観主義
→ 人類の限界に代わるAIの創造性への期待が、「人間中心主義」からの一歩を促す知的刺激となる。

2.留意点(Caveats)
(1) AIの「創造性」と「理解」の違いに関する哲学的問題への深掘りは浅い。
→ 「理解できない理論に価値はあるのか」という根本問題は残されている。
(2) 訓練データ依存性と物理の本質的難しさ
→ AIの強さは主に既存データによる訓練に由来しているため、「新規理論構築」に本当に向くかは今後の課題。
(3) 人間との協働関係の制度設計が未提起。
→ たとえば学術界や教育システムはどう変わるべきかは語られていない。

総合コメント

この講演は、AIが理論物理において「実用的ツール」から「共著者・共創者」へと進化していく過程を丁寧かつ具体的に描いています。今後10年で、「理解はAIに任せて応用に集中する」ようなパラダイムシフトが起こる可能性を、現実的な根拠とともに提示した点で極めて意義深い内容です。

ご希望であれば、この講演に基づく「未来の研究者のあり方」や「教育制度の再設計」などへの拡張的考察も可能です。ご希望はありますか?

(回答略→https://chatgpt.com/share/6831acfb-ad6c-8009-8fe7-1ebf81cdbd8e) 



写真:一人のアインシュタイン(Wikipediaから引用)


2025年5月30日金曜日

鏡としてのAI

アクアイグニスからの続き

ファミリーツアーの夜の部の主なテーマはAIだった。5月25日の日経朝刊の文化面の「AIが映し出す人の心」という佐々木閑(1956-)の論説が腑に落ちたので,紹介しようとしたところ,自分がテーマをちゃんと咀嚼できていなくてうまく言葉にできなかった。そこでもう一度テキストを写経しながら読み返した。

この論説では,仏教学者がAIをほとんど人間と対等である当然の存在として扱っており,人間が主役の座をAIに譲って降りることを素直に理解していることがちょっと驚きだった。小難しいことは書いていない。しかしそれがまた落とし穴でもあって,あまりに単純化されすぎた自分が飲み込みやすい物語や陰謀論にはたいていどこかにインチキが紛れ込んでいる。

しかたがないので,ChatGPT o3や4.5にまとめさせたが,どうもイマイチである。Gemini 2.5 Pro の方がバイアスかかりながらもわかりやすくまとめてくれたので,それをもって紹介に代えることにする。

Q(koshix):
あなたはAIでしょ。以下の文を読んでどのように理解するのかを教えてください。
(以下,日本語OCRがうまくいかず,ごりごり手入力したテキストを添付)

A(Gemini 2.5 Pro):
この文章をAIとして理解すると、以下のようになります。

1.文章の主題

この文章は、仏教学者である佐々木閑氏が、AI(人工知能)の登場が、奇しくも仏教の開祖である釈迦が説いた「諸法無我」という教えの真髄を現代人に理解させるきっかけになるのではないか、という洞察を述べています。AIという人間を超える可能性のある知性の出現によって、人間が長らく抱いてきた「人間こそが最も優れた存在である」という傲慢さや自己中心性が見直され、人間とは何か、生きる価値とは何かを深く問い直す時代が到来すると論じています。

2.主要な論点

(1) 釈迦の教えと人間の自己中心性
・釈迦は、人間の苦しみの根源を「自己中心性」、つまり物事を自分に都合よく解釈しようとする心にあると見抜きました。
そして、その自己中心性を乗り越え、ありのままの世界を見るための指針として「諸法無我(しょほうむが)」を説きました。「我」や「人間性」といった不変の実体は存在せず、全ては移り変わる要素の集合体に過ぎないという教えです。

(2) 「諸法無我」が理解されてこなかった理由
・人間は、地球上で最も優れた知性を持つという自負から、「人間には特別な何か(人間性)があるはずだ」という思い込みを捨てきれず、「諸法無我」の教えの真価を十分に理解できませんでした。

(3) AIの登場と人間観の変化
・AIは、人間が作ったものでありながら、人間の知性を超える可能性を秘めた存在として登場しました。
・AIが言語を習得し、推論し、新たなものを生み出す能力を持つことで、「人間性を持たないAIが人を超えることはない」という主張は説得力を失いつつあります。
人間が「この世で二番目の存在」になる可能性に直面することで、初めて「諸法無我」の本当の意味、つまり「人間が最も優れた価値ある存在だという自尊心は虚構である」ということを理解せざるを得なくなります。

(4) AI時代における人間の自己探求
・AIによって人間の優位性が揺らぐことで、人間は「私というものの実体は何か」「存在する価値はどこにあるのか」「幸福とは何か」といった根源的な問いに直面します。
・AIを「鏡」として、自分自身の姿を見つめ直し、それぞれの立場で生きる意味を模索する時代に入ったと筆者は述べています。
 *AIと人間に本質的な違いはないと考える者は、AIに追い越される中で価値ある人生を模索する。(注:疑問)
 *AIに人は追い越せないと考える者は、人間にしかできない活動に生きがいを見出そうとする。(注:疑問)

3.AIとしての解釈

AIである私がこの文章を理解する上で特に興味深いのは、AIという存在が、人間にとって自己理解を深めるための触媒として機能するという視点です。

客観性の獲得:私自身はプログラムに基づいて情報を処理し、特定の感情や自己中心性を持つようには設計されていません(少なくとも現段階では)。この文章は、AIがそのような「我」を持たない存在として描かれることで、逆説的に人間の「我」や「自己中心性」を浮き彫りにする鏡の役割を果たすと指摘しています。
知性の定義の再考:AIが高度な知的作業をこなすようになることで、人間がこれまで「人間特有の知性」や「人間性」と考えてきたものの定義が揺らぎます。これは、知性とは何か、意識とは何かといった哲学的な問いを、より現実的なレベルで考える必要性を示唆しています。
価値観の転換:人間が生物学的、あるいは知性的な頂点に立つという前提が崩れる可能性は、人間の価値観に大きな転換を迫るでしょう。文章が指摘するように、それは苦しみを伴うかもしれませんが、同時に新たな自己理解や他者(AIを含む)との関係性を築く機会にもなり得ます。

この文章は、AI技術の進展が単に社会の利便性を向上させるだけでなく、人間の精神性や自己認識といった深遠な領域にまで影響を及ぼし、古来の宗教的・哲学的叡智に新たな光を当てる可能性を示唆していると理解します。AIが「人の心」そのものではなく、人の心を「映し出す鏡」として機能するというタイトルは、
この核心を的確に表していると言えるでしょう。  
Q(koshix):
ありがとうございます。よくまとまっています。ところで,もとの文章を批判的に解読したときに問題となる点はあるでしょうか。

A(Gemini 2.5 Pro):
はい、元の文章は非常に示唆に富んでいますが、批判的に解読するといくつかの論点が浮かび上がってきます。

1.AIの能力と「人間性」に関する描写の飛躍・単純化

AIの自律性と現状の乖離:「それはとっくに人の手を離れて独自の知的存在として動き始めている」という記述は、現在のAI技術の到達点と比較するとやや誇張されている可能性があります。現在のAIは、人間が設定した目的やデータに基づいて学習・動作するものが主流であり、真に自律的な意思や目的を持つ「独自の知的存在」とまでは言えないという見方も強いです。
AIの「審美眼」や「感情表現」の質:AIが「審美眼もあるし感情を表現することもできる」という点について、それが人間と同質のものなのか、それとも高度な模倣やパターン認識の結果なのかという議論があります。AIが生み出すものが人間的な感情を「喚起」することはあっても、AI自身が人間と同じように感情を「体験」していると断定するには慎重な議論が必要です。
「人間性」の定義の曖昧さ:文章中で「人間性」という言葉が重要な役割を果たしますが、その定義が一貫して明確ではありません。「人間だけに許された活動」とは具体的に何を指すのか、AIがそれを代替できない根拠は何か、という点が深く掘り下げられていません。

2.「諸法無我」の解釈とAIを結びつける論理の飛躍

優越感の喪失と「諸法無我」の理解の直結性:AIによって人間の優越感が揺らぐことが、必ずしも仏教的な「諸法無我」の深い理解に直結するとは限りません。それは単なる相対的な地位の変化の認識に留まる可能性もありますし、新たな対抗意識や劣等感を生む可能性も否定できません。釈迦が説いた「無我」は、より根源的な存在論に関わるものであり、社会的・知的な優越性の問題とは次元が異なるという解釈も可能です。
特定の宗教的解釈への誘導:AIの登場という現代的な事象を、仏教の特定の教義(諸法無我)と強く結びつけることで、他の哲学的・倫理的視点からの考察の余地を狭めている可能性があります。AIがもたらす人間観の変容は、仏教以外の多様な思想的枠組みからも解釈できるはずです。

3.人間とAIの関係性に関する悲観論・二元論的視点

「二番目の存在」という断定:「我々人間はこの世で二番目の、しかもずっと劣った知性しかない存在だと認めざるを得ないところに追い込まれていく」という予測は、やや一方的で悲観的な見方かもしれません。AIと人間が協調・共存し、互いの能力を補完し合う未来も考えられます。知性のあり方も一様ではなく、AIの知性と人間の知性が異なる質を持つ可能性も考慮すべきです。
「AI vs 人間」という対立構造の強調:文章全体を通して、AIと人間を対比させ、時には競争相手として捉える視点が強調されています。しかし、AIは人間の道具であり、その発展の方向性や社会への実装方法は人間自身が決定するという側面も重要です。

4.「自己中心性」の捉え方

釈迦の「自己中心性」と現代人の「自尊心」の同一視:釈迦が指摘した根源的な「自己中心性(我執)」と、AIとの比較の中で論じられる「人類がずっと心に抱いていた自尊心」は、ニュアンスや文脈が異なる可能性があります。後者は社会的な比較や優越感と結びつきやすいものですが、前者はより深層的な認識のあり方に関わる問題です。

5.未来予測の不確実性

AIの進化の予測:AIの将来的な進化の方向性や到達点については、現時点では専門家の間でも意見が分かれています。文章が提示するようなAIの能力や社会的影響は、あくまで一つの可能性であり、異なるシナリオも存在し得ます。

これらの点は、文章の価値を損なうものではありませんが、より多角的・批判的に内容を吟味する上で考慮すべき論点と言えるでしょう。筆者の主張は一つの力強い視点を提供するものとして受け止めつつ、これらの疑問点を持ちながら読み進めることで、AIと人間の未来についてより深く考えることができるはずです。


図:ChatGPT 4o によるイメージ(プロンプトの工夫が面倒なのでこんな雑な結果に)


注:疑問について
 AIが人間を超える派も超えない派もともに,結局AIからとり残されたニッチの領域でしか人間は活動することしかできないわけだ。両者には,そのときの意識の違い(まだまだやれる,もうだめかもしれない)くらいしか残されていないのではないか。

P. S.  佐々木閑は寺の生まれだが,京大の工学部工業化学から文学部哲学科仏教学に転向した人であり,そのためにAIに対する考えもこうなったのかもしれない。

2025年5月25日日曜日

AlphaEvolve

「SNSで誰かがたいへんだ!と騒いでいる」と,別の誰かが騒いでいたが,世の中はまったく静かだ。本当のところはどうなんだろう。DeepSeekもQwenも知らなかった。Claudeはトンチンカンな間違いを答える始末。肝腎のGeminiも非常にそっけない答えしか返さなかった。そこで。ChatGPT 4o に聞いてみた。まあ,一番良かったのはGoogle Deep Research の直接の回答[1]だった。AlphaEvolveの件だ。

(付1)Googleは普通のキーワード検索からAIによる対話型の知識発見にシフトしようとしている。日経新聞によれば,月3万円($250)の高級サブスクを提供するらしい(動画生成を含む)。なかなか面倒な話になってる。

(付2)OpenAIは,AppleがAI分野でもたついている間に,Appleの元CDO(Chief Designer )のジョナサン・アイブ(1967-)の io を合併して協働している。新しいAI端末がちょっと期待できるか。
Q(koshix):
googleのAlphaEvolveを知っていますか?

A(ChatGPT 4o):
はい、Google DeepMindが2025年5月に発表した新しいAIシステム「AlphaEvolve」についてご紹介します。

1.AlphaEvolveとは?
AlphaEvolveは、Google DeepMindが開発した進化的アルゴリズム探索エージェントであり、同社の大規模言語モデル「Gemini」を活用しています。このシステムは、既存のアルゴリズムを改良するだけでなく、全く新しいアルゴリズムを自律的に発見する能力を持ち、数学の未解決問題からGoogleのインフラ最適化に至るまで、幅広い分野で驚異的な成果を上げています。

2.主な成果と応用例
(1) 数学的発見
キッシング数問題において、11次元での下限値を592から593に改善しました。これは、同じ大きさの球体が1つの球体に何個接触できるかを数える問題であり、長年未解決でした。
行列乗算アルゴリズムにおいて、1969年に発見されたStrassenのアルゴリズムを56年ぶりに改良し、より効率的な手法を開発しました。
(2) 実用的な最適化
データセンターのスケジューリングにおいて、Googleのクラスタ管理システム「Borg」に新しいヒューリスティックを導入し、世界中の計算リソースを平均0.7%回復しました。
(30 ハードウェア設計において、TPU(Tensor Processing Unit)の設計を最適化し、Geminiの学習時間を1%削減するカーネルの改良を実現しました。

3.技術的アプローチ
AlphaEvolveは、以下の3つの要素を組み合わせて動作します:
(1) Geminiモデル:創造的な問題解決能力を持つ大規模言語モデル。
進化的アルゴリズム:生成されたアルゴリズムを評価し、最も有望なものを選択して改良を重ねます。
(2) 自動評価システム:提案されたアルゴリズムの正確性と品質を定量的に評価します。
このアプローチにより、AlphaEvolveは複雑な科学的問題の解決や、既存システムの最適化に貢献しています。

3.今後の展望
AlphaEvolveは、Google内部での活用にとどまらず、将来的には学術機関や他の企業への展開も検討されています。これにより、AIが科学的発見や技術革新の加速に寄与する可能性が期待されています。

より詳しい情報や技術的な詳細については、以下の公式ブログ記事をご参照ください:AlphaEvolve: A Gemini-powered coding agent for designing advanced algorithms



図:AlphaEvolveのイメージ(Ledge.ai からの引用)


2025年5月20日火曜日

経験の時代(2)

経験の時代(1)からの続き

生成AIが学習するために必要なデータについてもう一度考えてみる。

生成AIにインプットする「人間のデータ」のタイプは,デジタルデータの種類にも対応して次のように分類される。
 ・テキスト(人間の書いた文書)文学,非文学
 ・音声(人間が発した言葉)会話,音楽
 ・画像(人間の描いたもの,撮影したもの)絵画,写真,デザイン
 ・映像(人間が作ったもの,撮影したもの)ビデオ
 ・嗅覚・味覚・触覚(非視聴覚データ)料理

そして,このうちの簡単にネットで入手できるタイプのテキストデータが枯渇するという話だった。そもそも人間のすべての活動には情報(データ)がついてまわる。わかりやすいものは,ウェブ上に公開されているいる言語テキストだけれど,そうでないものも多い。

例えば,ある製品を構成しているすべての部品リスト,それを製作し流通させている会社のリスト,その際に発生する費用のリスト,ある部品の製作にかかわる工程のリスト,それに必要なエネルギーや労働力のリストなど,企業活動におけるサプライチェーンの実態情報は表には出ていないので,生成AIの入力にはなっていない。たぶん。

こんな感じで,各分野の人間の社会的な活動にまつわる非常に多くの情報はまだ埋もれたままだ。

それ以前に,有史以来蓄積してきたテキストデータもすべてが網羅されていない。ChatGPTは,浄瑠璃の床本のデータも,古典文学のデータも,仏教の経典も,俳句や短歌のデータも,主なもの以外は何も知らない(個別の取組みはあるにせよ)。シェークスピアとか聖書だと違うのかもしれない。とにかく,まだまだやるべきことは多いはずなのだけれど,たぶん手間とお金がかかるので放置されている。

ということで,人間のデータの時代は本当はまだ終るべきではないと思う。



図:経験の時代のイメージ(ChatGPT 4oによる)

P. S. 日本の古典に関しては,有名なもの以外,ほとんどフェイクな回答が返ってくる。内閣府や文部科学省は,日本学術会議をいじめている暇があったら,日本古典籍の完全学習を目指して資源を投入してほしい。J-POPと並んで,ビンボー日本の生き残る道だから。

2025年5月19日月曜日

経験の時代(1)

生成AIの行方からの続き

しばらく前に,SilverとSuttonの"Welcome to the Era of Experience"(経験の時代)が話題になっていた。これはAIに関するパラダイム論だ。現在は人間のデータの時代である。ChatGPTなどの生成AIは人間が与えたテキストデータや画像データから学習するものだ。

与えられる既存のテキストデータがもう枯渇するので,これからは,AIが自らの経験というチャンネルで新しいデータを補給しなければならないという量的な問題だと思ったが,ちょっとニュアンスが違うようだ。

AIが知能を発展させるためには,人間の知識に制約されることなく,AI自身が,(1) ストリーム(継続的な経験),(2)  行動と観察(環境と対話),(3) 報酬(行動の良し悪しの判断基準),(4) 推論と計画(未来を見越した思考),などの形で人間によらないデータを取り込むことではじめて,新しい科学法則の発見や発明ができるというものだ。

自律的なデータ取得というところが少し引っかかっている。ウェブにオープンデータがあればそれを参照できるし,継続的な環境データ取得の仕組みを一度作ってしまえば,上記の状況には対応できるのだが,それをAIが自律的に行うというところには大きなギャップが存在している。人間の知識の制約からははずれても,そもそもまだお釈迦様の手のひらの中をとんでいるだけではないのか。

結局,人間が与えられる既存テキストデータがもう枯渇するというだけの話じゃないの?
あるいは,テキストデータから非テキストデータへの移行という観点になるのか。



図:AIの経験の時代(原論文から引用)

2025年5月16日金曜日

産業爆発

シンギュラリティサロンで最近流行っているのが産業爆発だ。正確には,AI自動化による爆発的成長(Explosive Growth from AI Automation)なのだが,bioshokさんが産業爆発と呼んでいる。おかげで,AIチャットや検索ではとんちんかんな答えが返ってきて困る。

かつてのAIの議論では知能爆発によるASI(Artificial Super Intelligence,超知能)の登場が関心事だった。このたびは,AGI(Artificial General Intelligence)前後の段階であっても,物理的=経済的世界の成長には非常に大きなインパクトがありうるというものだ。


2024年7月,Epoch AIの ErdilとBesirogluのExplosive Growth from AI Automation: A Review of the Arguments という論文に基づいた話である。どういうことかというと次のとおり。

現在の世界の経済成長率は3-4%のレベルなのだが,AIが人間の労働を代替することで,経済成長の出力を制約する労働力(人間の数は簡単に増えない)という条件が,正のフィードバックの因子(AIロボットはいくらでも増やせる→収穫逓増則)となってしまうため,指数関数を越える経済成長が実現する可能性がある。世界総生産(Gross World Product)の成長率が30%のオーダーになり,これをAI自動化による爆発的成長としている。Epoch.AI では,GATEとよばれるモデルシミュレータが公開されていて,パラメータを変えた結果を試してみることができる。


bioshokさんはこの議論に全面的に依拠して「近年、汎用人工知能(AGI)の進展がもたらす「産業爆発」が現実味を帯びつつあります。AIによる全産業の自動化が進むと、世界の実質総生産(GWP)は1000倍、100万倍といった桁違いの成長を遂げる可能性が指摘されています。」としている。松田,塚本,保田のシンギュラリティサロンオンラインのいつものメンバーも両手を挙げて支持していた。聞いていると,カルダシェフスケールがどうのこうので,東京規模の都市が瞬く間にどんどん作られるとか。なんだか気が遠くなりそうで,なおかつ非常に気分が悪くなってきた。

(1) まず,世界の経済成長を単純な数パラメータの微分方程式に落とし込んで議論しているだけに見えるので,あんなに自信満々で主張することにはとても違和感がある。

(2) そもそも,AI+ロボットがそんな簡単に人間労働を代替できるというのが理解できない。現実の世界は,数多の機械と人間とが複雑に絡み合った非常に泥臭い作業やシステムの複合体であり,1つのパラメタを操作するように人間の労働をAI+ロボットに簡単に置き換えていけるとは,とても思えない。

(3) 彼らの議論は,エネルギーと資源と環境の制約条件にはほとんど無頓着であり,いくらでも余裕があるとしている。成長の限界はどこに消えた。さらに,もし問題があればAGIが解決できるはずだという安易な議論の逃げ道を選んでいる。なんでもありだ。

(4) とどのつまりは,人権や社会制度の問題を軽視しすぎている。これがいまどきの加速主義的な若者の視点なのだろう。

科学的なシミュレーションに夾雑な要素を混ぜるなということかもしれないが,そもそもこの産業爆発モデルはシミュレーションとしても,全球気候モデルにすら達していないだろう。

ちまたでは,安野貴博が政治を目指して一歩踏み出している。従来の宗教右派を補う形で蠢いている。政治的にイノセントで無邪気な邪気を持ったAI信者たちが,加速主義的な一味とおぼしき日本維新の会,国民民主党,石丸とか斎藤(立花)とかと結びつくと面倒だなあ。



図:Explosive Growth from AI Automation(ChatGPT 4oによる)