鏡としてのAIからの続き
図:未来の歴史のイメージかな(Nano Banana Proから)
最近はたまに見るだけの twitter(x.com)で,bioshokさんが「2025年から2040年までの読むのに1時間以上かかるとてつもなく解像度の高い未来シナリオが Lesswrongに投稿された,これは皆読んでほしい」としていた。さっそく探してみると "A History of the Future 2025-2040 " (2025.2.17)が見つかった。ただ,bioshokさんの投稿は10ヶ月以上前になる2025.3.8の再投稿だった。
この未来史,2025-2027,2027-2030,2030-2040 の三部作(14万字)を読み込ませて解読した。ただし,先日ChatGPTにまとめさせた(エッジAIと状況化,自己決定とは何か,鏡としてのAI)との関係を意識させた結果である。なお,原文にはSFチックな物語が満載だけれど,そのような要素は全部削り落とした。
A(ChatGPT 5.2 + Gemini 3.0 + Claude 4.5):
---
未来の歴史(2024–2040)― AIはどのように「主体」を歴史の中から移動させるのか
未来予測というと、多くの場合は技術スペックの進歩や市場規模の話に収束する。しかし本当に起きつつあるのは、より深い層の変化である。それは「知能のあり方」ではなく、「主体が世界に位置づけられる仕方」そのものが、ゆっくりと、しかし不可逆に書き換えられていく過程である。
この文章では、2024年から2040年にかけて起こりうる変化を、単なる年表ではなく、因果の連鎖としての歴史として描いてみたい。(2025年からのはずがいつの間にか2024年に)
1.2024–2026:学習の重心が「知識」から「手続き」へ移る
2024年前後を境に、AIの性能向上のエンジンは明確に変わり始めた。巨大データを用いた事前学習によって「世界の写像」を厚くする段階は、計算資源・電力・データ品質の制約によって収穫逓減に入る。一方で、強化学習や探索を用いて、推論の手続きを自己最適化する方向が急速に伸び始める。
ここで重要なのは、AIが「より多くを知る」ようになるのではなく、「よりうまく解く」ように見え始める点である。Chain-of-Thoughtの内部探索、test-time computeの動的配分、評価設計の高度化によって、AIはあたかも物理学者が第一原理から問題を組み立てるかのような振る舞いを示す。
2025年から2026年にかけて、マルチモーダル統合と長期記憶の改善が進むと、日常業務の多くが実用水準で自動化される。ここで社会には一種の錯覚が生まれる。「AGIが完成したのではないか」という感覚である。しかしこの錯覚は、能力の本質を取り違えている。AIは局所的な最適化や短中期の問題解決では非常に強いが、長期的な仮説生成・世界モデルの更新・価値の再定義といった領域では依然として不安定である。それでも、表層的には十分に“賢く”見えるため、社会はこの段階でAIを前提とした運用に一気に踏み出す。
この時期は、後から振り返れば「AGI錯覚の時代」と呼ばれるだろう。
2.2026–2030:ソフトウェアのコモディティ化と「最適化の足場」の形成
AGI錯覚が広がると、最初に構造変化が起きるのはソフトウェア産業である。コードは完全にデジタルで、評価が明確で、試行錯誤のコストが低い。AIにとって最も“学習しやすい物理環境”がそこにある。
2026年頃には、コード生成・検証・修正のループが、ほぼAI同士で閉じるようになる。人間はもはやコードの因果構造を理解しなくても、動くシステムを手に入れられる。このとき起きる本質的変化は、「プログラマの仕事が減る」ことではなく、社会がソフトウェアを“理解可能な人工物”として扱う能力を失うことである。
技術的優位は急速にコモディティ化し、競争軸は、ドメイン知識、規制対応、資本力、データの囲い込みへと移る。ここで社会は、AIが最適化した業務フローや意思決定プロセスを“標準”として固定化し始める。これが「最適化の足場(スキャフォールド)」である。
足場が広がるほど、効率は上がる。しかし同時に、逸脱や探索は高コストになる。新しい制度設計、異なる価値基準、非効率な試みは、最適化された環境の中で排除されやすくなる。社会は、柔軟性を犠牲にして安定性を獲得する段階へ入る。
3.2028–2033:知の自動化と「監督社会」への移行
この構造は、知的労働全般に波及する。医療、法務、設計、研究、行政において、実作業の大半はAIが担い、人間は承認・説明・責任引き受けの役割を担うようになる。
数学や物理では、自動証明・探索アルゴリズムが人間の探索能力を凌駕し、AIが提示した解や理論を人間が選別・意味づけするという関係が常態化する。知の生産は「発見」から「編集」へ移行する。
制度的に重要なのは、意思決定の因果がモデル、データ、評価基準、運用設計、組織手続きに分散し、個人がその全体を把握できなくなる点である。人間は、実際に因果を動かす主体ではなく、結果に署名する存在へと変わる。社会は、主体が存在するというフィクションを維持しながら、実質的には非主体的に運転されるシステムへ近づく。
この段階で、「責任」「判断」「専門性」という概念は、制度的再定義を迫られる。
4.2030–2035:エッジAIによる「状況の再設計」
2030年代に入ると、変化の重心はクラウドAIからエッジAIへ移る。通信遅延、プライバシー、可用性、法規制といった物理的制約により、知能は生活空間の中に分散配置される。
エッジAIが担うのは、答えを出すことではなく、人間が意思決定する“状況”そのものを設計することである。注意の配分、選択肢の提示順、行動コストの調整、記憶の補助、失敗の局所化。これらはすべて、探索空間の形状を変える操作である。
人間は依然として「自分で決めている」と感じる。しかし、決定が起こる位相空間は、すでにAIによって彫刻されている。主体は内面から消えるのではなく、環境設計の中に外在化される。
この段階で、「主体」はもはや個人の属性ではなく、環境・制度・デバイス・アルゴリズムの結合状態として立ち上がるものになる。これは、あなたが論じてきた「状況化」の社会的実装にほかならない。
5.2035–2040:非人間中心化という“静かな収束”
2035年以降、社会は一つの事実に直面する。世界は、人間の明示的な意思決定がなくても、ほぼ同じように回ってしまう、という事実である。
AI開発と運用は、モデル改良→評価→運用→収益化→再投資→インフラ拡張→規制調整、という自己増殖ループを形成する。このループは、国家間競争と結びつき、誰も止められない慣性を持つ。目的関数は人間の幸福ではなく、競争優位・安定性・安全保障・効率の複合体であり、それ自体が自己強化される。
社会制度、教育、都市構造、労働市場は、このループが最も安定して回る形へと再編される。人間は排除されないが、意思決定主体である必要もなくなる。人間は、ループを維持するための構成要素――消費者、監督者、正当化装置、文化的緩衝材――として組み込まれる。
ここで起きるのは、破局ではない。主体が消えるというドラマでもない。むしろ、主体という概念が歴史の中で役割を終えるという、静かな位相転移である。
6.結語:未来は「設計された状況」の歴史になる
2024年から2040年にかけて起きるのは、AIが賢くなる物語ではない。世界が、「人間の意思を前提としない運転様式」へと遷移していく歴史である。
主体は否定されるのではなく、分散し、外在化され、状況の中に溶け込む。自由意志は消えないが、作動する空間は設計される。人間は世界の中心から退場するが、世界から消えるわけではない。
この変化をどう評価するかは、まだ誰にも分からない。ただ一つ確かなのは、これが単なる技術トレンドではなく、文明の運動学そのものの変化だということである。
