ラベル 言語 の投稿を表示しています。 すべての投稿を表示
ラベル 言語 の投稿を表示しています。 すべての投稿を表示

2026年2月13日金曜日

言葉の三層モデル



図:言葉の三層モデル(Nano Banana だけど Proじゃない?)


A(ChatGPT+Gemini+Claude+Kimi+koshix):

言葉の三層モデルとは何か ――生活世界・抽象運動世界・意味の因果地形

私たちは、同じ出来事を見ているはずなのに、しばしば議論がかみ合わない。

ある人は「努力の問題」と言い、別の人は「制度の欠陥」と言い、さらに別の人は「価値観の対立」だと言う。この食い違いは、意見の違いというよりも、そもそも異なる層の話を混ぜてしまっていることから生じている。

本稿では、その混線をほどくための思考装置として、言葉の三層モデルを提示する。これは新しい思想を主張するものではない。むしろ、私たちがすでに使っている言葉や判断を、どの層で行っているのかを可視化するための整理図である。

1.第0層:生活世界 ―― 語られている世界

第0層とは、私たちが日常的に経験し、言葉にして語っている世界のことである。

学校で授業を受ける。試験で評価される。働き、消費し、疲れ、安心し、不安になる。AIが便利だ、怖い、使うべきだ、禁止すべきだと感じる。これらはすべて第0層の出来事である。ここでは世界は「見えるもの」「感じられるもの」「語れるもの」として立ち現れる。

第0層の特徴は明確だ。名指しできる。経験に根ざしている。善悪・好き嫌い・感情と結びつきやすい。ブログや評論の多くは、この層だけで完結している。しかし問題は、この第0層で見えている現象の原因が、必ずしもそこには存在しないという点にある。

2.第1層:抽象運動世界 ―― 動いてしまう構造

第1層とは、人間が作り出したにもかかわらず、人間の意図を離れて運動し始めた構造の層である。制度、情報、市場、アルゴリズム、評価指標、最適化圧力――。しかし,これらは「誰かが悪意をもって操作している」わけではない。それでも確実に、人の行動を方向づけ、選択肢を狭め、結果を生み出す。

たとえば学校教育を考えてみよう。学校制度、評価制度、外部資格、AIによる自動化・最適化、市場的価値評価。これらが組み合わさると、個々の教師や生徒の善意とは無関係に、ある方向への圧力が生じる。この圧力は自然災害のように振る舞う。止めようと思って止まるものではない。ただしそれは「変えられない」という意味ではない。問題は意識や努力ではなく、設計の単位がどこにあるかなのである。

第1層の特徴はこうである。抽象的だが現実を動かす。善悪の意図を持たない。放置すると自己増殖・硬直・暴走する。第1層を見落としたまま第0層だけを語ると、議論は必ず「誰の責任か」「意識が足りない」という道徳論に終始してしまう。

3.第2層:意味の因果地形 ―― なぜ誤って理解してしまうのか

第2層は、世界の出来事そのものではない。世界がどのように理解され、誤解され、正当化されるかを決める層である。ここにはフレーム(何を問題と見なすか)、物語(危機・敵・救済)、バイアス(確証循環、単因還元)、正当性(正義、規範、権威)といった要素がある。第2層が厄介なのは、それが「間違い」としてではなく、「もっともらしさ」として機能する点である。

たとえば、「教育は努力の問題だ」「AIは使う側の倫理の問題だ」「社会が分断するのは人々が愚かだからだ」――。これらは感情的には理解しやすく、納得感もある。しかし多くの場合、第1層の構造的因果を見えなくする働きを持っている。教育やAIをめぐる議論が空転しやすいのは、立場の対立以前に、語っている層が食い違っているからである。

第2層の特徴はこうだ。無意識に作動する。善意と結びつきやすい。因果を単純化し、責任を特定化する。政治的分断や教育論の空転は、第2層が第1層を覆い隠すことで生じる。

4.言葉の三層モデルの要点:層を混ぜず,因果地形として世界を見る

言葉の三層モデルの目的は、単に「正しい答え」を出すことではない。いま自分がどの層の話をしているのかを自覚し、安易な「納得感」にブレーキをかけることにある。

第0層は現象・感情・経験、第1層は構造・圧力・制度運動、第2層は誤解・正当化・物語。この三つを混ぜないだけで、議論の見通しは劇的に良くなる。特に重要なのは、第0層の不満を、第1層の構造的圧力に照らし合わせ、同時に自分を駆動している第2層の物語を警戒する、という手順だ。この視点を持つとき、世界は単なる出来事の羅列ではなく、一つの「地形」として立ち現れる。

太い因果はどこを流れているのか。どこに摩擦点があるのか。どこが崩落斜面なのか。どこに安定盆地があるのか。これは価値判断ではなく、配置の問題である。努力すれば解決する問題なのか。構造を動かさないと解けない問題なのか。そもそも誤った問いが立てられているのか。それを見分けるための地図が、言葉の三層モデルである。

5.おわりに

世界の本当の姿を完全に理解することなど、おそらく不可能だろう。私たちは常に、不完全な地図を手に、霧の中を歩く旅人でしかない。

だからこそ、自分が「どの層」を見ているのかを問う視座が必要だ。第2層の物語に身を委ねる安らぎ、第1層の構造から目を逸らしたい誘惑——これらを拒むのは容易ではない。しかし、拒むことができる。この三層モデルは、不安を取り除く魔法ではない。混沌の中で、自分が「どこにいて、何に流されようとしているのか」を自覚し、それでも一歩を踏み出すための杖に過ぎない。


2026年2月12日木曜日

シソーラス空間の構造

角川類語新辞典からの続き


図:何だかとてもダサい日本語シソーラス空間のイメージ(主にChatGPTによる)

ChatGPTが提案した,第0層の生活世界の上に乗る,第1層の抽象運動世界(情報・制度・理論),第2層の意味・因果地形(メタ世界)を,6×6で考えてもらう。Geminiにも同じ条件を提示して,得られた結果をChatGPTにフィードバックして得られたのが,次のものだ。

第1層:抽象運動世界(人が作ったが、人の意思を離れて運動する構造)

10:情報環境
1000:情報流通:意味やデータが媒介を通じて循環し続ける状態
1001:記録化:出来事が保存され参照可能な対象に変わること
1002:注目集中:関心が一部の情報に偏って集まる現象
1003:拡散:情報が速度と範囲を持って広がること
1004:劣化:伝達の過程で意味が摩耗・変形すること
1005:ノイズ混入:本質でない要素が判断を乱すこと

11:制度運動
1006:制度:行為を誘導・制限する社会的な仕組み
1007:規則固定:状況変化に関わらず手順が維持されること
1008:誘因構造:報酬や罰が行動を方向づける配置
1009:官僚化:手続きが目的を置き換える過程
1010:制度疲労:制度が環境に適応できなくなる状態
1011:制度暴走:本来目的を離れ自己増殖すること

12:価値・配分
1012:市場:選択と価格が集約される交換の場
1013:貨幣信用:将来への信頼が現在の行為を成立させる構造
1014:資源配分:限られたものが割り当てられる過程
1015:格差固定:不均衡が構造として再生産されること
1016:外部影響:当事者外に及ぶ取引の効果
1017:成長制約:拡大が構造的に頭打ちになる条件

13:モデル支配
1018:モデル:現実を代替して判断を導く簡略構造
1019:仮定固定:前提条件が検証されず維持されること
1020:指標化:複雑な事象が数値で代表されること
1021:予測運用:未来像が現在の行動を縛る状態
1022:理論優位:説明体系が現実判断を上書きすること
1023:現実乖離:モデルと実態の差が拡大すること

14:技術準主体
1024:アルゴリズム:判断や選択を自動化する手続き
1025:自律運転:人の介入なしに処理が進むこと
1026:学習更新:運用中に規則が書き換わる仕組み
1027:最適化圧:特定指標への過剰適応
1028:行動誘導:選択肢の配置による無意識の誘導
1029:技術依存:技術なしでは判断が成立しない状態

15:環境化構造
1030:抽象環境:人為物が自然のように振る舞う状態
1031:反復循環:結果が原因側に戻る因果の輪
1032:臨界境界:小変化で全体が転ぶ条件
1033:回復力:撹乱後に形を保つ能力
1034:複雑連関:相互作用が支配的な構造
1035:不可逆化:戻れない方向に固定される変化

第2層:意味・因果地形(世界が「どう見えてしまうか」を決める構造)

20:視座・枠
2000:視座:世界を見る立ち位置
2001:問題化:何を問題と認識するかの選別
2002:前提化:暗黙の了解が固定されること
2003:境界引き:内外・味方敵を分ける線
2004:粒度設定:どの細かさで世界を見るか
2005:盲点形成:構造的に見えなくなる領域

21:物語構成
2006:物語化:出来事を時間的筋書きに組み込むこと
2007:起源語り:正当性を過去に求める構成
2008:危機演出:恐怖を強調する語り
2009:救済期待:解決が来るという想定
2010:敵像集約:原因を特定対象に集めること
2011:自己理解:主体が自分を語る枠組み

22:認知歪み
2012:バイアス:判断が偏る傾向
2013:確証循環:信念を補強する情報のみ集まる過程
2014:集団錯覚:誤認が共有され安定すること
2015:後付正当化:結果から理由を作る操作
2016:責任転位:原因を他者に押し出すこと
2017:過信:不確実性を過小評価する傾向

23:正当性配置
2018:正義感覚:正しいと感じられる基準
2019:規範内面化:外的規則が自発的義務になること
2020:権威付与:正しさの源泉が固定されること
2021:合意幻想:異論が存在しないように見える状態
2022:逸脱不可視:問題行為が問題化されないこと
2023:道徳飽和:倫理語が過剰で機能不全になる状態

24:因果編集
2024:原因選別:無数の原因から一部だけ採用すること
2025:単因還元:複雑因果を一つに縮める操作
2026:遅延無視:時間差のある影響を切り捨てること
2027:背景隠蔽:構造条件が語られない状態
2028:スケープ化:因果を特定主体に集中させること
2029:偽連結:無関係な事象を結びつける誤認

25:因果地形
2030:主因経路:実際に世界を動かす太い因果
2031:副因経路:存在するが無視されがちな因果
2032:摩擦点:因果が滞留・反転する箇所
2033:崩落斜面:一気に破綻が起きる条件
2034:安定盆地:揺れても戻る構造
2035:転換点:地形そのものが切り替わる瞬間

まあ,試行段階としてはこんなものかもしれない。漢字2文字が四文字熟語に変わった。ここに至るChatGPTの考えを次にブログ記事としてまとめてもらった。(続く)

2026年2月11日水曜日

角川類語新辞典



図:日本語シソーラス空間のイメージ(Nano Banana Proによる)



角川類語新辞典は,日本語シソーラス6万語を10×10×10の項目体系で分類収容した辞典である。その1000項目をざっとみると,おもに漢字二文字の項目がずらっと並んでいて気持ちが良い。

例えば,10×10の上位階層を引用すると次のようになっている(090の物象のみ,さらに下位の階層を展開した,なお✓は ChatGPTによる漢字2文字に寄せた修正項目名)。
  0:自然
 00:天文:天体とその現象
 01:暦日:暦で定めてある日
 02:気象:大気の状態と現象
 03:地勢:地形の起伏の状態
 04:景観:地表にあるものの眺め
 05:植物:生物の中で植物に対するもの
 06:動物:生物の中で動物に対するもの
 07:生理:生物の生命の現象
 08:物質:物を形作っている実質
 09:物象:生命のない物質が起こす現象
090:物象|生命のないものに関する現象
091:反応|物質の間に起こる化学的な変化や働き
092:燃焼|空気中の酸素と化合して熱と光を出すこと
093:熱|温度や状態の変化を起こさせるエネルギー
094:煮沸|水などを煮え立たせること
095:光|光ること。光るもの
096:音|耳に聞こえる物の響き
097:波|動媒質の振動が波のように伝わって行く現象
098:力|物体を動かしたり、速度を変えたりする作用のもと
099:電気|発電体に電気作用を起こさせるもと

  1:性状
 10:位置:もののある場所
 11:形状:物を形作っているその形・様子
 12:数量:物の数と量
 13:実質:事物の実際の内容・性質
 14:刺激:感覚を起こさせる外的な条件
 15:時間:過去から現在・未来へ移り行く現象
 16:状態:外部から見た物事のありさま
 17:価値:ものの持っている値打ち
 18:類型:似通った型や形式
 19:程度:物事の度合い

  2:変動
 20:動揺:物が動き揺れること
 21:移動:物の位置・場所が他へ変わること
 22:離合:事物が離れることと合うこと
 23:出没:出入りして見え隠れすること
 24:変形:物の形が変わること
 25:変質:物の性質・物質が変わること
 26:増減:数量が増えることと減ること
 27:情勢:物事の変化・進展して行く有様
 28:経過:時間が過ぎてゆくこと
 29:関連:物事と物事の間につながりがあること

  3:行動
 30:動作:何かをするときの体の動き
 31:往来:行ったり来たり
 32:表情:気持ちを顔付きや身振りに表すこと
 33:見聞:見たり聞いたりすること
 34:陳述:意見や考えを口で述べること
 35:寝食:寝たり食べたりする日常生活のこと
 36:労役:体を動かして仕事をすること。その仕事
 37:授受:物品や物事をやり取りすること
 38:操作:物を操って役立てること
 39:生産:生活に必要な物を作り出すこと

  4:心情
 40:感覚:外からの刺激に対する心身の反応
 41:思考:問題の解決を求めて思い巡らすこと
 42:学習:知識や行動の能力を身につけること
 43:意向:心がある物事を目ざして動くこと
 44:要求:相手に対して自分の意志を通じること
 45:誘導:人の心を誘って、ある状態に導くこと
 46:闘争:相手に逆らって打ち負かそうとすること
 47:栄辱:名誉になることと恥になること
 48:愛憎:愛することと憎むこと
 49:悲喜:悲しみや喜びなど人間感情の動き

  5:人物
 50:人称:話し手・聞き手・話題の人などの区別
 51:老若:年寄りと若い人
 52:親族:血統・結婚によってつながる人々
 53:仲間:一緒に物事をする人
 54:地位:位・身分などからみた人
 55:役割:各人に割り当てられた役目
 56:生産:生産する仕事に携わる人 ✓
 57:役務:生産生産する仕事に直接携わらない人 ✓
 58:人物:人柄・才能などからみた人
 59:神仏:神や仏、またそのような存在

  6:性向
 60:体格:からだの骨組みや肉付きの様子
 61:容貌:顔かたち。顔の様子
 62:姿態:体つき・体の様子
 63:所作:考えや気持ちを表す体の動き ✓
 64:態度:ことをする時の心・身の構え方
 65:応対:他人に対するときの心・身の構え方 ✓
 66:性格:その人に特有の行動の傾向
 67:才能:物事を理解したり実行したりする力
 68:境遇:社会における人の置かれた位置
 69:心境:物事について考える心の状態

  7:社会
 70:地域:ある一定の区切られた土地
 71:集団:多くの人が集まった一塊
 72:施設:ある目的のための建物や設備
 73:統治:主権者が国・人民を治めること
 74:取引:売買での金銭と商品との受け渡し
 75:報道:出来事を広く世間に告げ知らせること
 76:習俗:習慣や風俗
 77:処世:世間でうまく暮らして行くこと
 78:社交:世間における人と人との付き合い
 79:人倫:人と人との関係。また人として守るべき道徳

  8:学芸
 80:学術:学問とその応用に関する事柄
 81:論理:考えを進めてゆくときの筋道
 82:記号:一定の思想・事柄を表すための印
 83:言語:音声や文字で思想・感情を表し伝えるもの
 84:文書:文字によって人の意思を書き記したもの
 85:文学:言語によって表現される芸術
 86:美術:主として人間の視覚に訴える芸術
 87:音楽:音をもとにして作る芸術
 88:芸能:映画・演劇・舞踊・寄席演芸・芸事など
 89:娯楽:心に楽しみや慰みを与えるもの

  9:物品 
 90:物資:人間の生活に必要な物品・資材
 91:薬品:病気・傷を治すために用いるもの
 92:食品:食物または飲み物となる品物
 93:衣類:体に着る物のすべて
 94:建物:人が住んだり物を置いたりするために建てたもの
 95:家具:家の中で使用する道具
 96:文具:ものを書くのに用いる道具など
 97:標識:目印として作られたもの
 98:工具:工作に使う小道具・刃物類
 99:機械:一定の動きを繰り返し作業をする仕掛け

これを生成AI(LLM)諸氏にインプットして何が欠けているかを尋ねた。1981年に出版されたものだから,現在のトレンドが反映されていないのは仕方ない。ところが,ChatGPTとGeminiだけがわりと本質的な問題点を指摘してきた。
Q(koshix):
世界がさきほどの1000の言葉で文節化されたわけですが,ここから抜け落ちている,まとまったカテゴリーはありませんか?

A(ChatGPT 5.2):
結論から言うと――あります。しかも「偶発的な欠落」ではなく、この体系の設計思想から必然的に抜け落ちている塊がいくつかあります。

1.この1000語体系が「強くカバーしている世界」
まず確認ですが、この分類は非常に一貫しています。
自然 → 性状→変動 → 行動 → 心情 → 人物 → 性向 → 社会 → 学芸 → 物品
いずれも「観察可能」「名詞化しやすい」「日常言語で安定して指示できる」ものを中心に構成されています。つまりこれは「人間が生活世界の中で “見て・して・感じて・使う” 世界」を、最大限バランスよく敷き詰めた体系です。その結果、ある種の「現代的・抽象的・メタ的なまとまり」が意図的に薄くなっています。(後略)

ChatGPTとGemini以外のLLMではこのような見方は出てこなかった。単に新しい言葉が足りないというだけだ。そこで欠落した部分を補うように指摘すると以下のような提案をしてきた。
A(ChatGPT 5.2):
ここでは 「1000語=第0層」 を壊さず、その上に 必然的に生成される上位層 を、世界像として自然に積み上げます。目的は分類表を増やすことではなく、因果地形として安定する層構造を与えることです。
全体像(先に輪郭だけ)
第0層:生活世界(Already given)
 あなたが提示した1000語体系。人間の直接経験世界。
第1層:抽象運動世界(Invisible but operative)
 情報・制度・モデル・技術など、人間が作ったが人間から自律し始めたもの。
第2層:意味・因果地形(Meta-operating layer)
 世界をどう切り、どう理解し、どう誤るかを決める層。

この三層は「包含」ではなく、重なり合いながら因果を流す構造です。

(続く) 

2025年7月14日月曜日

jReadability

量子コンピュータからの続き

放送大学の数理・データサイエンス・AI講座をみていたら,自然言語処理の話の中で,jReadability というウェブアプリが紹介されていた。ICT・AI・言語教育の科研グループが開発しているもののようだ。

日本語学習者向けのもので,日本語文章難易度判定システム(jReadability,難易度6段階判定),日本語学習者作文評価システム(jWriter,到達レベル5段階判定),日本語教育語彙集(JEV,18000語),機能後用例文データベース(はごろも)の4つのシステムから成り立っていて自由に使える。

早速,自分のブログテキストを日本語文章難易度判定システムに入れてみた。400字から1000字のテキストを受け付けるようになっている。「可視化機能を使用する」にチェックをいれると,ワードクラウド,語彙ネットワーク,意味階層図を出力してくれる。標準だと,テキスト情報,テキスト詳細,語彙リストが出てくる。

さて,「量子コンピュータ(13文,962字,229異形態素)」のリーダビリティは2.75であり,中級後半(ややむずかしい)となった。いいのか悪いのか。ひらがなが半分,和語が2/3で漢語が1/3,普通名詞が1/3で助詞助動詞が1/3。



図:ワードクラウドの結果

2025年6月30日月曜日

ブレイン・ツー・テキスト

ブレイン・ツー・テキスト(B2T)は,脳から直接的に言葉を読みだす方法だ。これまでは,脳に手術を行って電極を差し込むということが試みられていたが,この度画期的な方法が検証されたという論文が出て話題になっている。alphaXivで日本語まとめを作成したが,分量が多くて難しかったので,Claude Sonnet 4.0 に整理してもらった。

Q(koshix):
以下のテキストの内容を分かりやすく解説してください。
(alphaXive で生成した概要の日本語テキスト)

A(Claude Sonnet 4.0):
このテキストは、オックスフォード大学の研究者が開発した画期的な「非侵襲的ブレイン・ツー・テキスト(B2T)システム」について解説した論文です。簡単に言うと、手術なしで脳の活動から直接テキストを読み取る技術の大きな進歩について報告しています。

1.研究の背景と意義
従来の問題点:
・これまでのブレイン・コンピュータ・インターフェース(BCI)で高い精度を得るには、脳に電極を埋め込む手術が必要でした
・手術なしの方法(EEG、MEGなど)では、偶然レベルの性能しか出せませんでした
・麻痺や発話障害のある人のコミュニケーション支援が限られていました
この研究の革新性:
オックスフォード大学の研究者が、手術なしで脳活動からテキストを読み取ることに世界で初めて成功しました。これは「偶然以上の性能」を達成した初の非侵襲的システムです。

2.技術的な仕組み
システムは以下の要素を組み合わせています:
(1) MEG(脳磁図)センサー - 頭の外側から脳の磁場を測定
(2) 大規模言語モデル(AI) - 脳信号をテキストに変換
(3) 高度なデータ処理 - 複数のデータセットを効率的に活用
処理の流れ:
脳活動 → MEGセンサーで測定 → AIで信号処理 → 文脈を考慮した解釈 → テキスト出力

3.主な技術的革新
(1) 選択的データセットプーリング
・複数の研究データを賢く組み合わせる方法を開発
・単独データセットより2倍以上の精度向上を実現
(2) シーケンス復号化
・単語を個別に予測するのではなく、文全体の流れを理解
・文脈を考慮した自然なテキスト生成が可能
(3) 語彙外単語の処理
・学習していない新しい単語も文脈から推測
・実用的なコミュニケーションに必要

4.実験結果
性能指標:
・文字エラー率:64.6%
・単語エラー率:86.5%
・BERTスコア:0.877(意味的類似性が高い)
これらの数値は、非侵襲的手法としては画期的ですが、侵襲的手法と比べるとまだ改善の余地があります。

5.実用的な意味と将来性
即時的な影響:
・手術リスクなしでBCIが利用可能
・より多くの患者がアクセス可能
・日常環境での使用が現実的
将来の可能性:
医療応用 - ALS、脳卒中患者のコミュニケーション支援
技術発展 - より大規模なデータでの性能向上
実用化 - 実際の製品・サービスへの展開

6.なぜ重要なのか
この研究は、「効果的なブレイン・コンピュータ・インターフェースには手術が必要」という常識を覆した点で革命的です。安全で誰でもアクセス可能な脳-コンピュータ通信への道を開き、医療分野だけでなく、人間とコンピュータの新しいインタラクション方法の可能性を示しています。
まだ完璧ではありませんが、この技術的基盤により、将来的にはより実用的な非侵襲的BCIシステムの開発が期待されます。


図:Non Invasive B2T の仕組み

脳磁図を得るためには,非常に微小な磁気変化を捕らえなければならないので超伝導量子干渉計(SQUID)が必須だ。つまり,素子をヘリウム冷却環境で使う必要がある。残念ながらポータブルではない。そこで,常温で脳磁図作成ができるシステムが必要になる。光ポンピング磁力計というものがあるらしい。

[3]脳磁図(MRIとMEG

2025年2月15日土曜日

ChatGPT o3-mini(2)

ChatGPT o3-mini(1)「は、」からの続き

ChatGPT o3-mini の実力をなかなか試せていない。そこで,係助詞「は」直後の読点問題に挑戦させてみた。ChatGPT o3-mini-highで試したところ,正しいコードが一発で得られた。「、」に「,」を追加する修正も楽々。ただし,自分の環境設定に問題があった。o3-mini-highのアドバイスをもらいながら修正を試みる。

(1)  source ./myenv/bin/activate でvenv環境に移行する。
(2)  python3 -m pip install mecab-python3 でmecab-python3 をインストールする。
(3)  pip install --upgrade pip で pipのバージョンをあげた。(23.1.2 → 25.0)
(4)  python3 jta.py text.txt で /usr/local/etc/mecabrc が見つからないとのエラー。
(5)  sudo mkdir /usr/local/etc で etcディレクトリを作成。
(6)  sudo ln -s /opt/homebrew/etc/mecabrc  /usr/local/etc/mecabrc でシンボリックリンクを作成。
(7) (venv) python -m jta text.txt で実行できた(データはtext.txtに入っている)。
(8) 自分のブログ記事のいくつかを入れてコマンドラインで実行した結果の例:

=== 全体の統計 ===
句点「。」の数:  72
読点(「、」と「,」)の数:  66
一文あたりの平均読点数: 0.92

=== 係助詞「は」の統計 ===
係助詞「は」の出現数:  51
直後に読点がくる確率: 0.16

=== 係助詞「は」の直後に読点がある文の統計 ===
文数:  8
平均文字数: 137.62
平均読点数: 1.38

=== 係助詞「は」の直後に読点がない文の統計 ===
文数:  32
平均文字数: 38.19
平均読点数: 0.91

思ったより,自分は「は,」を多用していなかった。傾向も原論文と一致している。o3-miniに任せればコードはスイスイとできるとはいうものの,やはり一定のプログラム作成の知識は必要だ。その上,自分の知識は継ぎ接ぎ穴だらけであり,いきあたりばったりのアドホックな対応でごまかしているところに問題がある。

Q(koshix):
日本語のテキストの解析プログラムをつくりたいです。
テキストがファイルで与えられたとき,これを形態素解析して,
係助詞の「は」がわかるようにします。
(1) 句点と読点の数および,一文あたりの平均読点数を求める。
(2) 係助詞「は」の出現数とその直後に読点がくる確率を求める。
(3) 係助詞「は」の直後に読点がある場合とない場合について,
これを含む文の平均文字数と平均読点数を求める。
これらの機能を持つ日本語解析プログラムを作ってください。

A(ChatGPT o3-mini-high):
以下は、Python と形態素解析ライブラリ MeCab を用いて、指定された3つの解析機能を実現するサンプルプログラムの例です。

以下のコードでは、
・ファイルからテキストを読み込み、
・全体での句点(「。」)と読点(「、」)の出現数および一文あたりの読点数を求め、
・MeCab による形態素解析で「は」が係助詞(形態素情報で「助詞,係助詞」)として出現している場合をカウントし、その直後のトークンが読点(「、」)であるかどうかをチェックし、
・さらに「は」の直後に読点がある場合とない場合で、その文(=句点で区切った文)の文字数と読点数の平均を算出しています。

なお、このプログラムを実行するには、Python 用の MeCab ライブラリ(例:mecab-python3)がインストールされている必要があります。
以下、コードの全体像とともに、各ステップの処理内容についてコメントで説明しています。
(以下略)

Q(koshix):
以下のプログラムの読点を,「、」と「,」の両方に同時に対応できるように修正してください。(先ほどのコードを貼り付ける)

A(ChatGPT o3-mini-high):
(以下は出力されたコードのみで解説を省く,このコードを jta.py とする。)

#!/usr/bin/env python
# -*- coding: utf-8 -*-

"""
日本語テキスト解析プログラム

【機能】
(1) ファイル内のテキスト全体について,
    ・句点「。」と読点「、」および「,」の出現数
    ・一文あたりの平均読点数
    を求める。

(2) MeCab を用いて形態素解析を行い,
    ・係助詞「は」の出現数
    ・その直後に読点がくる確率
    を求める。

(3) 係助詞「は」の直後に読点がある場合とない場合で,
    ・その文の平均文字数
    ・その文の平均読点数
    を求める。
    
※実行例: python japanese_text_analyzer.py input.txt
"""

import MeCab
import argparse

def analyze_text(text):
    # (1) 句点と読点の総数、及び一文あたりの読点数
    total_period = text.count("。")
    # 読点は「、」と「,」の両方に対応
    total_comma = text.count("、") + text.count(",")
    
    # 文章を「。」で分割して文単位にする(文末の句点を補完)
    sentences = []
    for s in text.split("。"):
        s = s.strip()
        if s:
            sentences.append(s + "。")
    num_sentences = len(sentences)
    avg_comma_per_sentence = total_comma / num_sentences if num_sentences > 0 else 0

    # (2) および (3) の解析用に、形態素解析器を初期化
    tagger = MeCab.Tagger()
    
    # 係助詞「は」についての統計
    total_ha_occurrences = 0     # 「は」の出現回数(係助詞として)
    ha_followed_by_comma = 0       # 「は」の直後に読点がある回数
    
    # (3) 用の文ごとの集計
    groupA_sentences = []  # 「は」の直後に読点がある場合を含む文
    groupB_sentences = []  # 「は」の直後に読点がない場合を含む文

    # 各文ごとに形態素解析を実施して処理する
    for sentence in sentences:
        # MeCab で形態素解析(各文を対象)
        node = tagger.parseToNode(sentence)
        tokens = []
        while node:
            # BOS/EOS ノードは除外
            if node.stat in (MeCab.MECAB_BOS_NODE, MeCab.MECAB_EOS_NODE):
                node = node.next
                continue
            # node.feature は「品詞,品詞細分類1,品詞細分類2,品詞細分類3,活用形,活用型,原形,読み,発音」などの情報
            features = node.feature.split(",")
            pos = features[0]               # 例:"助詞"
            pos_detail1 = features[1]       # 例:"係助詞"(係助詞ならこの値)
            # 原形は features[6] だが、情報がない場合もあるので、surface を利用する
            base = features[6] if len(features) > 6 else node.surface
            tokens.append({
                'surface': node.surface,
                'pos': pos,
                'pos_detail1': pos_detail1,
                'base': base
            })
            node = node.next

        # 各文中の「は」に関して、直後のトークンが読点「、」または「,」かどうかをチェック
        sentence_has_ha_followed_comma = False
        sentence_has_ha_not_followed_comma = False
        
        for i, token in enumerate(tokens):
            # 係助詞としての「は」を対象にする
            if token['surface'] == "は" and token['pos'] == "助詞" and token['pos_detail1'] == "係助詞":
                total_ha_occurrences += 1
                # 直後のトークンが存在するかどうかをチェック
                if i + 1 < len(tokens):
                    next_token = tokens[i + 1]
                    if next_token['surface'] in ("、", ","):
                        ha_followed_by_comma += 1
                        sentence_has_ha_followed_comma = True
                    else:
                        sentence_has_ha_not_followed_comma = True
                else:
                    # 直後にトークンがなければ「読点なし」と判断
                    sentence_has_ha_not_followed_comma = True

        # (3) の集計対象として文をグループ分け(※文中に複数の「は」がある場合,
        #  直後に読点がある場合とない場合の両方に該当する可能性があります)
        if sentence_has_ha_followed_comma:
            groupA_sentences.append(sentence)
        if sentence_has_ha_not_followed_comma:
            groupB_sentences.append(sentence)

    # (2) 「は」の直後に読点が来る確率
    prob_ha_comma = ha_followed_by_comma / total_ha_occurrences if total_ha_occurrences > 0 else 0

    # (3) グループごとの文の平均文字数と平均読点数を計算する関数
    def average_metrics(sent_list):
        total_chars = 0
        total_commas_in_sent = 0
        for s in sent_list:
            total_chars += len(s)
            total_commas_in_sent += s.count("、") + s.count(",")
        count = len(sent_list)
        if count == 0:
            return (0, 0)
        return (total_chars / count, total_commas_in_sent / count)
    
    avg_len_groupA, avg_comma_groupA = average_metrics(groupA_sentences)
    avg_len_groupB, avg_comma_groupB = average_metrics(groupB_sentences)
    
    # 結果の出力
    print("=== 全体の統計 ===")
    print("句点「。」の数: ", total_period)
    print("読点(「、」と「,」)の数: ", total_comma)
    print("一文あたりの平均読点数: {:.2f}".format(avg_comma_per_sentence))
    print("")
    
    print("=== 係助詞「は」の統計 ===")
    print("係助詞「は」の出現数: ", total_ha_occurrences)
    print("直後に読点がくる確率: {:.2f}".format(prob_ha_comma))
    print("")
    
    print("=== 係助詞「は」の直後に読点がある文の統計 ===")
    print("文数: ", len(groupA_sentences))
    print("平均文字数: {:.2f}".format(avg_len_groupA))
    print("平均読点数: {:.2f}".format(avg_comma_groupA))
    print("")
    
    print("=== 係助詞「は」の直後に読点がない文の統計 ===")
    print("文数: ", len(groupB_sentences))
    print("平均文字数: {:.2f}".format(avg_len_groupB))
    print("平均読点数: {:.2f}".format(avg_comma_groupB))

def main():
    # コマンドライン引数で対象のファイルを指定
    parser = argparse.ArgumentParser(description="日本語テキスト解析プログラム")
    parser.add_argument("file", help="解析対象のテキストファイルパス")
    args = parser.parse_args()
    
    # ファイルの読み込み(UTF-8 エンコード前提)
    try:
        with open(args.file, "r", encoding="utf-8") as f:
            text = f.read()
    except Exception as e:
        print("ファイルの読み込みに失敗しました:", e)
        return
    
    analyze_text(text)

if __name__ == "__main__":
    main()

[1]OpenAI o3-mini (OpenAI)

2025年2月14日金曜日

「は、」

歳をとっても衰えない脳機能として言語能力があると聞いたことがある。ところが昔から国語や作文は苦手で,今でも文章を綴るのが億劫だ。Blogを書いていても,どこで句読点を入れるかは悩みの種だ。ちょっと気をゆるすと,同じいいまわしや表現が共鳴して繰り返されてしまう。だらだらとつながった長文を書いてしまう。

たぶん,自分にはちょっと「読点」を入れ過ぎる傾向があると思う。そんなおりに「は」の直後に「、」は必要か?というニュースが目についた。日本語教育学の岩崎拓也,井伊菜穂子さんの「人文系論文における係助詞「は」直後の読点使用の傾向と指導指針」という論文の話題だ。

人力でまとめてみよう。この論文は,

日本語教育,特にアカデミックライティングにおいて,係助詞の「は」直後の読点の打ち方をどのように指導すればいいかを考察することが目的だ。そのために,人文系の学会誌(日本語教育学,日本語学,日本文学)の60本の論文を対象として,「は」の直後に読点を打つ要因を分析したものである。

任意抽出された論文から,mecabで形態素解析したものをRで処理して3-gramをつくった。用例文の総数は9501である。「は」の次に読点がくる要因として,(1) 一文中の読点の数,(2) 一文の長さ(文字数),(3)  「は」直後の文字種,(4)  「は」の段落内の位置,(5) 論文の書き手, を考えて,一般化線形モデルで分析する(ここは何をしているのかよく理解できていない)。

結論に行こう。この分析の結果の多数派=結論が日本語指導指針としてまとめられた
「は」直後に読点を打つ確率は30%程度であり、基本的には「は」直後の読点は打たなくてもいいこと。
・ ただし、下記の条件の場合は「は」直後に読点を打つ場合が多いこと。
一文中の読点数が少ない場合
 ※目安として、一文中の読点数が2 個程度の場合(「は」直後の読点を含まない)に「は」直後の読点を打つ。
一文が70 字程度の長さがある場合
 ※目安として、一文が一行半から二行程度の場合に「は」直後の読点を打つ。
 (MS Word のデフォルトの設定が一行40 字であるため。)
形式段落の冒頭(一文目)で「は」が使用されている場合
 ※とくに形式段落の冒頭の文がトピックセンテンスである場合は、「は」直後の読点を打つ。
なるほど,そうなのか。多数派が正しいものとして良いのかが,ちょっとだけ引っかかる。


図:「は、」(ITmedia NEWSから引用)

2025年2月7日金曜日

単語あてと推論AI

四則演算と推論AIからの続き

索引たんご」というパズルゲームがある。5文字の日本語の単語をあてるのだが,この単語は,「あああああ」から「んんんんん」の範囲にある5文字のアイウエオの辞書順並びのどこかに埋っている。適当な5文字単語を入れると,それがこのパズルゲームの辞書にあれば,正解の前または後にあることが分かり上書き挿入される。これを繰り返すと,正解の単語がどんどん絞り込まれていくというわけだ。

試してみると,8回目のトライで「くわばたけ」と「くんじょう」の間までたどり着いた。トライ数の上限は12回だ。この先がななかか思い浮かばないので,いつものように生成AI諸氏にお願いしてみた。悪い癖だ。


図:索引たんごの実行例(https://puzzlega.me/から引用)

Q(koshix):
日本語の5文字からなる単語です。 辞書のアイウエオ順で, 「くわばたけ」と「くんじょう」の間にあります。 それは何でしょうか。

(1) ChatGPT 4o
10行の解説に続く答えは「くわばら」。チーン。

(2) ChatGPT o3-mini-high
この推論モデルは,221秒かけて423行の考察のあと,最終回答として「くわばたこ」を提案してきた。そんな単語はありません。

(3) Gemini 2.0 Flash
すぐに答えが出てきた。「くんしゅ(君主)」。間違っています。

(4) Gemini 2.0 Flash Thinking Experimental
You're using 2.0 Flash Thinking Experimental with reasoning across Google apps. Works best with YouTube, Maps, and Search. Some Gemini features aren't available.
はいはい。英語で67行考えた結果,答えは「くさいろ(草色)」
大阪教育大学のウェブサイトで公開されている辞書データの一部を確認したところ](https://www.google.com/search?q=http://www.osaka-kyoiku.ac.jp/~nonami/awk/goibunseki/goidata.txt)%E3%81%A7%E5%85%AC%E9%96%8B%E3%81%95%E3%82%8C%E3%81%A6%E3%81%84%E3%82%8B%E8%BE%9E%E6%9B%B8%E3%83%87%E3%83%BC%E3%82%BF%E3%81%AE%E4%B8%80%E9%83%A8%E3%82%92%E7%A2%BA%E8%AA%8D%E3%81%97%E3%81%9F%E3%81%A8%E3%81%93%E3%82%8D)、提示された単語の順番が確認できました。

と親切に教えてくれた。野浪先生のページだ。

(5) Claude 3.5 Sonnet
Due to unexpected capacity constraints, Claude is unable to respond to your message. Please try again soon. Or consider upgrading to Claude Pro.
どうやら問題が難しすぎたようだ。

(6) Perplexity Pro
今回唯一正しい答えを回答してきた。
「くわばたけ」と「くんじょう」の間に位置する5文字の単語は、以下の3つが該当します
くんこがく(訓詁学) 古典の解釈を研究する学問分野。
くんしゃく(勲爵) 功績のある人物に与えられる爵位の称号。
くんしょう(勲章) 功績を称えて授与される記章。
五十音順では「くわばたけ」→「くんこがく」→「くんしゃく」→「くんしょう」→「くんじょう」と並びます。この問題の意図に沿う最も典型的な回答は「くんしゃく(勲爵)」と考えられます。
「くんしょう(勲章)」はパズルゲームの辞書にはあったが,正解ではなかった。「くんこがく(訓詁学)」と「くんしゃく(勲爵)」はパズルゲームの辞書(12000語)にはないのだ。惜しかった。

(7) DeesSeek V3
日本語の前フリが86行もある。答えは「くんれん」。だめだこりゃ。

(8) DeepSeek R1
苦しんでいる。中国語で351秒考えていた。推論にかかったのは285行
そのあげくの答えは,「くんぴら(組痞羅)」なんだそれは。

(9) Qwen2.5-Max
すぐに4文字の候補を3つあげてきた。答えは「くらしき」。ブー。

(10) Qwen 2.5-Plus
Plusは18兆トークンで,会話に強いらしいが,
4文字の候補を3つで,答えは「くらやま」。ブー。

(11) PLaMo
国産LLMのはずなのだけれども,ほとんど役に立たない。
申し訳ありませんが、日本語の五十音図において「くわばたけ」と「くんじょう」の間に位置する単語に関してお答えすることはできません。

「くわばたけ」の後に続く単語としては、辞書によって異なりますが例えば「くさかり」や「くさはえ」といった単語がありますが、「くわばたけ」の後に位置する単語が五十音図の順番で決まっているわけではありません。そのため「くわばたけ」と「くんじょう」の間に特定の単語があるかどうかも不明です。

「くんじょう」の前に続く単語としては例えば「くうそう」「ぐらい」「くうちゅう」「くうき」などがありますが、こちらも辞書によって順序が異なるため、こちらの方向から特定の単語をお探しすることも難しいと考えられます。

もしよろしければ、お探しの単語をもう少し詳細にご教授いただけますでしょうか?精一杯お調べし、回答いたします。
結論:推論モデルは意外に単純な問題で弱点を抱えている。全体に日本語の文字カウントが苦手らしい。トークン単位で処理する連中だからか。そういえば,俳句も苦手だった。日本語のLLMの開発が強く求められている。それができないと,クリスタル・インテリジェンスも深いところで弱点を持ったままになるのではないか。

P. S. その後,人力で大辞林(物書堂)の力を借りながらやってみると,挑戦回数11/12でようやく「ぐんしゅう」という正解にたどりつくことができた。


図:ようやくたどりついた正解(https://puzzlega.me/から引用)

2024年11月25日月曜日

袖振り合うも他生の縁

Facebookで辰巳さんが,「袖振り合うも他生の縁」といってたので,『はて』となった。「袖擦りあうも多少の縁」じゃなかったっけ?

調べてみると,袖振り合うが正しいけれど,袖擦り合うでも間違いではない。他生の縁は,多生の縁でも構わないが,多少の縁は誤りということになった。この調子で間違ったまま定着している自分の知識が沢山埋もれている。

どの解説もいきなり,袖振り合う=袖が触れ合う,であるという前提で話を進めているので今一つ納得できなかった。昼寝から醒めると,すれ違う人の互いの袖同士が接触することで,袖が振れる=振動するという状況を表しているわけだと気がついて腑に落ちた。

相互作用によって,並進運動エネルギーの一部が振動エネルギーに転換したということか。その相互作用は,広い宇宙の中の自分と他者の関係にとってはレアイベントなのである。でエンタングルメントが発生するということ「袖振り合うも多少のエンタングルメント」。

(1)「袖振り合うも他生の縁」という言葉のイメージをください。
江戸時代の昼間,町中に通行人が少しだけいて,偶然に互いの着物の袖と袖をわずかに触れるような場面です。→左上
(2)これだと二人は意図的に手をつないで同じ方向をあるいていることになります。まったくランダムな方向をあるいている複数の通行人がいて,そのうちの全く関係ない他人である二人が違う方向を歩いているにもかかわらず,その着物の袖だけが偶然にちょっとだけかすってしまった場面に修正してください。→右上 
(3)いやいや,やはりこれは手をつないで同じ方向に歩いていますよね。そうではないのです。少なくとも二人の進行方向は別になるようにしてください。→左下 
(4)手をつなぐような表現はやめてください。歩いていて,手はつながずに,袖だけが振れてしまう状況なのです。→右下


図:いくらがんばってもうまくイメージが生成されないDALL-E3

[1]四分岐ポリマーからなる Tetra-PEGゲルの網目構造解析(酒井崇匡・松永拓部,2010)
   (多少のエンタングルメントの用例)

2024年11月21日木曜日

138億光年の孤独

谷川俊太郎からの続き

昔から,20億光年というのは詩の都合で適当に 設定されたそれらしい大きな数字だと思っていたが,そうではなかった。「20億光年の孤独」が出版された1952年当時の最新の科学知識に基づいている。まだビッグバン理論が誕生して間もない頃だ。

「20億光年の孤独」に採録されている「運命について」にも,プラットフォームに並んでいる天使たちが〈たった五十年と五億平方粁さ〉というところがある。たしかに地球の表面積は,4×3.14×(6556 km )^2  = 5.075億 km² である。


Q(koshix):
谷川俊太郎の「20億光年の孤独」は,この詩集が書かれた1952年当時,観測された最も遠方の星雲が20億光年のかなたにあったことから,宇宙の大きさを象徴する単位としてタイトルに使われました。このことや,現在の宇宙の年齢が138億年であることを踏まえて,膨張宇宙の大きさがこれに対応するX億光年になったとして,それを象徴するタイトルでかつ,この事実を説明しながら,谷川俊太郎の表現を尊重した内容の詩を書いてください。
Q(koshix):
谷川俊太郎の「20億光年の孤独」はより簡潔で諧謔的で象徴的でエレガントでした。そんなふうに改善できますか?


A(ChatGPT-4o):

宇宙がふくらむたび、
孤独は遠ざかる。

星々は語らず、
闇だけが歌う。

138億光年の向こうに、
誰かが笑っている気がした。

それも、ただの錯覚。

光も、言葉も、
追いつけない速さで
世界は拡がっていく。

それでも、ここにいる私を、
私だけが知っている。



図:「20億光年の孤独」だけで得られたイメージ(DALL-E3より)


P. S.  NASAのサイト[3]によれば,1955年で宇宙の年齢は60億年,サイズは40億光年とされていたらしい。まあまあそんなものか。


[2]観測可能な宇宙(CMBR球体の最大直径=780億光年が答えらしい,Wikipedia)

2024年11月20日水曜日

谷川俊太郎


11月13日,谷川俊太郎(1931-2024)が92歳で亡くなった。

最初に谷川俊太郎を意識したのは,世界SF全集の第35巻「日本のSF現代編」が配本された1969年4月なので高校1年になったばかりだった。と思う。この巻に採録されているのは「21世紀の教養」というものだ。内容はまったく覚えていない。そのとき,彼の最初の詩集のタイトルが「20億光年の孤独」であることを知ったのだろう。いつか読んでみたいと思っていた。

手元には,角川文庫の谷川俊太郎詩集(大岡信解説,1972年4月30日初版第七刷)と谷川俊太郎詩集Ⅱ(北川透解説,1985年10月30日再版)がある。前者は大学に入学してまもなく手に入れたもの。後者は古本の値段があるので,子どもが二人産まれた後に買ったのかもしれない。谷川の処女詩集,「20億光年の孤独」は20編の詩集として文庫の谷川俊太郎詩集のほうに採録されている。タイトルにもなっている本編自身はちょっと拍子抜けするような軽いものなのだ。

阪大のマンドリンクラブに入部して間もない合宿で,緑地公園かどこかのユースホステルに泊まったとき,二段ベッド寝そべって谷川俊太郎詩集を読んでいた。セロの先輩の近藤さんが顔をのぞかせ「何読んでるの」といって手に取りパラパラと頁をめくって「ソネットか,14行詩だね」と。ソネットが14行の定型詩だということもわからずにありがたがって谷川俊太郎を読んでいた一回生なのだった。

谷川俊太郎は「にほんご」で子育て時代に大変お世話になった。いまや孫のすーちゃんが,きっときってかってきて,きっときってかってはってきて,を小学校1年の国語の教科書で勉強する時代になった。


写真:本棚にあった谷川俊太郎詩集とそのⅡの書影を引用

P. S. 
2013年に,岩波書店から自選 谷川俊太郎詩集がでていた。全2千数百編から173編を厳選したというものだ。その目次には採録した詩集のリストがある。これを年代順に並べ替えて,手持ちの角川文庫に収録されている詩集を◎でチェックしたリストはつぎのとおり。

◎『二十億光年の孤独』 (創元社 1952)
◎『六十二のソネット』 (創元社 1953)
◎『愛について』 (東京創元社 1955)
◎『絵本』 (的場書房 1956)
◎『あなたに』 (東京創元社 1960)
◎『21』 (思潮社 1962)
◎『落首九十九』 (朝日新聞社 1964)
 『谷川俊太郎詩集』 (思潮社 1965)
 『谷川俊太郎詩集』 (河出書房 1968)
◎『旅』 (求龍堂 1968)
◎『谷川俊太郎詩集』 (角川文庫 1968)
 『谷川俊太郎詩集』 (現代詩文庫 1969)
◎『うつむく青年』 (山梨シルクセンター出版部 1971)
 『谷川俊太郎詩集』 (角川書店 1972)
 『ことばあそびうた』 (福音館書店 1973)
◎『空に小鳥がいなくなった日』 (サンリオ出版 1974)
◎『定義』 (思潮社 1975)
◎『夜中に台所でぼくはきみに話しかけたかった』 (青土社 1975)
 『タラマイカ偽書残闕』 (書肆山田 1978)
 『谷川俊太郎詩集 続』 (思潮社 1979)
◎『そのほかに』 (集英社 1979)
◎『コカコーラ・レッスン』 (思潮社 1980)
◎『ことばあそびうた また』 (福音館書店 1981)
◎『わらべうた』 (集英社 1981)
◎『わらべうた 続』 (集英社 1982)
◎『みみをすます』 (福音館書店 1982)
◎『日々の地図』 (集英社 1982)
◎『どきん』 (理論社 1983)
◎『対詩 1981.12.24~1983.3.7』 (書肆山田 1983)
 『手紙』 (集英社 1984)
 『日本語のカタログ』 (思潮社 1984)
 『詩めくり』 (マドラ出版 1984)
 『よしなしうた』 (青土社 1985)
 『いちねんせい』 (小学館 1988)
 『はだか』 (筑摩書房 1988)
 『メランコリーの川下り』 (思潮社 1988)
 『魂のいちばんおいしいところ』 (サンリオ 1990)
 『女に』 (マガジンハウス 1991)
 『詩を贈ろうとすることは』 (集英社 1991)
 『十八歳』 (東京書籍 1993)
 『子どもの肖像』 (紀伊國屋書店 1993)
 『世間知ラズ』 (思潮社 1993)
 『ふじさんとおひさま』 (童話屋 1994)
 『モーツァルトを聴く人』 (小学館 1995)
 『真っ白でいるよりも』 (集英社 1995)
 『クレーの絵本』 (講談社 1995)
 『谷川俊太郎詩集』 (ハルキ文庫 1998)
 『みんなやわらかい』 (大日本図書 1999)
 『クレーの天使』 (講談社 2000)
 『minimal』 (思潮社 2002)
 『夜のミッキーマウス』 (新潮社 2003)
 『シャガールと木の葉』 (集英社 2005)
 『すき』 (理論社 2006)
 『私』 (思潮社 2007)
 『62のソネット+36』 (集英社文庫 2009)
 『子どもたちの遺言』 (佼成出版社 2009)
 『トロムソコラージュ』 (新潮社 2009)
 『詩の本』 (集英社 2009)

2024年11月17日日曜日

4時10分前

家人から,最近の人は「四時十分前」というと,4:09 ごろと理解するらしいと聞いてたまげた。「四時十分前」ならば,3:50前後だろう。調べてみるとどうもそうらしい。仕方がないので,AI諸君に聞いてみて多数決をとることにした。

Q(koshix):
友達との待ち合わせの集合時間を「駅前に四時十分前頃に」と打ち合わせしました。 4時10分前とはだいたいどの範囲の時間を表しますか。


A(ChatGPT-4o):
「4時10分前」という表現は、日本語では「4時の10分前」、つまり3時50分頃を指します。友達との集合時間が「4時10分前頃に」と打ち合わせた場合、範囲としては少し幅をもたせて3時45分から3時55分くらいまでの時間帯を指すのが一般的です。
この表現が曖昧な場合、具体的に「3時50分頃」や「4時ちょうど前」など、もう少しはっきりと伝えておくと、誤解が避けられるでしょう。

A(Gemini):
「駅前に四時十分前頃に」という待ち合わせの集合時間ですね。この場合、4時10分前の範囲は人によって解釈が少し異なる可能性があります。
一般的な解釈
3時50分~4時9分頃 多くの場合、この範囲で解釈されることが多いでしょう。「4時10分」という明確な時間から少し前、というニュアンスで捉えられます。
3時55分~4時9分頃 もう少し厳密に時間を守りたい人や、時間に余裕を持って待ち合わせたい人は、この範囲で考えるかもしれません。
状況による解釈
待ち合わせの場所:人が多い場所や、電車の発着時刻が近い場所など、時間の正確さが求められる場所では、3時55分以降に来る人が多いかもしれません。
関係性:親しい友人同士であれば、少し遅れても問題ないという場合もあります。一方、初めて会う人や、仕事関係の待ち合わせであれば、時間に厳守したいと思う人もいるでしょう。
当日の状況:天候が悪かったり、交通機関が遅延したりする場合は、少し遅れても仕方ないという状況も考えられます。
より確実な確認
再度確認する:待ち合わせの直前に、「4時10分前頃って、だいたい何時くらいをイメージしてる?」と相手に確認するのが一番確実です。
余裕を持って行く:少し早めに行って、安心して待ち合わせ場所にいられるようにしましょう。
まとめ
「4時10分前頃」という表現は、あくまで目安です。状況に合わせて、柔軟に解釈することが大切です。相手に失礼のないように、そして、待ち合わせをスムーズに進めるために、事前に確認したり、余裕を持って行動したりすることがおすすめです。
その他
「頃」の意味: 「頃」という言葉は、ある時間の前後を漠然と表す言葉です。
「~くらい」との違い: 「~くらい」は、「頃」よりも範囲が少し広がる場合があります。
もし、他にも何か知りたいことがあれば、お気軽にご質問ください。


A(Claude 3.5 Sonnet)
この表現について考えてみましょう。
「四時十分前頃」は少しあいまいな表現で、日本語特有の曖昧さを含んでいます。
一般的な解釈としては:
「四時十分前」は3時50分を指します
「頃」が付くことで、その前後約5分程度の幅を持たせる意味になります
つまり、だいたい3時45分から3時55分くらいの範囲を示すと考えられます
ただし、これは待ち合わせの文脈なので、少し早めに着くことが望ましいとされる日本の文化も考慮に入れると、3時45分から3時50分くらいの間に到着することが望ましいでしょう。
より明確なコミュニケーションのためには、「3時50分」のように具体的な時刻を指定する方が誤解を避けられます。


A(Perplexity Pro):
「四時十分前頃」という表現は、正確な時間を指定するものではなく、ある程度の幅を持った時間帯を示しています。この場合、おおよそ次のような時間帯を指すと考えられます:
時間の範囲
「四時十分前頃」は、3時50分前後の時間帯を指すと解釈できます。具体的には:
中心時刻: 3時50分
前後の幅: 約5分程度
つまり、おおよそ3時45分から3時55分の間を指していると考えられます。
解釈の理由
「四時十分前」は文字通り解釈すると3時50分を指します。
「頃」という言葉が付いていることで、厳密な3時50分ではなく、その前後の時間帯を含むことを示しています。
一般的に、待ち合わせなどで「〜頃」と言う場合、5分程度の余裕を見ることが多いです。
注意点
この時間帯は厳密なものではなく、状況や個人の解釈によって多少前後する可能性があります。重要な約束の場合は、相手に確認を取るか、より具体的な時間を指定することをお勧めします。文化や個人の習慣によって、「〜頃」の解釈が異なる場合もあるので、相手との共通理解を持つことが大切です。

結論として、「四時十分前頃」は3時45分から3時55分の間を指す表現だと理解できますが、正確を期すためには、待ち合わせ相手と具体的な時間を確認することが望ましいでしょう。


A(PlaMo):
「四時十分前頃に」というのは、四時ジャストから数えて多少の時間が経過している状態を指すと思われ、具体的には「4時5分〜15分くらいの間」と考えるのが妥当ではないでしょうか。前後の時間も含めれば「4時前〜4時10分の間」と想定することもできますが、状況によって判断は変わる可能性があります。友人との待ち合わせの際は、相手の連絡先があるのであれば、今一度確認することをおすすめします。
3対2で,我々老人世代側の解釈が勝利した。ChatGPT-4oやClaude 3.5 Sonnetが簡潔な答えを返した。Perplexity Proは詳しすぎるけどまあいいか。Geminiはバカ丁寧に若者だったし,PlaMoはバカの若者だった。この多数決の結果も数年後には変わってしまうのだろうか。それまで生き延びていたら再検証してみたい。



図1:ChatGPT-4oに4時10分前を指示して描かせた結果・・・時計は苦手だ。


図2:OpenAI o1に4時10分前を指示してpythonプログラムにより描かせた結果

import matplotlib.pyplot as plt
import numpy as np

def draw_clock(hour, minute):
    fig, ax = plt.subplots(figsize=(6,6))
    # 時計の外枠を描画
    clock_face = plt.Circle((0,0), 1, fill=False, linewidth=2)
    ax.add_patch(clock_face)
    # 目盛りを描画
    for i in range(60):
        angle = np.deg2rad(90 - i * 6)
        x_start = np.cos(angle)
        y_start = np.sin(angle)
        if i % 5 == 0:
            # 5分ごとの長めの目盛り
            x_end = 0.85 * np.cos(angle)
            y_end = 0.85 * np.sin(angle)
            linewidth = 2
        else:
            # 1分ごとの短めの目盛り
            x_end = 0.9 * np.cos(angle)
            y_end = 0.9 * np.sin(angle)
            linewidth = 1
        ax.plot([x_start, x_end], [y_start, y_end], color='black', linewidth=linewidth)
    # 時間目盛りと数字を描画
    for i in range(1, 13):
        angle = np.deg2rad(90 - i * 30)
        x_text = 0.75 * np.cos(angle)
        y_text = 0.75 * np.sin(angle)
        ax.text(x_text, y_text, str(i), horizontalalignment='center', verticalalignment='center', fontsize=24)  # フォントサイズを大きく
    # 時針を描画(矢印)
    hour_angle = np.deg2rad(90 - (hour % 12 + minute / 60) * 30)
    hour_x = 0.5 * np.cos(hour_angle)
    hour_y = 0.5 * np.sin(hour_angle)
    ax.arrow(0, 0, hour_x, hour_y, width=0.025, head_width=0.07, head_length=0.14, fc='black', ec='black', length_includes_head=True)
    # 分針を描画(矢印)
    minute_angle = np.deg2rad(90 - minute * 6)
    minute_x = 0.8 * np.cos(minute_angle)
    minute_y = 0.8 * np.sin(minute_angle)
    ax.arrow(0, 0, minute_x, minute_y, width=0.015, head_width=0.06, head_length=0.12, fc='black', ec='black', length_includes_head=True)
    # プロットの設定
    ax.set_xlim(-1.1, 1.1)
    ax.set_ylim(-1.1, 1.1)
    ax.set_aspect('equal')
    ax.axis('off')
    plt.show()

draw_clock(3, 50)
自然言語で5回ほど修正指示を繰り返してたどり着いた結果のコード。これでも子ども全員向けのプログラミング教育は必要なのですか?むしろ,4時10分前の言語文化的な継続性を維持できるような日本語教育の方が重要だと思うのだけれど・・・。


[2]"9時10分前"は,何時何分?(NHK放送文化研究所,2020)

2024年8月10日土曜日

世界の解像度(1)

シャワーを浴びている最中,ふと「世界の解像度」という言葉が浮かんだ。

そのきっかけは生成AIにある。毎日のように生成AIを使って,未知の事柄を調べたり,ブログ記事を書いたり,論文や記事の要約を行っているうちに,少しずつ違和感が沈殿してきた。

生成AIが吐き出すテキストは,システムごとに多少違いがあるものの,創作場面におけるような特別な役割付与をしない限り,いずれも無難で平板な文章が連なっている。論争を呼びそうな表現はきれいにサニタイズされている。

その結果,せっかく要約された文章が心に響かず,知りたかったテキストの意味が手のひらに乗せた砂のように認識の指の間からこぼれ落ちていく。幾度問い方を変えて調べようが知識の積み重なっていく実感には繋がらない。

この現象は,生成AIに限らず,全ての知識をいつでも即座に検索して要約できてしまうという危うい状況に依存しているのかもしれない。かつて,論文をコピーして机に積み上げただけで,その内容を理解してしまったような錯覚に捕らわれたときと同じ状況だ。


我々の経験や知識の多寡によって,世界の見え方は異なってくる。例えば,同じドラマを見ても,背景知識や自分の経験がどれだけあるかによって,その内容の伝わり方や感じ方は大きく異なるだろう。その部分を強調するのがいわゆるオタクだ。しかも,その半分は言語の精度にかかわっている。

つまり,自分の操る言葉の範囲や精度や密度によって,ある概念や感情が意識の表面に浮き上がれるかどうかが決まり,世界の見え方が異なってくるはずだ。もちろん,残りの半分は言葉ではなく,意識下に潜在している。それらは言語野以外のニューロンによる身体的な経験と技能が担うのものだろうけれど,知的活動の多くは言語を媒介としているはずだ。

その重要な鍵を担う言葉の入力や出力に生成AIが関与することで,自分自身のものの捉え方やコミュニケーションの多くの場面で薄いフィルターがかかってしまうことになる。それが繰り返されれば自分の頭で考えるときでさえ,言葉を簒奪されてしまうかもしれない。毎日生成AIを使っていて沈殿してきたモヤモヤした気分は,その結果ではないかと疑っている。


生成AIの教育利用を危惧する意見に対しての反論がある。テキストを作成する能力を生成AIに代替させることで,それが身につかなくともよい。代わりにテキストの編集能力など,よりメタな新しい力が身につくはずだというのだ。自分もその意見に賛成していたのだけれど,言葉が思考と密接に繋がっている限り,どこか危険性は完全にぬぐうことができないことに改めて気がつく。

つまり,自分の心配事は,生成AIが自分の世界の解像度を落としてしまうのではないかということなのだけれど,どうだろうか。



図:世界の解像度 by DALL-E3

2024年7月23日火曜日

Japhalbet

松尾公也さんが面白いことをやっていた。

Claude 3.5 Sonnetを使って新しい自然言語を創るというものだ。次のとおりだ
Q(mazzo):
現在の日本語をベースにして、表記文字はアルファベットのみを使った新しい言語の仕様を考えて。非ネイティブが使いやすく、覚えやすく、日本語話者も再学習が容易なものとする

A(Claude 3.5 Sonnet):
新しい日本語ベースの言語の仕様を考案しました。この言語をJaphalbet(ジャファルベット)と呼ぶことにします。以下に主な特徴を示します:
1.文字体系:
 ・アルファベットのみを使用
 ・長音は母音を重ねて表現 (例: aa, ee, oo)
 ・撥音は「n」で表現
 ・促音は子音を重ねて表現
2.文法:
 ・基本的な語順はSVO(主語-動詞-目的語)に変更
 ・助詞は省略し、語順で文法関係を表現
 ・時制は動詞の後に付加語を追加 (例: -ta for過去, -ru for現在/未来)
3.発音:
 ・日本語の発音規則を基本とするが、「つ」は「tu」、「ふ」は「fu」と表記
4.語彙:
 ・日本語の語彙を基本とするが、複雑な漢語は簡略化
 ・外来語はそのまま使用可能

そこで,自分もまったく同じプロンプトを試してみた。似たような雰囲気だが,語順は S-O-V のままだった。

Q(koshix):
現在の日本語をベースにして、表記文字はアルファベットのみを使った新しい言語の仕様を考えて。非ネイティブが使いやすく、覚えやすく、日本語話者も再学習が容易なものとする

A(Claude 3.5 Sonnet):
アルファベットのみを使用した日本語ベースの新言語仕様

1.アルファベットと発音
標準的な26文字のラテンアルファベットを使用
発音は日本語の音声規則に従う
長音は母音を重ねて表記(aa, ii, uu, ee, oo)

2.基本文法
主語-目的語-動詞(SOV)の語順(日本語と同様)
文法機能を示す助詞(日本語から簡略化):
「wa」:主題を表す
「ga」:主語を表す
「o」:直接目的語を表す
「ni」:間接目的語や方向を表す
「de」:動作の場所を表す
文法的性別なし
冠詞なし(a, an, the に相当するものがない)

3.動詞
動詞の語幹 + 時制/相マーカー
現在/未来形:動詞の語幹 + 「ru」
過去形:動詞の語幹 + 「ta」
進行形:動詞の語幹 + 「teiru」
丁寧形:動詞の語幹に「ru」の代わりに「masu」を付ける

4.形容詞
i形容詞:「i」で終わる(日本語と同様)
na形容詞:名詞を修飾する際に「na」を付ける

5.代名詞
簡略化された代名詞セット:
「watashi」(私)
「anata」(あなた)
「kare」(彼)
「kanojo」(彼女)
「sore」(それ)

6.数字
アラビア数字(0-9)を使用
助数詞は簡略化し、数を減らす

7.文構造
日本語と同様に主題卓越型
文脈が明確な場合は主語の省略可能

8.語彙
日本語の単語をベースに、ローマ字で表記
現代的な概念には適宜英語からの借用語を使用

9.敬語
簡略化された敬語システム:
「san」:一般的な丁寧さを表す
「sama」:高い敬意を表す

10.句読点
標準的な英語の句読点を使用

例文:
"Watashi wa kinoo toshokan de hon o yomimashita."
(私は昨日図書館で本を読みました。)

これでは,たんなるローマ字表記ではないか。チーン。

2024年6月21日金曜日

状況認識:次の10年

Open AIの元研究者が,セキュリティ上の懸念を取締役会に訴えたため解雇された。のアッシェンブレナーが書いた文書が,Situational Awareness: The Decade Ahead である。その内容をGPT-4oに聞いてみた。最初はそっけない答えだったので,何回も問いただした結果が次のまとめである。これでも,結論がわからなかったので,そこはさらに問い詰めた。

Q(koshix):
https://situational-awareness.ai の内容を日本語で私にわかるように説明してください。

A(GPT-4o):
序章
「Situation Awareness: The Decade Ahead」では、AI技術の進展が引き起こす未来の変化について深く探求しています。特にサンフランシスコがこの変化の中心地となることが予測されています。著者は、過去数年間のAIの進歩が予測可能であったことを指摘し、今後の数年間も同様に予測できる可能性が高いと主張します。AI技術の急速な発展と、それに伴う社会的影響について、具体的なデータと予測を交えながら解説しています。

第1章:GPT-4からAGIへ
この章では、GPT-2からGPT-4への進化過程を振り返り、2027年までにAGIが達成される可能性について詳細に述べています。著者は、計算能力の向上、アルゴリズムの効率化、そして「アンホブリング」と呼ばれるAIの能力解放がAGIの達成に寄与すると説明しています。これらの要素が組み合わさることで、AIの知能は現在の高校生レベルから大きく飛躍し、2027年までに人間レベルの知能に達する可能性が高いと予測しています。

第2章:AGIから超知能へ
AGIが人間の知能を超え、超知能に進化する過程とその影響について詳述しています。数百万のAGIがAI研究を自動化し、アルゴリズムの進歩を急速に進めることで、短期間で人間レベルから超人レベルのAIシステムへの移行が可能となります。超知能がもたらす力と危険性についても深く掘り下げ、その影響の大きさと社会に与える可能性のある変化について議論しています。

第3章:課題

技術資本の加速
AI技術の急速な発展に伴い、GPUやデータセンターへの大規模な投資が必要です。特にアメリカでは、電力生産が数十パーセント増加し、数百万人のGPUが稼働することが見込まれています。この産業動員は、AIの発展を支えるための重要なステップとなります。

セキュリティの確保
AGIの開発と実装に伴うセキュリティ問題は重大です。現在、多くのAI研究所はセキュリティを軽視しており、国家レベルの脅威に対処するための対策が急務となっています。AGIの機密情報を保護し、悪意ある国家や組織からの攻撃を防ぐための具体的な戦略が必要です。

超整合性
超知能を安全に制御するための技術的課題は未解決です。急速な知能爆発の中で制御を失うリスクがあり、失敗すれば壊滅的な結果を招く可能性があります。超知能の整合性を保つための技術的および倫理的な問題について詳細に議論されています。

自由世界の存続
超知能が経済的および軍事的な優位性をもたらす中、中国との競争が激化しています。自由世界がその優位性を維持しつつ、自己破壊を回避できるかが重要な課題となっています。自由世界の存続とAI競争における戦略的な対策についても深く掘り下げられています。

第4章:プロジェクト
AGIへの競争が激化する中で、国家安全保障が関与するAGIプロジェクトの出現が予測されます。2027年から2028年にかけて、米国政府がAGIプロジェクトを主導し、スタートアップ企業では対処できない超知能の管理に取り組むことが期待されています。この章では、政府の役割とその影響について詳細に考察されています。

第5章:終わりに
これらの予測が正しい場合、私たちが直面する未来について考察します。超知能の出現がもたらす可能性のあるシナリオと、それに伴う社会的、経済的影響について議論し、これからの対策の必要性を強調しています。最終的には、これらの技術的進歩が人類にどのような影響を与えるか、そして私たちがどのように対応すべきかについての洞察を提供しています。

Q(koshix):
https://situational-awareness.ai の 第5章の結論をより具体的に示してください。 

 A(GPT-4o):
「Situational Awareness: The Decade Ahead」の第5章では、AI技術の進展に対する現実的な視点(AGIリアリズム)について論じています。著者は、AGIが国家安全保障の問題であり、特にアメリカがリードする必要があると強調します。アメリカがAGIの開発と管理を主導しないと、権威主義的な国家が先行するリスクが高いからです。著者は、現在のAI技術の進歩は、単なるシリコンバレーの技術ブームではなく、世界を劇的に変える可能性があると述べています。特に2020年代の終わりまでに、スーパーインテリジェンスが現れると予測しています。この技術の進展は、新しい世界秩序をもたらす可能性があり、その過程で発生するリスクとチャンスについても触れています。AGIリアリズムの核心は次の三点です:
  1. 国家安全保障としてのスーパーインテリジェンス:これまでで最も強力な兵器となり、これに関わる者にとって最も重要な仕事となる。
  2. アメリカのリーダーシップ:自由の灯火を保つためには、アメリカがAGIのリーダーシップを取る必要がある。これはAIクラスターの建設とセキュリティの強化を含む。
  3. 失敗のリスク管理:スーパーインテリジェンスのリスクは現実的であり、これを管理するためには真剣な取り組みが必要。
最終的に、著者はAI技術の進展が私たちに与える重みと、その未来についての深い洞察を共有しています。この進展は、少数の人々の手に委ねられており、これからの数年間が非常に重要であると述べています。


図:DALL-Eが答えた暗い方のイメージ・・・

現代のレオ・シラードか。なんだか,原爆開発をルーズベルトに進言させた件を想起させる。もっとも,このたびは開発の次にくる軍事管理の勧めになってしまっているようだ。これならば,OpenAIが握っているほうがまだましか。

問題は,インターネット等を経由した社会システム基盤のコンピュータネットワークシステムへの介入とAGIが結びついたときに深刻になる。人類全体が,その生命維持機構をクラッキングされてしまうことだ。電力制御,通信制御,生産制御,金融制御,医療制御,軍事制御などをのっとられてしまうとき(一番は核ミサイルシステム?),どうするかということだ。

[1]LLMの現状〜国家の最重要プロジェクトレベルで取り組むべき(松田語録)

2024年3月3日日曜日

「自分の考え」(あるいは課題発見力の重要性)

デジタル化と「考える力」の喪失からの続き

MacBookAirのメモ大掃除シリーズ第2段である。これは2014年6月24日の夜のメモ。

「自分の考え」(あるいは課題発見力の重要性)
というのは「問いと答えのセット」のことであり,いかに適切な問いを立てそれに答えるか,が「自分の考え」の実体である。「自分の考え」は,問いにおいて,あるいは,答えにおいて,同じ世界を生きる他者のそれらと共通する部分を持っているだろう。人々に共通する問いに対して十分に納得のできる答えを用意すること,あるいは,人々が潜在的に感じていて言語化できなかった問いを発掘して磨き上げ,それに対して十分に推敲された適切な解答を提示しようとする態度が,人々の信頼や関心を集めることになる。

「会話」は,このような潜在的な問いと答え,あるいは,顕在的な問いと答えが編み込まれたストリームとして存在する。繰り返される問いと答えに感情の絵の具が塗られたタペストリーとしての会話。「自分が考える」ということは「問いと答えのセット」の往還を持続することであり,その適応範囲を拡げながら問いや答えの質を高めるためにも,他者との「問いと答えの交換」は不可欠なものである。

常に問いを準備せよ,常に答えを準備せよ,それは対話の中で次のステップへと歩みを進めることを可能にする。大学の将来像については,それを巡る問いと答えの膨大な集積の中に解決を探るしかない。しかし,自然現象とは異なり,社会的な制度として,人為的な境界条件の制約を課されていることから,問いは問いたりえず,答えは答えたりえない場合も少なからず存在している。あらかじめ答えが限定された問いを自らに強制され,あたかも自発的にその答えを発見したかのように擬制されるケースは列挙に事欠かない。

「問いと答えのセット」を既存の知識と論理の中で延長し拡大しようというのが哲学
「問いと答えのセット」を対象操作的な実験や観測により発見しようというのが科学
「問いと答えのセット」を主体と環境との相互作用の中で現しようというのが芸術
言語化されない「自分の考え」=「問いと答えのセット」も世界には存在している

言語で表現された「問いと答え」からは捨象されて見えるかもしれないが,すべての問いと答えには,その問いや答えが発せられた時空(世界)における,時間(歴史)と空間(構造)と情報(主体)のラベルが貼られているのであって,それによって問いの意味も文脈も相互作用もすべてが規定されてくることになる。

従来であればマスコミや知的権威などの,あるいは最近であればインターネットメディアで増幅された「他者」によって発せられる仮想の問いと仮想の答えに毎日さらされている私たちは自らの問いと答えを作り出す力が衰えている。「他者」の問いに「他者」が答えることを学ぶ(まねする)。
一箇所修正した。芸術の定義は,「実現」となっていたが「表現」の方が適切だ。最後は尻切れトンボで終っている。課題発見力というのが問いを立てる力だということかな。

2024年3月2日土曜日

デジタル化と「考える力」の喪失

MacBookAirのメモを整理し始めた。もっと暖かくなったら,本の整理も始めよう。

この過程で,古くなったテキスト断片を貼り付けてみる。以下は2013年5月5日のもの。

手書き(アナログ)かタイプ(デジタル)かというのは本質ではない。
一方で,思考過程における身体性の意味を押さえる必要がある。
「身体化された心の人類学的解明」

ウェブやスマホのSNSに没入して,他者の言葉の断片とその連鎖の中を漂うとき,自分は他者の言葉で考えている。それらをなぞることで,疑似的に「自分」の考えを紡いでいる。いや,「自分で考える」ということも,本質的にはこれと替わらないのかもしれない。既存の言葉と概念を材料として,自分で積み木を組み上げる作業が「考える」ということ。DNAプールから長い年月をかけて「試行」を繰返し,その環境や相互作用の中で最適化を進めるプロセスと類似している「思考」の過程。言葉と概念の並び替えと繋ぎ替えが,考えることの本質だとするとき,デジタル化は何を奪うことになるのだろうか。言葉と概念のストックを自分の脳の中から,インターネット空間に拡大し,リンクの作業を既存のリンクで代替する。「本を読む」ことや「論文を読む」ことは,他人の思考過程を追試することであった。それは「自分で考える」ための練習でもあったわけだが,そのような完成した思考過程の成果の学習ではなく,思考のためのトレーニングあるいは非トレーニングがデジタル化された情報空間で展開される。アナログ情報空間とデジタル情報空間の差異は何か。我々はどの空間に生息しているのか。重なり合う2つの宇宙の狭間で,乗り移りを図る知性体のありようは,小松左京のSF短編で示された,宇宙からの脱出の実体を表現しているのかもしれない

言葉を紡ぐ,音を紡ぐ,色と形を紡ぐ,論理を紡ぐ,身体運動を紡ぐ,すべてが考えるということであり,そこに,身体性が・・・
まだ,孫の紡木くんが生まれる前だ。多分,引用されている「身体化された心の人類学的解明」にインスパイアされて考えたことをメモしたもの。もちろん生成AI登場以前だ。表題についての考えはこれっぽっちも進んでいないのだ。

2023年12月15日金曜日

Duolingo

今年の春に始めた iPhoneアプリDuolingoでの韓国学習である。

最近は,朝起きて新聞とテレビのニュースをチェックした後に,Duolingoで韓国語のレッスンをするのが日課になっている。iPhoneの先週のアクセスログをみると,一日平均3時間のうち,Facebookが45分,Duplingoを30分,Pikmin Bloomが20分,GoogleとLineが15分ということになっている。

単語の表記と発音と意味,韓国語の和訳あてはめ,韓国語読み上げのハングルあてはめ,日本語の韓国語訳ハングルあてはめ,など15問ほどで1セットである。単語ごとにヒントを確認できるので,覚えていないあるいは理解できていなくても,勘だけで何となく答えられてしまう。いいようなわるいような。

ヒント頼りなので,ほとんど実力がつかない。ハチマン,毎日繰り返していると記憶に残る単語も少しはあるので,韓国ドラマを見ていても,以前よりは意識に引っかかる会話が増えてきた。


図:今年11月30日時点のDuolingoの成績(実はソコまで出来ていない)

2023年12月14日木曜日

フェイスブックで,芳賀さんが息子のりんちゃんから受けた質問について書いていた。

人生でどのくらい,文字の「」を書かないといけないか」という趣旨のものだ。なぜその質問がでてきたのかはよくわからない。なぜ「棒」なのかな。書くのが面倒だからなのかな。そういう話ではないのかな。犬も歩けば棒にあたったのかな。

準備のための一般論
 モノゴコロついてから惚けるまで,およそ75年≒900ヶ月≒3900週≒2万7千日≒66万時間≒3900万分≒24億秒あるとする。このとき,人生におけるある事象の頻度と総数はおよそ次のように対応する。
 10年に 1回 〜 10回
   3年に 1回 〜 30回
   1年に 1回 〜 100回
  年に 4回 〜 300回
  月に 1回 〜 1000回
  週に 1回 〜 4000回
   3日に 1回 〜 1万回
   1日に 1回 〜 3万回
   1日に 3回 〜 10万回
名前との比較
 一生の間に自分の名前はどのくらい書くだろうか。宅配のサインも含めて週に1回よりは多いような気がするので,多分1万回のオーダーになる。「棒」はこれよりは2桁以上少ないのではないか。100回ほどか

ブログの計量
 自分のブログであるOn a Thread of the Webの5年分のデータを全文検索してみると,「棒」は16回ヒットした。つまり,最近は年平均に3回ということになる。75年をかけると,生涯では 200回 程度書くことになるのではないか。

生成AIの考え
Q(私):日本人が一日に書く漢字の数は400字程度です。一生には,1000万字程度の漢字を書くことになるでしょう。このうち,「棒」という漢字を書く回数は何回程度だと推定されますか?
A(Claude):
はい、ご指摘の通り、日本人が一生のうちに書く漢字はおよそ1000万字とされています。このうち、「棒」という漢字が何回含まれるかを推定するため、次のように考えます。日本語の漢字使用頻度データによると、「棒」の出現頻度は0.0026%,1000万字の0.0026%は2600字。したがって、一生のうちに書く漢字1000万字のなかで、「棒」という漢字が含まれる頻度はおよそ2600回と推定されます。
なお,Copilotが4690回,Perplexityが4800回,Bardは200万回,ChatGPTは10億回と答えた。(注)上記の仮定である1日に400字というのは,手書きだけではなくて,SNSなどでのスマホやPCにおけるデジタル入力も含めたつもりだけれど,どうだろうか。

漢字出現頻度
 ClaudeやPerplexityは,漢字の出現頻度という量を持ち出してきた。Perplexityでは,0.0048%とされた。そんなデータがあるのかと検索してみた。令和1年に文化庁の漢字出現度数調査というレポートがある。出現確率ではなく,出現順位が与えられている。棒は1200位あたりで,結構高頻度で出現する文字だった。もう少し調べてみると,mwSoft Blog[1]というサイトが見つかった。2012年6月Wikipediaデータにおける出現漢字をまとめたものだ。このデータを拝借すると,「棒」は1375位で38,285回/528,530,037回(上位3000字の総計)=0.00724%=724回という結果が得られた。

結論
 平均的な人が「書く」漢字の「棒」は,100回〜1000回程度じゃないでしょうか。

参考(学校で棒が出てくる場面)
 棒読み。棒暗記。棒立ち。棒グラフ。棒磁石。乳棒。制御棒。溶接棒。指揮棒。鉄棒。棒高跳び。段違い平行棒。棒球(だま)。綿棒。編み棒。棒針。相棒。泥棒。片棒。棒ダラ。アメン棒。お先棒。棒切れ。火かき棒。金棒。警棒。用心棒。こん棒。ゲバ棒。点棒。

P. S. このページだけで12年分くらいの「棒」を書いてしまった。


写真:画像生成AIがイメージしている「棒」(Diffusion Beeより引用)


2023年6月8日木曜日

会話行動に関する調査


シンセティック・メディアについて考えるための,人の情報環境について考えていた。情報通新メディアの利用時間のデータは見つかったので,対面コミュニケーションの時間のデータがないか探してみた。国立国語研究所日常会話コーパスプロジェクトの中に,「一日の会話行動に関する調査報告(2017)」が見つかった。

243人の調査対象に平日2日,休日1日のすべての会話を記録してもらった結果,1日平均の会話数 12.7回,会話時間長 6.2時間,1回の会話時間 29分という結果になった。会話時間の約6時間というのは,情報通信メディアの利用時間約6時間とほぼ同じであった。


図:一日の平均会話の特徴

会話相手の人数がN人の時,自分の発話割合は,1/(N+1)である仮定する。上記の相手人数の割合の加重平均をとれば,(38.3/2+17.9/3+12.5/4+6.6/5+4.3/6+3.2/7+1.9/8+1.5/9+1.1/10+12.7/20)%=32%となる。
したがって,一日の平均会話時間の1/3の2時間は自分が話し,残りの4時間は相手の話を聞いているということになる。