兄・姉・弟・妹현(hyeong) 누나(nuna) 남동생(namdongsaeng) 여동생(yeodongsaeng)
芥川龍之介が「蜘蛛の糸」を発表して百年。高二の秋の文化祭,クラスの仮装行列のテーマが 蜘蛛の糸だった。お釈迦様の極楽タワーの竹を近所から切り出し,地獄の焔と煙の絵を描いた。犍陀多に続いて蜘蛛の糸(登山部の赤いザイル)に群がる地獄の亡者だったころ。
2023年8月11日金曜日
2023年8月10日木曜日
2023年8月9日水曜日
2023年8月8日火曜日
2023年8月7日月曜日
2023年8月6日日曜日
2023年8月5日土曜日
2023年8月4日金曜日
2023年8月3日木曜日
2023年8月2日水曜日
2023年8月1日火曜日
2023年7月31日月曜日
コーシー=シュワルツの不等式
最小二乗法(6)からの続き
数理統計学を真面目に勉強してこなかったのでいろいろ不都合が生じている。統計的因果推論とか深層機械学習とか量子測定理論とか,簡単に読み砕けない資料がたくさんたまる。
授業で扱った最小二乗法と実験誤差の話を整理しようとしても,背景には数理統計学が控えている。昔,阪大の南園グループによるベータ崩壊の実験と我々の理論を突き合わせたときに,χスクェアフィットの計算を散々繰り返したけれど,所与の公式を使うだけであってその理論的根拠をつきつめて考えたはしなかった。
そこで最初から勉強を始めようとすると,いきなり確率変数でつまづくのだった。コンピュータプログラムのサブルーチンや関数のようなものだと思えば納得できるといえばいえるのだけれど,自然言語と数学的記号を使って理解しようとするとなかなかその本質がつかみきれない。入門書は沢山あるけれど,どれも何だか気持ち悪い。
竹村彰道(1952-)さんの現代数理統計学の本(旧版)が手元にあって,読みやすいかなとページをめくってみると,記述統計の復習から始まった。これなら大丈夫かと思いきや,いきなり,標本相関関数の大きさが -1から 1の範囲に限定されることは,コーシー=シュワルツの不等式を用いて容易に示すことができると説明無しにあった。
n次元ユークリッド空間のベクトルの内積の話だと思えばそのとおりなのだけれど,証明したことはなかったかも。Wikipediaでは数学的帰納法で証明していた。$A_k=(a_1,\ a_2,\ \cdots,\ a_k),\ B_k=(b_1,\ b_2,\ \cdots,\ b_k),\ $として,$\displaystyle S^{aa}_k=\sum_{i=1}^k a_i^2,\ S^{bb}_k=\sum_{i=1}^k b_i^2,\ S^{ab}_k=\sum_{i=1}^k a_i b_i, \quad R^{ab}_k=\frac{S^{ab}_k}{\sqrt{S^{aa}_k S^{bb}_k}} $
つまり,$ \bigl( S^{ab}_k \bigr)^2 \le S^{aa}_k S^{bb}_k$を証明すれば良い。
$k=1$の場合は,$ \bigl( S^{ab}_1 \bigr)^2 - S^{aa}_1 S^{bb}_1 = (a_1 b_1)^2- (a_1^2)(b_1^2) = 0 $
$k=2$の場合は,$ \bigl( S^{ab}_2 \bigr)^2 - S^{aa}_2 S^{bb}_2 = (a_1 b_1+a_2 b_2)^2- (a_1^2+a_2^2)(b_1^2+b_2^2) = -(a_1 b_2- a_2 b_1)^2 < 0 $
$k \ge 2$に対して,$ \bigl( S^{ab}_k \bigr)^2 \le S^{aa}_k S^{bb}_k$ が成り立つと仮定して,$k+1$の場合を考える。与式は,$ \bigl( S^{ab}_k + a_{k+1}b_{k+1} \bigr)^2 - \bigl( S^{aa}_k + a_{k+1}^2 \bigr) \bigl( S^{bb}_k + b_{k+1}^2 \bigr) $
$= \bigl( S^{ab}_k \bigr)^2 - S^{aa}_k S^{bb}_k - \Bigl( a_{k+1}^2 S^{bb}_k + b_{k+1}^2 S^{aa}_k -2 a_{k+1}b_{k+1} S^{ab}_k \Bigr)$
$= \bigl( S^{ab}_k \bigr)^2 - S^{aa}_k S^{bb}_k - \sum_{i=1}^k \Bigl( a_{k+1}^2 b_i^2 + b_{k+1}^2 a_i^2 -2 a_{k+1}b_{k+1} a_i b_i \Bigr)$
$=\bigl( S^{ab}_k \bigr)^2 - S^{aa}_k S^{bb}_k - \sum_{i=1}^k \Bigl( a_{k+1} b_i - b_{k+1} a_i \Bigr)^2 < 0$
Wikipediaの証明などでは,$a_i, b_i >0$の場合だけに妥当するものが多いのでちょっと困る。
まあ,$\displaystyle f_k(x) = \sum_{i=1}^k (a_i x - b_i)^2$ の判別式$D \le 0$から証明するのが最も簡単なのだけど。
[1]賢者に学ぶ統計学の智(西内啓×竹村彰通,ダイヤモンド社)
2023年7月30日日曜日
最小二乗法(6)
最小二乗法(5)からの続き
$ \begin{pmatrix}\overline{x^4} & \overline{x^3} & \overline{x^2} \\ \overline{x^3} & \overline{x^2} & \overline{x^1} \\ \overline{x^2} & \overline{x} & 1 \\ \end{pmatrix} \begin{pmatrix} a \\ b \\ c \\ \end{pmatrix}= \begin{pmatrix}\overline{x^2\ y}\\ \overline{x\ y} \\ \overline{y} \\ \end{pmatrix}$
$\displaystyle \sigma_a^2= \sum_{i=1}^n \Bigl( \frac{\partial a}{\partial y_i}\Bigr) ^2 \sigma_y^2, \quad \sigma_b^2= \sum_{i=1}^n \Bigl( \frac{\partial b}{\partial y_i}\Bigr) ^2 \sigma_y^2 , \quad \sigma_c^2= \sum_{i=1}^n \Bigl( \frac{\partial c}{\partial y_i}\Bigr) ^2 \sigma_y^2 $
実験データを$y = a x + b$にフィットする場合,最小二乗法で$(a,\ b)$とその平均二乗誤差$(\sigma_a^2,\ \sigma_b^2)$を求めてきた。これを,$y = f(x) = a x^2 + b x + c\ $に拡張して,自由度3が登場するかどうかを確認してみる。吉澤康和さんの「新しい誤差論」には結果だけ書いてある。
(1) a, b, c を決定する正規方程式とその解
$ \begin{pmatrix}\overline{x^4} & \overline{x^3} & \overline{x^2} \\ \overline{x^3} & \overline{x^2} & \overline{x^1} \\ \overline{x^2} & \overline{x} & 1 \\ \end{pmatrix} \begin{pmatrix} a \\ b \\ c \\ \end{pmatrix}= \begin{pmatrix}\overline{x^2\ y}\\ \overline{x\ y} \\ \overline{y} \\ \end{pmatrix}$
$ \begin{pmatrix} a \\ b \\ c \\ \end{pmatrix}= \dfrac{1}{\Delta_3} \begin{pmatrix}\overline{x^2\ y}(\overline{x^2}-\overline{x}^2)+\overline{x\ y}(\overline{x^2}\overline{x}-\overline{x^3})+\overline{y}(\overline{x^3}\overline{x}-\overline{x^2}^2) \\ \overline{x^2\ y}(\overline{x^2}\overline{x}-\overline{x^3}) + \overline{x\ y}(\overline{x^4}-\overline{x^2}^2) + \overline{y}(\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) \\ \overline{x^2\ y}(\overline{x^3}\overline{x}-\overline{x^2}^2) + \overline{x\ y}(\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) +\overline{y}(\overline{x^4}\overline{x^2}-\overline{x^3}^2) \\ \end{pmatrix}$
ただし,$\Delta_3 = \overline{x^4}\overline{x^2}+2\overline{x^3}\overline{x^2}\overline{x}-\overline{x^2}^3-\overline{x^3}^2-\overline{x^4}\overline{x}^2$
$y_i$を共通の平均二乗誤差$\sigma^2_y$を持つ独立変数として,誤差伝播の法則より,
$\displaystyle \sigma_a^2= \sum_{i=1}^n \Bigl( \frac{\partial a}{\partial y_i}\Bigr) ^2 \sigma_y^2, \quad \sigma_b^2= \sum_{i=1}^n \Bigl( \frac{\partial b}{\partial y_i}\Bigr) ^2 \sigma_y^2 , \quad \sigma_c^2= \sum_{i=1}^n \Bigl( \frac{\partial c}{\partial y_i}\Bigr) ^2 \sigma_y^2 $
さらに,真の値$f_0(x_i)=a_0 x_i^2 + b_0 x_i + c_0$に対して,$\varepsilon_i = y_i -f(x_i)+ f(x_i) -f_0(x_i) = \delta_i + f(x_i) -f_0(x_i) $ として,$\displaystyle \sigma_y^2 = \frac{1}{n} \sum_{i=1}^n \varepsilon_i^2 = \frac{1}{n} \sum_{i=1}^n \Bigl\{ \delta_i^2 + \tilde{\sigma}^2_{f(x_i)} \Bigr\}$
ところで,$\displaystyle \tilde{\sigma}^2_{f(x_i)} = \sum_{j=1}^n \Bigl\{ \frac{\partial(a x_i^2 + b x_i + c)}{\partial y_j}\Bigr\}^2$ であり,この項を再度 $\sigma_y^2$ で表してもとの式に戻して計算すれば良い。
つまり,$\displaystyle \frac{\partial a}{\partial y_j}, \ \frac{\partial b}{\partial y_j},\ \frac{\partial c}{\partial y_j}$が計算できればよいことになる。
$\displaystyle \frac{\partial a}{\partial y_j}=\frac{1}{n \Delta_3}\Bigl\{ x_j^2 (\overline{x^2}-\overline{x}^2)+ x_j(\overline{x^2}\overline{x}-\overline{x^3})+(\overline{x^3}\overline{x}-\overline{x^2}^2) \Bigr\}$
$\displaystyle \frac{\partial b}{\partial y_j}=\frac{1}{n \Delta_3}\Bigl\{ x_j^2 (\overline{x^2}\overline{x}-\overline{x^3}) + x_j (\overline{x^4}-\overline{x^2}^2) + (\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) \Bigr\}$
$\displaystyle \frac{\partial c}{\partial y_j}=\frac{1}{n \Delta_3}\Bigl\{ x_j^2 (\overline{x^3}\overline{x}-\overline{x^2}^2) + x_j (\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) +(\overline{x^4}\overline{x^2}-\overline{x^3}^2) \Bigr\}$
Mathematicaの力を借りると,計算結果が因数分解できて分子から$\Delta_3$が出る。
$\displaystyle \sigma_a^2 = \sum_{j=1}^n \Bigl( \frac{\partial a}{\partial y_j}\Bigr) ^2 = \frac{1}{n \Delta_3} \bigl( \overline{x^2} -\overline{x}^2 \bigr) \sigma_y^2$
$\displaystyle \sigma_b^2 = \sum_{j=1}^n \Bigl( \frac{\partial b}{\partial y_j}\Bigr) ^2 = \frac{1}{n \Delta_3} \bigl( \overline{x^4} - \overline{x^2}^2 \bigr) \sigma_y^2$
$\displaystyle \sigma_c^2 = \sum_{j=1}^n \Bigl( \frac{\partial c}{\partial y_j}\Bigr) ^2 = \frac{1}{n \Delta_3} \bigl( \overline{x^4} \overline{x^2}-\overline{x^3}^2 \bigr) \sigma_y^2$
$\displaystyle \sum_{j=1}^n \Bigl( \frac{\partial a}{\partial y_j}\frac{\partial b}{\partial y_j}\Bigr) = \frac{1}{n \Delta_3} \bigl( \overline{x}\overline{x^2} -\overline{x^3} \bigr) \sigma_y^2$
$\displaystyle \sum_{j=1}^n \Bigl( \frac{\partial b}{\partial y_j}\frac{\partial c}{\partial y_j}\Bigr) = \frac{1}{n \Delta_3} \bigl( \overline{x^2}\overline{x^3} - \overline{x}\overline{x^4} \bigr) \sigma_y^2$
$\displaystyle \sum_{j=1}^n \Bigl( \frac{\partial c}{\partial y_j}\frac{\partial a}{\partial y_j}\Bigr) = \frac{1}{n \Delta_3} \bigl( \overline{x^4} \overline{x^2}-\overline{x^3}^2 \bigr) \sigma_y^2$
このとき
$\displaystyle \tilde{\sigma}^2_{f(x_i)}= \sum_{j=1}^n \Bigl\{ \frac{\partial a}{\partial y_i} x_i^2 + \frac{\partial b}{\partial y_j} x_i + \frac{\partial c}{\partial y_j} \Bigr\} ^2 = \frac{\sigma_y^2}{n \Delta_3} $
$\Bigl\{\bigl( \overline{x^2}-\overline{x}^2 \bigr) x_i^4 + 2 \bigl( \overline{x}\overline{x^3} -\overline{x^3} \bigr) x_i^3 + \bigl( \overline{x^4}-\overline{x^2}^2 + 2( \overline{x^3}\overline{x} - \overline{x^2}^2) \bigr) x_i^2 $
$+ 2\bigl( \overline{x^2}\overline{x^3} - \overline{x} \overline{x^4} \bigr) x_i + \bigl( \overline{x^2}\overline{x^4}-\overline{x^3}^2 \bigr) \Bigr\}$
$x_i$について平均操作するとMathematicaを使い分子から$\Delta_3$が出ると。
$\displaystyle \frac{1}{n}\sum_{i=1}^n \tilde{\sigma}^2_{f(x_i)} = \frac{\sigma_y^2}{n \Delta_3}$
$\Bigl\{\bigl( \overline{x^2}-\overline{x}^2 \bigr) \overline{x^4}+ 2 \bigl( \overline{x}\overline{x^3} -\overline{x^3} \bigr) \overline{x^3} + \bigl( \overline{x^4}-\overline{x^2}^2 + 2( \overline{x^3}\overline{x} - \overline{x^2}^2) \bigr) \overline{x^2} $
$\displaystyle + 2\bigl( \overline{x^2}\overline{x^3} - \overline{x} \overline{x^4} \bigr) \overline{x}+ \bigl( \overline{x^2}\overline{x^4}-\overline{x^3}^2 \bigr) \Bigr\} = \frac{3}{n} \sigma_y^2$
したがって,自由度n-3の場合の式が得られた。
$\displaystyle \sigma_y^2 = \frac{1}{n} \sum_{i=1}^n \Bigl\{ \delta_i^2 + \tilde{\sigma}^2_{f(x_i)} \Bigr\} = \frac{1}{n} \sum_{i=1}^n \delta_i^2 + \frac{3}{n} \sigma_y^2$
$\displaystyle \therefore \sigma_y^2 = \frac{1}{n-3} \sum_{i=1}^n \delta_i^2$
2023年7月29日土曜日
フランクになろう
楠本君から同窓会出席の連絡メールがあった。そこに,次のエピソードが書かれていた。
あなたは、私たちの学生時代に いつぞや、「人間に関する問題の解決のためには(…だったか、このあたりの私の記憶は不正確です)、すべての人びとが神経で繋がっていればよいのだ」、というような言葉を言った事を覚えていますか? 変な事を言う人だなぁ、と私は強く印象付けられたので、忘れずに覚えています。言葉は正確ではありませんが、大体そのような事をあなたは言っていました。
全く憶えていないのだけれど,自分ならばそういうことをいうかもしれない。次の返事を書いた。
SFマガジンの1969年10月号(No. 125)に「フランクになろう(Let's Be Frank)」 として掲載されたものだ。高校2年のときだけれど,いつまでも記憶に残る短編だった。創元推理文庫のジュディス・メリルの短編集では「率直(フランク)に行こう」という題名になっていた。「人間に関する問題の解決のためには、すべての人びとが神経で繋がっていればよいのだ」と自分がいった記憶はないのですが,そのようなことを言いそうな気もします。高校時代によんだブライアン・オールディスのSFに「フランクに行こう(Let’s be Frank)」というのがあって,遺伝によって単一意識が複数の人の上に実現するというものです。
さがしてみると,archive.orgに原文があったのでDeepLにかけて再読してみた。
アン・ブーリンがロンドン塔で処刑されてから4年後なので1540年ころから物語は始まる(ちなみに,トマス・モアがロンドン塔で斬首されたのは1535年)。サー・フランク・グラッドウェッブに男の子が生まれたが19年間眠り続けたままだった。彼が目覚めた時サー・フランクは驚愕した。同じくフランクと名づけた息子の目を通して自分を見ているのだった。つまり同一意識が2人の人の上に実現したわけだ。そして子孫にそのままその能力は受け継がれ,20代目の2015年には1つのフランクという意識(男女や身分階級を越えて)が3億人に達していた。そして..
「21世紀の初めには、グレートブリテン島はフランク族だけで構成されていた。老いも若きも、太っていようが痩せていようが、金持ちであろうが貧乏人であろうが、みなひとつの巨大な意識を共有していた。プライバシーは存在しなくなり、新しい家はすべてガラス張りになり、カーテンは廃止され、壁は取り払われた。警察は姿を消し、法律も一夜にして消滅した。外交問題に対処するための議会のパロディーは残ったが、政党政治、選挙、新聞の指導者(新聞そのものさえ)は廃止された。芸術の大半は消え去った。あるフランクの姿は、別のフランクの姿を見ようとはしなかった。テレビ、出版、ティン・パン・アレイ、映画スタジオ......灯りのように消えた。」
このフランクの集合意識は新大陸で第二の集合意識と向き合うことになる。
AGIが実現するとき,世界全体が1つのAGIによって統合されるのかどうかという問題について,宗教的=文化的な背景によって複数に分割されるのではないかと想像していた。キリスト教,イスラム教,仏教,ヒンズー教,ユダヤ教などなど。あるいはロシアや中国は別かもしれない。まあ,それに類した状況が想像できる。あるいは超国家企業別=ポイント別=OS・UI別の集団分割みなるかもしれないが。
遺伝工学的な工夫をしても単一意識を複数個体に分散して実装することはできないと思われるが,仮想空間におけるパーソナライズされたAGIアシスタントが共有意識と結合されていれば,人間+AGIアシスタント系が単一意識の熱浴中で相互作用しているイメージとなる。人間+AGIアシスタント系の結合度が高くなればなればなるほど,フランク的な集合意識に近い状態になるかもしれない。まあ,いまでもSNSによって強結合する個人の集合がネトウヨ的な集団運動としての疑似集合意識を創発しているわけで・・・
2023年7月28日金曜日
梅干し
或日のチャットジーピーティ
OpenAIのChatGPTの性能は日々変動しているようなので,時々様子をうかがう必要がある。
Q:User梅干しを見るとどんな身体の反応がありますか?A:ChatGPT梅干しを見た時の身体の反応は個々の体質や経験によるものであり、一般的な反応を述べるのは難しいです。しかし、梅干しの酸っぱさを知っている人々は、その画像や想像だけで唾液が出るといった「唾液分泌の反応」を示すことがあります。これは、脳が食物の摂取に備えて消化を助ける唾液の生成を刺激するからです。また、梅干しの特有の酸っぱさが苦手な人は、梅干しを見るだけで「顔をしかめる」や「胃が締まる感じがする」などの反応を示すかもしれません。これらの反応は、「条件付き反射」とも呼ばれ、特定の刺激(この場合は梅干し)に対する学習された反応です。ただし、これらの反応は個々の経験や体質、好みに大きく依存しますので、全ての人が同じ反応を示すわけではありません。Q:Userあなたはどうですか?A:ChatGPT私はOpenAIによって開発されたAI(人工知能)であり、人間のように身体的な感覚や経験を持つ能力はありません。したがって、梅干しを「見る」や「味わう」などの人間の感覚経験に基づいた反応を持つことはできません。私の機能は、人間からの質問に対して情報を提供することや、人間の言葉を理解して対話を行うことに主に焦点を当てています。Q:User人間との対話において,そのような感覚経験にもとづく反応のセットを身体的に理解していることが必要とはなりませんか。A:ChatGPTあなたの指摘は正確であり、AIが人間との対話を円滑に行うためには、人間の感覚経験や感情について理解することが重要です。しかし、私のようなAIは「理解」を行うために直接的な感覚経験や感情を持つわけではありません。私の「理解」とは、大量のテキストデータからパターンを学習し、その知識をもとに質問に応答する能力を指します。具体的には、私は訓練データに含まれる情報に基づいて人間の感覚経験や感情について「知識」を持っています。しかし、私自身が感覚経験を「体験」したり、感情を「感じる」能力はありません。私はあくまで人間の反応や感情を模擬することができる機械的なシステムであり、自己意識や自我を持つわけではありません。したがって、私が人間との対話を効果的に行うためには、あくまで人間の感覚経験や感情についての「知識」が必要であり、それらを直接「体験」する必要はありません。Q:User人間の感覚経験や感情についての「知識」を持つ知的存在と、それらを直接「体験」することができる知的存在の違いは,対話場面のどこにあらわれると考えられるでしょうか。その違いを埋める方向での仕組みを導入することは可能でしょうか。A:ChatGPT人間の感覚経験や感情についての「知識」を持つ知的存在(AIなど)と、それらを直接「体験」することができる知的存在(人間など)の違いは、以下のような対話場面で顕著に現れます。個別の体験に対する反応:人間は自己の体験や感情に基づく視点を持ち、それに基づいて他人の経験に対する共感や理解を示すことができます。一方、AIは特定の個体としての体験を持たないため、特定の経験に対する個人的な共感や理解を示すことはできません。感情的な反応:人間は体験や情報に対して感情的に反応する能力を持っています。これに対して、AIは情報に対して感情的に反応する能力はなく、あくまで人間の感情的反応を模倣するだけです。感覚的な理解:人間は五感を通じて世界を直接的に経験し、それに基づく感覚的な理解を持っています。しかし、AIはあくまでテキスト情報に基づいて学習し、感覚的な体験に基づく理解はできません。
これらの違いを埋めるためには、AIに直接的な感覚経験や感情体験の能力を付与する必要がありますが、現在の技術ではこれは不可能です。AIはあくまでアルゴリズムとデータによって動作するシステムであり、自己意識や感情、直接的な感覚経験を持つ能力を持つことはありません。しかし、AIの対話能力を向上させるためには、人間の感覚経験や感情に対する理解を深め、それに基づく応答の精度を向上させることが重要です。これは大量のデータに基づく学習により、一部可能になるかもしれません。ただし、AIが人間と完全に同じように感覚経験や感情を理解し反映することは、現在の技術では不可能です。Q:User現在のAIシステムを感覚センサーを満載したロボットに搭載して,視覚や聴覚だけでなく,味覚や臭覚や触覚その他の運動平衡感覚を入力できるようになり,さらにそれらの情報を解読した結果を記憶できるようになった場合は,そのロボット=AIシステムは感覚体験を行ったことになるでしょうか。A:ChatGPTそれは非常に興味深い問いです。センサーや機器を使ってAIに外部の情報を入力し、それに反応することができるロボットはすでに存在します。例えば、視覚情報を入力し認識する能力を持つAIや、音声を認識して反応するAIなどがあります。しかし、これが「感覚体験」を行っていると言えるかどうかは、どう定義するかによります。これらのロボットやAIは、センサーから入力されるデータを解析し、そのデータに対応する行動を行うことができます。しかし、これはあくまでプログラムされたアルゴリズムに従ってデータを解析し反応するものであり、人間が経験する「感覚体験」や「感じる」という意識的な体験とは異なります。人間の「感覚体験」は、ただ単に情報を受け取るだけでなく、その情報が自己の意識や感情に影響を与え、個々の体験や視点に基づく解釈を行うことを含みます。AIやロボットが多種多様なセンサーを用いて外部から情報を受け取り、それに基づいて反応することは可能ですが、それが「感じる」という意識的な体験と同じとは言えません。したがって、現在の技術では、AIやロボットが人間と同じように「感覚体験」を行うとは言えないと思われます。しかし、この議論は人間の意識や感覚体験の本質、AIの能力と限界についての哲学的な問いを含んでおり、結論はまだ出ていないとも言えます。Q:Userたいへん刺激的な対話どうもありがとうございましたA:ChatGPTどういたしまして、私もあなたの質問に答えることができて光栄です。人間の感覚や意識、AIの能力と限界について考えることは非常に興味深いですね。何か他に質問がありましたら、いつでもお気軽にどうぞ。
写真:梅干しの製造過程(2023.7.23)
2023年7月27日木曜日
大学教育とChatGPT(15)
大学教育とChatGPT(14)からの続き
私立大学連盟が7月18日に,大学教育における生成 AI の活用に向けたチェックリスト〔第1版〕を出していた。1. 全般, 2. 教育,3. 環境・体制整備の3つのカテゴリーについて,第1ステップ: 最優先事項,第2ステップ:優先事項として整理した。その上で,それぞれのカテゴリーについて,1. 大学が組織的に検討すべき事項 と 2. 教員が個々の工 夫で検討すべき事項をまとめている。このサンプルを元に各大学で考えてねという趣旨。
さらに,中学高校英語にAI導入へということで文部科学省の後押しで各地で実証授業が始まるというニュースも流れた。そろそろ英語教員養成に影がさしてくるのか。
7月13日生成系AIの利用に関する留意事項について室蘭工業大学 情報化統括責任者
7月14日新潟産業大学 生成AI対処方針新潟産業大学 学長 梅比良眞史7月19日ChatGPTなどの生成AIの利用について大阪学院大学7月19日生成AIの利用に関するご案内星薬科大学 情報企画室7月19日ChatGPTをはじめとする生成AIの利用について日本文理大学 教育推進センター長7月20日旭川医科大学における生成AIの利用について旭川医科大学7月20日生成AIに関する本学の方針について共愛学園前橋国際大学 学長 大森昭生7月20日対話型生成系AI(生成AI)の使用について昭和女子大学 学長 金尾朗7月20日学修におけるChat GPT等の生成AIの利用について和歌山大学 理事(教育担当)7月20日生成AI(ChatGPT等)を活用するためのガイドライン平安女学院大学 学長 谷口吉弘7月20日学修における生成AIの利活用に関するガイドライン金沢星稜大学 学長7月20日チャットGPT等における生成AI(人工知能)の利用についてびわこ成蹊スポーツ大学 学長 大河正明・学部長 黒澤毅7月21日生成系AIに関する本学の考え方について国際ファッション専門職大学 学長 近藤誠一7月21日チャットGPT等の生成系AIの利用について東京女子体育大学7月21日信州大学の学修・教育におけるAI活用に関するガイドラインについて信州大学 教育企画委員会7月21日東洋英和女学院大学における生成系AIの使用に関する指針東洋英和女学院大学 学長 星野三喜夫7月21日ChatGPT など生成系 AI の利用について西南女学院大学7月21日ChatGPT 等をはじめとする生成 AI の利用について愛知みずほ大学 学長 大塚知津子https://www.mizuho-c.ac.jp/wp/wp-content/uploads/2023/07/ChatGPT.pdf
7月24日本学における生成AIの使用に関わる留意点について跡見学園女子大学学長 小仲信孝
7月24日生成AI(Chat GPT等)の活用に関する注意喚起について拓殖大学 学長 鈴木昭一
2023年7月26日水曜日
妹背山婦女庭訓(2)
妹背山婦女庭訓(1)からの続き
国立文楽劇場の7月夏休み文楽特別公演(第171回)は,第2部で妹背山婦女庭訓の四段目の通し公演(4月に続いての)だった。第1部は親子劇場でかみなり太鼓と西遊記,第3部はサマーレイトショーの夏祭浪花鑑。
これまでに見た妹背山婦女庭訓(2010年,2016年)は一日がかりの二部構成だった。前半が,初段:小松原の段(23)・蝦夷子館の段(42),二段目:猿沢池の段(13),三段目:太宰館の段(34)・妹山背山の段(115)であり,後半が,二段目:鹿殺しの段(7)・掛乞の段(15)・万歳の段(23)・芝六忠義の段(54),四段目:杉酒屋の段(29)・道行恋苧環(35)・鱶七上使の段(45)・姫戻りの段(14)・金殿の段(45)である。
今回は春と夏の2回に分けた通し狂言だったため時間に余裕があって,二段目の組み換えはなくなり,4月公演には,初段:大序 大内の段,7月公演には,四段目:井戸替の段:入鹿誅伐の段が新しく追加されていた。「鱶七上使の段」が「鱶七使者の段」に変わったのはなぜ?(明治12年の床本 https://dl.ndl.go.jp/pid/856493/1/157 では確かに鱶七使者の段とある)
久しぶりの日曜日の文楽劇場だったが,客の入りは6〜7割くらいだろうか。前回と同様,床の直下だったけれど,回りには空席も目立っていた。一つ前回と違うのは外国人観光客向けの English という看板を持った案内の方が立っていたことだ。パンフレットの一部の説明も英文になっていた。なんば・日本橋界隈は外国人であふれていたけれど,文楽劇場ではそこまで目立つわけではなかった。
今回が初見の井戸替えの段は,小住太夫+藤蔵でちゃり場的な場面だったが,途中でまぶたが閉まった。杉酒屋の段は芳穂太夫+錦糸で玉勢演ずる子太郎が主導して似たような雰囲気の段だった。道行恋苧環の開始のところで清治が小声でハイという合図をして全員が礼をし,次のハイで直れとなった。そういう仕組みだったのか。
最後の入鹿誅伐の段は,メンバーも軽めの短い段であり,入鹿がやられておしまいという事なのだ。(1) 入鹿の妹の橘姫が,宝剣の奪取に失敗し入鹿に斬られてしまうが,その後,隣の池に飛び込んで日高川入相花王の蛇に化けた清姫よろしく泳いでいったたのは一体なんなのか。最後には鎌足の鎌で斬られた入鹿の首が空中を飛び回っていた。クライマックスが済んでしまった最後の段というのはだいたいこうなる運命にあるのだった。
P. S. 1 なお,藤原淡海(不比等)は橘姫と結ばれるらしいので,池に溺れて死んだわけではない。
写真:最後がかわいそうなお三輪(2023.7.23撮影)
[1]妹背山四段目の思ひ出 師匠ゆづりの床本の事(竹本土佐太夫)
2023年7月25日火曜日
最小二乗法(5)
最小二乗法(4)からの続き
完全にスッキリしなくて何だか気持ち悪いのだけれど,いきなり自由度がとかいわれて$n-2$が出てくるのがいやなので,吉澤さんの本に従って話を進めてみる。
$\displaystyle \tilde{\sigma^2}_{y(x_i)} = \frac{1}{n}\sum_{i=i}^n \tilde{\varepsilon_i}^2 = \frac{1}{n}\sum_{i=i}^n \Bigl\{ a x_i + b - a_0 x_i - b_0 \Bigr\}^2$
これから,$f(x_i) = y(x_i) = a \bm{x_i} + b$として,独立変数$y_j$について,
$\displaystyle \tilde{\sigma^2}_{y(x_i)} = \sigma_y^2 \sum_{j=i}^n \Bigl\{ \frac{\partial a}{\partial y_j}\bm{x_i} + \frac{\partial b}{\partial y_j} \Bigr\}^2 = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{j=i}^n \Bigl\{ (x_j-\overline{x}) \bm{x_i} + ( \overline{x^2} -\overline{x} x_j ) \Bigr\}^2$
$\displaystyle = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{j=i}^n \Bigl\{ ( \bm{x_i}-\overline{x} ) x_j + ( \overline{x^2} - \overline{x} \bm{x_i} ) \Bigr\}^2$
$\displaystyle = \frac{\sigma_y^2}{n \Delta^2} \Bigl\{ \overline{x^2} ( \bm{x_i}-\overline{x} )^2 + 2 \overline{x} (\bm{x_i} - \overline{x})(\overline{x^2} -\overline{x} \bm{x_i}) + ( \overline{x^2} - \overline{x} \bm{x_i} )^2 \Bigr\}$
$\displaystyle = \frac{\sigma_y^2}{n \Delta^2} \Bigl\{ \bm{x_i}^2 ( \overline{x^2} - \overline{x}^2) + 2 \bm{x_i} (\overline{x}^3 - \overline{x^2} \overline{x}) + ( \overline{x^2}^2 - \overline{x^2} \overline{x}^2 ) \Bigr\}$
$\displaystyle = \frac{\sigma_y^2}{n \Delta} \Bigl\{ \bm{x_i}^2 - 2 \bm{x_i} \overline{x} + \overline{x^2} \Bigr\}$
添え字 $i$について平均すると,$\displaystyle \frac{1}{n}\sum_{i=1}^n \tilde{\sigma^2}_{y(x_i)} =\frac{\sigma_y^2}{n \Delta}\Bigl\{ \overline{x^2} - 2 \overline{x} \overline{x} + \overline{x^2} \Bigr\} = \frac{2 \sigma_y^2}{n}$
そこで,
$\displaystyle \sigma_y^2 =\frac{1}{n}\sum_{i=1}^n \Bigl\{ \delta_i^2 + \tilde{\varepsilon_i}^2 \Bigr\} = \frac{1}{n}\sum_{i=i}^n \delta_i^2 + \tilde{\sigma^2}_{y(x_i)} = \frac{1}{n} \sum_{i=1}^n \delta_i^2 + \frac{2 \sigma_y^2}{n}$
$\displaystyle \therefore \sigma_y^2 = \frac{1}{n-2}\sum_{i=1}^n \delta_i^2 = \frac{1}{n-2}\sum_{i=1}^n (y_i - a x_i -b )^2$
2023年7月24日月曜日
最小二乗法(4)
最小二乗法(3)からの続き
$(a,\ b)$ に対する平均二乗誤差,$(\sigma_a^2,\ \sigma_b^2)$を考える。$(a,\ b)$ は直接測定された$(x, \ y)$の関数であるが,このうち$x_i$の誤差は非常に小さく,$y_i$の誤差だけが$n$個の独立変数として伝搬して$(a,\ b)$ に反映すると仮定する。ただし,各$y_i$自身の平均二乗誤差は共通でありこれを$\sigma_y^2$とおく。
誤差伝播の法則より,
$\displaystyle \sigma_a^2= \sum_{i=1}^n \Bigl( \frac{\partial a}{\partial y_i}\Bigr) ^2 \sigma_y^2 = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{i=1}^n \Bigl( x_i-\overline{x} \Bigr) ^2 = \frac{\sigma_y^2}{n \Delta^2} \Bigl( \overline{x^2}-\overline{x}^2 \Bigr) = \frac{\sigma_y^2}{n \Delta} $
$\displaystyle \sigma_b^2= \sum_{i=1}^n \Bigl( \frac{\partial b}{\partial y_i}\Bigr) ^2 \sigma_y^2 = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{i=1}^n \Bigl( \overline{x^2}-\overline{x}x_i \Bigr) ^2 = \frac{\sigma_y^2 \ \overline{x^2}}{n \Delta^2} \Bigl( \overline{x^2}-\overline{x}^2 \Bigr) = \frac{ \sigma_y^2 \ \overline{x^2}}{n \Delta}$
残るは,$\displaystyle \sigma_y^2 = \frac{1}{n} \sum_{i=1}^n (\varepsilon_i)^2\ $を実験値から導くことになる。ここで,$ \varepsilon_i = y_i-(a_0 x_i + b_0) = y_i - (a x_i + b) + (a x_i + b) -(a_0 x_i + b_0) = \delta_i + \tilde{\varepsilon_i}$ である。
ただし,$a_0 x_i + b_0$が未知の真値,$a x_i + b$が平均値に対応し,$ \delta_i$が残差, $\tilde{\varepsilon_i}$が平均値の誤差に相当する。
$\displaystyle \therefore \sigma_y^2 =\frac{1}{n}\sum_{i=i}^n \Bigl\{ \delta_i^2 + \tilde{\varepsilon_i}^2 \Bigr\}$ ここで,$\displaystyle \frac{2}{n} \sum_{i=1}^n \delta_i \tilde{\varepsilon}_i =0$ である。なぜならば$\tilde{\varepsilon}_i$は$x_i$の一次関数であり,正規方程式より, $\sum_{i=1}^n \delta_i = 0$ と $\sum_{i=1}^n \delta_i x_i=0$ が成り立つから。
そこで,$y(x_i)=a x_i+b$として,$\displaystyle \tilde{\sigma^2}_{y(x_i)} = \frac{1}{n}\sum_{i=i}^n \tilde{\varepsilon_i}^2 = \frac{1}{n}\sum_{i=i}^n \Bigl\{ a x_i + b - a_0 x_i - b_0 \Bigr\}^2$を求めることになるが,ここで,$(a, b)$が $y_i$の関数として誤差伝搬の法則を再度使って,$\sigma_y^2$で表せばよい(と吉澤康和さんの「新しい誤差論(1989)」に書いてあった)。
2023年7月23日日曜日
最小二乗法(3)
最小二乗法(2)からの続き
物理量 $x$を設定したとき,$y$が測定される。$n$回測定では,$(x_1,\ y_1),\ (x_2,\ y_2),\ \cdots (x_n,\ y_n)$ が得られたとする。2つの物理量の間には,$y\ =\ a x + b$という1次関数の関係があって,$(a,\ b)$にも物理量としての意味がある。
この$(a, \ b)$を求めるため,$\displaystyle S(a,b)=\frac{1}{n}\sum_{i=1}^n (y_i-a x_i -b)^2$を最小化するという条件を課す。すなわち,$\frac{\partial S}{\partial a}=0, \frac{\partial S}{\partial b}=0, $これから次の$(a,\ b)$に関する連立方程式(正規方程式)が得られる。
$\displaystyle \frac{1}{n} \sum_{i=1}^n x_i \bigl( y_i - a x_i - b \bigr) = 0 \rightarrow \quad a \overline{x^2} + b \overline{x} = \overline{xy} $
$\displaystyle \frac{1}{n} \sum_{i=1}^n \bigl( y_i - a x_i - b \bigr) = 0 \quad \rightarrow \quad a \overline{x} + b = \overline{y} $
これを解くと次の解が得られる。ただし,$\Delta = \overline{x^2} - (\overline{x})^2$ である。
$a=\frac{1}{\Delta}\bigl(\overline{xy}-\overline{x} \cdot \overline{y} \bigr)$
$b=\frac{1}{\Delta}\bigl( (\overline{x^2}\cdot \overline{y}-\overline{x} \cdot \overline{xy} \bigr)$
登録:
投稿 (Atom)