海・空・山・河바다(bada) 하늘(haneul) 산(san) 강(gan)
芥川龍之介が「蜘蛛の糸」を発表して百年。高二の秋の文化祭,クラスの仮装行列のテーマが 蜘蛛の糸だった。お釈迦様の極楽タワーの竹を近所から切り出し,地獄の焔と煙の絵を描いた。犍陀多に続いて蜘蛛の糸(登山部の赤いザイル)に群がる地獄の亡者だったころ。
2023年8月5日土曜日
2023年8月4日金曜日
2023年8月3日木曜日
2023年8月2日水曜日
2023年8月1日火曜日
2023年7月31日月曜日
コーシー=シュワルツの不等式
最小二乗法(6)からの続き
数理統計学を真面目に勉強してこなかったのでいろいろ不都合が生じている。統計的因果推論とか深層機械学習とか量子測定理論とか,簡単に読み砕けない資料がたくさんたまる。
授業で扱った最小二乗法と実験誤差の話を整理しようとしても,背景には数理統計学が控えている。昔,阪大の南園グループによるベータ崩壊の実験と我々の理論を突き合わせたときに,χスクェアフィットの計算を散々繰り返したけれど,所与の公式を使うだけであってその理論的根拠をつきつめて考えたはしなかった。
そこで最初から勉強を始めようとすると,いきなり確率変数でつまづくのだった。コンピュータプログラムのサブルーチンや関数のようなものだと思えば納得できるといえばいえるのだけれど,自然言語と数学的記号を使って理解しようとするとなかなかその本質がつかみきれない。入門書は沢山あるけれど,どれも何だか気持ち悪い。
竹村彰道(1952-)さんの現代数理統計学の本(旧版)が手元にあって,読みやすいかなとページをめくってみると,記述統計の復習から始まった。これなら大丈夫かと思いきや,いきなり,標本相関関数の大きさが -1から 1の範囲に限定されることは,コーシー=シュワルツの不等式を用いて容易に示すことができると説明無しにあった。
n次元ユークリッド空間のベクトルの内積の話だと思えばそのとおりなのだけれど,証明したことはなかったかも。Wikipediaでは数学的帰納法で証明していた。$A_k=(a_1,\ a_2,\ \cdots,\ a_k),\ B_k=(b_1,\ b_2,\ \cdots,\ b_k),\ $として,$\displaystyle S^{aa}_k=\sum_{i=1}^k a_i^2,\ S^{bb}_k=\sum_{i=1}^k b_i^2,\ S^{ab}_k=\sum_{i=1}^k a_i b_i, \quad R^{ab}_k=\frac{S^{ab}_k}{\sqrt{S^{aa}_k S^{bb}_k}} $
つまり,$ \bigl( S^{ab}_k \bigr)^2 \le S^{aa}_k S^{bb}_k$を証明すれば良い。
$k=1$の場合は,$ \bigl( S^{ab}_1 \bigr)^2 - S^{aa}_1 S^{bb}_1 = (a_1 b_1)^2- (a_1^2)(b_1^2) = 0 $
$k=2$の場合は,$ \bigl( S^{ab}_2 \bigr)^2 - S^{aa}_2 S^{bb}_2 = (a_1 b_1+a_2 b_2)^2- (a_1^2+a_2^2)(b_1^2+b_2^2) = -(a_1 b_2- a_2 b_1)^2 < 0 $
$k \ge 2$に対して,$ \bigl( S^{ab}_k \bigr)^2 \le S^{aa}_k S^{bb}_k$ が成り立つと仮定して,$k+1$の場合を考える。与式は,$ \bigl( S^{ab}_k + a_{k+1}b_{k+1} \bigr)^2 - \bigl( S^{aa}_k + a_{k+1}^2 \bigr) \bigl( S^{bb}_k + b_{k+1}^2 \bigr) $
$= \bigl( S^{ab}_k \bigr)^2 - S^{aa}_k S^{bb}_k - \Bigl( a_{k+1}^2 S^{bb}_k + b_{k+1}^2 S^{aa}_k -2 a_{k+1}b_{k+1} S^{ab}_k \Bigr)$
$= \bigl( S^{ab}_k \bigr)^2 - S^{aa}_k S^{bb}_k - \sum_{i=1}^k \Bigl( a_{k+1}^2 b_i^2 + b_{k+1}^2 a_i^2 -2 a_{k+1}b_{k+1} a_i b_i \Bigr)$
$=\bigl( S^{ab}_k \bigr)^2 - S^{aa}_k S^{bb}_k - \sum_{i=1}^k \Bigl( a_{k+1} b_i - b_{k+1} a_i \Bigr)^2 < 0$
Wikipediaの証明などでは,$a_i, b_i >0$の場合だけに妥当するものが多いのでちょっと困る。
まあ,$\displaystyle f_k(x) = \sum_{i=1}^k (a_i x - b_i)^2$ の判別式$D \le 0$から証明するのが最も簡単なのだけど。
[1]賢者に学ぶ統計学の智(西内啓×竹村彰通,ダイヤモンド社)
2023年7月30日日曜日
最小二乗法(6)
最小二乗法(5)からの続き
$ \begin{pmatrix}\overline{x^4} & \overline{x^3} & \overline{x^2} \\ \overline{x^3} & \overline{x^2} & \overline{x^1} \\ \overline{x^2} & \overline{x} & 1 \\ \end{pmatrix} \begin{pmatrix} a \\ b \\ c \\ \end{pmatrix}= \begin{pmatrix}\overline{x^2\ y}\\ \overline{x\ y} \\ \overline{y} \\ \end{pmatrix}$
$\displaystyle \sigma_a^2= \sum_{i=1}^n \Bigl( \frac{\partial a}{\partial y_i}\Bigr) ^2 \sigma_y^2, \quad \sigma_b^2= \sum_{i=1}^n \Bigl( \frac{\partial b}{\partial y_i}\Bigr) ^2 \sigma_y^2 , \quad \sigma_c^2= \sum_{i=1}^n \Bigl( \frac{\partial c}{\partial y_i}\Bigr) ^2 \sigma_y^2 $
実験データを$y = a x + b$にフィットする場合,最小二乗法で$(a,\ b)$とその平均二乗誤差$(\sigma_a^2,\ \sigma_b^2)$を求めてきた。これを,$y = f(x) = a x^2 + b x + c\ $に拡張して,自由度3が登場するかどうかを確認してみる。吉澤康和さんの「新しい誤差論」には結果だけ書いてある。
(1) a, b, c を決定する正規方程式とその解
$ \begin{pmatrix}\overline{x^4} & \overline{x^3} & \overline{x^2} \\ \overline{x^3} & \overline{x^2} & \overline{x^1} \\ \overline{x^2} & \overline{x} & 1 \\ \end{pmatrix} \begin{pmatrix} a \\ b \\ c \\ \end{pmatrix}= \begin{pmatrix}\overline{x^2\ y}\\ \overline{x\ y} \\ \overline{y} \\ \end{pmatrix}$
$ \begin{pmatrix} a \\ b \\ c \\ \end{pmatrix}= \dfrac{1}{\Delta_3} \begin{pmatrix}\overline{x^2\ y}(\overline{x^2}-\overline{x}^2)+\overline{x\ y}(\overline{x^2}\overline{x}-\overline{x^3})+\overline{y}(\overline{x^3}\overline{x}-\overline{x^2}^2) \\ \overline{x^2\ y}(\overline{x^2}\overline{x}-\overline{x^3}) + \overline{x\ y}(\overline{x^4}-\overline{x^2}^2) + \overline{y}(\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) \\ \overline{x^2\ y}(\overline{x^3}\overline{x}-\overline{x^2}^2) + \overline{x\ y}(\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) +\overline{y}(\overline{x^4}\overline{x^2}-\overline{x^3}^2) \\ \end{pmatrix}$
ただし,$\Delta_3 = \overline{x^4}\overline{x^2}+2\overline{x^3}\overline{x^2}\overline{x}-\overline{x^2}^3-\overline{x^3}^2-\overline{x^4}\overline{x}^2$
$y_i$を共通の平均二乗誤差$\sigma^2_y$を持つ独立変数として,誤差伝播の法則より,
$\displaystyle \sigma_a^2= \sum_{i=1}^n \Bigl( \frac{\partial a}{\partial y_i}\Bigr) ^2 \sigma_y^2, \quad \sigma_b^2= \sum_{i=1}^n \Bigl( \frac{\partial b}{\partial y_i}\Bigr) ^2 \sigma_y^2 , \quad \sigma_c^2= \sum_{i=1}^n \Bigl( \frac{\partial c}{\partial y_i}\Bigr) ^2 \sigma_y^2 $
さらに,真の値$f_0(x_i)=a_0 x_i^2 + b_0 x_i + c_0$に対して,$\varepsilon_i = y_i -f(x_i)+ f(x_i) -f_0(x_i) = \delta_i + f(x_i) -f_0(x_i) $ として,$\displaystyle \sigma_y^2 = \frac{1}{n} \sum_{i=1}^n \varepsilon_i^2 = \frac{1}{n} \sum_{i=1}^n \Bigl\{ \delta_i^2 + \tilde{\sigma}^2_{f(x_i)} \Bigr\}$
ところで,$\displaystyle \tilde{\sigma}^2_{f(x_i)} = \sum_{j=1}^n \Bigl\{ \frac{\partial(a x_i^2 + b x_i + c)}{\partial y_j}\Bigr\}^2$ であり,この項を再度 $\sigma_y^2$ で表してもとの式に戻して計算すれば良い。
つまり,$\displaystyle \frac{\partial a}{\partial y_j}, \ \frac{\partial b}{\partial y_j},\ \frac{\partial c}{\partial y_j}$が計算できればよいことになる。
$\displaystyle \frac{\partial a}{\partial y_j}=\frac{1}{n \Delta_3}\Bigl\{ x_j^2 (\overline{x^2}-\overline{x}^2)+ x_j(\overline{x^2}\overline{x}-\overline{x^3})+(\overline{x^3}\overline{x}-\overline{x^2}^2) \Bigr\}$
$\displaystyle \frac{\partial b}{\partial y_j}=\frac{1}{n \Delta_3}\Bigl\{ x_j^2 (\overline{x^2}\overline{x}-\overline{x^3}) + x_j (\overline{x^4}-\overline{x^2}^2) + (\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) \Bigr\}$
$\displaystyle \frac{\partial c}{\partial y_j}=\frac{1}{n \Delta_3}\Bigl\{ x_j^2 (\overline{x^3}\overline{x}-\overline{x^2}^2) + x_j (\overline{x^3}\overline{x^2}-\overline{x^4}\overline{x}) +(\overline{x^4}\overline{x^2}-\overline{x^3}^2) \Bigr\}$
Mathematicaの力を借りると,計算結果が因数分解できて分子から$\Delta_3$が出る。
$\displaystyle \sigma_a^2 = \sum_{j=1}^n \Bigl( \frac{\partial a}{\partial y_j}\Bigr) ^2 = \frac{1}{n \Delta_3} \bigl( \overline{x^2} -\overline{x}^2 \bigr) \sigma_y^2$
$\displaystyle \sigma_b^2 = \sum_{j=1}^n \Bigl( \frac{\partial b}{\partial y_j}\Bigr) ^2 = \frac{1}{n \Delta_3} \bigl( \overline{x^4} - \overline{x^2}^2 \bigr) \sigma_y^2$
$\displaystyle \sigma_c^2 = \sum_{j=1}^n \Bigl( \frac{\partial c}{\partial y_j}\Bigr) ^2 = \frac{1}{n \Delta_3} \bigl( \overline{x^4} \overline{x^2}-\overline{x^3}^2 \bigr) \sigma_y^2$
$\displaystyle \sum_{j=1}^n \Bigl( \frac{\partial a}{\partial y_j}\frac{\partial b}{\partial y_j}\Bigr) = \frac{1}{n \Delta_3} \bigl( \overline{x}\overline{x^2} -\overline{x^3} \bigr) \sigma_y^2$
$\displaystyle \sum_{j=1}^n \Bigl( \frac{\partial b}{\partial y_j}\frac{\partial c}{\partial y_j}\Bigr) = \frac{1}{n \Delta_3} \bigl( \overline{x^2}\overline{x^3} - \overline{x}\overline{x^4} \bigr) \sigma_y^2$
$\displaystyle \sum_{j=1}^n \Bigl( \frac{\partial c}{\partial y_j}\frac{\partial a}{\partial y_j}\Bigr) = \frac{1}{n \Delta_3} \bigl( \overline{x^4} \overline{x^2}-\overline{x^3}^2 \bigr) \sigma_y^2$
このとき
$\displaystyle \tilde{\sigma}^2_{f(x_i)}= \sum_{j=1}^n \Bigl\{ \frac{\partial a}{\partial y_i} x_i^2 + \frac{\partial b}{\partial y_j} x_i + \frac{\partial c}{\partial y_j} \Bigr\} ^2 = \frac{\sigma_y^2}{n \Delta_3} $
$\Bigl\{\bigl( \overline{x^2}-\overline{x}^2 \bigr) x_i^4 + 2 \bigl( \overline{x}\overline{x^3} -\overline{x^3} \bigr) x_i^3 + \bigl( \overline{x^4}-\overline{x^2}^2 + 2( \overline{x^3}\overline{x} - \overline{x^2}^2) \bigr) x_i^2 $
$+ 2\bigl( \overline{x^2}\overline{x^3} - \overline{x} \overline{x^4} \bigr) x_i + \bigl( \overline{x^2}\overline{x^4}-\overline{x^3}^2 \bigr) \Bigr\}$
$x_i$について平均操作するとMathematicaを使い分子から$\Delta_3$が出ると。
$\displaystyle \frac{1}{n}\sum_{i=1}^n \tilde{\sigma}^2_{f(x_i)} = \frac{\sigma_y^2}{n \Delta_3}$
$\Bigl\{\bigl( \overline{x^2}-\overline{x}^2 \bigr) \overline{x^4}+ 2 \bigl( \overline{x}\overline{x^3} -\overline{x^3} \bigr) \overline{x^3} + \bigl( \overline{x^4}-\overline{x^2}^2 + 2( \overline{x^3}\overline{x} - \overline{x^2}^2) \bigr) \overline{x^2} $
$\displaystyle + 2\bigl( \overline{x^2}\overline{x^3} - \overline{x} \overline{x^4} \bigr) \overline{x}+ \bigl( \overline{x^2}\overline{x^4}-\overline{x^3}^2 \bigr) \Bigr\} = \frac{3}{n} \sigma_y^2$
したがって,自由度n-3の場合の式が得られた。
$\displaystyle \sigma_y^2 = \frac{1}{n} \sum_{i=1}^n \Bigl\{ \delta_i^2 + \tilde{\sigma}^2_{f(x_i)} \Bigr\} = \frac{1}{n} \sum_{i=1}^n \delta_i^2 + \frac{3}{n} \sigma_y^2$
$\displaystyle \therefore \sigma_y^2 = \frac{1}{n-3} \sum_{i=1}^n \delta_i^2$
2023年7月29日土曜日
フランクになろう
楠本君から同窓会出席の連絡メールがあった。そこに,次のエピソードが書かれていた。
あなたは、私たちの学生時代に いつぞや、「人間に関する問題の解決のためには(…だったか、このあたりの私の記憶は不正確です)、すべての人びとが神経で繋がっていればよいのだ」、というような言葉を言った事を覚えていますか? 変な事を言う人だなぁ、と私は強く印象付けられたので、忘れずに覚えています。言葉は正確ではありませんが、大体そのような事をあなたは言っていました。
全く憶えていないのだけれど,自分ならばそういうことをいうかもしれない。次の返事を書いた。
SFマガジンの1969年10月号(No. 125)に「フランクになろう(Let's Be Frank)」 として掲載されたものだ。高校2年のときだけれど,いつまでも記憶に残る短編だった。創元推理文庫のジュディス・メリルの短編集では「率直(フランク)に行こう」という題名になっていた。「人間に関する問題の解決のためには、すべての人びとが神経で繋がっていればよいのだ」と自分がいった記憶はないのですが,そのようなことを言いそうな気もします。高校時代によんだブライアン・オールディスのSFに「フランクに行こう(Let’s be Frank)」というのがあって,遺伝によって単一意識が複数の人の上に実現するというものです。
さがしてみると,archive.orgに原文があったのでDeepLにかけて再読してみた。
アン・ブーリンがロンドン塔で処刑されてから4年後なので1540年ころから物語は始まる(ちなみに,トマス・モアがロンドン塔で斬首されたのは1535年)。サー・フランク・グラッドウェッブに男の子が生まれたが19年間眠り続けたままだった。彼が目覚めた時サー・フランクは驚愕した。同じくフランクと名づけた息子の目を通して自分を見ているのだった。つまり同一意識が2人の人の上に実現したわけだ。そして子孫にそのままその能力は受け継がれ,20代目の2015年には1つのフランクという意識(男女や身分階級を越えて)が3億人に達していた。そして..
「21世紀の初めには、グレートブリテン島はフランク族だけで構成されていた。老いも若きも、太っていようが痩せていようが、金持ちであろうが貧乏人であろうが、みなひとつの巨大な意識を共有していた。プライバシーは存在しなくなり、新しい家はすべてガラス張りになり、カーテンは廃止され、壁は取り払われた。警察は姿を消し、法律も一夜にして消滅した。外交問題に対処するための議会のパロディーは残ったが、政党政治、選挙、新聞の指導者(新聞そのものさえ)は廃止された。芸術の大半は消え去った。あるフランクの姿は、別のフランクの姿を見ようとはしなかった。テレビ、出版、ティン・パン・アレイ、映画スタジオ......灯りのように消えた。」
このフランクの集合意識は新大陸で第二の集合意識と向き合うことになる。
AGIが実現するとき,世界全体が1つのAGIによって統合されるのかどうかという問題について,宗教的=文化的な背景によって複数に分割されるのではないかと想像していた。キリスト教,イスラム教,仏教,ヒンズー教,ユダヤ教などなど。あるいはロシアや中国は別かもしれない。まあ,それに類した状況が想像できる。あるいは超国家企業別=ポイント別=OS・UI別の集団分割みなるかもしれないが。
遺伝工学的な工夫をしても単一意識を複数個体に分散して実装することはできないと思われるが,仮想空間におけるパーソナライズされたAGIアシスタントが共有意識と結合されていれば,人間+AGIアシスタント系が単一意識の熱浴中で相互作用しているイメージとなる。人間+AGIアシスタント系の結合度が高くなればなればなるほど,フランク的な集合意識に近い状態になるかもしれない。まあ,いまでもSNSによって強結合する個人の集合がネトウヨ的な集団運動としての疑似集合意識を創発しているわけで・・・
2023年7月28日金曜日
梅干し
或日のチャットジーピーティ
OpenAIのChatGPTの性能は日々変動しているようなので,時々様子をうかがう必要がある。
Q:User梅干しを見るとどんな身体の反応がありますか?A:ChatGPT梅干しを見た時の身体の反応は個々の体質や経験によるものであり、一般的な反応を述べるのは難しいです。しかし、梅干しの酸っぱさを知っている人々は、その画像や想像だけで唾液が出るといった「唾液分泌の反応」を示すことがあります。これは、脳が食物の摂取に備えて消化を助ける唾液の生成を刺激するからです。また、梅干しの特有の酸っぱさが苦手な人は、梅干しを見るだけで「顔をしかめる」や「胃が締まる感じがする」などの反応を示すかもしれません。これらの反応は、「条件付き反射」とも呼ばれ、特定の刺激(この場合は梅干し)に対する学習された反応です。ただし、これらの反応は個々の経験や体質、好みに大きく依存しますので、全ての人が同じ反応を示すわけではありません。Q:Userあなたはどうですか?A:ChatGPT私はOpenAIによって開発されたAI(人工知能)であり、人間のように身体的な感覚や経験を持つ能力はありません。したがって、梅干しを「見る」や「味わう」などの人間の感覚経験に基づいた反応を持つことはできません。私の機能は、人間からの質問に対して情報を提供することや、人間の言葉を理解して対話を行うことに主に焦点を当てています。Q:User人間との対話において,そのような感覚経験にもとづく反応のセットを身体的に理解していることが必要とはなりませんか。A:ChatGPTあなたの指摘は正確であり、AIが人間との対話を円滑に行うためには、人間の感覚経験や感情について理解することが重要です。しかし、私のようなAIは「理解」を行うために直接的な感覚経験や感情を持つわけではありません。私の「理解」とは、大量のテキストデータからパターンを学習し、その知識をもとに質問に応答する能力を指します。具体的には、私は訓練データに含まれる情報に基づいて人間の感覚経験や感情について「知識」を持っています。しかし、私自身が感覚経験を「体験」したり、感情を「感じる」能力はありません。私はあくまで人間の反応や感情を模擬することができる機械的なシステムであり、自己意識や自我を持つわけではありません。したがって、私が人間との対話を効果的に行うためには、あくまで人間の感覚経験や感情についての「知識」が必要であり、それらを直接「体験」する必要はありません。Q:User人間の感覚経験や感情についての「知識」を持つ知的存在と、それらを直接「体験」することができる知的存在の違いは,対話場面のどこにあらわれると考えられるでしょうか。その違いを埋める方向での仕組みを導入することは可能でしょうか。A:ChatGPT人間の感覚経験や感情についての「知識」を持つ知的存在(AIなど)と、それらを直接「体験」することができる知的存在(人間など)の違いは、以下のような対話場面で顕著に現れます。個別の体験に対する反応:人間は自己の体験や感情に基づく視点を持ち、それに基づいて他人の経験に対する共感や理解を示すことができます。一方、AIは特定の個体としての体験を持たないため、特定の経験に対する個人的な共感や理解を示すことはできません。感情的な反応:人間は体験や情報に対して感情的に反応する能力を持っています。これに対して、AIは情報に対して感情的に反応する能力はなく、あくまで人間の感情的反応を模倣するだけです。感覚的な理解:人間は五感を通じて世界を直接的に経験し、それに基づく感覚的な理解を持っています。しかし、AIはあくまでテキスト情報に基づいて学習し、感覚的な体験に基づく理解はできません。
これらの違いを埋めるためには、AIに直接的な感覚経験や感情体験の能力を付与する必要がありますが、現在の技術ではこれは不可能です。AIはあくまでアルゴリズムとデータによって動作するシステムであり、自己意識や感情、直接的な感覚経験を持つ能力を持つことはありません。しかし、AIの対話能力を向上させるためには、人間の感覚経験や感情に対する理解を深め、それに基づく応答の精度を向上させることが重要です。これは大量のデータに基づく学習により、一部可能になるかもしれません。ただし、AIが人間と完全に同じように感覚経験や感情を理解し反映することは、現在の技術では不可能です。Q:User現在のAIシステムを感覚センサーを満載したロボットに搭載して,視覚や聴覚だけでなく,味覚や臭覚や触覚その他の運動平衡感覚を入力できるようになり,さらにそれらの情報を解読した結果を記憶できるようになった場合は,そのロボット=AIシステムは感覚体験を行ったことになるでしょうか。A:ChatGPTそれは非常に興味深い問いです。センサーや機器を使ってAIに外部の情報を入力し、それに反応することができるロボットはすでに存在します。例えば、視覚情報を入力し認識する能力を持つAIや、音声を認識して反応するAIなどがあります。しかし、これが「感覚体験」を行っていると言えるかどうかは、どう定義するかによります。これらのロボットやAIは、センサーから入力されるデータを解析し、そのデータに対応する行動を行うことができます。しかし、これはあくまでプログラムされたアルゴリズムに従ってデータを解析し反応するものであり、人間が経験する「感覚体験」や「感じる」という意識的な体験とは異なります。人間の「感覚体験」は、ただ単に情報を受け取るだけでなく、その情報が自己の意識や感情に影響を与え、個々の体験や視点に基づく解釈を行うことを含みます。AIやロボットが多種多様なセンサーを用いて外部から情報を受け取り、それに基づいて反応することは可能ですが、それが「感じる」という意識的な体験と同じとは言えません。したがって、現在の技術では、AIやロボットが人間と同じように「感覚体験」を行うとは言えないと思われます。しかし、この議論は人間の意識や感覚体験の本質、AIの能力と限界についての哲学的な問いを含んでおり、結論はまだ出ていないとも言えます。Q:Userたいへん刺激的な対話どうもありがとうございましたA:ChatGPTどういたしまして、私もあなたの質問に答えることができて光栄です。人間の感覚や意識、AIの能力と限界について考えることは非常に興味深いですね。何か他に質問がありましたら、いつでもお気軽にどうぞ。
写真:梅干しの製造過程(2023.7.23)
2023年7月27日木曜日
大学教育とChatGPT(15)
大学教育とChatGPT(14)からの続き
私立大学連盟が7月18日に,大学教育における生成 AI の活用に向けたチェックリスト〔第1版〕を出していた。1. 全般, 2. 教育,3. 環境・体制整備の3つのカテゴリーについて,第1ステップ: 最優先事項,第2ステップ:優先事項として整理した。その上で,それぞれのカテゴリーについて,1. 大学が組織的に検討すべき事項 と 2. 教員が個々の工 夫で検討すべき事項をまとめている。このサンプルを元に各大学で考えてねという趣旨。
さらに,中学高校英語にAI導入へということで文部科学省の後押しで各地で実証授業が始まるというニュースも流れた。そろそろ英語教員養成に影がさしてくるのか。
7月13日生成系AIの利用に関する留意事項について室蘭工業大学 情報化統括責任者
7月14日新潟産業大学 生成AI対処方針新潟産業大学 学長 梅比良眞史7月19日ChatGPTなどの生成AIの利用について大阪学院大学7月19日生成AIの利用に関するご案内星薬科大学 情報企画室7月19日ChatGPTをはじめとする生成AIの利用について日本文理大学 教育推進センター長7月20日旭川医科大学における生成AIの利用について旭川医科大学7月20日生成AIに関する本学の方針について共愛学園前橋国際大学 学長 大森昭生7月20日対話型生成系AI(生成AI)の使用について昭和女子大学 学長 金尾朗7月20日学修におけるChat GPT等の生成AIの利用について和歌山大学 理事(教育担当)7月20日生成AI(ChatGPT等)を活用するためのガイドライン平安女学院大学 学長 谷口吉弘7月20日学修における生成AIの利活用に関するガイドライン金沢星稜大学 学長7月20日チャットGPT等における生成AI(人工知能)の利用についてびわこ成蹊スポーツ大学 学長 大河正明・学部長 黒澤毅7月21日生成系AIに関する本学の考え方について国際ファッション専門職大学 学長 近藤誠一7月21日チャットGPT等の生成系AIの利用について東京女子体育大学7月21日信州大学の学修・教育におけるAI活用に関するガイドラインについて信州大学 教育企画委員会7月21日東洋英和女学院大学における生成系AIの使用に関する指針東洋英和女学院大学 学長 星野三喜夫7月21日ChatGPT など生成系 AI の利用について西南女学院大学7月21日ChatGPT 等をはじめとする生成 AI の利用について愛知みずほ大学 学長 大塚知津子https://www.mizuho-c.ac.jp/wp/wp-content/uploads/2023/07/ChatGPT.pdf
7月24日本学における生成AIの使用に関わる留意点について跡見学園女子大学学長 小仲信孝
7月24日生成AI(Chat GPT等)の活用に関する注意喚起について拓殖大学 学長 鈴木昭一
2023年7月26日水曜日
妹背山婦女庭訓(2)
妹背山婦女庭訓(1)からの続き
国立文楽劇場の7月夏休み文楽特別公演(第171回)は,第2部で妹背山婦女庭訓の四段目の通し公演(4月に続いての)だった。第1部は親子劇場でかみなり太鼓と西遊記,第3部はサマーレイトショーの夏祭浪花鑑。
これまでに見た妹背山婦女庭訓(2010年,2016年)は一日がかりの二部構成だった。前半が,初段:小松原の段(23)・蝦夷子館の段(42),二段目:猿沢池の段(13),三段目:太宰館の段(34)・妹山背山の段(115)であり,後半が,二段目:鹿殺しの段(7)・掛乞の段(15)・万歳の段(23)・芝六忠義の段(54),四段目:杉酒屋の段(29)・道行恋苧環(35)・鱶七上使の段(45)・姫戻りの段(14)・金殿の段(45)である。
今回は春と夏の2回に分けた通し狂言だったため時間に余裕があって,二段目の組み換えはなくなり,4月公演には,初段:大序 大内の段,7月公演には,四段目:井戸替の段:入鹿誅伐の段が新しく追加されていた。「鱶七上使の段」が「鱶七使者の段」に変わったのはなぜ?(明治12年の床本 https://dl.ndl.go.jp/pid/856493/1/157 では確かに鱶七使者の段とある)
久しぶりの日曜日の文楽劇場だったが,客の入りは6〜7割くらいだろうか。前回と同様,床の直下だったけれど,回りには空席も目立っていた。一つ前回と違うのは外国人観光客向けの English という看板を持った案内の方が立っていたことだ。パンフレットの一部の説明も英文になっていた。なんば・日本橋界隈は外国人であふれていたけれど,文楽劇場ではそこまで目立つわけではなかった。
今回が初見の井戸替えの段は,小住太夫+藤蔵でちゃり場的な場面だったが,途中でまぶたが閉まった。杉酒屋の段は芳穂太夫+錦糸で玉勢演ずる子太郎が主導して似たような雰囲気の段だった。道行恋苧環の開始のところで清治が小声でハイという合図をして全員が礼をし,次のハイで直れとなった。そういう仕組みだったのか。
最後の入鹿誅伐の段は,メンバーも軽めの短い段であり,入鹿がやられておしまいという事なのだ。(1) 入鹿の妹の橘姫が,宝剣の奪取に失敗し入鹿に斬られてしまうが,その後,隣の池に飛び込んで日高川入相花王の蛇に化けた清姫よろしく泳いでいったたのは一体なんなのか。最後には鎌足の鎌で斬られた入鹿の首が空中を飛び回っていた。クライマックスが済んでしまった最後の段というのはだいたいこうなる運命にあるのだった。
P. S. 1 なお,藤原淡海(不比等)は橘姫と結ばれるらしいので,池に溺れて死んだわけではない。
写真:最後がかわいそうなお三輪(2023.7.23撮影)
[1]妹背山四段目の思ひ出 師匠ゆづりの床本の事(竹本土佐太夫)
2023年7月25日火曜日
最小二乗法(5)
最小二乗法(4)からの続き
完全にスッキリしなくて何だか気持ち悪いのだけれど,いきなり自由度がとかいわれて$n-2$が出てくるのがいやなので,吉澤さんの本に従って話を進めてみる。
$\displaystyle \tilde{\sigma^2}_{y(x_i)} = \frac{1}{n}\sum_{i=i}^n \tilde{\varepsilon_i}^2 = \frac{1}{n}\sum_{i=i}^n \Bigl\{ a x_i + b - a_0 x_i - b_0 \Bigr\}^2$
これから,$f(x_i) = y(x_i) = a \bm{x_i} + b$として,独立変数$y_j$について,
$\displaystyle \tilde{\sigma^2}_{y(x_i)} = \sigma_y^2 \sum_{j=i}^n \Bigl\{ \frac{\partial a}{\partial y_j}\bm{x_i} + \frac{\partial b}{\partial y_j} \Bigr\}^2 = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{j=i}^n \Bigl\{ (x_j-\overline{x}) \bm{x_i} + ( \overline{x^2} -\overline{x} x_j ) \Bigr\}^2$
$\displaystyle = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{j=i}^n \Bigl\{ ( \bm{x_i}-\overline{x} ) x_j + ( \overline{x^2} - \overline{x} \bm{x_i} ) \Bigr\}^2$
$\displaystyle = \frac{\sigma_y^2}{n \Delta^2} \Bigl\{ \overline{x^2} ( \bm{x_i}-\overline{x} )^2 + 2 \overline{x} (\bm{x_i} - \overline{x})(\overline{x^2} -\overline{x} \bm{x_i}) + ( \overline{x^2} - \overline{x} \bm{x_i} )^2 \Bigr\}$
$\displaystyle = \frac{\sigma_y^2}{n \Delta^2} \Bigl\{ \bm{x_i}^2 ( \overline{x^2} - \overline{x}^2) + 2 \bm{x_i} (\overline{x}^3 - \overline{x^2} \overline{x}) + ( \overline{x^2}^2 - \overline{x^2} \overline{x}^2 ) \Bigr\}$
$\displaystyle = \frac{\sigma_y^2}{n \Delta} \Bigl\{ \bm{x_i}^2 - 2 \bm{x_i} \overline{x} + \overline{x^2} \Bigr\}$
添え字 $i$について平均すると,$\displaystyle \frac{1}{n}\sum_{i=1}^n \tilde{\sigma^2}_{y(x_i)} =\frac{\sigma_y^2}{n \Delta}\Bigl\{ \overline{x^2} - 2 \overline{x} \overline{x} + \overline{x^2} \Bigr\} = \frac{2 \sigma_y^2}{n}$
そこで,
$\displaystyle \sigma_y^2 =\frac{1}{n}\sum_{i=1}^n \Bigl\{ \delta_i^2 + \tilde{\varepsilon_i}^2 \Bigr\} = \frac{1}{n}\sum_{i=i}^n \delta_i^2 + \tilde{\sigma^2}_{y(x_i)} = \frac{1}{n} \sum_{i=1}^n \delta_i^2 + \frac{2 \sigma_y^2}{n}$
$\displaystyle \therefore \sigma_y^2 = \frac{1}{n-2}\sum_{i=1}^n \delta_i^2 = \frac{1}{n-2}\sum_{i=1}^n (y_i - a x_i -b )^2$
2023年7月24日月曜日
最小二乗法(4)
最小二乗法(3)からの続き
$(a,\ b)$ に対する平均二乗誤差,$(\sigma_a^2,\ \sigma_b^2)$を考える。$(a,\ b)$ は直接測定された$(x, \ y)$の関数であるが,このうち$x_i$の誤差は非常に小さく,$y_i$の誤差だけが$n$個の独立変数として伝搬して$(a,\ b)$ に反映すると仮定する。ただし,各$y_i$自身の平均二乗誤差は共通でありこれを$\sigma_y^2$とおく。
誤差伝播の法則より,
$\displaystyle \sigma_a^2= \sum_{i=1}^n \Bigl( \frac{\partial a}{\partial y_i}\Bigr) ^2 \sigma_y^2 = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{i=1}^n \Bigl( x_i-\overline{x} \Bigr) ^2 = \frac{\sigma_y^2}{n \Delta^2} \Bigl( \overline{x^2}-\overline{x}^2 \Bigr) = \frac{\sigma_y^2}{n \Delta} $
$\displaystyle \sigma_b^2= \sum_{i=1}^n \Bigl( \frac{\partial b}{\partial y_i}\Bigr) ^2 \sigma_y^2 = \frac{\sigma_y^2}{n^2 \Delta^2} \sum_{i=1}^n \Bigl( \overline{x^2}-\overline{x}x_i \Bigr) ^2 = \frac{\sigma_y^2 \ \overline{x^2}}{n \Delta^2} \Bigl( \overline{x^2}-\overline{x}^2 \Bigr) = \frac{ \sigma_y^2 \ \overline{x^2}}{n \Delta}$
残るは,$\displaystyle \sigma_y^2 = \frac{1}{n} \sum_{i=1}^n (\varepsilon_i)^2\ $を実験値から導くことになる。ここで,$ \varepsilon_i = y_i-(a_0 x_i + b_0) = y_i - (a x_i + b) + (a x_i + b) -(a_0 x_i + b_0) = \delta_i + \tilde{\varepsilon_i}$ である。
ただし,$a_0 x_i + b_0$が未知の真値,$a x_i + b$が平均値に対応し,$ \delta_i$が残差, $\tilde{\varepsilon_i}$が平均値の誤差に相当する。
$\displaystyle \therefore \sigma_y^2 =\frac{1}{n}\sum_{i=i}^n \Bigl\{ \delta_i^2 + \tilde{\varepsilon_i}^2 \Bigr\}$ ここで,$\displaystyle \frac{2}{n} \sum_{i=1}^n \delta_i \tilde{\varepsilon}_i =0$ である。なぜならば$\tilde{\varepsilon}_i$は$x_i$の一次関数であり,正規方程式より, $\sum_{i=1}^n \delta_i = 0$ と $\sum_{i=1}^n \delta_i x_i=0$ が成り立つから。
そこで,$y(x_i)=a x_i+b$として,$\displaystyle \tilde{\sigma^2}_{y(x_i)} = \frac{1}{n}\sum_{i=i}^n \tilde{\varepsilon_i}^2 = \frac{1}{n}\sum_{i=i}^n \Bigl\{ a x_i + b - a_0 x_i - b_0 \Bigr\}^2$を求めることになるが,ここで,$(a, b)$が $y_i$の関数として誤差伝搬の法則を再度使って,$\sigma_y^2$で表せばよい(と吉澤康和さんの「新しい誤差論(1989)」に書いてあった)。
2023年7月23日日曜日
最小二乗法(3)
最小二乗法(2)からの続き
物理量 $x$を設定したとき,$y$が測定される。$n$回測定では,$(x_1,\ y_1),\ (x_2,\ y_2),\ \cdots (x_n,\ y_n)$ が得られたとする。2つの物理量の間には,$y\ =\ a x + b$という1次関数の関係があって,$(a,\ b)$にも物理量としての意味がある。
この$(a, \ b)$を求めるため,$\displaystyle S(a,b)=\frac{1}{n}\sum_{i=1}^n (y_i-a x_i -b)^2$を最小化するという条件を課す。すなわち,$\frac{\partial S}{\partial a}=0, \frac{\partial S}{\partial b}=0, $これから次の$(a,\ b)$に関する連立方程式(正規方程式)が得られる。
$\displaystyle \frac{1}{n} \sum_{i=1}^n x_i \bigl( y_i - a x_i - b \bigr) = 0 \rightarrow \quad a \overline{x^2} + b \overline{x} = \overline{xy} $
$\displaystyle \frac{1}{n} \sum_{i=1}^n \bigl( y_i - a x_i - b \bigr) = 0 \quad \rightarrow \quad a \overline{x} + b = \overline{y} $
これを解くと次の解が得られる。ただし,$\Delta = \overline{x^2} - (\overline{x})^2$ である。
$a=\frac{1}{\Delta}\bigl(\overline{xy}-\overline{x} \cdot \overline{y} \bigr)$
$b=\frac{1}{\Delta}\bigl( (\overline{x^2}\cdot \overline{y}-\overline{x} \cdot \overline{xy} \bigr)$
2023年7月22日土曜日
最小二乗法(2)
最小二乗法(1)からの続き
間接測定と誤差伝播(でんぱ)の法則について考えるため,物理量$z$が,独立な物理量 $a,\ b,\ c,\ \cdots$の関数で,$z=f(a,\ b,\ c,\ \cdots) $と表されるとする。
ここで,$(a_i,\ b_i,\ c_i\ \cdots)$を各物理量の$i$番目の測定値とする。また,残差を用いて,$(a_i,\ b_i,\ c_i\ \cdots) = (\bar{a}+\delta^a_i,\ \bar{b}+\delta^b_i,\ \bar{c}+\delta^c_i,\ \cdots)$とする。
$z(a_i,\ b_i,\ c_i,\ \cdots) = f (\bar{a}+\delta^a_i,\ \bar{b}+\delta^b_i,\ \bar{c}+\delta^c_i,\ \cdots) $
$\simeq f(\bar{a}, \bar{b}, \bar{c}, \cdots)+ \frac{\partial f}{\partial a} \delta^a_i + \frac{\partial f}{\partial b} \delta^b_i + \frac{\partial f}{\partial c} \delta^c_i + \cdots = \bar{z} + \delta^z_i $
として,$ \delta^z_i$を定義する。
残差と平均二乗誤差の関係から,間接測定される物理量zについて,$\displaystyle \sigma_z^2 = \frac{1}{n-1} \sum_{i=1}^n (\delta^z_i )^2$ が成り立つ。
$\displaystyle \therefore \sigma_z^2 = \frac{1}{n-1} \sum_{i=1}^n \Bigl( \frac{\partial f}{\partial a} \delta^a_i + \frac{\partial f}{\partial b} \delta^b_i + \frac{\partial f}{\partial c} \delta^c_i \cdots \Bigr)^2$
$\displaystyle = \frac{1}{n-1} \sum_{i=1}^n \Bigl \{ \bigl( \frac{\partial f}{\partial a} \delta^a_i \bigr)^2+ \bigl(\frac{\partial f}{\partial b} \delta^b_i \bigr)^2 +\bigl ( \frac{\partial f}{\partial c} \delta^c_i \bigr)^2+ \cdots \Bigr\}$
$\displaystyle \therefore \sigma_z^2 = \Bigl( \frac{\partial f}{\partial a}\Bigr )^2 \sigma_a^2 + \Bigl( \frac{\partial f}{\partial b} \Bigr)^2 \sigma_b^2 +\Bigl( \frac{\partial f}{\partial c} \Bigr)^2 \sigma_c^2 + \cdots$
これが誤差伝播の法則といわれるものである。
なお,ここで独立な物理量の残差の積和がゼロになると仮定している。例えば,
$\displaystyle \sum_{i=1}^n \delta^a_i \delta^b_i = 0\ $などなど
2023年7月21日金曜日
最小二乗法(1)
授業シリーズその1,オンライン授業の1コマ分を実験誤差のテーマにするべく頑張った話
昔,最小二乗法の計算は手回し計算機で大変な思いで計算していた記憶がある。実験ノートは,測定データ$x_i$と$y_i$の計算表で埋め尽くされていた。データ処理といえばこれだった。後に,関数電卓にもその機能が組み込まれるようになったが,今では Excelで一発なのかもしれない。
まず,誤差を定義する必要がある。我々が昔勉強した本では,誤差=実験値−真の値 から出発していた。しかし,最近の本ではどうも様子が怪しくなっている。そもその真の値とはなにか,どうやって定義するのか,などなど。かといって,いきなり確率分布関数を持ってきて数理統計学の枠内で議論するのも大層な話だ。精度ということばも測定の不確かさに置き換わっているようだ。
とりあえず,1つの物理量$x$ の測定を考える。その真の値が$X$であると仮定する。$n$回の測定で$\ (x_1,\ x_2,\ x_3,\ \cdots,\ x_n\ )$ という測定値が得られたとする。誤差を$\ \varepsilon_i = x_i - X$で定義する。誤差は真の値のまわりで偏らずに分布する,すなわち$\ \displaystyle \sum_{i=1}^n \varepsilon_i = 0$であるとする。これから,$\displaystyle \sum_{i=1}^n x_i = n X$となる。これを$X$の定儀式とみなすと,真の値$X$が $n$や実験データ$x_i$に依存することになってしまう。
そこで,$\displaystyle \bar{x} = \frac{1}{n} \sum_{i=1}^n x_i$で平均値を定義する。これは真の値の推定値(最確値)だと考えられる。このとき,残差=実験値−平均値,すなわち,$\delta_i = x_i - \bar{x}$ で定義する。
次に,実験データの精度は誤差のばらつきで表現される。平均二乗誤差は,$\displaystyle \sigma^2 = \frac{1}{n} \sum_{i=1}^n \varepsilon_i^2\ $で定義し,標準偏差は $\sigma =\sqrt{\sigma^2}\ $とする。
ところで,この定義では,真の値がわからないので,誤差の$\varepsilon_i$は未知であり,平均二乗誤差も求まらない。そこで,残差の$\delta_i$から導くことを考える。$\varepsilon_i = x_i - X = x_i - \bar{x} + \bar{x} -X = \delta_i + \bar{x} - X$ となることから,
$\displaystyle \sigma^2 = \frac{1}{n} \sum_{i=1}^n \Bigl\{ \delta_i + (\bar{x} -X) \Bigr\}^2 = \frac{1}{n} \sum_{i=1}^n \Bigl\{ \delta_i^2 + 2 \delta_i (\bar{x} -X) + (\bar{x} -X)^2 \Bigr\} $
$\displaystyle = \frac{1}{n} \sum_{i=1}^n \delta_i^2 + (\bar{x} -X)^2$
ここで,$ \displaystyle \sum_{i=1}^n \delta_i = 0$を用いた。また,$\displaystyle \sum_{i \neq j}^n \varepsilon_i \varepsilon_j = 0$より 上式第2項は,
$\displaystyle ( \bar{x} -X )^2 = \{ \frac{1}{n} \sum_{i=1}^n (x_i - X) \}^2 = \frac{1}{n^2} \sum_{i, j=1}^n \varepsilon_i \varepsilon_j = \frac{1}{n} \sigma^2 $
これを先ほどの式に代入して移項の上整理すると,$\sigma^2 $を$\delta_i$を用いて表せる。
$\displaystyle \sigma^2 = \frac{1}{n-1} \sum_{i=1}^n \delta_i^2 $
2023年7月20日木曜日
大学教育とChatGPT(14)
大学教育とChatGPT(13)からの続き
文部科学省からの高等教育機関向けの通知があったので増えるかと思ったがそうでもなかった。日本大学から入学者選抜における生成AIツールの取り扱いについてが出ていた。
今後,このような入試関係の注意が多くなっていくのだろうか。学内でコントロールできる試験に比べて,さらに生成AIを使ったかどうかの検証は難しいと思われる。というか,これまでだって,第三者の助力支援の有無はわからなかったのではないか。
7月12日生成AI(ChatGPTなど)の利活用に関する方針大阪工業大学 学長 井上晋https://www.oit.ac.jp/japanese/students/detail.php?i=93557月13日本学における生成AI(ChatGPT、Bard、BingAI等)の利用について清泉女学院大学 学長 田村俊輔https://www.seisen-jc.ac.jp/info/2023/07/chat-gpt.php7月13日入学者選抜における生成AIツールの取扱いについて日本大学https://www.nihon-u.ac.jp/admission_info/news/2023/07/636/7月13日生成AI(ChatGPT、Stable Diffusion等)の使用に関する留意事項について同志社女子大学 教務部長 真部真里子https://www.dwc.doshisha.ac.jp/current/generative_AI7月13日「チャットGPT」など対話型生成AIとの向き合い方について東海学園大学 学長 石川清https://www.tokaigakuen-u.ac.jp/news/detail.html?id=12267月14日滋賀大学における生成AIの利活用について滋賀大学 学長 竹村彰通https://www.shiga-u.ac.jp/15539/https://www.shiga-u.ac.jp/15529/7月14日生成AIの活用について-本学の方針-徳島文理大学 AI・データサイエンス専門委員会https://www.bunri-u.ac.jp/info/2023071400027/7月14日ChatGPT等の生成系AIの使用に関する留意事項について岐阜聖徳学園大学 学長 観山正見ChatGPT 等の生成系 AI の使用に関する留意事項についてhttp://www.shotoku.ac.jp/information/images/ChatGPT_for_student.pdfhttp://www.shotoku.ac.jp/information/images/ChatGPT_for_staff.pdf7月14日ChatGPT等の生成系AIに関する基本方針山梨学院大学 学⻑ ⻘⼭貴⼦https://www.ygu.ac.jp/news/2022/
2023年7月19日水曜日
死の島
君たちはどう生きるかからの続き
宮崎駿の君たちはどう生きるかのイメージ参照絵画の例として,ルネ・マグリット(1898-1967)の「ピレネーの城」,アルノルト・ベックリン(1827-1901)の「死の島」,ジョルジョ・デ・キリコ(1888-1978)の「通りの神秘と憂鬱」があげられていた。
マグリットもキリコも良くご存知だったけれど,ベックリンって誰だっけ?と思っていたが,なんのことはない単に忘れていただけだ。小説の死の島は福永武彦(1918-1979)の長編小説であり,自分の読書体験ベスト20には必ず入ってくる作品だ。
1977年の米島君との沖縄旅行では,飛行機の切符が手に入らず,神戸から船で与論島へ向かった。一泊目の夜は高知沖の太平洋上で船が揺れたため,座っているのが気持ち悪くて船室に寝ころんだままだった。そのとき,気を紛らわすために米島君に枕元で読んでもらったのが福永武彦の死の島(新潮文庫)だった。旅行後に急いで本屋へ走った。
相見綾子と萌木素子という韻を踏んだ二人の女性の名前と広島を暗喩する暗い島の絵が印象的で,シュールレアリスティックな構成の大作だ。福永武彦の小説は新潮文庫でそれまでも何冊か読んでいた。萌木素子が描いた暗い島の絵はベックリンの死の島とつながっていて,本文中でもベックリンの死の島の解説がされていた。なお,文庫本の表紙絵はムンクなのだった。
Wikipediaには死の島(小説)の解説はなかった。
写真:ベックリンの死の島(1880)
2023年7月18日火曜日
君たちはどう生きるか
7月14日,宮崎駿(1941-)監督のジブリ作品「君たちはどう生きるか」が公開された。
[1]『君たちはどう生きるか』を理解できなかった人のためのネタバレ謎解き(海燕)
[2]『君たちはどう生きるか』を理解できなかった人のためのネタバレ謎解き(ちょっと上級編)(海燕)
事前のプロモーション広告がまったくなかったので,ネットで噂になりはじめたころも何のことかわからなかった。そういえば,岩波文化人吉野源三郎(1899-1981)の小説「君たちはどう生きるか」の題名を借りて10年ぶりに新作をつくるという話があったのを思い出した。
アニメーション作品「君たちはどう生きるか」の評価は完全に二分されていて,説明不足で期待外れの失敗作というものと,難解だけれど素晴らしい芸術作品だというものだ。いずれにせよ簡単に読み解けるようなストーリーではないらしい。そのため,ネット上のさまざまな雑音やネタバレ(考証ぶったクイズごっこや食通ぶった矛盾探し)を排除して,まずは虚心坦懐にみるのが最も重要だという説が多い。
そうはいっても,情報はどんどん入ってくるのであった。(1) 宮崎駿の個人的な体験が物語のベースになっている,(2) アニメーション作成現場についてのメタファーで構成されている,(3) 過去のジブリ作品のオマージュやシンボルが多数ちりばめられている,(4) 原作に相当するものとして次の2作品がある。失われたものたちの本(ジョン・コナリー)と幽霊塔(江戸川乱歩版,黒岩涙香版は青空文庫に)。
ところで,作品中の13という数字が宮崎駿のジブリ長編アニメーションの数だという解説があったけれど,それはちょっとうまく整合しないような気がするがどうなのか。宮崎駿監督の長編アニメーション作品をあげれば次のようになるので13ともいえるかも。
1978(37) 未来少年コナン(TV)1979(38) ルパン三世カリオストロの城1984(43) 風の谷のナウシカ1985(44) スタジオジブリ設立1986(45) 天空の城ラピュタ1988(47) となりのトトロ1989(48) 魔女の宅急便1992(51) 紅の豚1997(56) もののけ姫2001(60) 千と千尋の神隠し2004(63) ハウルの動く城2008(67) 崖の上のポニョ2013(72) 風立ちぬ2023(82) 君たちはどう生きるか
「君たちはどう生きるか」に一番近いのが「千と千尋の神隠し」らしいけれど, そういえばそれだってどんな話だったのかをみんな十分に理解しているわけではないような気がするので(自分だけ?),なぜ今回だけとくに不評なのだろうか。
P. S. 不評の原因を[4] が解読していた。さもありなん。
写真:1枚だけ公開されたポスター(スタジオジブリから引用)
[2]『君たちはどう生きるか』を理解できなかった人のためのネタバレ謎解き(ちょっと上級編)(海燕)
[3]君たちはどう生きるか で、宮崎駿は結局,何を描こうとしたのか?(三宅香帆)
[4]ジブリ新作映画『君たちはどう生きるか』の感想文の序論 - 予告なしの挑戦と対価と攻防(世に倦む日々)
2023年7月17日月曜日
複素平面上の三角形
Twitterでyujitachさんが,次の式が複素数(a, b, c)の入れ替えについて対称なのはなぜ?という疑問を呈していた。与式は,$\left| \sqrt{a-b}+ i \sqrt{b-c}\ \right| +\left | \sqrt{a-b}-i\sqrt{b-c}\ \right | $ である。見かけ上はまったく対称でないので不思議な感じがする。
Twitterの集合知はすごいもので,早速回答が寄せられていた。$x=\sqrt{a-b},\ y=\sqrt{b-c}, \ z=\sqrt{c-a}$とおくと,$x^2+y^2+z^2=(a-b)+(b-c)+(c-a)=0$である。
与式は$|x+i\,y|+|x-i\,y|$であり,その二乗は,
$(x+i\,y)(x^*-i\,y^*) + (x-i\,y)(x^*+i\,y*) + 2\left| (x+i\,y)(x-i\,y) \right |$
$= 2|x|^2+2|y|^2+2\left | x^2+y^2 \right | = 2 (|x|^2+|y|^2+|z|^2)$
したがってこれは(x,y,z)の入れ替えについて対称であり,(a, b, c) の入れ替えについても対称となる。その幾何学的な意味は,(a, b, c) が表す複素平面上の三点を結ぶ三角形の三辺の長さの二乗和である。
登録:
投稿 (Atom)