2023年6月10日土曜日

Apple Vision Pro(1)

2023年6月5日のWWDC23で,Apple Vision Pro という最初の空間コンピュータのモデルが発表された。

事前には,アップルから待望のMRゴーグル(ただし非常に高額)が発表されると思っていたが,アップルの宣伝文句はそうではなかった。
(1) Mac (+マウス):パーソナルコンピューティングの登場
(2) iPhone(+マルチタッチ):モバイルコンピューティングの登場
(3) Vision (+指・声・視線):空間コンピューティングの登場
と位置づけられていた。ユーザインターフェイス的には (1.5) iPod (+クリックホイール)もあった。

3500ドル≒49万円なので,一般消費者向けにすぐ普及するというものではないけれど,企業やソフトウェア開発現場では十分導入可能なものだろう。単なるゴーグルと考えると,Meta Quest 3Pico 4の数倍以上だが,新しいコンピュータと考えれば一応納得できるかもしれない。

なにせ,CPUとしてM2チップを搭載し,これに,前方のメインカメラ2基,下側を見るカメラ4基,赤外線照射器が2基,サイドカメラが2基,ライダースキャナ,TrueDepthカメラ2基,マイク6個,内側には眼を囲むようにLED(アイトラッキング用に目に見えない光のパターンを照射)と赤外線カメラ2基,をコントロールするR1チップが加わるというものだ。虹彩認証が組み込まれ,他社のような操作のためのコントローラはない。

一番ビックリしたのは,Twitterでのうみゆき@AI研究さんの次の記事だった。
Vision Proはアイトラッキングと網膜状態の検出ができる。ハンドトラッキング、身体の揺れ方、声の調子とかも常にデータ収集し続けている。AppleWatchを付けてれば脈拍だって取得できる。AppleのAIモデルはこれらの人体データを総合的に判断して、ユーザが好奇心を感じてるか、怯えているか、そういう精神状態を予測する。

眼球を介在した脳コンピュータインターフェイス。あんな大きなものを頭・顔に付けるというのはどうしても納得できないのだけれども(今でも),もしかするとその先には脳波インターフェイスも視野に入ってくるかもしれない。それでもせいぜい,キャップ型空間コンピュータということで勘弁してほしい。


写真:Apple Vision Pro (バッテリで2時間駆動…orz)(Apple から引用)

追伸:年金生活者にはちょっと買えそうもないデバイスだけれども,新しい種族のコンピュータ & 初の3Dムービーカメラ & 初の3Dテレビ と考えるとどうだろうか。問題は,家族で共用できないこと。装着したまま外出するのはたぶん危険をともなうこと。

2023年6月9日金曜日

大学教育とChatGPT(8)

大学教育とChatGPT(7)からの続き

そろそろ150大学に到達しようとしている。大学の本来の機能から考えれば,ソーシャルメディアの利用ガイドラインよりも,生成系AIへの対応のほうが重要度は高いからかもしれない。非常勤先の大阪教育大学と同志社大学からもそろって具体的注意が発出されていた(同志社大学学長のお気持ちはもっと早かったけど)。

その後,目に付いた大学は次のようなところだ。
・甲南大学:公開後 pdf を不可視にしてしまった。wayback machineで見えたけど
・中央大学:さすが中央大というか留意事項の詳細な規程化を図ってしまった
・四国大学:ChatGPT-4のアカウント(約30)を配布,教職員+学生(教員推薦者)
・大東文化大学:生成系AIガイダンスでアカウントの取得方法まで説明
・長浜バイオ大学:学生への利用の奨励,試験じゃ使えないよねと ^_^;;;

なお,注意喚起が丁寧で分量が多い(10kB以上)の大学は次の通り。
1. 東京大学,2. 武蔵野美術大学,3. 中央大学,4. 東京大学(授業における利用)
5. 東洋大学(坂村健),6. 大阪公立大学(教員向け),7. 早稲田大学,8. 東京外国語大学

(注)奥村晴彦先生が同じようにデータをまとめたエクセル(生成系AIガイドライン)を公開していた。



図:大学における生成系AI注意喚起テキスト量のヒストグラム

5月26日
授業レポート等における生成系 AI への対応について
学習院女子大学 教務部長

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 

6月1日
生成系AIの利用に関する対応について
中部大学 学長 竹内芳美,教務部長 佐伯守彦

6月1日
ChatGPT等の生成系AIの利用に関する注意喚起
聖学院大学 学長 小池茂子,教務部長 若原幸範

6月1日
生成系AIの使用に関する留意事項について
大阪教育大学 副学長 廣木義久

6月1日
学習における生成AI(ChatGPT、Bard、BingAI等)の使用について
同志社大学 教務部長

6月1日
ChatGPT等の生成系AIの利用について
国学院大学 学長 針本正行

6月1日
授業におけるChatGPT等生成AIの利用方針について
松山大学 学長 新井英夫

6月2日
愛媛大学における生成AIの利活用に関する基本的考え方
愛媛大学 学長 仁科弘重

6月5日
鳥取大学における生成系AIの利用に関する基本方針と注意事項
鳥取大学長 中島廣光

6月6日
中央大学における「生成系AI」についての基本的な考え方
中央大学 学長 河合久
中央大学の教育課程における「生成系AI」利用上の留意事項について

6月6日
ChatGPT等の生成系AIの利用について
大阪産業大学

6月7日
生成AIの利活用について
信州大学理事(情報・DX担当)・副学長 不破泰

6月7日
生成系AI・翻訳AIの利用についての基本方針
公立はこだて未来大学長 鈴木恵二

2023年6月8日木曜日

会話行動に関する調査


シンセティック・メディアについて考えるための,人の情報環境について考えていた。情報通新メディアの利用時間のデータは見つかったので,対面コミュニケーションの時間のデータがないか探してみた。国立国語研究所日常会話コーパスプロジェクトの中に,「一日の会話行動に関する調査報告(2017)」が見つかった。

243人の調査対象に平日2日,休日1日のすべての会話を記録してもらった結果,1日平均の会話数 12.7回,会話時間長 6.2時間,1回の会話時間 29分という結果になった。会話時間の約6時間というのは,情報通信メディアの利用時間約6時間とほぼ同じであった。


図:一日の平均会話の特徴

会話相手の人数がN人の時,自分の発話割合は,1/(N+1)である仮定する。上記の相手人数の割合の加重平均をとれば,(38.3/2+17.9/3+12.5/4+6.6/5+4.3/6+3.2/7+1.9/8+1.5/9+1.1/10+12.7/20)%=32%となる。
したがって,一日の平均会話時間の1/3の2時間は自分が話し,残りの4時間は相手の話を聞いているということになる。

2023年6月7日水曜日

社会生活基本調査

情報通信メディアの利用時間からの続き

さらに,ブラウズしていたら,社会生活基本調査というものに行き着いた。
社会生活基本調査は,統計法に基づく基幹統計調査として,生活時間の配分や余暇時間における主な活動(学習・自己啓発・訓練,ボランティア活動,スポーツ,趣味・娯楽及び旅行・行楽)を調査し,国民の社会生活の実態を明らかにするための基礎資料を得ることを目的として5年ごとに実施しています。

というもので,直近は令和3年(2021年)版だ。詳細行動分類による生活時間に関する結果が昨年の12月に公表されている。ここにスマートフォン・パソコンの使用時間があった。使用者率が65%,平均使用時間(使用者についての)が4.29時間である。この調査は,10歳から75歳以上を対象としているため,情報通信メディアの利用時間(6時間)に比べれば,値が小さくなるのはしかたがない。14歳以下や65歳以上をのぞけば,使用者率78.9%,平均使用時間4.89時間程度にはなるので,6時間にはとどかないがまあ同じオーダにはなっている。

使用者率が78.9%というのは低すぎるような気がするのだけれど・・・。


図:令和3年度社会生活基本調査から


2023年6月6日火曜日

情報通信メディアの利用時間

シンセティック・メディア(2)からの続き

視聴覚メディアからの影響と実体験や対面コミュニケーションによる影響を考えるための基本情報は何かと考えた。とりあえず,視聴覚メディアに接している時間ならばデータがあるかもしれないと思って,調べたところ,総務省の「情報通信メディアの利用時間と情報行動に関する調査報告書」というのが見つかった。

とりあえず分かったことは次の通り。
(1) 対象は,全国の125地点の13歳から69歳までの1500人
(2) メディア視聴時間の合計は平均6時間程度であり,年代とともに微増するがほぼ一定
(3) 一日平均のTV(リアル+録画)視聴時間は3時間,ネット視聴時間も3時間(1 : 1)
(4) 20代の場合は,TV視聴時間が1.5時間,ネット視聴時間が4.5時間(1 : 3)

睡眠時間や自分だけの時間の和が12時間とすれば,他者とともにある時間が6時間,メディア視聴時間が6時間という配分になる。他者とともにある時間のうちコミュニケーションに費やされるのがどのくらいかは,人によってかなり違うだろうし,測定も難しそうに思える(ノンバーバルコミュニケーションとかやぎさん郵便状態をどうやって評価するのだろう)。


図:年代別のメディア視聴時間(縦軸 分,横軸 ×10代)

追伸:総務省のICT活用のためのリテラシー向上に関する検討会資料
各セグメントにおけるメディアの利用状況に関する調査」にもネットメディア接触時間のデータがある。全体平均では200分であり,上記の結果と矛盾しないが,10代では450-500分となっていて,図の結果とはかなり様子が違う。

2023年6月5日月曜日

シンセティック・メディア(2)

 シンセティック・メディア(1)からの続き

シンセティック・メディアが普及すると,世界の様々な事象の真偽が不確実になる。とはいうものの,今だって状況はそれほどかわらないかもしれない。(1) 商業的なマスコミュニケーションの登場(新聞?雑誌?テレビ?)により,大衆迎合的な偏向が生じていること。(2) インターネットの登場(SNS?)により,情報発信の閾が下がるとともに,政治的な宣伝工作等も要因とするネトウヨ的言説の拡散がエコーチェンバーで増幅されること。などなど。

人は,家庭や周囲の人々との対話,学校や職場での組織における活動,マスメディア等を通じた報道や文化の情報伝達によって,世界認識の枠組みが形成される。そのうち実体験や対面のコミュニケーションではない,視聴覚メディアを媒介する寄与分はどの程度だと推定されるのだろうか。この視聴覚メディアの媒介する部分を,シンセティック・メディアが覆いはじめることになる。

その視聴覚メディアについて,大学に入ってからの自分で考えてみる。1972年から1997年までは,新聞・テレビ・ラジオ・雑誌・本が情報源だった。1997年以降はメーリングリスト・ネットニュース(fj)・ウェブから始まり今では,ブログ・ネット記事・YouTubeが主要な情報源になっている。紙でできた本や雑誌はほとんど買わなくなってしまった。2022年以降は,それらがさらに,AIに媒介されるテキスト,シンセティック・メディアに媒介される情報に置き換わることになる。

そのような環境の中で育つとき,ものごとの真偽を判定する能力を獲得することが可能なのだろうか。これは,結局フランシス・ベーコンの4つのイドラの話にまで戻るということなのか。


図:人間を形成する情報はどこからくるのか

2023年6月4日日曜日

シンセティック・メディア(1)

昨日,国立情報学研究所のオープンハウス(6/2-6/3)の様子がYouTubeで中継されていた。生成系AIの話題にはそれほど目新しいものはなかったが,後半の「フェイクメディア研究の最前線」が印象的だった。

AIの普及で当面大きな問題になるのは,レポートの代筆でも,著作権侵害でも,機密情報漏洩でもなく,シンセティック・メディアかもしれない。シンセティック・メディアの定義は次のようなものだった。
シンセティック・メディアとは、リアルな音声付き動画をAIによって作り出す動画合成技術である。事前に用意したテキストと人(映像、音声)のデータからAIが学習し、その人が本当に話しているような動画の生成が可能である。

深層学習に基づく生成系AIブームのはじまりは,OpenAIのDALL-Eだったけれど,半年前のChatGPT(2ヶ月半前のGPT-4)の登場によって話題は,対話型文書生成AIのほうに集中してしまった。そうこうしているうちに,並行して,AIによるリアルタイムボイスチェンジャーが我々の手元にまできている。

AI革命の第1段階である対話型文書生成AIの応用範囲と実用性は非常に高い。オフィスワークの中で,単純作業よりはむしろデータ分析やクリエーションなどの高い技術を必要とされる分野でのインパクトが大きい。対話型文書生成AIは, (1) 自然言語によるUIインターフェイスを提供するものであることが,プラグインの登場によりますます明らかになると同時に,(2) 汎用的なテキスト処理ツール としての役割が認識され,企業にはすでに浸透しはじめている。

第2段階が,対話型文書生成AIのマルチモーダル化であり(GPT-4は既に実現しているのかもしれないが),その進化系としてのシンセティック・メディアの普及になる。NHKのAIによる音声ニュースが,2018年からはじまった中国の新華通訊社のAIアナウンサーに追いつくのはいつのことだろう。ChatGPTで議論されていることの多くが,MR環境のもとでシンセティック・メディアに進化することになるのだろうか?AppleのWWDCで高くて無駄に高機能だといわれるゴーグルが発表されるのも間近らしいけど。

2019年にNHKのAI美空ひばりが一時話題になったとはいえ,シンセティック・メディアの話題はいまのところ,フェイクニュースが中心となっている。さきほどあげた国立情報学研究所のYouTubeでも,フェイク映像をディープラーニングによってどうやって見破るかという話が中心だった。

2023年6月3日土曜日

合計特殊出生率(1)

奥村晴彦先生が,Rで合計特殊出生率グラフを描いていたのでまね(写経)をしてみた。

厚生労働省の発表では,2022年の合計特殊出生率が1.26となって(前年は1.30),2005年に並んで過去最低を記録した,というのがニュースになったからかな。

写経は成功したが,日本語タイトルが文字化けしていた。ネットで検索すると解決できた。次に,グリッドラインを入れるべく検索したが要領を得ないし,なんだかずれてしまう。GPT-4に相談したところ2回目で正解にたどりつけた。最後に,奥村先生はクリップボードからデータを入力するという高等技術を使っていたので,低レベルのテキストファイル入力に切り替えた。自分で考える力がどんどん喪失されていく・・・

その結果が次のRプログラムと図である。

# X = read.table(pipe("pbpaste"), header=TRUE) (奥村先生のテクニック for macOS)

X <- read.table('/Users/koshi/Desktop/birth.txt', header =TRUE)
par(family = "HiraKakuProN-W3")
plot(X$年, X\$合計特殊出生率, type="o", pch=16, xlab="", ylab="")
t = c(range(X\$合計特殊出生率), X$合計特殊出生率[length(X[,1])])
axis(4, t, t)
title("合計特殊出生率", line=0.5)

# x軸とy軸のメモリの位置を手動で指定
x_ticks <- pretty(X\$年, 11)  # 11個のメモリを生成
y_ticks <- pretty(X\$合計特殊出生率, 9)  # 9個のメモリを生成

# x軸に対してグリッド線を描画
for (i in x_ticks) {
  abline(v = i, col = "lightgray", lty = "dotted")
}

# y軸に対してグリッド線を描画
for (i in y_ticks) {
  abline(h = i, col = "lightgray", lty = "dotted")
}


図:合計特殊出生率の推移(1970-2022)


2023年6月2日金曜日

インターネットと教育フォーラム(1)

岐阜聖徳学園大学DX推進センター長で,最近はデジタルシティズンシップで有名になってしまった芳賀高洋先生基礎自治体教育ICT指数サーチ)から,しばらく前に召喚呪文がきた。6月10日(土)に大阪で開かれるNEE2023 OSAKAの最後のセッション「インターネットの教育利用30年,その黎明からネクストGIGAを展望する」に出てねということだった。

記憶が薄れつつあるので,参考資料で復習している。そのひとつ。1999年に大阪で開催された「99インターネットと教育フォーラム」実践報告集にあった資料から,自分のメモの部分を抜粋してみると次のようなものだった。1995年までのことしか書いていなかった。

'99『インターネットと教育』フォーラム

エピソードのつながりとしての歴史,人のつながりとしてのプロジェクト
1969年から1999年までのインターネットと教育

野島久雄 NTTコミュニケーション科学基礎研究所 nojima@tantra.brl.ntt.co.jp
芳賀高洋 千葉大学附属中学校 jtaka@ir.chiba-u.ac.jp

1.その時何があったか
2.マリオン以前,以後

[1969-1978 前史]
1969
(1) 高校生の時はじめてコンピュータにさわる。カシオの卓上電子計算機4メモリ26ステップ、30万円。 階乗のプログラムをつくるが、ステップ数で友達に負ける。
1970
(2) アナログコンピュータで、滅表・強制振動をプロット。数学の試験でFORTRANのプログラミングの問題がでる。
1971
(3) 日常的には計算尺を使っていた(受験問題を解くときなど)。
1972
(4) 教養の物理学実験は、タイガー計算機でデータ整理。最小自乗法の計算には複雑な技があるようだった。
1973
1974
(5) 学部の物理学実験では、みな電卓を使い始めていた。四則演算で3万円くらいかな。しかし自分では買わない。新聞で、シャープの関数電卓が10数万円との記事をみる。
1974
(6) 電子計算機実習ではじめて大型計算機 (ACOS)を使う。IBMではなく、JUKIのキーパンチャーで、バッチ処理。課題は行列の対角化と5次方程式を解くが、成績はいまいち。
1975
1976
1977
(7) 修士論文のための計算をようやくはじめる。センターまでカード2000枚の箱をかかえて、毎日通う。使ったのはTOSBAC。カードのジャムとプリントアウトのジャムに泣く。
1978
(8) はじめて自分の関数電卓を買う、もらったのかな?

[1979-1988 まだはじまらない]
1979
(9) はじめてマイコンの雑誌を買う。これからはこんな時代だ。このころパソコン関係の雑誌は 立ち読みですべて読めた。
1980
(10) 研究室からTSSで大型計算機を 使えるようになる。タイプライター端末はじめは300bpsその後1200bps。
1981
(11) PC-8001を使ったスクリーン型端末が登場。研究室の先生がアセンブラで端末ソフトを作成(流行)
1982
(12) PC-8801用のターミナルプログラムをBASICで自作。
1983
(13) PC-9801を研究室で購入。CP/M-86をもらってきて遊ぶ。ベクトル計算機登場前夜でHFPなどにも凝る。
1984
(14) 8087が手に入ったのでアセンブラで連立方程式のプログラムをつくる。11万円で中古9801を買う。256kBの37500円のメモリボード2枚かっ て、RAMディスク快適。
1985
(15) 理科教育講座の学生のための情報処理実習の授業がスタート。 内容は、コンピュータの基礎とBASICプログラミング入門。
1986
1987
(16) 本屋でMacの雑誌を買う。これからはこんな時代だ。Mathematicaも登場。やっぱりこれからはこんな時代だ。
1988
(17) MacIIを使って情報の授業を 行うが、ウイルスとバグと GUIが結構大変。研究室で は、PC-9801とMacを併用。

[1989-1994 まだちゃんとはつながらない,が・]
1989
(18) 大学の情報処理センタ創設の為の準備で忙殺。SUN4/330を導入。
1990
(19) 情報科学講座の先生のおかげでUUCPでSRA に接続される。まいにち、Netnewsを読んで いるので仕事にならない。firec.pachinkoで齋藤明紀さんが最初のダメ出したころ。
1991
(20) f読み続けて1年、はじめてfi.booksに投稿。
・・・
[1994.8 有楽町マリオン]
[1994-1997 100校プロジェクト]
1992
1993
1994
1995
(21) 3月、教育情報リンク集「インターネットと教育」スタート。

[1996.12 そして世田谷]
[1998-1999 とても書ききれない・・・]
[2000- そして新たなつながり]
野島久雄さんは2011年に若くしてなくなってしまった。自分の記憶というのも本当に夢幻泡影なのだけれど,当時,宮澤賀津雄さんによびだされて横浜までいって,3人であって話をしたのは野島さんだったような気がする。違うかもしれない。


[1]インターネットと教育 No.393 2002.12.14(WaybackMachine)

2023年6月1日木曜日

大学教育とChatGPT(7)

大学教育とChatGPT(6)からの続き

テレビと新聞は連日生成系AIの話題を出しているものだから,引き続き各大学からの「生成AIの利用に関する注意」の公表が続いている。5月29日にはとうとう,国立大学協会が「生成AIの利活用に関する国立大学協会会長コメント」を出した。

大学のソーシャルメディア利用ガイドラインは,174大学=全大学の23%が公開している。当面の危機管理的にはより影響が小さい生成AI(137大学=全大学の17%が公開)の方もそろそろ頭打ちになるのではないかと思われる。以下のリストがデータをよくまとめている。
ChatGPT/生成AIへの対応を表明した国内の大学一覧
各大学のChatGPT等生成系AIへの対応・方針・留意点を調べてみた(手羽一郎)
生成系AIに対する各大学の見解や指針など(坂根弦太)

 

5月10日
ChatGPTをはじめとする生成AI(generative artificial intelligence)の利用に関して
旭川市立大学 学長 三上隆

5月15日
ChatGPT等の生成AI(人工知能)への対応について
新潟薬科大学 学長 下條文武

5月15日
人工知能チャットボットの利用について
浜松医科大学 理事(教育・産学連携担当)・副学長 山本清二

5月16日
学修における生成系人工知能の取り扱いについて
九州工業大学 教育高度化本部長

5月17日
生成系AIの利活用について
関東学院大学 学長 小山嚴也

5月18日
生成系AI(ChatGPT等)の利活用について
四国大学 学長 松重和美

5月19日
生成系AI(ChatGPT等)利用上の留意点等について
城西大学 学長 藤野陽三

5月24日
生成系AIガイダンス
大東文化大学 学園総合情報センター

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 

5月25日
生成系AIの利用について
千葉商科大学 学長 原科幸彦

5月25日
生成 AI(対話型 AI)の利用に関する本学の方針について
東京未来大学 学長 角山剛

5月25日
教育・研究活動における生成系AIの利用について
八戸工業大学 学⻑ 坂本禎智

5月26日
ChatGPT 等の生成系 AI について
日本獣医生命科学大学 学長 鈴木浩悦

5月26日
ChatGPT等の生成系AIの利用に関する注意事項について
鶴見大学 学長 中根正賢

5月26日
生成系AI(ChatGPT,BingAI,Bard等)利用についての注意喚起
中国学園大学 学長 千葉喬三

5月26日
岡山理科大学の教育における生成系AI の取扱いについて
岡山理科大学 副学長(教育担当) 松浦洋司

5月26日
科学技術における知的⽣産活動と⽣成系AIの利⽤について(4月28日)
東京理科大学 学長 石川正俊

5月29日
ChatGPTなど生成系AIの利用についての本学の基本的な考え方
成城大学 学長 杉本義行

5月29日
生成系AIの利用に関する留意事項について
東京情報大学 大学院総合情報学研究科委員長 花田真樹・総合情報学部長 圓岡偉男・看護学部長 藤井博英

5月31日
本学の教育における生成系AIツールの利用に関する留意事項について
福岡大学 教学担当副学長 加留部善晴

5月31日
生成AIの利用について
徳島大学 理事(教育担当) 長宗秀明

5月31日
生成系AIの利用に関する留意事項
北海道大学 理事・副学長 山口淳二

2023年5月31日水曜日

googleアカウント

あせった。

googleアカウントで使っているシステムに,YouTubeとこのBloggerとBardという三種の神器がある。そのアカウントがログオフされたので,再度ログインしようとしたところ拒否された。メールアドレスもパスワードもまだ忘れてはいない。

図:脱出できない魔のエラー蟻地獄

ところが,上のエラーがでてきて何度試してもダメなものはダメ(アカウント名やパスワードが違うとはいわれていない)。パスワードの変更もできない。困ったときは,helpに頼るか検索すればよいのだけれど,Googleのサポートページはたらい回しされるだけで,役に立たなかった。

しばらく放置していたが,それでは問題は解決しない。そこで,ChatGPTに聞いてみたところ,いくつかヒントがでてきた。その中の二段階認証あたりに問題があるのかと思ってさらに調べていると,復元というキーワードが見つかった。そこで,復元のページからログインしてみると,従来のメールアドレスとパスワードで無事に入ることができた。

その後うまくいったような,そうでもないようなだったので,もう一度復元のページにログインしてからパスワードを変更して,その他のよけいなアプリ連携も消してみた。どれが功を奏したのか分からないが,なんとかYouTubeとBloggerに入ることができ,この記事を書いている。よかったよかった。

最悪の場合の対処を考えていた。(1) Blogger:別のblogサービスに移動するか新しいアカウントをつくってデータを移行する(1500本…),(2) bard:使わなくても大丈夫かもあるいは新しいアカウントで,(3) Gmail:これも使わなくてもいいかもしれない,(4) YouTube:視聴だけなので別アカウントに移行してもチャンネル登録だけなのでそれほど問題ない。

外部のサービスに頼り切りだとこんなときに困る。絶対に日本独自のLLMとクラウドと検索エンジンを作る必要がある。アメリカに貢ぐだけのへたな国防予算よりも圧倒的に優先度が高い(まあそれよりも生きるための食料とエネルギーの自給かもしれないが)。

2023年5月30日火曜日

対話型AIによる教育と評価(2)

対話型AIによる教育と評価(1)からの続き

実際にプロンプトを作ってChatGPT(GPT-4)で試してみると次のような結果が得られた。何度か繰り返してみて,そこそこの解答が得られたものだ。丁寧に指示しないといきなり問題が全て表示されたり,解答途中にコメントが入ったりする。また,評価基準はかなり甘くなっている。Bardではほとんど指示のとおりには機能しなかった。一方的にQとAの提示が始まって,余計な説明がされてしまうのだった。ChatGPTの応答についての経験値を増やす必要がある。

User
生成系AIが学校教育の評価について参与できるか
どうかのテストをしていますので協力してください。

私が問題数Nとテーマを与えますので,そのテーマについて
生徒が理解しているかどうかを判定するためのN個の質問項目を
考えて,まず第1問目だけを提示して下さい。
生徒はその質問に対する解答を入力します。
その後に,あなたからの質問と生徒の解答の繰り返しが続きます。
質問や解答の途中段階における説明やコメントは不要です。

N個の問題の解答をあなたが受け取った後に,これらを総合的に評価して
理解度を5段階で答えてください。5:優秀,4:良い,3:普通,
2:あまりわかっていない,1:まったくわかっていない。です。
その後,この評価に至った根拠を分かりやすく説明して,今後の学習に
必要となる指針を与えてください。

N=3でテーマは,「力学(物理学)におけ作用と反作用」についてです。

ChatGPT
それでは、評価のための質問を始めさせていただきます。

第1問目: ニュートンの第三法則(作用反作用の法則)とは何ですか?

User
物体の運動を作用といいます。反作用は反対に運動することです。

ChatGPT
第2問目: 物体Aが物体Bに力を作用させたとき、物体Bはどのような反応を示しますか?

User
物体Bは力を吸収します,これが反作用です。

ChatGPT
第3問目: 作用と反作用が同時に発生する具体的な日常生活での例を一つ挙げてください。

User
日常生活では起こりません。宇宙空間でのみ起こります。例えば小惑星の接近です。

ChatGPT
理解度評価:2:あまりわかっていない

ご解答ありがとうございました。今回のテーマ「力学(物理学)における作用と反作用」についての理解度を評価すると、"あまりわかっていない" という結果となりました。以下にその理由を説明します。

ニュートンの第三法則(作用反作用の法則)についての理解が不十分です。作用と反作用はそれぞれ物体の運動ではなく、一つの物体に力が働くと、その力と等しい大きさの逆方向の力(反作用)が働くという法則です。
物体Bが力を吸収するという表現は少し誤解を生む可能性があります。物体Aが物体Bに力を作用させた場合、物体Bは物体Aに等しい大きさで逆方向の力を作用させます。これが反作用の法則です。 
作用と反作用は日常生活で常に起こっています。例えば、地面を蹴って走るとき、我々は地面に力を加え(作用)、その反作用として地面は我々に逆方向の力を加え、それが前進する力となります。
以上の理由から、力学の基本的な法則である作用反作用の法則について、もう少し深く理解することが必要だと感じました。教科書を読み直すだけでなく、日常生活での例を思い浮かべながら理解を深めてみてください。それが理解の助けとなるでしょう。

User
次に移ります。N=1でテーマは,「力学(物理学)におけ力のつり合い」についてです。

ChatGPT
了解しました。それでは、評価のための質問を始めさせていただきます。

力のつり合い(力の平衡)について説明してください。

User
重さに等しいモノを天秤の両端に取り付けると天秤がつり合います。運動している天秤ではこのようなことはありえません。

ChatGPT
理解度評価:3:普通

ご解答ありがとうございました。今回のテーマ「力学(物理学)における力のつり合い」についての理解度を評価すると、"普通"という結果になりました。以下、その理由を説明いたします。

あなたの説明は、力のつり合いの概念を一部正しく捉えています。天秤の例は力のつり合いを示す一つの具体的な例であり、それぞれの物体の重さ(つまり力)が等しい場合、天秤は平衡状態になるという理解は正確です。

ただし、運動している物体についての理解については少し誤解があるようです。力のつり合い(力の平衡)は運動状態にある物体でも成り立つことがあります。例えば、一定の速度で直線運動をしている物体は、前後から働く力が等しければ力のつり合いの状態にあります。

力のつり合いの概念は、物体が静止している状態だけでなく、一定の速度で直線運動をしている状態でも成り立つという点を理解することが大切です。そのために、力のつり合いについてさらに学び直すことをお勧めします。この理解は物理学全体の理解にとって重要な基礎となります。

 

2023年5月29日月曜日

対話型AIによる教育と評価(1)

教育における評価の問題というのはそもそも一大テーマで難しいのだ。

FacebookでTakuya Kawaiさんが,生成AIを教育に使うといってもそもそも評価はどうするのかという問題提起をしていたので(そのとおりだ),さっそくChatGPTさんと相談してみた。

Q:User
生成系AIを学校教育で利用する場合,評価の問題を切り離して考えることはできません。「測定できないものは評価することができない」からです(*)。
これまでの学校教育でも,評価者個人の主観による影響が小さくなるような
工夫はされてきました(例えば,客観テストやルーブリックなど)。

生成系AIの場合は,
・いつ測るのか
・どこで測るのか
・だれが測るのか
・何を測るのか
・どのように測るのか
の問題が特にクローズアップされてきます。
これについての名案を求めます。

A:ChatGPT
生成系AIを学校教育に用いる際の評価についての問題は、非常に重要で複雑です。以下に、ご提示いただいた各問題点に対して提案を行います。

いつ測るのか
AIの活用は学習の過程を進行中に測る形で最も効果的です。AIは生徒の学習パターンを評価し、その結果を元に最適な教材や学習方法を提案できます。したがって、定期的な評価(例:週単位や各学習単元終了後など)が推奨されます。

どこで測るのか
AIの利用により場所の制限は大きく緩和されます。学校、自宅、または任意の場所でインターネットにアクセスできれば、AIの学習プログラムは生徒の進捗を評価できます。

だれが測るのか
生成系AI自体が生徒の学習を評価します。ただし、教師や教育関係者はAIが出力した結果を監視し、解釈し、最終的な評価をすることが重要です。

何を測るのか
AIは以下のような事項を測ることができます:

学習内容の理解度:例えば、生徒が学習した内容について問い合わせを行い、その回答を分析します。
学習の進捗度:教材をどの程度進めたか、理解度テストのスコアはどうかなどを分析します。
学習行動・習慣:どの程度の時間と頻度で学習に取り組んでいるか、どの時間帯に活動的であるかなどを分析します。
どのように測るのか

生成系AIは主に以下のような方法で評価を行います:

データ分析:AIは生徒の学習データを収集し、分析します。それにより、生徒の理解度や進捗度を評価します。
自動フィードバック:AIは生徒からの質問に回答したり、問題の解答を提供したりします。その結果を基に、生徒の理解度を評価します。
適応的学習:AIは生徒の学習パターンとニーズに応じて教材を調整します。それにより、生徒の学習効果を最大化し、進捗を測定します。

パーソナライズされたレポート: AIは収集したデータを用いて、各生徒の進捗レポートを作成します。これは教師や保護者に対するフィードバックの一部となります。 
その他の注意点
ただし、AIの評価システムを適切に実装し使用するためには、以下の点に注意が必要です。

データプライバシーとセキュリティ:生徒の学習データは敏感な情報を含む可能性があります。したがって、データの保護とプライバシーの確保が必要です。
公平性と偏見の排除:AIは、学習データから偏見を学んでしまう可能性があります。そのため、AIの評価が公平であることを確認し、必要に応じて調整を行うことが重要です。
教師の役割:AIが生徒の学習を評価するとはいえ、教師の役割は依然として重要です。教師はAIの出力を解釈し、生徒の学習状況を理解するために必要なコンテクストを提供します。
学習意欲の保持:AIが適切なフィードバックを提供し、学習の進捗を評価することで、生徒の学習意欲を保つことが可能です。
生成系AIの活用は学校教育に新たな可能性をもたらしますが、上記の問題に対する解決策を明確にすることで、より効果的な活用が可能になります。
相変わらずの優等生的な模範解答だった。問題は個人ごとの学習履歴記録システムをリンクする必要があることだ。トークンバッファが非常に大きくなれば可能なのかもしれないし,別途プラグインとのデータのやりとりが必要かもしれない。いずれにせよ,そのうちベネッセとか予備校とかあちこちで始まることになるだろう。

(*) 測定というとすぐに定量的あるいは半定量的なモノがイメージされるけれど,主観的な測定も測定の一種で,ただ確率分布が歪んでいるだけなのかもしれない。職人技によってそれが乗り越えられてきた部分もあるし,芽を潰してきたという負の側面もあるかもしれない。

(**) 人間の直観や洞察力が衰えてきたため,外部の道具に頼るとともに,安易な数値化を選択してしまうことになるというのは,なにも教育の現場だけではない。しかし,データを可視化することで圧倒的な生産性の向上や安全性の確保につながった場面も多々あるわけでむずかしいところ。

(***) で,これから人間に最後に残された砦だった,「言語を用いた総合的な判断の場」が奪われようとしているわけだ。まあ,そんなものとっくに消えていたのかもしれないけれど。

(****) NHKの映像の世紀でベトナム戦争におけるマクナマラの誤謬が取り上げられていた。データにできるものをコンピュータに取り入れて評価する,それが数値から言葉に広がったとしても,データにはできないものがまだ残っている。

2023年5月28日日曜日

留数計算

GPT-4とBardとPerplexityに実関数の広義積分を複素解析を使って解くようにお願いした。

問題は,$\displaystyle \int_0^\infty \dfrac{\sin x}{x} dx$  というものだ。で,三者全員がそれらしい導出過程を示しながら答えは$\pi$だと返してきた。どうもおかしいなと思って,Mathematicaで検算すると $\dfrac{\pi}{2}$だ。やはり,ちゃんと勉強せずに生成系AIを使うことはできない(何度か試すと正しい答えを返す場合もあった)。

ところが,最近(ここ数十年)留数計算なんかご無沙汰しているので,自分の方が計算の仕方が分からなくなってしまっている。AI以下である。インターネットで復習してから自分で結果を再構成してみた。まだよく理解できていないけれど概ね次のようなものだ。

図:2通りの積分路と極の位置(ChatGPTのtikzコードによる)

複素関数$f(z) = \dfrac{e^{iz}}{z}$の積分を考える。

経路 $C_1 :  \gamma_{-} + \Gamma' + \gamma_{+} + \Gamma$,
経路 $C_2 :  \gamma_{-} + \Gamma'' + \gamma_{+} + \Gamma$,
とする。

$f(z)$がコーシーリーマンの関係式を満たす正則関数であるならば,
$C_1$のように閉じた積分路の中に$f(z)$に極がない場合,$f(z)$の経路積分の値は,$I_1=\oint_{C_1} f(z) dz =0 $になる。
また$C_2$のように閉じた積分路の中に極がある場合は,$f(z)$の経路積分の値は,$I_2=\oint_{C_2} f(z) dz =2 \pi i \ \mathrm{Res} f(z)$になる。

$\oint_{C_1} f(z) dz = \int_{-R}^{-\varepsilon} \dfrac{e^{i x}}{x} dx + \int_{\Gamma'} \dfrac{e^{iz}}{z} dz +  \int_{\varepsilon}^{R} \dfrac{e^{i x}}{x} dx + \int_{\Gamma} \dfrac{e^{iz}}{z} dz =0$

第1項と第3項をまとめて,第2項と第4項は $z=r e^{i \theta}$と極座標表示して,
これから$\varepsilon \rightarrow 0, \ R \rightarrow \infty$の極限をとると,

$\displaystyle 2 i \int_0^{\infty} \dfrac{\sin x}{x} dx - \pi i + 0 = 0$

同様に積分路$C_2$については,$\mathrm{Res}(z=0) f(z) = 1$ なので
これから$\varepsilon \rightarrow 0, \ R \rightarrow \infty$の極限をとると,

$\displaystyle 2 i \int_0^{\infty} \dfrac{\sin x}{x} dx + \pi i + 0 = 2\pi i$

いずれにしても,$\displaystyle \int_0^{\infty} \dfrac{\sin x}{x} dx = \dfrac{\pi}{2}$

2023年5月27日土曜日

出生時の体重分布

赤ちゃんの出生時の体重分布がないのか調べてみた。500gきざみはすぐ見つかったのだが,もう少し精度がないかと探したところ,統計でみる日本 e-Stat にあった。人口動態調査 人口動態統計 確定数 保管統計表 出生 / 出生数,性・出生時の体重(100g階級)・出生時の身長別 というものだ。

これをExcelでグラフにするが,普通の正規分布と比較しやすくするため,縦軸の100g区間ごとの出生数を全体の出生数に対する割合(%)に直した。なお,これは2021年(最新)のデータであり,男子の(出生数,平均値,標準偏差)は(415,836人,3.047 kg,0.390 kg),女子のそれは(395,687人,2.962 kg,0.358 kg)となっている。


図1:女子(青)と男子(オレンジ)の出生数割合(横軸100gビン数)

正規分布の方は,Mathematicaの組み込み関数を使うのだけれど,100g刻みにしているデータと比較するため,μを10倍,σを10倍にしたものを使っている。
In[1]:= f[\[Mu]_, \[Sigma]_] := 
 Integrate[ Exp[-(x - \[Mu])^2/(2*\[Sigma]^2)]/
  Sqrt[2*Pi*\[Sigma]^2], {x, -Infinity, Infinity}]

In[2]:= f[29.62, 3.58]
Out[2]= 1. - 8.59978*10^-15 I

In[3]:= g[\[Mu]_, \[Sigma]_] := 
 Plot[Exp[-(x - \[Mu])^2/(2*\[Sigma]^2)]/Sqrt[2*Pi*\[Sigma]^2],
 {x, 0, 20 \[Sigma]}, PlotRange -> {0, .12}]

In[4]:= g1 = g[29.62, 3.58];
In[5]:= g2 = g[30.47, 3.90];
In[6]:= Show[g1, g2]
Out[6]= -Graphics-

In[7]:= Plot[
 {PDF[NormalDistribution[29.62, 3.58], x] // Evaluate, 
  PDF[NormalDistribution[30.47, 3.90], x] // Evaluate},
 {x, 0, 50}, Filling -> Axis, PlotRange -> {0, 0.13}]
Out[7]= -Graphics-
ほぼそれらしいような気もするが,微妙に正規分布からずれているのかもしれない。例えば,青の4 kg の位置では累積割合で 99.5% になる。この位置は正規分布では,2.86σ相当に対応する。それで積分すると99.8%になってしまうので,少しずれているようだ。


図2:平均値と標準偏差をそろえた正規分布

2023年5月26日金曜日

対話型AIと教育(5)

対話型AIと教育(4)からの続き
Q:User
大学の授業で出されるレポート課題(エッセイ)に対して,ChatGPTを使って答えを生成してそのまま提出する学生が頻出するのではないかとの懸念が示されている。このため,大学によっては,ChatGPTの使用を禁止したり,制限しようとする動きがみられる。これは,各大学で発出される「生成系AIの利用に関する注意事項」として成文化されつつある。ここでは,上記のようなレポート問題だけではなく,機密情報や個人情報の漏洩,著作権侵害の恐れなどが指摘されている。これによって,ChatGPTなどの生成系AIの利用を,程度の大小はあれ,抑制することで,大学でのトラブル発生を減らそうようというリスク管理の動きが顕著にうかがえる。
ところで,今後の社会は,現在の生成系AIやその発展形態となるAIシステムとは無関係ではありえない。そのため,できるだけ早期にその利用方法を習得して対応することが求められている。授業のレポート課題などでの使用制限を越えて,教員や学生が積極的にChatGPTなどの生成系AIシステムを活用することができるようにするには,どうすればよいか,具体的な例を箇条書きで示すことで,これらの疑問や懸念を払拭する方法を教えてください。

A:ChatGPT
生成型AIの恰好な利用に関して教員や学生を支援するための具体的な提案は以下のとおりです。

教育的な目的でのAI利用: 学生が生成型AIを使ってエッセイを書く代わりに、学生が自分の言葉で議論を組み立てる訓練の一環として、AIを使用する方法を教える。AIは情報源やアイデア生成ツールとして有用だが、最終的な書き上げと分析は学生自身が行うべきである。
プラグラミングスキルの教育: 学生自身がAIを制御、調整、プログラムする方法を教える。これは学生がテクノロジーを適切に利用する方法を理解し、潜在的なミスや誤解を避けるのに役立つ。
AIの限界と可能性についての教育: AIが何を得意とし、何が苦手であるかを学生に理解させる。これにより、AIが学術的なタスクにどのように利用できるか、またどのように利用すべきでないかについて理解を深める。
データプライバシーと情報セキュリティの教育: AIがどのようにデータを処理し、保管するかについての教育を強化する。これにより、学生は自分の情報をどのように安全に管理するか、またAIを使用する際にどのようなリスクが存在するかを理解する。
情報源の評価: AIが生成する情報の信頼性を評価するためのスキルを教える。これにより、AIが提供する情報が常に正確であるわけではないことを理解する。
AIの倫理的使用: AIが持つ可能性とリスクについての議論を促す。これにより、AIを道徳的、倫理的にどのように使用すべきかについての理解を深める。
AIの使用ガイドラインとポリシーの作成: 学校全体でAIの使用ガイドラインとポリシーを作成し、これをすべての学生と教職員に共有する。これにより、AIの適切な使用に関する共通の理解を形成し、問題の予防を図る。
学生と教員のためのAIリテラシーワークショップ: 定期的にAIに関する教育ワークショップを開催し、学生と教員がAIについての最新の知識を得ることを支援する。これにより、AIの正しい利用と倫理的な問題に対する理解が深まる。
対話とフィードバック: 教員と学生がAIの使用経験について定期的に意見交換を行い、互いに学び合う環境を作る。これにより、問題や新たな利用法が迅速に共有され、学習経験が改善される。
AI利用の透明性: AIを使用して生成された作業や研究についてはその事実を明示する。これにより、利用の公正さと透明性が保たれ、評価における不公平さが避けられる。

これらの提案を通じて、教員と学生がAIを適切に使用し、理解するスキルを育てることが可能となるでしょう。AIが学術環境での問題解決や創造性を刺激するツールとして有効に活用されるためには、その正しい利用法と倫理的な問題について理解を深めることが必要となります。

Q:User
対応のための全体的イメージや戦略は把握できました。とくに第1項目に関連して,これまで出していたようなエッセイ課題はどのように修正すれば,ChatGPTの結果をそのまま回答に使う(大学によってはこれを剽窃とまでよんでいます)ことを避けることはできるでしょうか。学生は全員ChatGPTにいつでも自由にアクセスできる環境があるものとします。

A:ChatGPT
ChatGPTなどの生成型AIが学生の手元にあり、それを活用する能力もある状況下で、エッセイ課題を設計する際には、以下のような要素を考慮すると良いでしょう。

個人的な視点や体験を求める: AIは一般的な知識に基づく答えを生成できますが、個人的な経験や視点に基づく答えを生成することはできません。したがって、学生に自分自身の意見や体験に基づく思考を要求するエッセイ課題は、AIがそのまま解答することを防ぐことができます。
クリティカルシンキングの展開: AIは情報を提示し、論理的な結論を導くことができますが、複雑な問題に対する深い洞察や独自の分析を提供することは困難です。そのため、特定の問題やトピックについての深い分析や評価を要求する課題は、AIの直接の回答を避ける助けになります。
アプリケーションとシミュレーション: 抽象的な概念や理論を具体的な状況や事例に適用するような課題は、AIが自動的に解答することを難しくします。これは、AIが現実の状況を完全に理解する能力に限界があるためです。
ディスカッションとコラボレーション: チームやグループでのディスカッションやコラボレーションを必要とする課題は、AIの単独での解答を防ぐことができます。また、ディスカッションの過程を報告するような課題は、学生自身の対人スキルやチームワークのスキルを評価する機会にもなります。
リフレクション: 自己反省や思考の反省を要求する課題は、AIが解答することを困難にします。これは、AIが自己意識や自己理解を持つことができないためです。 
上記のようなアプローチにより、生成型AIの単純な利用を超えて、学生自身の思考力や独自性を引き出す課題設計が可能となります。また、以下の点も考慮するとより有効でしょう。 
オープンエンドの問い: 一つの明確な正解が存在しない問題を提出することも、生成型AIの単純な利用を避ける有効な手段となります。このような問題は、学生が多角的に考え、自分自身の見解を形成することを促します。
プロジェクトベースの学習: 長期的なプロジェクトを課題とすることで、学生が深く学び、自分自身の解釈と分析を形成するプロセスを評価できます。これは、単一の問題に対する一時的な回答よりも、AIを単純に利用することを避ける助けとなります。
実験や観察に基づくレポート: 実験の設計、実行、観察、そしてその結果の解析と報告を求める課題は、AIが単独で完結することを難しくします。これは学生自身の科学的な思考や観察力を評価する良い方法です。
教材の外部情報の使用: 一部の情報を教材以外から引用するような課題も、生成型AIの単純な利用を防ぐ手段となります。その際、どの情報源をどう選択し、その信憑性をどう判断したかを報告することを求めると、情報リテラシーも評価できます。

これらの提案を通じて、教員は学生が自分自身の思考力と創造性を発揮し、生成型AIを超えた高度な学習を達成するのを助けることができます。

2023年5月25日木曜日

大学教育とChatGPT(6)

大学教育とChatGPT(5)からの続き

毎週一度,大学から発出されているChatGPT(生成系AI)への注意を集めてまとめている。5月25日現在で,全国の大学のほぼ15%が一般公開していることになる。

各大学が足並みをそろえて同じテーマについてメッセージを出すというのは,新型コロナ感染症以来のことで,シンギュラリティ・サロンの松田卓也さんがおっしゃるように,2020-2022年のコロナ騒動が,2023-2025年に生成AI騒動として再現されることになるのかもしれない。
5月15日
長浜バイオ大学における生成系 AI の使用に関する方針
長浜バイオ大学 学長 伊藤正惠
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 
5月19日
国立音楽大学における生成系AIへの教学上の対応について
国立音楽大学

5月19日
教育におけるChatGPT等の生成系AIの利用について
北海商科大学 教務センター長

5月19日
全学教育科目における生成系AIの利用に際しての留意事項
名古屋大学 教養教育院長 納谷信

5月19日
学修における生成系AI(ChatGPT等)活用に関する注意事項
武蔵野大学 学長 西本照真

5月21日
学修におけるChatGPT等の生成系AIの使用への対応について
鈴鹿大学情報教学管理委員会

5月22日
ChatGPT等の生成AIの利用について
成蹊大学長 森雄一

5月22日
生成AIへの愛知大学の対応について
愛知大学

5月22日
生成AIの利用について
北星学園大学 学長 大坊郁夫

5月23日
生成系AI(ChatGPTなど)の使用に関わる注意
京都産業大学 学長 黒坂光

5月23日
生成系AI(ChatGPT等)の利用について
和洋女子大学 学長 岸田宏司

5月23日
本学の教育活動における生成系AI(ChatGPT等)の利用方針
広島大学 理事・副学長(教育・平和担当) 鈴木由美子

5月23日
生成系AI(人工知能)の利用についての考え方
神戸女学院大学

5月24日
ChatGPT等生成系AIの利用について
宮城大学 副学長(教育担当) カリキュラムセンター長

5月24日
学生の生成系AIの使用に関する本学の考え方
国際基督教大学 教養学部長 生駒夏美・大学院部長 溝剛・学生部長 木部尚志

2023年5月24日水曜日

渦潮

友ヶ島からの続き

昨年は友ヶ島に渡ったファミリーツアー。今年の目的地の一つは鳴門の渦潮だった。

徳島県鳴門市と淡路島の間の鳴門海峡で発生する渦潮だ。よくある写真のイメージのような大きな渦がひとところで持続しているものかと思っていたら,さにあらず。どちらかといえばカルマン渦のような雰囲気だ。ただ,障害物にあたって左右に別れてできる渦とはちょっと違っていて(橋脚や浅瀬を原因とするものもあるかもしれないが),説明によれば海峡中央部の速い流れと周辺部の遅い流れの速度差が原因のように書いてある。渦の寿命は長くても10秒程度とのことだった。

土曜日は大鳴門橋(1976=1985->)に設置された渦の道(海上45m)という遊歩道+展望台から渦潮を観察した。これは新幹線を通す予定がなくなってしまったので,用途転換したのかと思っていたが,そもそも明石海峡大橋(1988=1998->)が道路単独橋として建設された段階で,新幹線の芽は摘まれていたのだった。そのため鉄道は瀬戸大橋(1978=1988->)を経由することになった。

そうか,阪神淡路大震災(1995.1.17)のときは明石海峡大橋は建設途上だったのか。神戸側と淡路島側の両主塔はできあがって,ストランドとよばれる鋼線も張り終えられていた。その3990mの橋の全長が地震による地盤の変位で1m伸び3991mになった。1mあたり,0.25mmのズレということになる。

橋ではなくて,渦の話だった。これがなかなか難しい。たぶん都会で流れ星を探すときのように忍耐強く綺麗な渦ができるのを待つ必要がある。船からだと近くて迫力もあるのだけれど,角度がちょっと足りない。船から空中ドローンと水中ドローンを飛ばしてその画像と併用したらどうかな。


写真:渦のつもり(2023.5.21撮影)

2023年5月23日火曜日

JuliaのPyCallとSymPy

Maxima-Jupyterからの続き

Mathematicaの代替となるフリーの数式処理言語として,Maximaが候補にはなったが,やはり何となく使いにくい。Jupyter上のmaximaで終端記号のコロンを忘れるだけで毎回大量のエラーメッセージが出るのにも閉口する。

とすれば,Juliaで数式処理ということになる。標準的な手法としては,Pythonの数式処理モジュールであるSymPyを使えばよいが,先日からPython 呼び出しのPyCallとSymPyがエラーになっている。実害がなかったので放置していたけれど,再度見直してみた。

これまでは,googleで問題解決を図っていたが,必要な情報にたどり着くまではいくつものサイトを渡り歩く必要があった。そこに登場したChatGPTはかなりよい仕事をしてくれるので助かる。問題は,PyCallにあったので,エラーコードを与えて尋ねてみた。
Q:User
Juliaで,PyCallとSymPy がうまく動きません。
例えば,
(中略)
Error building `PyCall`: 
どうしたらいいでしょう。

A:ChatGPT
問題は、おそらく libpython が見つからないために発生しているようです。以下の手順で問題を解決してみてください。

Julia REPLを終了して、再度起動してください。

次に、次のコマンドを実行して、PyCallを再構築し、環境変数を設定してください。
julia
Copy code
ENV["PYTHON"] = "/Users/koshi/.julia/conda/3/bin/python"
import Pkg
Pkg.build("PyCall")

もしまだ問題が解決しない場合、次の手順を試してください。
(中略)
もしまだ問題が解決しない場合、PYCALL_DEBUG_BUILD 環境変数を設定して、デバッグ情報を取得してみてください。
(中略)

これで、エラーが発生している理由に関する追加情報が得られるはずです。その情報を使用して、問題を特定し、解決策を見つけることができます。

SymPyの問題が解決しない場合、まずPyCallが正常に機能していることを確認してください。その後、SymPyの再構築を試みてください。

これらの手順のいずれかが、PyCallとSymPyの問題を解決するはずです。それでも問題が解決しない場合は、エラーメッセージとともに質問してください。

で最初のPYTHON環境変数を /opt/homebrew/bin/python3.11 に置き換えて(だったかな?) なんとかクリアすることができた。

2023年5月22日月曜日

Maxima-Jupyter

一月ほど前にyujitachさんが,MathematicaでHopfバンドルの図示をしていて,MathematicaからオープンソースのJupyter Notebook版にできないかと呼びかけていた。

オープンソースというかフリーの数式処理アプリというとMaximaになる。JupyterでMaximaが動くのかと調べてみると,弘前大学の葛西真寿さんによる,Maxima-Jupyterによる数式処理というサイトがあった。

早速,インストールを試みるが途中で挫折。いろいろ調べて,なんとか動くところまできたが,どうも動作がおかしい。原因は,maxima側ではなくて,jupyter側にあった。jupyter labが4回ほどの入力でおかしくなってしまう。GPT-4に尋ねてみると,ブラウザを変えてみたらとのアドバイス。SafariからChromeに変えるとどうにか動いた。なお,Jupyter notebookならSafariでもうまく動作するのである。

Maxima-Jupyterのインストールに関しては,さきほどのページにあるmacOS に Maxima-Jupyter をインストールするによった。maximaを実行した段階でzmq.hが見当たらないとのエラーになり,これを解消するために,Maximaで綴る数学の旅の2022-01-20の記事が役に立った。 
% brew install sbcl gpg zmq gnuplot
% brew edit maxima
% brew install maxima -s

[quicklispをインストール(sbcl起動時の自動読み込みまで設定)]
quicklisp.lispをダウンロード。
% curl -O https://beta.quicklisp.org/quicklisp.lisp
% curl -O https://beta.quicklisp.org/quicklisp.lisp.asc
% gpg --verify quicklisp.lisp.asc quicklisp.lisp

% sbcl
* (load "quicklisp.lisp")
* (quicklisp-quickstart:install)
* (ql:system-apropos "vecto")
* (ql:quickload "vecto")
* (ql:add-to-init-file)
* (quit)

[maxima-jupyterをインストール]
そのgithubレポジトリをクローンし展開したディレクトリに移動
% cd ~/Library
% git clone https://github.com/robert-dodier/maxima-jupyter.git

% cd maxima-jupyter
% export C_INCLUDE_PATH="/opt/homebrew/include/"
% maxima
(%i1) load("load-maxima-jupyter.lisp");
(%i2) jupyter_install();
(%i3) quit();

[jupyterを起動]
% jupyter lab

これで,Maxima-Jupyterは動いたが,Jupyter labのところで引っかかったわけだ。