2020年12月31日木曜日

2020年12月30日水曜日

2020年12月29日火曜日

2020年12月28日月曜日

2020年12月27日日曜日

鉄犬ヘテロトピア文学賞

日経朝刊の文化欄に管啓次郎さんが,「遠吠えする鉄犬文学」として,鉄犬ヘテロトピア文学賞の話題を書いていた。まったく読んだことにない作品ばかりだった。かろうじて,第2回の候補作の「加藤直樹『九月、東京の路上で』(ころから)」だけは読んでいた。

第1回鉄犬ヘテロトピア文学賞
第2回鉄犬ヘテロトピア文学賞
第3回鉄犬ヘテロトピア文学賞
第4回鉄犬ヘテロトピア文学賞
第5回鉄犬ヘテロトピア文学賞
第6回鉄犬ヘテロトピア文学賞
第7回鉄犬ヘテロトピア文学賞


写真:鉄犬ヘテロトピア文学賞(読書人WEBから引用)


2020年12月26日土曜日

レゴ(2)

レゴ(1)からの続き

LEGO組み立て説明書」アプリをダウンロードすると(アプリ名称が「の遊び方」になるのはなぜだ),これまでの製品の詳細がわかる。また,製品についているマニュアルのpdf版もあるので便利かもしれない。

LEGO Classic 11717 1504 (2020) ブロックブロックプレート
LEGO Classic 11911 1500 (2020) アイデアパーツ〈動物セット〉
LEGO Classic 10717 1500 (2018) ブロックブロックブロック
LEGO Classic 10697 1500 (2015) アイデアパーツ〈XXL〉
LEGO Classic 10705 1000 (2016) アイデアパーツ〈XL〉
LEGO Classic 10704 900 (2017) アイデアパーツ〈スペシャルセット〉
LEGO Classic 11002 900 (2019) 作ってあそぼう
LEGO Classic 10698 790 (2015) 黄色のアイデアボックス〈スペシャル〉
LEGO Classic 10705 583 (2016) アイデアパーツ〈エクストラセット〉
LEGO Classic 10695 580 (2015) アイデアパーツ〈スペシャルセット〉
LEGO Classic 10703 502 (2017) アイデアパーツ〈建物セット〉
LEGO Classic 10698 484 (2015) 黄色のアイデアボックス〈プラス〉
LEGO Classic 11004 450 (2019) 創造力の窓
LEGO Classic 11003 451 (2019) アイデアパーツ〈目のパーツ入〉
LEGO Classic 10715 442 (2018) アイデアパーツ〈タイヤセット〉
LEGO Classic 11009 441 (2020) アイデアパーツ〈ライトセット〉
LEGO Classic 11008 270 (2020) アイデアパーツ〈お家セット〉
LEGO Classic 10712 244 (2018) アイデアパーツ〈歯車セット〉

2020年12月25日金曜日

WHOのCOVID-19データ(3)

WHOのCOVID-19データ(2)からの続き

WHOのjsonデータの冒頭部分を取り出してみた。国別に,UNIX-timeの行と地域名の行の次に10項目の数値データが並んだ配列が格納されていた。10項目の内訳は,死亡数/日,死亡数累計,1週間の死亡数,1週間の死亡数の変化分,100万人あたりの死亡数,確定感染数/日,確定感染数累計,1週間の確定感染数,1週間の確定感染数の変化分,100万人あたりの確定感染数,となっていて,これを取り出していたのだった。

 {

"componentChunkName":"component---src-templates-table-tsx",

"path":"/table",

"result":

  {"pageContext":

    {"countryGroups":[


{

"dimension":{"name":"Country","type":"STRING","dataType":"STRING"},

"value":"US",

data":

{"metrics":

[

{"name":"Deaths",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Cumulative Deaths",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Deaths Last 7 Days",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Deaths Last 7 Days Change",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Deaths Per Million",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Confirmed",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Cumulative Confirmed",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Cases Last 7 Days",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Cases Last 7 Days Change",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

,

{"name":"Cases Per Million",

 "type":"NUMBER",

 "dataType":"NUMERIC",

 "aggregateFunction":"SUM"}

],


"dimensions":

[

{“name":"day", "type":"TIMESTAMP", “dataType":"STRING"},

{“name":"Region", “type":"STRING", "dataType":"STRING"}

],


"rows":

[

[1578009600000,”AMRO",0,0,0,0,0,0,0,0,0,0],

[1608595200000,"AMRO",1570,315318,18478,9.16,952.61,197199,17712290,1671195,13.64,53511.02]

],


"totals":[315318,42488183,2153709,15832.590000000002,128361.91999999997,17712290,1494857008,118829648,32537.839999999975,4516148.239999997]

}

},


{"dimension":

    


2020年12月24日木曜日

Alfred(1)

 macOSのデスクトップツール(ランチャーアプリ)であるAlfredが超強力であるとの噂を聞きつけて,さっそくダウンロードしたものの,肝腎のメモ(Notes)が呼び出せないので速攻でアンインストールした。

しかし待てよと思い直して検索したところ,Spotlightの検索範囲に該当のファイルが存在しないと発見されないということだった。確かめてみると案の定,Spotlightからはアプリケーションフォルダが外されていた。普通はドキュメントだけ探したいからだった。

早速修正の上でAlfredを再インストールしたところ,OK。アマゾンだとかDeepLとか,いろいろと試して見る価値はあるかもしれないので,もう少し調べてみることにする。


[1]アルフレッドの使い方とおすすめワークフロー
[2]Alfred【概要・設定・使い方】〜Mac最強のランチャーアプリ
[3]Alfredアプリの設定・使い方まとめ完全版

2020年12月23日水曜日

OpenData API

 だいたい,日本のIT政策やシステムはほとんどダメダメのようにみえるけれど,オープンデータAPIポータルというのはちょっと良さげなので,登録してみた。すべての行政データをカバーするのかスゴイと思っていたら,新型コロナウィルス感染症関連情報だけなのか。ちょっと残念。早速ユーザ登録してみたが,英語のアナウンスというのはまあよいとして結構スマートに標準的なユーザ登録方法が実装されている。パスワードで特殊文字を要求されたのでハイフンを使ったが,違うような雰囲気だった。ハイフンは特殊文字ではないのだろうか。

札幌市,会津若松市,群馬県,東京都,神奈川県,横浜市,福井県,三重県,神戸市,福岡市が早速対応していた。もちろん大阪や奈良はないのであった。

著作権について記述されている,利用規約の第12条は以下の通り,まあいいんじゃないの。

本サイトに掲載されている各地方公共団体が著作権を有する著作物の利用(複製、公衆送信、翻訳・変形等の翻案等)については、クリエイティブ・コモンズ・ライセンス(以下「CCライセンス」という。)の著作権を有するもの(ロゴ、シンボルマーク等を除く。)は、クリエイティブ・コモンズ・ライセンス(以下「CCライセンス」といいます。)の表示4.0 国際(CC BY 4.0)((https://creativecommons.org/licenses/by/4.0/legalcode.ja)に規定される著作権利用許諾条件を指します。)により利用できます。なお、数値データ、簡単な表・グラフ等のデータは著作権の対象ではありませんので、ライセンス欄に「CC BY」の表記がある場合でも、当該データのうち、これらのデータについてはCCライセンスの適用はなく、 自由に利用できます。

2020年12月22日火曜日

JSON

 JSONは, Javascript Ibject Notation の略であり,JavaScript(ECMAScript)のデータ定義文をベースとした簡易データ定義言語である。共通データ定義言語として,XMLにかわってJSONが利用されるようになった。以下にJSONの形式をまとめる。

オブジェクト:" "で囲まれた"キー"(文字列型)と"値"の対をコロンで結び,カンマで区切って並べたものを{}で包んだもの,階層構造が可能なので,値には,オブジェクト,配列,数値,文字列,真偽値,ヌル値がくる {"name":"koshix", "age":67}

配列:ゼロ個以上の"" で囲まれた"値"をカンマで区切って並べたものを[]で包んだもの,オブジェクトの値がすべて値として取れるので,オブジェクトや配列の配列も可能["seiryu","suzaku","byakko","genbu"]

数値:10進法整数,10進法浮動小数点(1.0e-10も可)

文字列:" "で囲まれたUnicode文字列,\" (ダブルクォーテーション) \\ (バックスラッシュ) \/ (スラッシュ) \b (バックスペース) \f (フォームフィード) \n (ラインフィード) \r (キャリッジリターン)\t (タブ) \uxxxx (Unicode文字)

真偽値:true, false(真偽を示す,必ず小文字で)

ヌル値:null(値がないことを示す,必ず小文字で)

[1]Juliaでのjsonの利用

2020年12月21日月曜日

python3の入出力

python3の入出力周りをまとめた。


(1)標準入出力( test1.py < a > b )
#!/usr/local/bin/python3
import sys
a = []
for l in sys.stdin:
    a.append(l)
    print(l.rstrip())
print(a)

(2)ファイル入出力 (test2.py )
#!/usr/local/bin/python3
with open('kajitu.txt','w',encoding='utf-8') as f:
    with open('fruits.txt',encoding='utf-8') as inf:
        for row in inf:
            columns = row.rstrip()
            print(columns)
            f.write(columns) 

(3) コマンドライン引数 (test3.py x y )
#!/usr/local/bin/python3
import sys
print('sys.argv : ', sys.argv)
print('type(sys.argv) : ', type(sys.argv))
print('len(sys.argv) : ', len(sys.argv))
print('sys.argv[0] : ', sys.argv[0])
print('sys.argv[1] : ', sys.argv[1])
print('sys.argv[2] : ', sys.argv[2])

2020年12月20日日曜日

3Dプリンタ

引き込もり生活が続いて,YouTubeが不可欠のツールになった。 時間は無限に溶かすことができる。

レゴは,YouTube動画を3本くらいみて卒業したので,次は3Dプリンタである。大阪教育大学のICT支援ルームにも導入されていた。導入企画案の作文をしたかも(しなかったかも)なので,関心・意欲・態度はあったのだが,残念なことに実行が伴わず,自分では使おうともしなかった。

ICT支援ルームのウェブページを確かめてみると,導入されている3DプリンターはUltimakerのものらしい。UltimakerというとスライサーソフトCURAなので(というか今日学んだ),筋はよかったのではないか。しかしながら,YouTubeをざっと眺めてみたところ,おすすめは,CrealityのEnder-3である。ステッピングモータの基盤を交換すると静音化もできて最強である。最初から静音基盤を使った Ender-3 V2も2万7千円で入手可能だ(あら,アマゾンでは倍の値段がついている,ひどいなぁ)。

FreeCADFusion360などを使えば,自分でデザインした立体物をつくれる。あるいは,iPhone12 Pro やiPad ProのLiDARによる3Dスキャンデータを使うといろいろ楽しいことがまっているということなのかもしれない。

[1]iPhoneが3Dスキャナーに アプリと活用方法を徹底解説(Tsukasa-3D)
[2]Creality  Ender-3 V2 User's Manual
[3]Thingiverse

2020年12月19日土曜日

ANN

 日本物理学会大阪支部の2020年度公開シンポジウム「AIで切り開く物理の世界」をZoomのウェビナーで視聴した。普段はなかなか足が重くて敬遠してしまうイベントでも,オンライン開催だと気軽に参加できるところがありがたい。橋本幸士さんの話も,牧野淳一郎さんの話も面白かった。

深層学習を関数 $y=f(x)$ だと定義して,$y$を求める順問題,$x$を求める逆問題(初期値問題),$f$を求める逆問題(システム決定問題)に分類したところや,多体系の量子力学を解くために,行列積状態,テンソルネット状態,ニューラルネット状態を用いるという整理は腑に落ちた。

原子核への応用はどうなっているのかをarxivで調べてみると,A≦4の変分モンテカルロ法をANN(Artificial Neural Network)で求めるというのが,2020年の7月に投稿されており,これを含めてIsing系でニューラルネット状態を提案したCarleoの一連の論文が非常に興味深かった。ニューラルネットを実験データと直接付き合わせるような論文は,1980年頃にはNuclear Physicsで見かけていたが,ついにここまできたか。

牧野さんがコンピュータのCPUの90%は計算に使われておらず,理論的な限界を目指した科学的な再設計が必要であると主張されていた。これはこれで面白い話だ。


2020年12月18日金曜日

ボキャブラリ

 英語のボキャブラリサイズのテストがあったので,覗いてみたところ,日本語もある。ほんとかなと思って試してみると,同義語と反義語の2種類が繰り返し4択式で出てくる問題だった。英語のほうも試してみたところ,10歳児程度であった。かなり難しかったのよ。

図1 英語ボキャブラリサイズテストの結果

図2 日本語ボキャブラリサイズテストの結果



2020年12月17日木曜日

素数の計算(4)

 素数の計算(3)の続き

というわけで,JuliaのPrimes.jlでは,primes()を使って探す方が,prime()を計算するより早いということがわかってしまった。1億番目の素数を求める場合,prime()単体では,primes()を用いた場合より35倍遅い。なんだか・・・。なお,素数計数関数 $n = \pi(x)$の逆関数としては,前回のものをちょっと修整して,$x(n) = 10^{1.05 \log(n) + 1.0}$を用いた。

using Primes

function testp(n,k)
  if(k==1)
    m=Int64(floor(10^(1.05*n+1.0)))
    p=primes(m)
    println(p[10^n])
  elseif(k==2)
    println(prime(10^n))
  end
end

for i in 6:8
  @time testp(i,1)
end

for i in 6:8
  @time testp(i,2)
end


15485863
0.067474 seconds (43 allocations: 14.778 MiB)
179424673
0.915835 seconds (163 allocations: 151.275 MiB, 0.35% gc time)
2038074743
12.159200 seconds (163 allocations: 1.536 GiB, 0.10% gc time)
15485863
2.350876 seconds (2.53 M allocations: 38.664 MiB)
179424673
33.536126 seconds (29.35 M allocations: 447.880 MiB)
2038074743
426.317886 seconds (333.40 M allocations: 4.968 GiB, 0.12% gc time)

2020年12月16日水曜日

勝負の三週間

「新型コロナウイルスの感染拡大防止に向けて政府が短期間の集中した取り組みを呼びかけた「勝負の3週間」が16日最終日を迎えた」ということらしいが,感染者数も死亡者数も高止まりしている。東京に比べて大阪が若干ましに見えているけれど本当のところはどうだかわからない。吉村は和歌山県知事のメッセージもスルーしているようだし,相変わらずマスコミとの共依存でまともな対応がなされていないような気がする。とにかくデータが信頼できないというのが致命的だ。

2020年12月15日火曜日

レゴ(1)

 クリスマスプレゼントにレゴをと考えて,探してみたものの,自分の考えていた昔のレゴは,LEGO CLASSICの中にも見つからなかった。単純な白,赤,黃,青,黒の5色の基本ブロックだけであらゆるものを作り出すという考えはもう古いのかもしれない。レゴ社のコマーシャルフィルムによれば,単純なものから複雑なものという戦略をやめて,最初から複雑な多様なブロックを組み合わせて,よりリアルで定まった完成品を作るという商品系列が主流になってしまった。レゴユーザーのメイキング動画をYouTubeでみているとそれなりに引き込まれてしまうので,戦略としては正しいのかもしれないが,全ての物質は素粒子から成り立っていて,世界は単純な基本法則で説明されるという世界観はもう古びてしまったのかもしれない。

2020年12月14日月曜日

素数の計算(3)

 素数の計算(2)からの続き

JuliaのPrime.jlのprime()がおかしいのであれば,n番目までの素数が登場する範囲の整数の範囲がわかれば,その整数をすべてisprime()でチェックしたほうが早いのではないかという考えで,n番目の素数から整数範囲を求める方法を調べた。

素数定理によれば,素数の数$n=\pi(x)$は${\rm Li}(x)=\int_2^x \frac{1}{log t}dt$で与えられるということだ。対数積分は,Pythonのライブラリにはあるが,JuliaのSpecialFunctions.jlには入っていない。いずれにせよ近似値でよいのだから,素数定理の$\pi(x)$の表をながめて,えいやっと逆関数の近似式を求めた。

$x=\pi^{-1}(n)=10^{\dfrac{9.11*\log_{10}n+6.5}{8.5}}$

残念ながらこれで計算したprime()の代替関数はオリジナルの15倍時間がかかるという情けない結果に終わってしまった。猿の浅知恵の典型的パターンである。

using Primes

function logint(n)
  x=10.0^((9.11*log10(n)+6.5)/8.5)
  m = BigInt(floor(x))
  println(m)
  return m
end

function test(n)
  m = logint(n)
  i = 0
  for p in 1:m
    if(isprime(p))
      i = i+1
      if(i == n)
        println(p)
        break
      end
    end
  end
end

@time test(10^6)
@time println(prime(10^6))


15678124
15485863
32.740030 seconds (124.81 M allocations: 4.688 GiB, 12.73% gc time)
15485863
2.493369 seconds (2.53 M allocations: 38.664 MiB, 0.99% gc time)

2020年12月13日日曜日

素数の計算(2)

素数の計算(1)の続き

Juliaの素数計算が遅い原因を絞り込みたい。python3とJuliaを比べると,素数判定のisprimeや範囲指定素数のprimerangeやprimesではともに高速であるが,順序指定素数のprimeにおいて,juliaはpythonの200倍程度時間がかかっている。しかし,同じ範囲の素数は,素数判定や範囲指定素数では高速に計算できているので,juliaのprimeのコードがややこしいことになっているのが問題だと思われる。

python3では, 
- - - - - - - - - - 
from sympy import *
import time
start_time=time.time()
n=179424673
m=10**7
for p in range(n,n+50):
    if isprime(p)==1:
        print(p)
lap1_time=time.time()
print(list(primerange(n, n+50)))
lap2_time=time.time()
for i in range(m,m+4):
    print(prime(i))
end_time=time.time()
print(lap1_time-start_time)
print(lap2_time-lap1_time)
print(end_time-lap2_time)

- - - - - - - - - - 
179424673
179424691
179424697
179424719
[179424673, 179424691, 179424697, 179424719]
179424673
179424691
179424697
179424719
0.0050160884857177734
0.002671957015991211
0.5041019916534424

julia1.5.1では 
- - - - - - - - - - 
using Primes

function test1(n)
  for p in n:n+50
    if(isprime(p))
      println(p)
    end
  end
end

function test2(n)
  println(primes(n,n+50))
end

function test3(n)
  for p in n:n+3
    println(prime(p))
  end
end

@time test1(179424673)
@time test2(179424673)
@time test3(10^7)

- - - - - - - - - - 
179424673
179424691
179424697
179424719
0.000310 seconds (146 allocations: 3.500 KiB)
[179424673, 179424691, 179424697, 179424719]
0.000521 seconds (207 allocations: 8.109 KiB)
179424673
179424691
179424697
179424719
128.789228 seconds (117.41 M allocations: 1.750 GiB, 0.34% gc time)


2020年12月12日土曜日

ファンドマネージャー

だまされないようにと思いながら,だまされて 一月万冊を見ていると,ときどき,気になるニュースが飛び込んでくる。今回の清水有高と安富歩の話題の終わりの方に,ファンドマネージャーの課税の問題が登場した。ああ,これが大阪を国際金融都市にという大阪維新の妄言の根拠だったのか。新自由主義ブレーンのもとで,菅政権が狙っているサッチャリズムのコアとなる政策のひとつなのかもしれない。世襲血縁にまで手を突っ込もうとしているのかどうかはまだよくわからない。

2020年12月11日金曜日

M1(4)

M1(3) からの続き

アップルイベントから1ヶ月たって,ようやくM1 Macの熱狂も収まっていた。久しぶりに大学の情報基盤センターのページをみると,「【重要】新MACの情報端末の情報提供について」というお知らせがトップにあった。まあ,基盤センターとしてはリスクを減らさないといけないので,当然といえば当然の注意喚起ではあるが,世間の評判と対比させるとなんとなく物悲しい雰囲気がただよってしまうのであった。

M1 Macの開発環境も徐々に整いつつある。MathematicaはRosetta2の対応状況を検証中らしい。homebrewは2.6.0にバージョンアップしたことにともなって,我々も,homebrew- coreとhomebrew-caskを更新させられた。奥村さんのM1 Macの記事が参考になる。

2020年12月10日木曜日

WHOのCOVID-19データ(2)

WHOのCOVID-19データ(1)からの続き

 少し改良してみた。あいかわらず,汚いプログラムではある。


#!/usr/local/bin/perl
# 12/10/2020 K. Koshigiri
# usage: json.pl 2020/12/05 5
# extract 5 day data from 2020/12/05
# original data = https://covid19.who.int/page-data/table/page-data.json

use Time::Local 'timelocal';
\$tmp = "tmpx";
\$in = "whox";
\$out = "who-dat.csv";
\$jsn = "https://covid19.who.int/page-data/table/page-data.json";

(\$sec, \$min, \$hour) = (0,0,0);
(\$year, \$month, \$day) = split '/', \$ARGV[0];
\$epochtime = timelocal(\$sec, \$min, \$hour, \$day, \$month-1, \$year-1900)+32400;

system("lynx -source \$jsn | fsp -u > \$tmp");

open(OUT, ">\$in");
open(IN, "<\$tmp");
while() {
  s/],/],\n/g;
  print OUT;
}
close(IN);
close(OUT);

open(OUT,">\$out");
print OUT "Date, Country Code, Unix Time, Region, Deaths, Cumulative Deaths, Deaths Last 7 Days, Deaths Last 7 Days Change, Deaths Per Million, Confirmed, Cumulative Confirmed, Cases Last 7 Days,Cases Last 7 Days Change, Cases Per Million\n";

for (\$i=0; \$i<\$ARGV[1]; \$i++) {
  \$ut=\$epochtime+86400*\$i;
  (\$sec, \$min, \$hour, \$mday, \$mon, \$year) = gmtime(\$ut);
  \$year += 1900;
  \$mon += 1;
  print "\$ut\n";
  open(IN, "<\$in");
  while() {
    s/\]//g;
    s/\[//g;
    if(/Country.*"value":"(.*?)"/) {
      $ct=$1;
      print OUT "$year-$mon-$mday,$ct,";
    }
    if(/$ut/) {
      print OUT;
    }
  }
  close(IN);
}
close(OUT);

2020年12月9日水曜日

WHOのCOVID-19データ(1)

WHOがまとめている,COVID-19についての各地域の感染者数や死亡者数の経時データは以前はダッシュボードのCSVファイルとしてアクセスできたが,今は,一日分のCSVファイルしか提供されていない。経時データはグラフの形で見ることができる。しかし,JSON形式の経時データにはアクセスできるので,これから必要な情報を取り出すperlスクリプトを作った。

古いperlの知識しかないので,動作が思ったとおりではないけれど,とりあえず第1段階の結果が出た。引き続きプログラムを精査していきたいが・・・。

#!/usr/local/bin/perl
# 12/10/2020 K. Koshigiri
# usage: json.pl 2020/12/05 5
# above sample extracts 5 day data from 2020/12/05
# original data = https://covid19.who.int/page-data/table/page-data.json

use Time::Local 'timelocal';
\$tmp = "tmpx";
\$in = "whox";
\$out = "who-dat.csv";
\$jsn = "https://covid19.who.int/page-data/table/page-data.json";
(\$sec, \$min, \$hour) = (0,0,0);
(\$year, \$month, \$day) = split '/', \$ARGV[0];
\$epochtime = timelocal(\$sec, \$min, \$hour, \$day, \$month-1, \$year-1900)+32400;

open(IN, "<\$tmp");
system("lynx -source \$jsn | fsp -u > \$tmp");
open(OUT, ">\$in");
while(
) {
  s/],/],\n/g;
  print OUT;
}
close(OUT);
close(IN);

for (\$i=0; \$i<\$ARGV[1]; \$i++) {
  \$ut=\$epochtime+86400*\$i;
print "\$ut\n";
open(IN, "<\$in");
open(OUT,">\$out");
while(
) {
  s/\]//g;
  s/\[//g;
  if(/Country.*"value":"(.*?)"/) {
    $ct=$1;
    print OUT "$ct,";
  }
  if(/$ut/) {
    print OUT;
  }
}
close(OUT);

close(IN);
}


2020年12月8日火曜日

有馬さん(2)

 今日は12月8日で,このブログを開始してからちょうど2周年ということになる。

そして,8年前の2012年12月8日にも有馬さんとの接点があった。「高度専門型理系教育指導者養成プログラム~これからの中等理科教育指導者像を探る~」と題したシンポジウムが大阪教育大学天王寺キャンパスのミレニアムホールで開催され,その基調講演に有馬さんを招いたのだった。たぶん,仲矢さんが話をつけてきたのではなかったか。長尾学長とプログラム責任者の定金先生に加えて当時理事だったということで私も加わって,二部主事室で有馬先生と開催前の談話をしていた。名刺交換のときに軽く自己紹介したけれど,有馬先生は私のことを覚えていなかったと思う。

さらにさかのぼって,1996年の9月に南園先生が新大阪の大阪ガーデンパレスで開いた国際シンポジウムが,「International Symposium on Non-Nucleonic Degrees of Freedom Detected in Nuclei」であり,この基調講演にも有馬先生を招待していた。実行委員のメンバーの一人でもあったため,歩いて5分の新大阪の駅まで有馬先生を迎えに行くことになった。有馬先生はすぐに見つかり,かばんをお持ちしましょうといったのだけれど,いやいや大丈夫と断られた。ホテルまでの道筋でもそんな大した話はした記憶はない。ただ,森田研の出身であったということはなんとなく理解されていたのだと思う。

この大阪ガーデンパレスは,私立学校の共済組合の系列であり,城西国際大学に移られた森田先生がよく利用されていた。しばしばホテルに呼び出されて,その時点での研究状況等を報告してから,昼ごはんをごちそうになっていた。科研費の打ち合わせということで,謝金もたまに出ていた。

2020年12月7日月曜日

有馬さん(1)

 有馬さんが亡くなった。twitterでは,毀誉褒貶が喧しい。文部科学大臣や政治家としての彼の仕事に対する批判,東大関係者や俳句関係者からの賛辞などが集まっていた。同じ原子核理論で比較的分野の重なりもあったため,いくつかの記憶がある。

有馬さんといえば,堀江・有馬の論文(Configuration Mixing and Magnetic Moments of Odd Nuclei)だ。この延長線上に,1970年代末の東大の鈴木俊夫さんらの論文「12Cの非弾性電子散乱におけるM1磁気形状因子に対するコア偏極の効果」があり,それが自分の博士論文の「A=12体系のベータ崩壊におけるコア偏極と交換流の効果」の話につながっていく。この博士論文のコピーは大坪先生からの助言で,有馬先生にも送っている。そんなわけで,阪大における堀江さんの原子核殻模型の集中講義は非常によく飲み込めた。また,鈴木らの論文をめぐる理論上の問題では,矢崎紘一さんとガチの計算のやりとりをしたのもなつかしい。向こうの論文に若干の欠陥はあったものの,その指摘の過程でのこちらの計算の意味付けにも誤解があったことを矢崎さんは鋭く見抜いたのだった。

自分が大学院に進学した1970年代の後半には,有馬・IachelloのIBM(相互作用するボゾン模型)が隆盛のピークを迎えていた。1980年に阪大で開催された物理学会では,原子核理論のシンポジウムで,有馬さん(IBM)と丸森さん(TDHF)の一騎打ちがみられた。それに比べれば,中間エネルギー核物理と核構造という一点で東大グループとは重なっていたとはいえ,原子核の弱い相互作用はマイナーな分野だった。

有馬さんが物理から離れるとともに東大の原子核理論グループ(大塚孝治さんら)もIBMを離れて,本格的な大規模殻模型の数値計算に進んでいき,その段階では我々はまったく追いつくことができなかった。1980年ごろには,殻模型の伝統のある東大でも0pシェルのcfpもおぼつかないのではと大坪さんが話していたのだけれど,それはあっという間のことだった。

2020年12月6日日曜日

はやぶさ2

はやぶさ2のサンプルリターンカプセルが,2020年12月6日にオーストラリアのウーメラ砂漠で無事に回収されたようだ。はやぶさ2本体は化学エンジン噴射プロセスTCM5により再び地球軌道を離脱した。1998KY26という小惑星に2031年7月に接近する予定である。

はやぶさ2がここまでで達成したこと(世界初)は以下の通り
1.小型探査ロボットによる小天体表面の移動探査
2.複数の探査ロボットの小天体上への投下・展開
3.天体着陸精度 60 cm の実現
4.人工クレーターの作成とその過程・前後の詳細観測
5.同一天体2地点への着陸
6.地球圏外の天体の地下物質へのアクセス
7.最小・複数の小天体周回人工衛星の実現

ウェブ上のBBCのニュースでは,多くの科学者のインタビューにより科学的な意味を丁寧に解説していたが,NHKのニュースでは,解説の分量もBBCのそれよりは少ない上に,はやぶさを支えた日本の技術というところに重点をおいたエモーショナルな内容だった。いつものことである。

2020年12月5日土曜日

UNIX Time

WHOのCOVID-19のデータ形式が先月の途中から変更されてしまったので,対応に苦慮しているところ。とりあえず,perlで処理するための準備をする。

#!/usr/local/bin/perl

# usage: time.pl 1607100000

# usage: time.pl 2020/12/05 21:30:00

# conversion of UNIX time & local time


use strict;

use warnings;

use Time::Local 'timelocal';


if ( @ARGV == 1 ) {


my \$unix_time = \$ARGV[0];

my (\$sec, \$min, \$hour, \$mday, \$mon, \$year);


(\$sec, \$min, \$hour, \$mday, \$mon, \$year) = gmtime(\$unix_time);

\$year += 1900;

\$mon += 1;

printf("GMT:\t%04d/%02d/%02d %02d:%02d:%02d\n", \$year ,\$mon, \$mday, \$hour, \$min, \$sec);


(\$sec, \$min, \$hour, \$mday, \$mon, \$year) = gmtime(\$unix_time);

\$year += 1900;

\$mon += 1;

\$hour +=1;

printf("CET:\t%04d/%02d/%02d %02d:%02d:%02d\n", \$year ,\$mon, \$mday, \$hour, \$min, \$sec);


(\$sec, \$min, \$hour, \$mday, \$mon, \$year) = localtime(\$unix_time);

\$year += 1900;

\$mon += 1;

printf("LOCAL:\t%04d/%02d/%02d %02d:%02d:%02d\n", \$year ,\$mon, \$mday, \$hour, \$min, \$sec);


} elsif (@ARGV == 2) {


my (\$year, \$month, \$day) = split '/', \$ARGV[0];

my (\$hour, \$min  , \$sec) = split ':', \$ARGV[1];

my \$epochtime = timelocal(\$sec, \$min, \$hour, \$day, \$month-1, \$year-1900);

print \$epochtime."\n";


}


2020年12月4日金曜日

Eテレ廃止

大阪維新と同様に 菅政権のブレーンにはろくなメンバーがいないのであるが,高橋洋一がEテレ売却論をとなえて,NHKへの圧力を強めている。橋下徹が大阪府立国際児童文学館を廃止したときや,文楽協会への補助金をカットしたときにも,相当びっくりしたけれど,それに匹敵するかそれ以上の話である。SNSでの意見に同感だけれど,NHK教育テレビチャンネルがあるので,受信料を払う気になっているのだ。それがなければ,これほど偏向したNHKの報道を喜んで買う必要はない。たぶん,日本学術会議への圧力と根元は通じていて,それが新自由主義的な栄養環境下ではこのように発現するということだろう。

2020年12月3日木曜日

大阪モデル

 COVID-19の大阪モデルのモデリング指標が大阪府のホームページに公開されている。第1波の段階では,それまでの安倍政権や小池知事の東京都の対応と比較して,「(相対的に)吉村知事の決断力すげー」みたいな空気が大阪マスメディアを中心として沸き起こった。ところが,その後のカッパ・イソジン騒動などでどんどん株は下落を続けた。特にひどかったのが,大阪府のコロナ感染のモデリング指標が吉村の恣意的な操作によってコロコロ変えられたことである。いまでは二度と赤信号がつかないひどい基準になっている。それもこれも「大阪市廃止特別区設置(いわゆる大阪都構想)」の住民投票のときに赤信号が灯らないようにするためだったのでなはいかと想像される。切羽詰まった状況になったので,再び恣意的な指標変更に相当する運用がされるようだ。なお,その基準というのは以下のようになっている。

(1) 新規陽性者における感染経路不明者7日間移動平均前週増加比(黄:2以上),かつ,(2) 新規陽性者における感染経路不明者数7日間移動平均(黃:10人以上/緑:10人未満で解除),(3) 7日間合計新規陽性者数[うち後半3日間](黃:120人以上かつ後半3日間で半数以上),(4) 直近1週間の人口10万人あたり新規陽性者数(緑:0.5人未満解除),(5) 患者受入重症病床使用率[重症患者数÷確保病床数](赤:70%以上 ただし「警戒(黄色)」信号が点灯した日から起算して25日以内/緑:60%未満で解除)

現時点では警戒基準(黄信号)の条件も満足していないが,解除基準も満足されていないことから,点灯した黄信号が長期に渡って継続している。このため25日以内条件は永遠にみたされず,赤信号が点灯することはない。どうして,こんなに合理性に欠ける基準を作って誰も恥じることがないのだろうか。東京都は基準とアラートが直結せず,あらかじめ恣意的な判断がはいるようになっているので,より巧妙だといえるかもしれない。


2020年12月2日水曜日

AlphaFold2(1)

 twitter界隈では,AlphaFold2が騒ぎになっている。タンパク質の立体構造を求める競技でこれまでの手法から飛び抜けた成果を得る深層学習の方法が考案されたということらしいが,専門外の自乗なのでよくわからない。田口善弘さんが相当に凄いといってるのでたぶんそうなのだろうと思う。

タンパク質の立体構造というとDNAの立体構造と並んで,X線結晶解析の応用分野の花形だったような気がする。教養の化学の授業担当が,阪大の吹田にあった蛋白質研究所(1958-)助教授の芦田玉一先生(後に名大工学部)で,デュワーの「新しい化学入門」が教科書だった。この教科書は量子力学の成果をフルに生かした化学の教科書であり,物理学科の我々にはふさわしいものだったかもしれない。

五月祭のときだったろうか,何かのきっかけで,芦田先生にお願いして物理学科の数名でタンパク質研究所を見学させてもらった。たぶん,佐藤秀明くんが言い出しっぺで,みんなでそれに便乗したのではなかったか。日本で初めて構造が決定されたタンパク質であるカツオ・チトクロームCの立体構造模型を見せていただいた。秀明くんは,英語の藤井治彦先生の授業でも,ジェームズ・ワトソンの「二重らせん」をテキストにできないかという交渉をしていたのだけれど,こちらは残念ながら却下されたのであった。

2020年12月1日火曜日

Mac雑誌

アップルと私からの続き 

Appleのシリコンチップ搭載Macの発表直前の11月11日に(サンフランシスコ or 日本),青木剛一(@drikin)さんと松尾公也(@mazzo)さんが,ドリキンのVLOGで,「新型Macの発表前夜に語る,元MacUser編集長と元Apple信者のAppleシリコンへの期待!(第1118話 #シネマティック対談)」という対談をしていて,いろいろ回想しながら楽しく聞いていた。

で,日本のMacの三大雑誌としてMacLife,MacPower,MacUserをあげていたが,どうも自分の記憶とずれているので,確認してみたところ,次のようであった。初期(1980年代)のMacワールドからMac+とMacLIFEはすべて買っていたと思う。そのうち,The BASICでなじみのあった技術評論社からMacJapanが発刊されたので,休刊になるまでそれを買っていたような気がするし,Software Designが1990年に創刊されているので,それに乗り換えたようにも思う。

1 Macワールド->Mac+ 1986-1991
2 MACLIFE BNN 1987.8-2002.1
3 MacJapan 技術評論社 1989.5-1993.5
4 MacPower アスキー 1990.2-2007.10
5 MacWorld 1991-1998.4
5 日経Mac 日経BP 1993.2-2000.1
6 MacFan マイナビ 1993.4+
7 MacUser ソフトバンク 1993.11-1998.3
8 MacPeople アスキー 1995.12-2014.11

大阪教育大学にMacintoshが導入されたのが1988年ごろなので,とにかく情報がほしかった。そういえば,Appleから直接APDAlogも買っていた。

[1]日本のMac雑誌(Old Apple World)
[2]我が国最初のMac専門誌「MACワールド日本語版」顛末記(Apple/Macテクノロジー研究所)
[3]20年ぶりに再会〜Mac Japan誌の想い出(Apple/Macテクノロジー研究所)