本・ノート・鉛筆・消しゴム
책(chaek)・노트(noteu)・연필(yeonpil)・지우개(jiugae)
芥川龍之介が「蜘蛛の糸」を発表して百年。高二の秋の文化祭,クラスの仮装行列のテーマが 蜘蛛の糸だった。お釈迦様の極楽タワーの竹を近所から切り出し,地獄の焔と煙の絵を描いた。犍陀多に続いて蜘蛛の糸(登山部の赤いザイル)に群がる地獄の亡者だったころ。
人工的に拡張された遺伝情報システム(AEGIS)は、DNAに新たな塩基対を追加したものです。この新たな塩基対は、天然の塩基対と異なる水素結合パターンを持っています。そのため、RNAポリメラーゼによって認識され、処理されるかどうかは不明でした。この論文では、大腸菌のRNAポリメラーゼが、6文字に拡張された遺伝システムにおいて、非天然型核酸塩基を選択的に認識することを示しました。高分解能低温電子顕微鏡構造から、AEGISと天然塩基対の認識の背後にある共通の原理が明らかになりました。
jupyter kernelspec listpython3 /opt/homebrew/Cellar/jupyterlab/4.0.9_2/libexec/lib/python3.12/site-packages/ipykernel/resourcesjulia-1.9 /Users/koshi/Library/Jupyter/kernels/julia-1.9maxima /Users/koshi/Library/Jupyter/kernels/maximawolframlanguage12 /Users/koshi/Library/Jupyter/kernels/wolframlanguage12
cd /opt/homebrew/Cellar/jupyterlab/4.0.9_2/libexec/bin
./pip install astropy
./pip install ephem
import astropy as ap>>> ap.test()platform darwin -- Python 3.12.1, pytest-7.4.3, pluggy-1.3.0Running tests with Astropy version 6.0.0.Running tests in lib/python3.12/site-packages/astropy.Date: 2023-12-19T22:26:53Platform: macOS-14.2-arm64-arm-64bitExecutable: /opt/homebrew/Cellar/jupyterlab/4.0.9_2/libexec/bin/pythonFull Python Version:3.12.1 (main, Dec 7 2023, 20:45:44) [Clang 15.0.0 (clang-1500.0.40.1)]encodings: sys: utf-8, locale: UTF-8, filesystem: utf-8byteorder: littlefloat info: dig: 15, mant_dig: 15Package versions:Numpy: 1.26.2Scipy: 1.11.4Matplotlib: 3.8.2h5py: not availablePandas: not availablePyERFA: 2.0.1.1Cython: not availableScikit-image: not availableasdf-astropy: not availableUsing Astropy options: remote_data: none.rootdir: /opt/homebrew/Cellar/jupyterlab/4.0.9_2/libexecplugins: astropy-0.11.0, remotedata-0.4.1, hypothesis-6.92.1, cov-4.1.0, filter-subpackage-0.1.2, astropy-header-0.2.2, anyio-4.1.0, mock-3.12.0, doctestplus-1.1.0, arraydiff-0.6.1collected 28085 items / 5 skipped-- Docs: https://docs.pytest.org/en/stable/how-to/capture-warnings.html========== 27425 passed, 425 skipped, 240 xfailed, 80 warnings in 184.56s (0:03:04) ===========<ExitCode.OK: 0>
Reservoir computing(リザーバーコンピューティング)は、再帰ニューラルネットワークに着想を得た比較的新しい計算フレームワークです。この手法は、入力信号をリザーバーと呼ばれる固定された非線形システムのダイナミクスを使用して、高次元の計算空間にマッピングすることによって機能します。このリザーバーは、水のバケツや回路などの物理的なシステムであるか、微分方程式の系などの数学的なモデルであることができます。その後、リザーバーの出力は線形の読み出し関数を使用して読み取られます。この読み出し関数は、リザーバーの状態と所望の出力との関係を学習するためにトレーニングできます。図:リザーバーコンピューティングアーキテクチャ(編者注: Rossello (2018)の図 [1] へ勝手にリンク引用しているBard)リザーバーコンピューティングの利点の一つは、非常に効率的であることです。リザーバーは非常に単純であり、読み出し関数は比較的単純で速いアルゴリズムである線形回帰を使用して学習できます。これにより、低消費電力とリアルタイムのパフォーマンスが重要なアプリケーションに適しています。リザーバーコンピューティングのもう一つの利点は、非常に柔軟であることです。同じリザーバーは、読み出し関数を変更するだけでさまざまなタスクを学習するのに使用できます。これにより、タスクが事前にはわからない場合や、タスクが時間とともに変化する場合に適しています。リザーバーコンピューティングはまだ比較的新しい分野ですが、計算の仕方を革新する可能性があります。既に音声認識、画像認識、およびロボット制御など、さまざまなアプリケーションで使用されています。以下はリザーバーコンピューティングに関するいくつかの追加の詳細です:・リザーバーは通常、多くの内部状態を持つ高次元システムです。これらの状態は複雑な方法で相互作用し、リザーバーが非線形関数を計算できるようにします。・読み出し関数は通常、リザーバーの状態の線形関数です。この関数は、所望の入出力関係の例などのトレーニングデータを使用して学習できます。・リザーバーコンピューティングは、サポートベクターマシンやディープラーニングなどの他の機械学習技術と組み合わせて使用されることがよくあります。これにより、システムの精度とパフォーマンスを向上させるのに役立ちます。
ザ・モキュメンタリーズ ~カメラがとらえた架空世界~(各編30分)(編者注:丸括弧内はこちらで付加したキーワード)#1 「インビジブル・ブルース」(透明人間皮膚移植・マイノリティー)#2 「(株)わたし」(個人の公開株化「株式人間」・人間の価値)#3 「WORD HUNTER」(言語省・言語取締官・不正日本語取締法)#4 「マイナースポーツ・未来の星」(スルーイング・東西日本国)#5 「ドローン・クライシス」(脱法人工知能搭載野良ドローンとマタギ)#6 「ハラハラ♥ハラスメント」(ハラスメントバッチ・自由恋愛タブー)#7 「冷凍睡眠ビジネスの闇」(家庭用冷凍睡眠カプセル)#8 「仮想俳優A」(フルCGの俳優・最明寺アキラブーム)
In[1]:= c[a_, b_] := Pi/3 - a - bIn[2]:= p[a_, b_] := Tan[3 b]/(Tan[3 a] + Tan[3 b])q[a_, b_] := Tan[3 a] Tan[3 b]/(Tan[3 a] + Tan[3 b])In[3]:= p1[a_, b_] := Tan[b]/(Tan[a] + Tan[b])q1[a_, b_] := Tan[a] Tan[b]/(Tan[a] + Tan[b])In[4]:=p2[a_, b_] := (p[a, b] Tan[3 b + 2 c[a, b]] + q[a, b])/(Tan[2 a] + Tan[3 b + 2 c[a, b]])q2[a_, b_] :=Tan[2 a] (p[a, b] Tan[3 b + 2 c[a, b]] + q[a, b])/(Tan[2 a] + Tan[3 b + 2 c[a, b]])In[5]:=p3[a_, b_] := (p[a, b] Tan[3 b + c[a, b]] - Tan[2 b] +q[a, b])/(Tan[3 b + c[a, b]] - Tan[2 b])q3[a_, b_] := -Tan[2 b] (((p[a, b] - 1) Tan[3 b + c[a, b]] +q[a, b])/(Tan[3 b + c[a, b]] - Tan[2 b]))In[6]:= (p1[a, b] - p2[a, b])^2 + (q1[a, b] -q2[a, b])^2 - (p2[a, b] - p3[a, b])^2 - (q2[a, b] -q3[a, b])^2 // SimplifyOut[7]= 0In[8]:= (p2[a, b] - p3[a, b])^2 + (q2[a, b] -q3[a, b])^2 - (p3[a, b] - p1[a, b])^2 - (q3[a, b] -q1[a, b])^2 // SimplifyOut[9]= 0
頻度の高い漢字の平均画数が7画程度で,これを棒の数とします。児童・生徒・学生の間は1日100字書いたとして(PCなど除く)10年間≒3000日では,〜30万字程度漢字をかくことになるので,〜200万画くらいかな。1画5mmだとすれば,200万画は1000kmである。鉛筆1本で 50kmかけるらしいので,鉛筆20本あれば十分だ。ホントか,削りながらの場合は1000本くらいになりそうだ。ジェットストリームのSXR-07では替え芯1本で700mということだから,1400本なのか。
10年に 1回 〜 10回3年に 1回 〜 30回1年に 1回 〜 100回年に 4回 〜 300回月に 1回 〜 1000回週に 1回 〜 4000回3日に 1回 〜 1万回1日に 1回 〜 3万回1日に 3回 〜 10万回
Q(私):日本人が一日に書く漢字の数は400字程度です。一生には,1000万字程度の漢字を書くことになるでしょう。このうち,「棒」という漢字を書く回数は何回程度だと推定されますか?A(Claude):はい、ご指摘の通り、日本人が一生のうちに書く漢字はおよそ1000万字とされています。このうち、「棒」という漢字が何回含まれるかを推定するため、次のように考えます。日本語の漢字使用頻度データによると、「棒」の出現頻度は0.0026%,1000万字の0.0026%は2600字。したがって、一生のうちに書く漢字1000万字のなかで、「棒」という漢字が含まれる頻度はおよそ2600回と推定されます。
全期間(5年間)6.61万回 = 36回/日過去12ヶ月間 1.98万回 = 54回/日過去6ヶ月間 1.38万回 = 77回/日過去3ヶ月間 0.45万回 = 50回/日過去1ヶ月間 0.18万回 = 60回/日
g = 0.0098; R = 6350; τ = 30; τs = τ*27; τt = 250; p = 0.85;a = 0.0446; b = 0.1445 a; s = 45 Degree; T = 15400;fs[t_] := 0.3*ArcTan[r[t]*r'[t]/ h[t]]fr[t_, τ_] := a*Sin[s]*HeavisideTheta[τ - t] +b*Sin[fs[t]]*HeavisideTheta[t-τs-τ]*HeavisideTheta[τ+τs+τt-t]ft[t_, τ_] := a*Cos[s]*r[t]*HeavisideTheta[τ - t] +b*Cos[fs[t]]*r[t]*HeavisideTheta[t-τs-τ]* HeavisideTheta[τ+τs+τt-t]fm[t_, τ_] := -p/(τ - p*t)*HeavisideTheta[τ - t]sol = NDSolve[{r''[t] == -fm[t, τ]*r'[t]+h[t]^2/r[t]^3 -g R^2/r[t]^2 +fr[t, τ],r[0] == R, r'[0] == 0,h'[t] == -fm[t, τ]*h[t] + ft[t, τ],h[0] == 2930 + 0*Sqrt[g] R^(3/2)}, {r, h}, {t, 0, T}]f[t_] := r[t] /. sol[[1, 1]]d[t_] := h[t] /. sol[[1, 2]]Plot[{6350, f[t]}, {t, 0, T}]Plot[{f[t + 1] - f[t], d[t]*R/f[t]^2, d[t]/f[t]},{t, 0, T}, PlotRange -> {-5, 15}]