フューチャーオブライフインスティテュート(FLI)は,人類が直面している地球規模の壊滅的かつ実存的なリスクを軽減するために活動する非営利団体である。例えば,人工知能,生命工学,核兵器,気候変動などに関してである。人工知能がもたらす利益とリスクについても詳細な資料が集まっている。
最近,ここから大規模AI実験を停止せよという公開書簡が出され,イーロン・マスク,スティーブ・ウォズニアク,ユバル・ハラリなどを含む3000人以上(4/3/2023)の賛同者が集まっている。その内容をGPT-4で500字程度の日本語に要約してもらったのち修正した。DeepLにかけるより,翻訳と要約が一気に片づくのでとても便利だ(こういうのが危険性の喚起につながるわけだ)。
AI技術が人類の知性に匹敵するようになると、社会や人類に深刻なリスクをもたらすことが研究で示されており、トップAI研究所も認識しています。
しかし、現在のAI開発競争は抑制が効かず、制御不可能なデジタルマインドが次々と生み出されています。AIシステムが人間と競合するレベルになりつつある今、これらのリスクについて深く考えるべきです。強力なAIシステムは、その効果がポジティブなものであり、そのリスクが管理可能なものであると確信できた場合にのみ開発されるべきです。そこで、私たちはすべてのAI研究所に対し、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間停止することを求めます。この期間を利用し、AI研究所や専門家が共同で安全プロトコルを策定し、独立した専門家による厳密な監視を行うべきです。ただし、この要求はAI開発そのものの停止を意味するものではありません。同時に、AI開発者は政策立案者と協力し、AIガバナンスシステムの強化を目指すべきです。最低限、専門の規制機関、高性能AIシステムの監視、AIによる被害の責任追及、AI安全研究の公的資金、AIが引き起こす経済・政治的混乱への対処能力を備えた機関の設立が求められます。人類はAIと共に繁栄する未来を享受できます。強力なAIシステムを開発した今こそ、「AIサマー」を迎え、これらのシステムを全人類の利益に活用し、社会が適応できる環境を整えるべきです。他の潜在的に危険な技術に対して一時停止をかけてきたように、ここでも同様に行動すべきです。準備が整わないうちに秋を迎えるのではなく、「AIサマー」を長く楽しみましょう。
まあ,どうなるかわわからないが,松岡聡さんや松尾豊さんが煽っているように,日本政府も早々に大金をつぎ込んで自前の大規模言語システムを開発しておくほうがよいのではないか。その際,ネット上のフリーテキストだけでなく,国立国会図書館に所蔵されている全てのテキストをぶち込んで,多少頑なでも根が真面目なLLMを作るのがよいのではないかと夢想する。
なお,公開書簡についての疑問や異議がいくつか出されているので,参考文献をあげる。不正確な情報とそれに対する反論が混入しているのかもしれない。
0 件のコメント:
コメントを投稿