OpenAIは強力なAIを安全で広く有益にすることに取り組んでいます。世界中のユーザーからチャットGPTの生産性向上や創造性向上、パーソナライズされた学習体験の提供に役立っているとの声があります。しかし、リスクも伴うため、システム全体で安全性を確保しています。AIシステムの安全性向上:新しいシステムをリリースする前に、厳密なテストやフィードバックを収集し、モデルの挙動を改善して安全性を確保しています。例えば、GPT-4は6ヶ月以上の改善作業が行われました。私たちは、強力なAIシステムは、厳格な安全性評価の対象となるべきだと考えています。そのためには規制が必要であり、私たちは規制のあり方について各国政府と積極的に協力しています。現実世界での使用を通じて安全対策を向上:リアルワールドでの使用経験を通じてAIシステムの安全性を向上させることが重要であり、慎重かつ段階的なリリースを行っています。私たちは、最も高性能なモデルを自社サービスやAPIを通じて提供し、開発者がこの技術をアプリに直接組み込むことができるようにしています。これにより、不正使用を監視し、対策を講じることができます。そして、この技術に影響を受けるすべての人が、AIがどのように発展していくかについて重要な発言権を持つべきだと考えています。子供たちを守る:18歳以上、または13歳以上で親の同意がある場合に限り利用可能で、年齢確認のオプションを検討しています。また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツを生成するために当社の技術が使用されることを許可していません。不正使用を監視するための強固なシステムを確立しています。また,非営利団体のカーン・アカデミーのような開発者と協力し、生徒のためのバーチャル家庭教師や教師のための授業アシスタントとして機能するAI搭載のアシスタントを構築し、その使用ケースに合わせて安全対策をとっています。プライバシーの尊重:一般に公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュアーが作成したコンテンツなど、幅広いテキストのコーパスでトレーニングされています。私たちのモデルは、個人ではなく、世界のことを学んでほしいと思っています。そのため、可能な限りトレーニングデータセットから個人情報を削除し、個人の個人情報に対する要求を拒否するようにモデルを微調整し、個人からの個人情報削除の要求に対応するように努めています。事実の正確さの向上:GPT-4は、GPT-3.5よりも事実に基づいたコンテンツを生成する確率が40%高くなっています。しかし、幻覚(hallucinations)の可能性をさらに減らし、こうしたAIツールの現在の限界について一般の人々を教育するためには、やるべきことがたくさんあることを認識しています。継続的な研究と関与:AIの安全性向上には研究や実用的な対策が重要であり、引き続き安全性と性能向上を両立させる努力をしています。政策立案者とAIプロバイダーは、AIの開発と導入が世界規模で効果的に管理されるようにする必要があります。また、安全なAIエコシステムを構築するために、ステークホルダー間での協力や対話を促進しています。
芥川龍之介が「蜘蛛の糸」を発表して百年。高二の秋の文化祭,クラスの仮装行列のテーマが 蜘蛛の糸だった。お釈迦様の極楽タワーの竹を近所から切り出し,地獄の焔と煙の絵を描いた。犍陀多に続いて蜘蛛の糸(登山部の赤いザイル)に群がる地獄の亡者だったころ。
2023年4月14日金曜日
AI安全性への取り組み
いろいろと風当たりが強くなってきたOpenAIは,AI安全性への取り組みについてという文書を公開した。この7500字の英文をGPT-4に与え「次の英文を日本語で節ごとに,原文に比例する分量で簡潔に要約してください」とお願いしてみた。その後,原文をみて重要な部分を補充している。要約の分量は妥当(やや少なめ)だったけれど,かならずしも重要なポイントがうまく取り出されていたわけではない。
登録:
コメントの投稿 (Atom)
0 件のコメント:
コメントを投稿