「AI巨大企業、新しいホワイトハウスの協定に基づき、アルゴリズムについての外部調査を許可することを誓う」
AI巨大企業、新しいホワイトハウスの協定に基づき、アルゴリズムの外部調査を許可
ホワイトハウスは、Amazon、Google、Meta、Microsoft、OpenAIなど主要なAI開発者と合意し、有害なAIモデルが世界に公開されるのを防止するための措置を取ることに同意しました。
この合意によれば、ホワイトハウスが「自主的な取り組み」と呼ぶもので、企業は新たなAIモデルが公開される前に内部テストを実施し、外部のテストも許可することを約束しています。テストでは、バイアスや差別的な出力、サイバーセキュリティの欠陥、広範な社会的な損害のリスクなどの問題をチェックします。OpenAIのChatGPTに対抗する注目すべきライバルの開発者であるAnthropicとInflectionのスタートアップ企業もこの合意に参加しました。
ホワイトハウスのAI特別顧問であるベン・ブキャナンは、昨日のブリーフィングで記者に対して、「企業は、AIシステムの安全性と能力をテストすることで、製品を公開する前に安全であることを確保する義務があります。」と述べました。企業に求められたリスクには、プライバシーの侵害や生物学的脅威への潜在的な寄与も含まれます。企業はまた、自社システムの制約、セキュリティリスク、社会的リスクを公に報告することも約束しています。
この合意では、企業はAIによって生成された音声や画像を簡単に識別できるウォーターマーキングシステムの開発も行うとされています。OpenAIは既にDall-Eイメージ生成器で画像にウォーターマークを追加しており、GoogleもAIによって生成された画像に同様の技術を開発していると発表しています。政治的キャンペーンが2024年の米国大統領選挙に向けて生成AIを利用し始めるという中で、何が本物で何が偽物かを人々が見分けることは、ますます重要な課題となっています。
テキストや画像を生成する生成AIシステムの最近の進歩は、ウェブ検索や推薦書の作成などのタスクにこの技術を適応する企業間でAIの競争が再燃するきっかけとなりました。しかし、新しいアルゴリズムは、セクシズムや人種差別などの抑圧的な社会システムを強化し、選挙におけるディスインフォメーションを増幅させ、サイバー犯罪のツールになるという懸念も再燃させました。その結果、ワシントンD.C.を含む世界の多くの地域で、AIの展開前の評価を求める新たな規制や要件が増えています。
- 「AIが人類を滅ぼすのか、愚かなロボットに尋ねないでください」
- 「暗号戦争からほぼ50年、暗号化の反対者はまだ間違っている」
- 「リークされたメモによれば、TikTokは労働問題を抱えていることを認識...
この合意が主要なAI企業の運営方法にどれだけ変化をもたらすかは不明です。既に、技術企業がAIのポリシーやテストに取り組むための人材を採用することが一般的になっています。Googleは自社のシステムをテストするチームを持ち、特定のAIモデルの使用目的や倫理的考慮事項など一部の情報を公開しています。MetaとOpenAIは、時には外部の専門家を招き、彼らのモデルを破ることを試みるアプローチであるレッドチーミングを行っています。
「安全性、セキュリティ、信頼の永続的な原則に基づいて、自主的な取り組みは、先進的なAIモデルがもたらすリスクに対処し、レッドチームテストや透明性レポートの公表などの特定の実践の採用を促進するものです。」とMicrosoftのブラッド・スミス社長はブログ記事で述べています。
合意によると、企業が注意を払うべき潜在的な社会的リスクには、AIモデルのトレーニングによる炭素フットプリントの問題は含まれていません。AIシステムの影響に関する研究では、ChatGPTのようなシステムを作成するには、長時間稼働する数千の高性能なコンピュータプロセッサが必要となることが一般的に引用されています。
AIに特化した法律事務所BNHのマネージングパートナーであるアンドリュー・バートは、生成AIシステムの潜在的なリスクは、その技術に関与するすべての関係者にとって明らかになっていると述べています。連邦取引委員会(FTC)は先週、OpenAIのビジネスプラクティスについての調査を開始し、同社が「不公正または欺瞞的なプライバシーまたはデータセキュリティのプラクティス」に参加していたと主張しています。
企業が技術の外部評価を委託するべきとするホワイトハウスの合意は、外部監査が「AIシステムの監督における政府の中心的手段」となりつつあることの証拠に加わるものです、とバート氏は述べています。
ホワイトハウスは昨年発行されたAIの自主的な権利に関する宣言でも監査の利用を推進しており、来月のDefconセキュリティカンファレンスで生成AIモデルに焦点を当てたハッキングコンテストも支援しています。監査は現在最終段階にあるEUの包括的なAI法にも要件として含まれています。
アルゴリズムの監査をビジネスや政府のために行うORCAAのチーフストラテジストであるジェイコブ・アペルは、この合意は歓迎すべきものであるが、ChatGPTのような大規模な言語モデルの一般的な評価は不十分であると述べています。医療や法的アドバイスを生成するために微調整されたチャットボットなど、AIの特定の高リスクの使用事例は、独自の評価を受けるべきだと彼は言います。また、より小規模な企業のシステムも検証される必要があります。
ジョー・バイデン大統領は本日、新たなAIの合意に参加した企業の幹部とホワイトハウスで会談し、AnthropicのCEOであるダリオ・アモデイ、Microsoftの社長であるブラッド・スミス、Inflection AIのCEOであるムスタファ・スレイマンと会います。彼の政権はまた、AIの使用に関する行政命令を策定していますが、具体的な公表時期は発表されていません。
2023年7月21日午後2時20分EDTに更新されました:この記事にはORCAAのJacob Appel氏のコメントが追加されました。