「OpenAIさえもChatGPTの剽窃を検出することを諦めた | ENBLE」

OpenAI gives up on detecting plagiarism in ChatGPT | ENBLE

人工知能(AI)チャットボットChatGPTの開発元であるOpenAIは、AIが生成したコンテンツを人間が作成したものと区別するために開発したツール、AI Classifierを閉鎖しました。OpenAIは、「正確性が低い」という理由で、このツールを開始してわずか6か月後に閉鎖することを発表しました。

ChatGPTや競合サービスの人気が急上昇しているため、AIの使用に対して無制限な利用の結果に懸念を抱くさまざまなグループから抗議がありました。教育者たちは特に、学生がChatGPTを使用してエッセイや課題を書き、それを自分のものとして提出する可能性について懸念を抱いています。

Rolf van Root / Unsplash

OpenAIのAI Classifierは、これらのグループや他のグループの懸念を和らげる試みでした。そのアイデアは、テキストが人間によって書かれたものかAIチャットボットによって書かれたものかを判断し、人々に学生を公正に評価するためのツールとディスインフォメーション(偽情報)との戦いに役立てることです。

しかし、OpenAI自身も最初から自社のツールに自信を持っているようには思えませんでした。OpenAIは、ツールを発表するブログ投稿で「当社の分類器は完全に信頼できない」と宣言し、AIが書かれたテキストを「難しいセット」から正しく26%の割合で識別できると述べています。

このツールを廃止する決定はあまり注目されず、OpenAIはウェブサイトに専用の投稿を掲示していません。代わりに、AI Classifierを発表した投稿を更新し、「AI分類器は正確性が低いため利用できなくなりました」と述べています。

更新は次のように続きます。「フィードバックを組み込むために取り組んでおり、現在、テキストの起源をより効果的に調査するためのメカニズムを開発し、展開することを約束しています。また、オーディオやビジュアルコンテンツがAIによって生成されたものかどうかをユーザーが理解できるメカニズムも開発し、展開する予定です。

より優れたツールが必要です

Matheus Bertelli / Pexels

AI Classifierは、OpenAIの決定にもかかわらず、GPTZeroなどの競合他社が存在し、引き続き運営されるだけでなく、AIが生成したコンテンツを検出するために開発された唯一のツールではありません。

AIの文章を特定しようとした過去の試みは、壮観な失敗に終わりました。たとえば、2023年5月には、ある教授が自身の学生の論文の盗用を検出するためにChatGPTを利用し、誤ってクラス全体を不合格にしました。言うまでもなく、ChatGPTは大いに誤った結果を出し、教授も同様でした。

OpenAI自体が自社のチャットボットによって作成された盗作を適切に把握できないことは懸念のもとです。AIチャットボットの破壊的な潜在能力と、この分野の開発の一時的な中止を求める声が高まる中で、OpenAIの失敗したAI Classifierよりも強力なツールが必要になるでしょう。