ChatGPTは、Facebookなどのサイトで違法コンテンツをモデレートする場合があります | ENBLE

ChatGPT moderates illegal content on sites like Facebook | ENBLE

GPT-4 — チャットGPT Plusを駆動する大規模言語モデル(LLM) — は、近々オンラインモデレーターとして新たな役割を果たすかもしれません。これにより、フォーラムやソーシャルネットワーク上の違法なコンテンツが公になることを防ぐことができます。これは、ChatGPTの開発者であるOpenAIが新たに投稿したブログ記事によるもので、「デジタルプラットフォームの未来におけるよりポジティブなビジョンを提供できる」と述べています。

OpenAIは、人間のモデレーターではなく人工知能(AI)を活用することで、GPT-4は「ポリシーの変更に対するより迅速なイテレーションが可能になり、数か月を数時間まで短縮できる」と述べています。さらに、「GPT-4は長いコンテンツポリシーの文書におけるルールやニュアンスを解釈し、ポリシーのアップデートに即座に適応する能力も持っており、より一貫したラベリングを提供することができる」とOpenAIは主張しています。

Rolf van Root / Unsplash

たとえば、ブログ記事では、モデレーションチームがコンテンツにラベルを付けて、そのコンテンツが特定のプラットフォームのルールに合致するかどうかを説明することができます。GPT-4は、事前に答えを知ることなく、同じデータセットを使用して独自のラベルを付けることができます。

その後、モデレーターは2つのラベルセットを比較し、その相違を利用して混乱を減らし、ルールに明確さを加えることができます。言い換えれば、GPT-4は普通のユーザーとして振る舞い、ルールが意味をなしているかどうかを判断することができます。

人間の負担

OpenAI

現在、さまざまなウェブサイトでのコンテンツモデレーションは人間によって行われており、彼らは定期的に違法、暴力的、または他の有害なコンテンツにさらされています。私たちはコンテンツモデレーションが人々に与える恐ろしい負担を何度も目にしてきました。Facebookは、その仕事のトラウマによってPTSDを患ったモデレーターに5200万ドルを支払っています。

人間のモデレーターの負担を軽減することで、彼らの労働条件を改善することができるだけでなく、GPT-4のようなAIは、トラブルのあるコンテンツを処理する際に人間が感じるような精神的ストレスに免疫があるため、過労やPTSDの心配なく展開することができます。

ただし、このようにAIを使用することで職業が失われる可能性があるという問題が生じます。コンテンツモデレーションは常に楽しい仕事ではありませんが、それでも仕事です。もしGPT-4がこの領域で人間に代わって活動するようになると、以前のコンテンツモデレーターが単に不要になるだけでなく、他の役割に再配置されるのではないかという懸念が生じるでしょう。

OpenAIのブログ記事ではこの可能性に言及していませんが、それはコンテンツプラットフォームが決定することです。ただし、AIが毎日数十億人が利用するウェブサイトのコンテンツをモデレートする過労で感謝されないチームが直面する精神的な打撃を減らすことができれば、これには何か良い面もあるかもしれません。同時に、同じくらいの打撃を受ける余地のある職務削減によって和らげられるかどうかは今後の展開次第です。