「マイクロソフトは、あなたのBing Chatの会話を保存しているかもしれません」

Microsoft may be saving your Bing Chat conversations.

うーん、マイクロソフトはおそらくあなたのBingチャットから情報を保存しているかもしれません。

もしあなたが他の誰かが読んでほしくないようなことについてチャットしたことがない、またはBingチャットが削除されると思っていた、または実際には思っていた以上のプライバシーがあると思っていた場合、これはおそらく全然大丈夫です。

マイクロソフトは利用規約を更新し、新しいAIポリシーを導入しました。そのポリシーは7月30日に導入され、9月30日から有効となります。そのポリシーによれば、”AIサービスを提供する一環として、マイクロソフトはサービスへの入力および出力を監視し、悪用や有害な使用または出力を防止するためにそれらを処理および保存するでしょう。”

Registerの読者によると、マイクロソフトの利用規約の新しい節「AIサービス」によれば、エンタープライズユーザーでない場合、マイクロソフトはあなたのBingとの会話を保存することができます。保存期間についてはわかりません。

マイクロソフトはENBLEからのコメントリクエストに即座に応答せず、マイクロソフトの広報担当者はユーザーの入力をどのくらいの期間保存するかについてRegisterにコメントしないと述べました。

「製品とサービスをより正確に反映するために、定期的に利用規約を更新しています」とマイクロソフトの代表者はRegisterに対して声明で述べました。「Microsoft Services Agreementへの最新の更新では、サービス内の人工知能とその顧客による適切な利用を反映するための言語の追加が含まれています。」

データの保存以外にも、新しいAIサービス節には4つの追加のポリシーがあります。ユーザーはAIサービスを使用して「モデル、アルゴリズム、およびシステムの基本的な部分を特定することはできません」。ユーザーはAIサービスからデータを抽出することはできません。ユーザーはAIサービスを使用して「他のAIサービスを直接または間接に作成、トレーニング、または改善することはできません」。最後に、ユーザーは「AIサービスの使用中に発生するコンテンツの出力に関連する著作権侵害など、適用される法律に準拠して、サードパーティの主張に対応する責任を負うものとします。」

ですので、マイクロソフトのBingチャットを使用する際にはもう少し注意が必要か、Bingエンタープライズチャットモードに切り替えることを検討してください。マイクロソフトは7月に、それらの会話は保存されないと述べています。