
Claudeを開発するAnthropicは、ユーザーデータの取り扱い方法を大幅に変更します。本日より、Claudeユーザーは、Anthropicが将来のAIモデルの学習にチャットデータを使用することを許可するか、オプトアウトしてデータを非公開にするかを選択するよう求められます。2025年9月28日までに選択しない場合、Claudeへのアクセスは完全に失われます。
これまでAnthropicはプライバシーを最優先に考えており、法的理由による場合を除き、チャットとコードは30日後に自動的に削除されていました。しかし本日より、お客様がオプトアウトしない限り、お客様のデータは最大5年間保存され、Claudeの学習サイクルに活用されます。
新しいポリシーは、Free、Pro、Maxを含むすべてのプランと、これらのプランに属するClaude Codeに適用されます。ビジネス、政府、教育機関、APIユーザーには影響はありません。
仕組み
新規ユーザーはサインアップ時に選択肢が表示されます。既存ユーザーには「消費者向け利用規約とポリシーの更新」というポップアップが表示されます。大きな青い「同意する」ボタンをクリックするとデフォルトでオプトインされ、小さなトグルボタンをクリックするとオプトアウトできます。
プロンプトを無視すると、Claude は 9 月 28 日以降動作を停止します。
重要なのは、影響を受けるのは今後のチャットとコードのみであるということです。過去に書き込んだ内容は、その会話を再度開かない限り使用されません。また、チャットを削除した場合、トレーニングには使用されません。
プライバシー設定で後から決定を変更することはできますが、データがトレーニングに使用された後は取り消すことはできません。
アントロピックがこの変更を行う理由
同社は、ユーザーデータがクロードのバイブレーションや従来のコーディング、推論、そして安全性を向上させる鍵となると述べている。また、アントロピックはデータを第三者に販売しておらず、トレーニング前に自動フィルターを用いて機密情報を除去することも強調している。
最新ニュース、最も注目されているレビュー、お得な情報、役立つヒントにすぐにアクセスできます。
それでも、この変更により、特に指示がない限り、バランスは自動プライバシーから自動データ共有へと移行します。
あなたの選択は何でしょうか?
アンスロピックの決定は、本質的に、クロード社がトレーニングに使用する現実世界のデータの改善をより迅速に進めることに繋がる。複雑な質問に答え、コードを記述し、間違いを回避する能力が向上するほど、クロード社はより大きな進歩を遂げることができる。
しかし、この進歩は、数週間ではなく数年間保存されるトレーニング セットの一部となる可能性のあるユーザーにとってコストを伴います。
普段使いのユーザーにとっては、大した問題ではないかもしれません。しかし、プライバシーを重視するユーザー、あるいは仕事のプロジェクト、個人的な事柄、あるいは機密情報をClaudeで議論する人にとっては、このアップデートは危険信号となる可能性があります。
デフォルトでオンになっている場合、データを非公開にしておきたい場合は、オプトアウトする責任があなたにあります。
Google ニュースで Tom's Guideをフォローすると、最新のニュース、ハウツー、レビューをフィードで受け取ることができます。「フォロー」ボタンを忘れずにクリックしてください。
Tom's Guideのその他の記事
- ChatGPT-5とGemini 2.5 Proを9つのAI画像プロンプトでテストしました。勝者はこれです。
- ChatGPTがこの迷惑な質問をし続けます — 解決方法は次のとおりです
- ChatGPT-5とClaude Sonnet 4をコーディングタスクで比較してみた — 勝者は明らか
アマンダ・キャスウェルは、受賞歴のあるジャーナリストであり、ベストセラーのヤングアダルト小説作家であり、AIとテクノロジー分野における今日の第一人者の一人です。様々なニュースメディアに寄稿する著名なジャーナリストであり、鋭い洞察力と共感できるストーリーテリングで多くの読者を獲得しています。アマンダの作品は、メディアへの卓越した貢献を含む、数々の名誉ある賞を受賞しています。
最も複雑なテーマにも明快な解釈を与える能力で知られるアマンダは、革新性と創造性をシームレスに融合させ、読者にAIと新興技術の力を受け入れるよう促しています。認定プロンプトエンジニアとして、彼女は人間とAIの協働の限界を押し広げ続けています。
アマンダはジャーナリストとしてのキャリアに加え、長距離ランナーであり、3人の子供の母親でもあります。ニュージャージー州在住。