TOPICS

2025/12/14

【3分で完了】ChatGPTの「すべての人のためにモデルを改善」をオフにする方法

筆者/喜多 辰徳

地方でも、企画書づくりや広報文のたたき台にChatGPTを使うケースが一気に増えました。一方でよく聞くのが、「この会話って勝手に学習に使われないの?」という不安です。

以下は“設定だけで安心になる”話ではありません。社内や家族で使う場合、ルールとセットで初めて事故が減ります。


次に読む(安全の要点だけ先に押さえる)
・社内利用ルールの基本(情報漏えいと著作権のリスクを防ぐ)
 https://ai-no-chikara.com/posts/chatgpt-genai-company-rule
・ChatGPTのメモリ設定の違いと安全な使い方
 https://ai-no-chikara.com/posts/chatgpt-memory-setting
・はじめての生成AI導入:社内ガイドラインの作り方(テンプレ付き)
 https://ai-no-chikara.com/posts/first-ai-policy-template


1. まず確認すべきChatGPTの設定

まず押さえておきたいのが、ChatGPTの「すべての人のためにモデルを改善(Improve the model for everyone)」という設定です。ここがオンのままだと、あなたの会話が今後のモデル改良のためのデータとして使われます。オフにすれば、新しく行う会話は学習には使われません。ただし、サービス提供や安全対策、法的義務への対応のために、チャット内容は一定期間(状況によってはより長期に)OpenAI側に保持される可能性があります。

2. 設定手順

設定手順はシンプルです。

  1. 画面のプロフィールアイコンをクリック

  2. 「設定(Settings)」を開く

  3. 「データコントロール(Data controls)」を選択

  4. 「すべての人のためにモデルを改善」をオフにする

一度オフにすると、この設定はアカウント全体に適用され、Web版でもスマホアプリでも有効になります。逆に言えば、端末ごとに毎回オフにし直す必要はありません。

3. それでも残るリスク

ここで勘違いしやすいのは、「オフ=完全に安全」ではないという点です。
オフにしても、
・チャット履歴は通常どおり残る
・一部のデータは、一定期間はOpenAI側に保持される
・バグや拡張機能など、人間側の運用ミスによる漏えいリスクは別問題
といった現実は残ります。

4. 地方の現場での現実的な線引き

だからこそ地方の現場では、次のような線引きが現実的です。

・住民情報、社員の人事情報、企業機密など「漏れたら終わる情報」は入れない。
・それ以外の情報については、今回の設定をオフにしたうえで活用する。
・組織として「ChatGPTに入力してよい情報のレベル」をあらかじめ決めておく。

AIを「怖いから使わない」と切り捨てると、業務効率や発信力で確実に差がつきます。
一方で、何も考えずに何でも放り込めば、いつか大きなトラブルになります。

まずは今日紹介した「すべての人のためにモデルを改善(Improve the model for everyone)」をオフにすることをきっかけに、組織内でデータの扱いとAI活用ルールを見直してみてください。

<Information>
生成AIを社内で使い始めるときに詰まりやすいのは、ツール選びより「入力していい情報」と「運用のルール」です。貴社の状況を伺い、最小限のルールと最初の一歩を30分で整理します。情報収集だけでも歓迎します(オンライン可)。
【無料で壁打ちする(30分)】

無料相談(30分)はこちら

この記事をシェアする

ホームTOPICS

【3分で完了】ChatGPTの「すべての...