0 分の読み物
ChatGPTはあなたのデータを保存しています。 ここでは安全に使用する方法をご紹介しましょう。
Bryan Arnott
ライオネルのメモ: 私が次回のAI関連記事の内容を考え始める前に、ブライアンがこの投稿を送ってくれました。ブライアンの投稿はとても良い内容だったため、次回の「ForcepointAIブログシリーズ」の記事としてご紹介することは理にかなっていると考えました。では早速、ブライアンの投稿をご紹介しましょう。
ChatGPTは2022年11月に世界を席巻しました。ChatGPTがもたらした「生成AI革命」がすぐに消えてしまうことはなさそうです。世界中の組織がソフトウェアコードのレビュー、ウェブコンテンツの作成、財務データからのインサイト発見など、あらゆることを実行できる仮想アシスタントとしてAIを導入するようになりました。しかし、プロンプトと共にChatGPTに入力されたすべての情報はどうなるのでしょうか。
ChatGPTはあなたのデータを保存しているのでしょうか。はい、その通りです。しかも、おそらくあなたが想像するより多くのデータを保存しています。
ChatGPTは、アカウントレベルの情報と会話履歴の両方を収集しています。 これには、電子メールアドレス、デバイス情報、IPアドレス、位置情報、そしてChatGPTのプロンプトで使用される公開情報や個人情報などの記録が含まれています。
このことがあなたのビジネスにとって何を意味するのか、そして機密データを安全に保つにはどうすればよいのかをご紹介しましょう。
ChatGPTは、どのような種類のデータを保存しているのでしょうか。
IT業界で働いている方は、おそらく私がこれから話す内容に驚かないでしょう。はい、ChatGPTはあなたのデータを保存しています。
OpenAIが収集するとプライバシーポリシーに記載されている個人情報は「Open AIが自動的に受け取る個人情報」と「ユーザーが提供する個人情報」の2種類です。
「ChatGPTが自動的に受け取る個人情報」は、他のSaaSアプリと同じです。内容は以下の通りです。
- デバイスデータ:使用デバイスやオペレーティングシステムに関する情報。
- 使用状況データ:位置情報、時刻、使用バージョンなど。
- ログデータ:IPアドレスや使用ブラウザなど。
OpenAIはこのようなデータすべてを、ユーザーがChatGPTとどのように対話しているか分析するために使用しています。 ChatGPTはさらに、あなたが提供するデータも保存しています。内容は以下の通りです。
- アカウント情報:氏名、電子メールアドレス、詳細な連絡先など。
- ユーザーコンテンツ:プロンプトの使用情報やアップロードしたファイルなど。
OpenAIはこのような提供データを、ChatGPTモデルがユーザーの質問に答え、支援できるようになるための訓練に使用しています。
OpenAIは、あなたに関する識別情報や、あなたが送信したユーザーコンテンツの識別情報を収集・保存しています。そのため、世界中のおびただしい数の企業は、従業員にOpenAIの使用を禁止する動きをみせています。
しかし、Forcepointはこれが正しい動きだとは考えていません。
ChatGPTがデータを保存することのリスク
ChatGPTがデータを保存することで考えられる主なリスクは、データ漏洩やデータ侵害です。意図的ではなく、ChatGPTの一般的なQ&Aであったとしても、ビジネスはデータセキュリティリスクにさらされる可能性があります。以下に紹介します。
- ChatGPTはあなたのデータを使用して学習します。そして知的財産や個人識別情報といった機密情報を組織外の他のユーザーと共有します。
- するとOpenAI自体がデータ侵害の被害者となり、ユーザーの送信データが公開されてしまいます。
OpenAIの名誉のために付け加えておくと、同社はユーザーが ChatGPTの会話使用によるAI モデル訓練を中止 できるよう、設定を変更しました。ユーザーは時間をかけてチャット履歴をオフにする必要があります。しかし、ユーザーごとに生成AIセキュリティを確認すること は、機密データ漏洩につながります。
ChatGPTや生成AIを他のサードパーティのソフトウェアベンダーと同様に扱うことは、組織がユーザーの満足度や生産性を維持し、最も機密性の高い情報を安全に保つ上で重要です。
生成AIに誰がアクセスできるようにするか、どんなアクティビティに使用できるようにするか、どんなAIプログラムが安全に使用できるかなど、生成AIに関する組織的な見解をじっくり策定してください。 この情報は、生成AIを保護するための包括的な戦略に役立ちます。
Forcepointと生成AIのセキュリティ
生成AIを完全にブロックすることはできません。 このテクノロジーには改善の余地がありますが、無視するにはあまりにも重要なツールです。
生成AIをブロックするのではなく、Forcepointの生成AIセキュリティソリューションを使用すれば、組織は安全にAIの可能性を解き放つことができます。
Forcepoint ONE SSE, はデータファーストSASEプラットフォームの一部であり、生成 AIアプリケーションのトラフィックを監視し、管理対象デバイスと管理対象外デバイスの両方で無許可ユーザーのアクセスを防止する独自機能を備えています。Forcepoint ONEは、ThreatseekerのURL分類やフィルタリングを用いて、大量に登場し続ける新たな生成AIアプリケーションにポリシーを適用し、一貫したカバレッジを確実に提供します。
Forcepoint DLP をChatGPTに使用すれば、データセキュリティ制御をウェブとパブリッククラウドに拡張し、機密情報がチャットに貼り付けられたりアップロードされたりするのを防ぎます。また、ユーザーがOpenAIの会話履歴をオフにしていても、意図せずChatGPTにデータが漏れるのを防ぎます。
ChatGPTがデータを保存すること自体はセキュリティリスクではありませんが、それを考慮した強固なデータセキュリティ戦略なしに生成AIを導入することはリスクになります。 今すぐForcepointのエキスパートに相談し、組織が生成AIを安全に使用する方法を学びましょう。
###
注: これは「AI In Business」シリーズの6番目の投稿記事です。同シリーズの他の投稿記事はすべて、ForcepointAIタグから確認できます。以下に、同シリーズの他の投稿記事一覧をご紹介します。
- パート1-ビジネス向けAI戦略の構築
- パート2-マーケティングにおけるAI
- パート3—AIが過剰宣伝されたらどうなるか
- パート4—AIの潜在的な経済効果
- パート5—オープンLLM、それともクローズドLLM?
Bryan Arnott
の記事をもっと読む Bryan ArnottBryan Arnott is a Senior Content Marketer and Digital Strategist at Forcepoint.
- Unlock the Potential of AI, SecurelyLearn More