
- 目次
1. ChatGPTのセキュリティリスクとは?

1-1.ChatGPTとは?
ChatGPTは、米国OpenAI社によって開発された非常に大規模な言語モデルです。このモデルは、人間が書いたような自然な文章を生成する能力を持ち、文章要約、文脈理解、プログラミングコードの生成、記事の作成、多言語翻訳など、多様なタスクを実行することができます。企業内では、カスタマーサポートの自動化、データ分析の補助、マーケティングコンテンツの生成など、さまざまな業務で活用されています。特に翻訳業務で利用する方法について詳しくは以下のブログ記事をご覧ください。
1-2.セキュリティリスク
ChatGPTを利用する際に、入力内容がAIの学習に利用される可能性があります。ユーザーが入力したデータは、モデルの改善や新しい機能の開発に役立てられることがありますが、その過程で第三者に情報が渡るリスクも存在します。
また、Web版を利用する場合、入力されたデータは少なくともOpenAIのサーバー上に保存されます。これにより、データの管理や保護に関する懸念が生じます。特に、顧客情報などの個人情報を入力すると、その情報が漏洩するリスクがあり、企業としての責任が問われる可能性があります。
さらに、OpenAIの一サービスであるため、何らかの事故やセキュリティインシデントにより情報が漏洩するリスクはゼロではありません。これらのリスクを軽減するためには、適切なデータ管理とセキュリティ対策が不可欠です。
企業がChatGPTを利用する際には、これらのリスクを十分に理解し、適切な対策を講じることが重要です。ChatGPTを始めとするAIサービスの機密保持について詳しくは以下のブログ記事をご覧ください。

2. 【具体例】ChatGPTを翻訳業務に使用したときの生じるリスク

企業が日本語の機密資料を英語に翻訳するため、ChatGPTのWeb版を使用したとします。例えば、新製品の技術仕様書や、取引先との契約書が含まれる資料をChatGPTに入力し、その内容を自動翻訳させた場合です。以下のようなセキュリティリスクが想定されます。
1. 機密情報がOpenAIのサーバーに保存されるリスク
ChatGPTのWeb版はクラウドベースのサービスであり、入力されたデータは一時的にサーバーに保存される可能性があります。この場合、企業の機密情報や個人情報が外部サーバーに残ることになり、第三者がアクセスできる状態になる恐れがあります。
2. AIの学習データとして使用されるリスク
ChatGPTの無料版やWeb版では、ユーザーが提供したデータがAIのさらなる学習のために使用される場合があります。この場合、翻訳された機密情報が学習データとして扱われ、他のユーザーがChatGPTを使用する際に似た内容が生成される可能性があり、機密情報が露出するリスクが高まります。
3. 情報漏洩による企業リスク
万が一、機密情報が漏洩した場合、自社の戦略に悪影響が出る可能性があります。例えば、新製品の情報が競合に知られたり、機密契約が外部に漏れたりすることが考えられます。また、個人情報が含まれる場合、法的責任を問われるリスクも存在し、社会的信用の低下、顧客からの損害賠償請求、営業機会の損失、多額のセキュリティ対策費用が発生する可能性があります。
3. ChatGPTのセキュリティ対策

上記のようなセキュリティリスクを避けるためには、機密情報を扱う際に、適切なセキュリティ対策を講じることが必要です。
3-1.組織としての対策
1. API経由で利用する
機密情報を扱う場合、ChatGPTのWeb版ではなく、API経由での利用を推奨します。APIを使用する場合、OpenAI社はそのデータを学習データとして使用しません。同時にWeb版へのアクセスをネットワークで制限することで、確実に情報漏えいを防止できます。また、Zero Data Retentionポリシーを有効にすることで、OpenAI社のサーバーにデータが一切保存されなくなります。
2. ChatGPT Team/Enterpriseの利用
ChatGPT TeamおよびEnterpriseプランは、企業向けに設計されたプランで、データ保護とプライバシーを重視した仕様になっています。入力データがAIの学習に使用されないことを保証するなど、機密情報の取り扱いに安心して利用できる環境が提供されます。ただし、ChatGPTはログインしないで使用することができ、その場合は入力データが学習データとして二次利用されるため、必ずログインすることが求められます。
3. DLP(データ損失防止)でシステム制御
データ損失防止(DLP)ツールを導入し、ChatGPTの利用を含むすべてのシステム上でのデータの移動や共有を監視・制御することが考えられます。DLPにより、機密情報や個人情報が意図せず外部に送信されるリスクを低減できます。さらに、DLPは組織全体でのデータフローを可視化し、ルールに違反した行動に対する警告や自動的なブロックを実行できるため、セキュリティ強化が可能です。
3-2.従業員に対して行う対策
1. 利用制限、ルールの策定
従業員がChatGPTを使用する際には、ログインなし/個人向け無料プラン/Plusプランを使って機密情報を入力してはならない、特定の利用目的に限定するなど、明確な利用ルールを策定することが必要です。これには、従業員がどの業務においてどの程度ChatGPTを使用できるのか、また使用時に守るべき具体的なガイドラインを設け、組織全体で共有することが含まれます。
2. 従業員教育
従業員に対して、ChatGPTやその他のAIツールを安全に使用するためのセキュリティ意識向上のための教育を行うことが不可欠です。教育内容には、機密情報を扱う際のリスク、セキュリティガイドラインの重要性、適切な利用方法、そしてデータ漏洩や不正利用の兆候を発見した場合の対応手順を含めると効果的です。

4. まとめ
ChatGPTはOpenAIによって開発された大規模な言語モデルで、自然な文章生成や多様なタスクをこなす能力を持っています。企業内ではカスタマーサポートの自動化やデータ分析、マーケティングコンテンツの生成などに活用されていますが、セキュリティリスクも存在します。特に入力内容がAIの学習に使用される可能性があり、個人情報や機密情報が漏洩するリスクがあります。これを防ぐためには、API経由での利用やChatGPT Team/Enterpriseプランの使用、データ損失防止(DLP)ツールの導入、従業員への利用制限と教育が重要です。
ヒューマンサイエンスではDeepL、Google、Microsoft、OpenAIの翻訳エンジンを利用できる自動翻訳ソフトMTrans for Officeを提供しています。OpenAIは翻訳エンジンとして活用できるだけではなく、プロンプト次第で文章の書き起こしや書き換え、文章校正をすることができます。MTrans for Officeは、14日間の無料トライアルも受け付けています。お気軽にお問い合わせください。
MTrans for Officeの特長
① 翻訳できるファイル数、用語集に制限はなく定額制
② Office製品からワンクリックで翻訳できる!
③ API接続でセキュリティ面も安心
・さらに強化したいお客様にはSSO、IP制限などもご提供
④ 日本企業による日本語でのサポート
・セキュリティチェックシートへの対応も可能
・銀行振込でのお支払いが利用可能