「生成AI」の普及が急速に進む中、個人や企業がこれらのサービスを利用する際には、潜在的なセキュリティリスクに対する議論が高まっています。特に、情報リテラシーの低い従業員が生成AIを利用する場合には、企業にとっても懸念すべきリスクとなる可能性があります。
AIツールは翻訳業務の効率化にもつながるため、利用する人も多くなってきたと思います。AIを活用して翻訳の効率を高めることができますが、誤った翻訳を生成する可能性や機密性の高い情報を漏洩させるリスクも抱えています。
本記事では、企業が生成AIを活用する際に直面するセキュリティリスクに焦点を当て、それに対処するための方法について解説します。
【目次】
生成AIツールとそのセキュリティリスクについて
2022年のChatGPTの公開以来、生成AIサービスへの注目度が急速に高まり、個人だけでなく企業もその活用を模索し始めました。特に翻訳業界では、AIが高度な自然言語処理技術を駆使して、言語の微妙なニュアンスや文脈を理解し、スピーディーに適切な翻訳を提供することが期待されています。しかし、一方でAIを利用することによって生じるセキュリティリスクや機密情報の漏洩などの懸念もあります。そのため、AIを活用する際には、これらのリスクに対する適切な対策が求められています。
まず、生成AIにはどのようなセキュリティリスクがあるのでしょうか。
1:内部による情報漏洩
2:ログに情報が残る
生成AIの利用に伴うリスクの1つは、「内部による情報漏洩」です。
生成AIは大量のデータを学習するため、入力された情報がAIによって学習され、他の人がAIに対して質問をした際に回答としてた使用される可能性があります。このため、企業や個人が生成AIに機密情報や個人情報を入力すると、AIがそれを回答として利用し、情報が漏洩につながるケースががあります。
さらに、生成AIサービス事業者のログに情報が残ることも懸念されます。事業者は生成AIの悪用を防ぐために、入力内容を保存しています。しかし、事業者内で不正行為が行われた場合や、外部からの攻撃によって保存された入力情報が漏れる可能性があります。また、個人情報取扱事業者が本人の同意なしに生成AIサービスに個人データを入力し、そのデータが出力以外の目的で扱われる場合、個人情報保護法に違反する可能性もあります。
テキスト生成AIツールChatGPT、Copilot、Gemini、でのデータ保護について
では各生成AIはどのように、入力されたデータを保護しているのでしょうか。近年人気の3つの生成AIを取り上げ、それぞれのデータ保護の方法を見てみましょう。
■ChatGPT (OpenAI社)
ChatGPTは、様々なソースからデータを収集しています。これには、公開されている情報、ライセンスされたサードパーティのデータ、および人間のレビュアーによって作成された情報が含まれます。
利用時のデフォルト設定の場合、利用者が入力したデータはモデル改善のための二次利用が可能となっています。ただ、設定内で自身でこの設定をオフすることで、モデル改善の履歴に利用されることはなくなります。(注:設定したブラウザのみ有効であり、ブラウザやデバイス間では同期されません。)
また、昨年度OpenAIは企業向け新サービス『ChatGPT Enterprise』を提供開始しました。
本サービスは機密情報や個人情報の漏洩、著作権侵害など多くの懸念を踏まえ、データ保護を徹底すると強調されています。その他にも、ChatGPT TeamやMicrosoft社提供のAzureなどのAPIプラットフォームからのこれらのデータはモデルのトレーニングに使用されないと主張しています。
以上の事よりデータ保護を徹底するので、ビジネスで利用する際は『ChatGPT Enterprise』を使いましょう。
(参照元:Data Controls FAQ
Enterprise privacy at OpenAI )
■Copilot (Microsoft社)
Microsoft社のCopilot(旧Bing Chat)は、特定のMicrosoft 365やOffice 365ライセンスを持つユーザーに対して、データ保護のセキュリティ機能を提供しています。このデータ保護を受けるには、職場や学校のアカウントでCopilotにサインインする必要があります。
なので、業務で使用する際は、個人アカウントではなくMicrosoft 365やOffice 365といったライセンスを使用するようにしましょう。
(参照元:商用データ保護の適格性 )
■Gemini (Google社)
Google社のGeminiも入力したデータはモデルの改善のために使用されることがありますが、
他社と同様でエンタプライズ向けのサービス『Gemini for Google Workplace』のライセンスを利用すると、セキュリティ機能が適用され、入力データがモデルの改善用に利用されることはありません。なので、社内で利用する際は無料アカウントではなく、『Gemini for Google Workplace』を利用するといいでしょう。
(参照元:Gemini for Google Workspace に関するよくある質問 )
その他AI翻訳ツールのデータ保護及び二次利用に関してはこちらを参照ください。
(【2024年3月】翻訳サイトおすすめ厳選15個【英語・中国語・韓国語】)
セキュリティリスクを避けるための対策
これらのセキュリティリスクを軽減するためには、
・漏洩すると困る情報は入力しない
・入力データを学習に用いない、かつ入力された機密情報が適切に扱われることが保証されたサービスを利用する
・学習機能を無効にする設定で利用する
といった方法があります。このような対策を講じることで、生成AIの利用に伴うセキュリティリスクを最小限に抑えることができます。
また、企業がこれらのAIツールを業務で使用する際には、セキュリティリスクを避けるための対策として、社内向けのガイドラインの整備が挙げられます。前述したように、AIの利用には情報漏洩や機密情報の取り扱いなどのリスクも潜んでいます。会社内でのAI利用に関するガイドラインを作成し、従業員に周知することで、セキュリティ対策を徹底することができます。
例えば、富士通では社内の業務にChatGPTベースの生成AIを安全に利用できるよう環境を整え、全従業員が利用可能にしています。このために、生成AIの安全な利用を促進するための「生成AI利活用ガイドライン」を従業員向けに作成し、ウェブ上で一般公開されています。
また、一般社団法人日本ディープラーニング協会も組織が生成AIを効果的に活用できるよう、利用ガイドラインのテンプレートを作成し、ウェブ上で提供しています。
こうした資料を参考にして、独自のガイドラインを作成することが企業にとって有益であると思われます。これらの対策により、企業はAIを安全かつ効果的に活用し、リスクを最小限に抑えることが可能です。
一方、日本政府は、AIの使用に関する国際ガイダンスへの共同署名に取り組んでいます。このガイダンスは、豪州、カナダ、ニュージーランド、英国、米国の関係当局と共同で作成され、AIシステムの使用に関する指針を示しています。具体的には、AIシステムに関する6つの脅威とそれに対する12の緩和策が列挙されています。日本政府は、このガイダンスに参加し、AIの安全な利用に向けた国際連携を強化する取り組みを行っています。
AIの安全な利用とリスクマネジメントは、社内ではもちろんのこと、国としての対策も今後ますます重要なテーマとなるでしょう。
まとめ
本記事では、生成AIツールの業務利用とセキュリティリスクに焦点を当て、企業がこれらのツールを安全かつ効果的に活用するための方法について解説しました。生成AIを利用することで翻訳業務の効率化が可能ですが、情報漏えいやデータ保護に関するリスクも考慮する必要があります。無料の翻訳サイトを利用することはリスクが高く、セキュリティが確保されたサービスを利用することをお勧めします。
ヤラクゼンのカンパニープランでは、翻訳にかけた文章を二次利用することはありません。これにより、ビジネスメールや社内の重要な資料などで自動翻訳を利用したい場合でも安心して使用できます。自社の情報を保護しつつ、効率的な翻訳サービスを活用するために、是非ヤラクゼンのカンパニープランをご検討ください。
この記事の執筆者:Yaraku ライティングチーム
翻訳者や自動翻訳研究者、マーケターなどの多種多様な専門分野を持つライターで構成されています。各自の得意分野を「翻訳」のテーマの中に混ぜ合わせ、有益な情報発信に努めています。