生成AI時代における機密企業情報の保護方法
従業員は日常的に企業秘密、ソースコード、財務予測を生成AIツールに共有しています。機密企業情報に対して実際にどのような法的保護が存在するのか、そのギャップはどこにあるのか、そして組織がどのようにコントロールを取り戻すことができるのかを解説します。

従業員が生成AIツールを使うとき、機密企業情報はどうなるか
ニュースの見出しはもはや無視できません。大手企業の従業員が、プロプライエタリなソースコード、社内戦略文書、センシティブなクライアントデータを生成AIのプロンプトに直接貼り付けることで、意図せず漏えいさせてしまっています。最も広く報じられた事例として、Samsungのエンジニアがデバッグ支援のためにプロプライエタリな半導体コードをChatGPTに送信した件があります。そのデータが入力された時点で、モデルが潜在的に学習する可能性のある入力の一部となり、Samsungにはそれを取り戻す手段がありませんでした。
これは孤立した事例ではありません。構造的な問題を反映しています。機密情報を保護するために企業が依拠する法的・技術的フレームワークは、生成AIを念頭に設計されていませんでした。従業員は悪意を持って行動しているわけではありません。2つの違いを十分に理解せずに、検索エンジンを使う感覚でAIツールを使っているのです。
その結果、企業が保有する最もセンシティブな情報(内部財務予測、未発表の製品ロードマップ、クライアントコミュニケーション、法務戦略、ソースコードなど)が静かに継続的に流出しています。そして従来のデータ漏えいとは異なり、アラートも監査ログもなく、多くの場合何かが起きたという認識すらありません。
機密企業情報に対してどのような法的保護が存在するか
ギャップを理解するには、現在どのような保護が存在するかを理解する必要があります。企業には複数の法的メカニズムが利用可能ですが、それぞれが問題の狭い側面しかカバーしていません。
著作権・特許法は、公開された創造的・発明的作品の商業的利用を防ぐために設計されています。著作権は情報の機密性を保護せず、特許法は保護を与える代わりに公開を要求します。いずれのフレームワークも、第三者に共有された情報の削除や処理停止を要求する権限を組織に与えません。
秘密保持契約(NDA)と内部の企業ポリシーは、従業員が機密情報を取り扱う方法を契約上制限できますが、事後的に機能するものです。NDAはプロンプトの送信を防ぐことができません。漏えいが起きた後にのみ責任を生じさせます。
企業秘密法や不正競争法は意図的な悪用に対してある程度の保護を提供しますが、企業秘密として認められる基準が厳しく、AI文脈での悪用の立証は主に未検証のままです。
これらすべてのメカニズムに共通するのは、組織が情報を壁の外に出した後の収集・利用方法を直接コントロールするのではなく、商業的・契約的フレームワークを通じて間接的に企業情報を保護するという点です。
なぜ個人データは企業データよりも優れた保護を受けるか
現代のプライバシー法のもとで、個人は自社の機密情報について企業が主張できるものをはるかに超えた権利を持っています。GDPRは第17条のもとで削除の権利を、第18条のもとで処理制限の権利を個人に提供しています。
個人はAIプロバイダーに対してモデルの出力からの個人データの削除を要求できますが、その権利は法律によって支えられており、プロバイダーの利用規約だけではありません。
企業の機密情報については、そのコントロールがほぼ完全に欠如しています。従業員がプロプライエタリなアルゴリズムをLLMに送信した企業には、対応する削除の権利がありません。どのような規制フレームワークもAIプロバイダーにそのデータを削除または利用停止することを強制しません。
従業員が企業データをAIツールに共有することの実際のリスクとは何か
リスクは仮定の話ではありません。構造的なものであり、毎日あらゆる産業で現れています。
マーケティング担当者がコピーを完成させるためにAI文章ツールに未公開の製品詳細を入力する。財務アナリストが仮定をテストするために内部予測モデルをAIアシスタントに共有する。プロジェクトマネージャーが仕上げのためにAIプラットフォームにクライアントのロゴと機密パートナーシップ条件を含むプレゼンテーションをアップロードする。ソフトウェアエンジニアがデバッグの助けを求めてチャットインターフェースにソースコードを貼り付ける。
それぞれのケースで意図は生産的です。従業員は仕事をより効果的に行おうとしています。しかし共有された情報は今や組織のコントロール外のシステムに存在し、組織のポリシーではなくプロバイダーの利用規約によって規律される可能性があります。
AIプロバイダーは企業データを保護するために十分なことをしているか
OpenAI、Anthropic、Googleなどの主要なAIプロバイダーは、こうした懸念に対処するための設定を導入しています。ユーザーは会話がモデルトレーニングに使用されることをオプトアウトでき、エンタープライズ版では契約上より強力なデータ取り扱いのコミットメントが提供されています。
しかし、自発的な契約上のコミットメントと法的に執行可能な権利の間には重要な違いがあります。エンタープライズ契約は変更・終了され得るものであり、顧客による監査にも限界があります。
組織は企業データの漏えい問題にどのように対応すべきか
多くの組織の即時対応は利用ポリシーの発行でした。外部AIツールへの特定カテゴリの情報入力を従業員に禁止するガイドラインです。これは必要な第一歩ですが、それだけでは十分ではありません。ポリシーは認識とコンプライアンスに依存しており、データが組織を離れる前にそれを傍受する技術的コントロールを作り出すものではありません。
より強固なアプローチは、送信の時点で問題に対処することです。つまり、機密情報が外部のAIシステムに到達する前に処理することです。
これはまさにLiminaのデータ非識別化プラットフォームが取り組む課題です。パターンマッチングではなく言語学的アプローチに基づいて構築されており、文書内のエンティティ間の関係性を理解します。これにより、個人データと同様に機密のビジネス情報を識別・除去することができます。
センシティブ情報を第三者AIツールに送信される前に傍受・非識別化することで、組織は生成AIの生産性上の利点を維持しながら、環境から何が出ていくかについての意味ある管理を維持できます。


