前半では、生成AIモデルを利用する際のセキュリティのポイントを解説しています。AIモデルに送信したデータが学習されないようにするのは重要です。データの保存期間が長いと、それだけ漏洩リスクも高まります。
そういった、AI利用時に気をつけたい観点を5つほど紹介しています。
後半では、AIサービスごとのセキュリティ方針を詳しく見ています。ほとんどのAIサービスは、データは暗号化されてやりとりされています。社内で研修をするなど、顧客データのセキュリティにも配慮しています。
ただ、サービスによっては送信したデータがモデル学習に利用されるので注意が必要です。
目次
- モデル学習のためのデータ利用
- データ保持ポリシー
- データレジデンシー(データ所在国)
- 暗号化方法
- 各AIサービスのセキュリティとプライバシーポリシー詳細
- Microsoft 365 Copilot
- モデル学習のためのデータ利用
- データ保持ポリシー
- データレジデンシー
- 暗号化方法
- 法人向けセキュリティ機能
- まとめ
- Anthropic Claude
- モデル学習のためのデータ利用
- データ保持ポリシー
- データレジデンシー
- 暗号化方法
- コンプライアンス基準と認証
- 法人が嬉しいセキュリティ
- ChatGPT (OpenAI)・DALL-E 3 (OpenAI)
- モデル学習のためのデータ利用
- データ保持ポリシー
- 暗号化方法
- コンプライアンス基準と認証
- エンタープライズセキュリティ機能
- まとめ
- その他の対策
- Google Gemini
- モデル学習のためのデータ利用
- データ保持ポリシー
- データレジデンシー
- 暗号化方法とアクセス制御
- 法人向けセキュリティ機能
- コンプライアンス基準と認証
- Notion AI
- モデル学習のためのデータ利用
- データ保持ポリシー
- データレジデンシー
- 暗号化方法
- コンプライアンス基準と認証
- エンタープライズセキュリティ機能
- まとめ
- Canva (Magic Write/Magic Design)
- GitHub Copilot
- データレジデンシー
- データ保持ポリシー
- エンタープライズセキュリティ機能
- DeepSeek に関するリスク
モデル学習のためのデータ利用
送信したチャットの情報が、生成AIモデルに学習される恐れがあります。
このデータ利用方針はAIサービスによって異なります。
データがモデル学習に組み込まれると、その情報が他の誰かのチャットの生成結果に現れる可能性があります。これは情報漏洩や不利益につながる恐れがあります。
以下のサービスは、初期設定でモデル学習に利用されないことを保証しています。
Microsoft 365 Copilot 、Anthropic Claudeの商用プラン(Claude for Work, Anthropic APIなど) 、ChatGPTのビジネスプラン 、Stable Diffusion 、GitHub Copilotの企業向けプラン 、Adobe Firefly 、Amazon CodeWhisperer 、Notion AI
一部のサービスでは、オプトイン/オプトアウトを選択できます。
「オプトイン」設定では、データのモデル学習利用を許可をしたことになります。
ですので、モデル学習されたくない場合は、設定から「オプトアウト」を設定しましょう。
ChatGPTやDALL-Eなどの個人向けサービスでは、デフォルト(初期設定)では「オプトイン」の状態です。
設定から、オプトアウトするようにしてください。(OpenAI 開発者向けフォーラムの記事)
API繋ぎ込みでも同様に、データ利用方針に注意が必要です。
AIサービスを提供しているソフトウェアは、第三者のAIモデルを使っている可能性があります。
例えば、私が過去に所属していたGrafferのAI Studioでは、ChatGPT, Gemini, Claudeなどの主要なAIモデルをAPIで引き込んで使っていました。
SaaSは、データのプライバシー保護に配慮していますが、より注意を要する場合には
第三者のLLMのデータ利用方針も確認し、データの学習利用が禁止されていることを確認することが重要です 。(Notionの例)
データがモデル学習に組み込まれると、その情報が将来、他の誰かのチャットの生成結果に現れる可能性があります。これは情報漏洩や不利益につながる恐れがあります。
企業データがAIモデルの学習に利用されないよう必ずチェックしてください。また、個人情報や機密情報は送らないようにしてください。
生成AIに送る際に気をつける情報について、こちらの記事で解説しています。データ最小化と匿名化: DALL·E 3に送信するデータを必要最小限に抑えるデータ最小化の原則を遵守すべきです。可能な限り、プロンプト内の機密情報を匿名化または仮名化し、露出を減らす必要があります。
データ保持ポリシー
ユーザーデータを保存期間を定めたものです。
データの保存期間が長いと、それだけ漏洩リスクが高まります。
プロンプトや生成コンテンツの保持期間が短ければ、情報漏洩のリスクは減ります。
サービスごとの差
データの種類(プロンプト、生成された応答、利用状況データ、監査ログなど)
契約プラン(無料、商用、エンタープライズなど)によって、保持期間が変わってきます。
細かくはサービスのページを見ていただきたいですが、ここでは一例を紹介します。
例えば、Microsoft 365 Copilotではプロンプトが7日間、監査データが90日間、利用状況レポートが30日間保持されます。(ソース)
Microsoft Bing Chat Enterpriseでは、チャットデータがセッション終了時にパージされ、履歴が保持されません。(ソース)
Anthropic Claudeでは入力・出力が最大2年間、フィードバックが最大10年間保持される場合があります 。(ソース)
ChatGPTのAPI(プログラミングでAIモデルに繋ぐこと)では最大30日間データが保持されることがあります。ただしゼロデータ保持(ZDR)ポリシーを選択できる場合もあります 。(ソース)
データレジデンシー(データ所在国)
データレジデンシーは、簡単にいうと、データの保管場所です。
生成AIにチャットを送信するにあたっては、必ずどこかしらのサーバーに情報が送られています。
ユーザーデータの保管場所となる、サーバーの所在地。この約束事がデータレジデンシーです。
OpenAIは、商用プランでは、Tokyoを拠点にサーバーを置き、日本国外にデータを送信しないことを約束しました。(公式発表)
データが日本国内にあると、海外への情報流出のリスクがなく安心です。データについては、日本国内の法律で守られるからです。
データ主権法
国や地域によっては、企業が特定の種類のデータ(例:個人データ、医療データ、金融データ)を国内に留まることを義務付けるデータ主権法が存在します。特に欧州では、データ主権法が厳しく決められています。
日本では、同意取得・認定取得・安全管理措置で海外のサーバーに顧客情報を保存・担保する「疑似ローカライゼーション」が主流です。https://chatgpt.com/share/686b5d6f-7f38-8007-8ca3-b9a89662f73c
データレジデンシーの具体例
ChatGPT (OpenAI) は米国、ヨーロッパ、日本、カナダ、韓国、シンガポール、インドでデータレジデンシーを提供しています。API(プログラミングでAIモデルに繋ぐ)顧客は、この中から地域を選択できます 。(https://openai.com/business-data/)
Microsoft 365 Copilotではユーザーが優先データ所在地(PDL)を指定できます。
例えば、PDL に「日本(東日本リージョン)」が設定されると、Copilot での会話データも東京のデータセンターに保存されます。https://learn.microsoft.com/en-us/copilot/security/privacy-data-security
データ越境
データが国境を越えて転送される場合、AIプロバイダーは以下のセキュリティ事項に配慮しています。
データ保護法(例:GDPR)
転送メカニズム(例:標準契約条項(SCCs)、十分性認定(Adequacy Decisions)
データプライバシーフレームワーク(DPF))
企業は、これらが明記されているAIサービスを選ぶのがベターです。
転送のメカニズムが文書化されていたり、監査可能である旨が明記されているAIモデルを選びましょう。
必要に応じて転送影響評価(TIA)を要求できます。https://www.synthesia.io/legal/security-practices
暗号化方法
AIチャットでは、データは暗号化通信でやりとりしています。暗号化のおかげで、途中で第三者にデータの内容を読み取られる心配がなくなります。APIアクセス(プログラミングでAIモデルに繋ぐこと)でも、データの暗号化が重要となります。
主要なAIサービスは、保存時と転送時の両方でデータ暗号化を保証しています。
転送時にはHTTPSやTLS 1.2以上 、保存時にはAES-256などの業界標準の強力な暗号化アルゴリズムが使用されています。
一部のサービスでは、顧客が自身の暗号鍵を管理できるオプション(カスタマーマネージドキー:CMK)を提供しています。(Microsoft Azureの例)
各AIサービスのセキュリティとプライバシーポリシー詳細
ここからは、主要なAIサービスのセキュリティ・プライバシー保護方針について詳しくみていきます。
日本国内で主流になっているAIモデルは網羅しているので、ご利用中のAIサービスのデータ保護方針を確認してみてください。
Microsoft 365 Copilot
モデル学習のためのデータ利用
Microsoft 365 Copilotは、ユーザーが送信したデータをAIの学習に利用しません。
プロンプトや組織のデータは大規模言語モデル(LLM)の学習に利用されることはありません 。
(組織のデータ:ドキュメント、メール、カレンダー、チャットなど)
Copilotはユーザーが許可したデータのみアクセスできます。閲覧権のないデータへは一切踏み込みません。(公式)データ共有がオプトインされた場合でもデータが共有されたり、基盤モデルの学習に利用されたりすることはありません。
データ保持ポリシー
プロンプト・Teamsチャット・・・7日間保持
監査データ・・・90日間保持
利用状況レポート・・・30日間保持
オプトインした場合の共有されたデータ・・・90日間保持(その後削除)
削除されたデータ・・・180日以内に削除(削除要求があった場合は30日以内に削除)
管理者はMicrosoft Purviewを使用すれば、これらのデータ保持ポリシーを個別に設定できます。
監査記事
データレジデンシー
地域で優先されたデータセンターに保存します。(優先データ所在地(PDL))
例えば、ドイツのテナントのデータは「ヨーロッパ」に保存されます。
「日本」をホーム地域として設定されている場合、日本国内のAzureデータセンターに格納されることが保証されています。
暗号化方法
保存・転送の両方でデータを高度な暗号化で保護しています。
法人向けセキュリティ機能
法人の方がご利用するにあたっての追加のセキュリティ機能を述べていきます。
アクセス制御の継承
Copilotは、アクセス権を持つデータのみを利用します。
SharePoint、Exchange、Teamsなどチームでデータを共有するときには組織で設定したアクセス制御が尊重されます。なので、管理者がCopilotに明け渡すデータを設定できる、ということになります。
データ管理と保護
Microsoft Purview は、データが存在する場所を問わず、organizationがデータを管理、保護、管理するのに役立つ包括的なソリューションセットです。
これを使って、データ保持ポリシーを設定できます。有害なコンテンツのブロック、保護された素材の検出、プロンプトインジェクションの防止など、さらに強固なセキュリティを築くことができます。
データ損失防止(DLP)
管理者は、機密データやパスワードの不正共有を防ぐために、機密ラベルを設定できます
(Data & More Copilot Privacy Protection (D&M | CPP))。これにより、Copilotが機密データにアクセスしないようにできます。
監査ログ
Copilotのインタラクションの監査がサポートされており、管理者はシステム活動を追跡できます。
データ分離
プロンプト、送信したデータ、AIが生成したデータは、Microsoft 365サービス内に留まります。
著作権保護
AIセキュリティリスクや著作権リスクから保護する検出や顧客著作権コミットメントが提供されます。
データ処理契約(DPA)・コンプライアンス基準と認証
Microsoftのデータ処理契約(DPA)および製品規約によってカバーされています。これにより、GDPRなどのデータ保護法に準拠したことになります。また、適切に構成された実装においてはHIPAA準拠もサポートされます。
ただし、ウェブ検索クエリはDPAやBAAの対象外です。
Microsoftは、ISO/IEC 27018などのプライバシー標準にも準拠しています。
まとめ
Microsoft 365 Copilotは安全なモデルと言えるでしょう。オプトインにしていてもデータはモデル学習に利用されません。法人向けには、Microsoft製品のセキュリティ機能の恩恵を受けられます。
Anthropic Claude
安全性と倫理に重点を置いたAIモデル。法人顧客向けには厳格なデータ保護ポリシーを提供しています。
モデル学習のためのデータ利用
商用製品(Claude for Work、Anthropic API)においては、初期設定の段階でユーザーの入力や出力を生成モデルの学習に利用しないことを明確にしています。
ただし、ユーザーがオプトインしたり、利用規約に違反する会話が検出されたりした場合は、内部モデルの学習に利用される可能性があります。
フィードバックデータは、ユーザーIDから分離されるため、ユーザーが特定されることはありません。
フィードバックデータは、サービスの効果分析、研究、ユーザー行動研究、およびAIモデルの学習に利用されることがあります。(公式ページ)
データ保持ポリシー
入力と出力は、利用規約に違反すると分類された場合、最大2年間保持されることがあります。
フィードバックとして送信されたデータは、セキュアなバックエンドに最大10年間保存されます。
企業向けには、組織のチャットやプロジェクトのカスタムデータ保持期間を設定する機能が提供されています。
データレジデンシー
Anthropicは自社またはパートナーが運営する様々な国でデータを処理する可能性があります。公式サイトでは、国際データ転送を明記しています。ただし、EEAまたはUK外へのデータ転送時には、欧州委員会による十分性認定または標準契約条項(SCCs)を通じてデータ保護を確保しています。
ただし、AIモデルは学習データ収集に法的な課題を抱えています。アメリカのSNS RedditはAnthropicにユーザーコメントを不正にスクレイピングされたとして提訴した事例があります。
AIモデルは、モデル学習のためのデータ収集で、法律的な課題を抱えています。
OpenAIは、学習モデルに許可なく記事の文章を使われたとして、Newyork Timesといまだに係争中です。それでも生成AIは世の中のためになるという観点から、市場や株主、ユーザーに支えられています。
社会的にはまだ議論が止まないということが、学習データ収集の法律的課題に現れています。
それでも、未知数の技術で必要な技術であることから、ユーザーや開発者は生成AIの技術を享受しています。
暗号化方法
ユーザーデータは、転送/保存の両方で暗号化されます。
これにより、データが不正アクセスから保護されます。
コンプライアンス基準と認証
Anthropicは、以下のセキュリティ認証を取得しています。安全性とセキュリティ確保に取り組んでいます。
HIPAA Configurable
ISO 27001:2022(情報セキュリティマネジメント)
ISO/IEC 42001:2023(AIマネジメントシステム)
SOC 2 Type IおよびType II
商用顧客向けには、Business Associate Agreements(BAA)も提供しています。
法人が嬉しいセキュリティ
限定的アクセス
Anthropicは、デフォルトではユーザーの会話にアクセスできません。
ただし、フィードバック提供のためオプトインした場合ユーザーの会話にアクセスすることがあります。
また、利用規約に反した利用がみられた場合、Anthropicがレビューするために、Trust & Safetyチームのメンバーが「知る必要性」に基づいてアクセスする可能性があります。
システムおよび組織的セキュリティ
業界標準のセキュリティ対策を講じています。(セキュリティ監視・脆弱性チェック・最新のマルウェア対策・多要素認証・厳格なパスワードポリシー・ネットワークセグメンテーションなど)
Anthropicは、全従業員に対する年次セキュリティ・プライバシー研修、定期的なセキュリティ評価、最小権限の原則に基づくシステムアクセスなどを実施しています。
アクセス管理
エンタープライズプランでは、以下のセキュリティ機能が提供されています。
シングルサインオン(SSO)
ドメインキャプチャによるセキュアなユーザーアクセス
集中プロビジョニング制御
System for Cross-domain Identity Management(SCIM)によるユーザープロビジョニングとアクセス制御の自動化
監査ログによるセキュリティおよびコンプライアンス監視
きめ細やかな権限設定が可能なロールベースのアクセス制御
データ処理契約(DPA)
Anthropicはユーザーから得られたデータについて
セキュリティ安全性を確保することをDPAに明記しています。
ChatGPT (OpenAI)・DALL-E 3 (OpenAI)
モデル学習のためのデータ利用
以下のプランではデフォルトではOpenAIのモデル学習や改善に利用されません 。
(APIでは、ユーザーがモデル改善に貢献したい場合、オプトインする選択肢があります)
ChatGPT Enterprise
ChatGPT Team
ChatGPT Edu
API(入力および出力を含む)
一方、ChatGPT Plus、ChatGPT Proでは、会話データがモデル学習に利用される場合があります。
ユーザーはオプトアウトできます。
データ保持ポリシー
OpenAIは、組織向けにデータ保持期間の制御を提供しています。
APIでではゼロデータ保持(ZDR)ポリシーを選択できます 。
ただしサービス提供と悪用特定のために最大30日間安全に保持されることがあります。その後は法的に保持が義務付けられている場合を除き、システムから削除されます。
ChatGPTの一時チャット(履歴を残さないようにユーザーが選択できるもの)は、安全上の理由から最大30日間保持され、チャット履歴には表示されません。ただし、裁判所命令により、一時チャットでもデータが一時的に保持される場合があります。
データレジデンシー
プラン | データレジデンシー (地域指定) | 備考 |
Enterprise / Edu | ✅ 対応可能(選択可) | 米国、欧州、日本、CA、韓国、SG、IN (help.openai.com) |
API プラットフォーム | ✅ 対応可能(選択可) | エンタープライズ向けに同様に設定可能 |
Team / Free / Plus / Pro | ❌ 未対応 | グローバル運用。地域選択不可 |
Enterprise、Edu、APIでは地域(米国、ヨーロッパ、日本、カナダ、韓国、シンガポール、インドのいずれか)で顧客コンテンツが保存されます。日本では日本国内のサーバーに保管されます。
ただし、 Free / Plus / Pro / Team ではOpenAIのグローバルなデータセンターに保管されます。
部分的なデータレジデンシーの範囲
主要なDALL·E 3コンテンツはデータレジデンシーの範囲にとどまりますが、
特定のメタデータ(例:ワークスペース名、請求情報)および一時的な処理データは、選択された地域外に存在する可能性があります。
暗号化方法
保存時(AES-256)および転送時(TLS 1.2以上)にデータを暗号化します 。
Azure OpenAIでは、FIPS 140-2準拠の256ビットAES暗号化が使用され、顧客管理キー(CMK)のオプションも提供されます。
コンプライアンス基準と認証
GDPR、CCPA、CSA STAR、およびSOC 2 Type 2 Trust Services Criteriaへの準拠をサポートしています。APIプラットフォームの医療機関顧客向けには、HIPAA準拠をサポートするためのBusiness Associate Agreement(BAA)があります。
( OpenAI: ビジネスデータのプライバシー、セキュリティ、コンプライアンス)
HIPAAとは、簡単にいうと、アメリカの健康保険情報のセキュリティの法律です。
BAAを結ぶということは、連邦法に準拠したセキュリティ基準でOpenAIとAPIの契約を結ぶ、ということになります。
これで、OpenAIと個別にセキュリティの高い契約ができます。
( OpenAI: API サービスに関して OpenAI とビジネスアソシエイト契約 (BAA) を取得するにはどうすればよいですか? )
医療保険の携行性と責任に関する法律(HIPAA)は、保護対象医療情報(PHI)のプライバシーとセキュリティ保護を義務付ける米国連邦法です。 (OpenAI BAAのページより)
エンタープライズセキュリティ機能
- アクセス管理: エンタープライズプランでは、アクセス管理機能が提供されます。
これには、グループ、SCIM、きめ細やかなGPT制御、ユーザー分析が含まれます。
多要素認証(MFA)とシングルサインオン(SAML SSO)もサポートされています 5。 - セキュリティ体制: OpenAIはセキュリティインシデントに備えて24時間365日の体制を敷いています 5。インフラストラクチャは、独立した第三者による定期的な監査、レッドチーム演習、および敵対的評価を受けており、最高水準のセキュリティを遵守しています 5。
- 透明性と監査: バグバウンティプログラムを提供し、脆弱性の責任ある開示を奨励しています 6。組織の所有者とセキュリティチームがアクセスと権限を管理できる管理APIと、セキュリティおよびコンプライアンスリスクを完全に可視化できる監査ログAPIが提供されます 5。
- DPA: OpenAIは、企業のデータ処理要件をサポートするために、データ処理契約(DPA)の締結をサポートしています。DPAは、OpenAIのサービス契約に組み込まれています。
まとめ
ChatGPTは、法人向けのプランでは十分なセキュリティ配慮が見られます。
法人の方は、OpenAIのAPIまたはChatGPT Enterprise/Eduプランの利用を強く推奨します。
モデル学習に利用されることはありませんし、多要素認証などの恩恵を受けることができます。
しかし、PlusやProといった個人プランでは、オプトアウト設定をして、学習されないようにする対策する必要があります。また、重要な個人情報や機密情報は流さないのがベターでしょう。
その他の対策
- Trust Portalとの連携: OpenAIのTrust Portal(trust.openai.com)では、デューデリジェンスの情報にアクセスできます 。
- Azure OpenAIの検討:Azure OpenAI Serviceは、顧客管理キーやAzureのコンプライアンスフレームワークとの統合など、追加のセキュリティ制御層を提供します。
Google Gemini
Gemini全体のセキュリティポリシーはこちらにまとめられています。
モデル学習のためのデータ利用
Google Cloud向けのGeminiは、顧客のプロンプト・応答をモデルの学習に使用しません。
セッション内のやり取りは個人または組織の内部にとどまり、明示的な許可なく外部に共有されることはありません。(Google Workspace の生成 AI に関するプライバシー ハブ)
データ保持ポリシー
- Geminiアプリ:
会話履歴の保持期間は3・18・36ヶ月から選択可能です。デフォルトは18ヶ月です。
履歴オフでも新しいチャットは最大72時間保存されます。(サービス提供およびフィードバック処理のため) - Gemini API:
API利用では、プロンプト・プロンプトとともに与えられるコンテキスト・出力は最大55日間保持されます。悪用を監視する目的です。 - データキャッシュ:
最大24時間の一時キャッシュがあります。「ゼロデータ保持」を構成すれば無効化できます。 - 検索連携機能利用時:
関連データは30日間保存されます。無効化はできません。 - セッション再開機能:
セッション再開を有効にすると、最大24時間の一時保存が発生
データレジデンシー
データ保存場所の選択が可能です。例えば東京なら、asia-northeast1を選択できます。
顧客データは、指定地域内で保持され、他地域へ移動しません。例えば、asia-northeast1ならasia-northeast1の中でデータが保存されます。
マルチテナント環境においてもデータの分離を維持しています。
暗号化方法とアクセス制御
詳しくは、Google Workspace の生成 AI に関するプライバシー ハブをご覧ください。
Googleによる保存時・転送時のデフォルト暗号化を実施しています。
顧客管理暗号化キー(CMEK)による暗号化制御にも対応しています。
クライアントサイド暗号化(CSE)で、Googleによるアクセスを技術的に排除しています。
法人向けセキュリティ機能
Gemini for Google Cloud の認定資格とセキュリティのページでは、認証を受けたセキュリティ規格が解説してあります。
- VPC Service Controls:セキュリティ境界を強化し、データ流出を防止
- Access Transparency:管理者がGoogleのアクセス状況を確認可能
- DLP・IRM・CSE機能:
https://workspace.google.com/solutions/ai/
Workspaceユーザーの機密データへのアクセスを制御
コンプライアンス基準と認証
- Geminiは以下の認証・標準に準拠しています:
- ISO 27001、27017、27018、27701、42001
- SOC 1 / SOC 2 / SOC 3
- HITRUST CSF、CSA STAR、BSI C5:2020、FINMA
- PCI-DSS v4.0.1、PCI 3DS、MTCS、OSPAR
- GDPR準拠:
https://explore.openli.com/privacy/gemini/data-processing-agreements
DPA(データ処理契約)やDPTを通じて対応。EU域内個人情報に関する制約に準拠 - HIPAA対応(BAA契約のもと):
Workspace利用により、医療機関向けにも準拠可能
Notion AI
Notionのセキュリティに関する公式ページはこちらです。
モデル学習のためのデータ利用
Notion AIは、Anthropic、OpenAIなどの外部のLLMを利用しています。
エンタープライズプランの場合、データがLLMプロバイダーに保存されることはありません。
エンタープライズプラン以外のプランでも、外部のLLMは顧客データを30日以内に削除します。
Notion AIは、顧客データがモデル学習に利用されないよう、LLMプロバイダーとの契約でこれを禁止しています。NotionのAIは、モデル学習に利用されないことが補償されているので、安心ですね。
データ保持ポリシー
Notion AIは、Notionに保存された文章データを埋め込みデータにしています。つまり、生成AIが処理できるデータ形式に変換しています。埋め込みデータ(embeddings)は、ページまたはワークスペースが削除されてから60日以内に削除されます 。ユーザーがNotionのページやワークスペースを削除した場合、30日以内に復元可能です。しかし、30日を過ぎるとAI生成データや埋め込みデータを含め、データは完全に削除され、復元不可能になります。
データレジデンシー
Notion AIには、具体的なデータ所在地を記載しているページがありませんでした。
暗号化方法
顧客データが処理のために外部のプロセッサーに送信される際、TLS 1.2以上のプロトコルを使用して転送中に暗号化されます 。
コンプライアンス基準と認証
NSOC 2 Type 2レポートおよびISO 27001認証の範囲に含まれています。
これは、様々な規制および業界標準にコミットしていることになります。
また、API利用で接続される、外部のLLMにはデータが保持されないことが補償されています。
これにより、HIPAA準拠を可能にし、保護された医療情報(PHI)の処理をサポートしています。
エンタープライズセキュリティ機能
既存の権限の尊重
Notion AIは、既存の権限を尊重し、ユーザーがアクセス権を持たない情報を見たり利用したりすることはありません。
Notionが外部のベンダーを利用する際もセキュリティに気をつけている
Notionは、第三者のサブプロセッサーやベンダーと契約する前に、第三者ベンダーのプライバシー、セキュリティ、および機密保持の慣行を評価しています。さらに、セキュリティ、プライバシー、および法的義務を履行する契約を締結しています。Notionと契約のある第三者ベンダーは、Notionのセキュリティおよびプライバシーに準拠しているか、少なくとも年1回監視およびレビューされています。
データ分離
個々の顧客アカウントは、本番環境で分離されています。
AI処理中に異なる顧客のデータが混ざることはありません。
データ損失防止(DLP)
エンタープライズプランの顧客は、サードパーティの統合パートナーを使用して、AIプロンプトやAI生成コンテンツを含むNotionワークスペース内の機密コンテンツに対するDLPアラートを設定できます。
データ処理契約(DPA)
Notion AIはデータ処理契約(DPA)を提供しています。
まとめ
Notion AIは、顧客データを安全に取り扱う意識が見て取れます。
サードパーティとのベンダー契約で、顧客のためにセキュリティに配慮することを約束していて、信頼が持てます。
Notionに保管したデータはLLMの学習に利用されないことが約束されています。
法人の方が安心する材料が、NotionAIには多いと言えます。
Canva (Magic Write/Magic Design)
Canvaには、生成AIツールにMagic WriteとMagic Designがあります。特に教育機関向けにプライバシーとセキュリティ対策が講じられています。Canva のプライバシー・ポリシー
モデル学習のためのデータ利用
Magic WriteはOpenAIを搭載しています。
Canvaは、ユーザーがオプトインしない限り、ユーザーコンテンツをモデル学習に利用しません。
しかも教育アカウントでは、オプトイン機能すらありません。
Canvaは、「AI同意プラットフォーム」を構築しています。
データ保持ポリシー
Canva for Educationでは、個人を特定されないように識別情報の削除を要求できます。
プライバシーポリシーに記載された目的を達成するために必要な期間のみ保持され、その後安全に破棄または匿名化されます。
データレジデンシー:
ユーザーデータは米国に保存されます。
暗号化方法:
保存・転送の両方でデータ暗号化。
トラフィックを暗号化するために、Transport Layer Security (TLS) プロトコルと暗号を使用します。
コンプライアンス基準と認証
従業員にデータセキュリティに関する研修をしています
FERPA、COPPA、NDPAなどの主要な米国のプライバシー法に準拠
SOC2 Type IおよびISO 27001認証を取得しています。
これは、定期的なセキュリティ監査を義務付けています。
エンタープライズセキュリティ機能:
教育機関に優しい機能 CanvaのYouTube
- Canva Shield: 学生と教師のデータ保護。
- 教育管理者による制御: 管理者が、アクセスできるAIツール権限を設定できます。
- コンテンツフィルタリング: AIプロンプトで使用される10,000語以上の禁止用語がブロックできます。
- アプリセキュリティ: アプリのiframeにContent Security Policy (CSP) を適用し、クロスサイトスクリプティングなどの脅威のリスクを軽減しています。
- DPA: Enterprise Subscription Agreementにデータ処理に関する規約があります。
GitHub Copilot
GitHub全体のプライバシー声明はコチラ(日本語版)
GitHub Copilotのトラストセンターはコチラ(日本語版)
GitHub Copilotのモデルは、GitHubで公開されている自然言語とソースコードで学習されています。
モデル学習のためのデータ利用
Copilot BusinessおよびCopilot Enterpriseでは、ユーザーデータがAIモデルの学習に利用されません。
これにより、企業のコードがモデルに学習されるリスクはありません。(Reddit , GitHub)
データレジデンシー
GitHub.comのデータはデフォルトで米国に保存されます。
GitHub Enterprise Cloud(データレジデンシー付き)では、EU、オーストラリア、米国 の中から保存する場所を選択できます。
ただし、ユーザーに紐つけられた、課金情報、サポートデータなどは、選択された地域外に保存される場合があります。
(GitHub:データ所在地付き GitHub Enterprise Cloud について , データレジデンシーによるデータの保存について )
暗号化方法
転送時(HTTPS/TLS)および保存時(AES-256)の両方でデータを暗号化します。
(GitHub : Harnessing GitHub Copilot’s Data Privacy Features to Safeguard Business Data )
データ保持ポリシー
Copilot Business および Enterprise ユーザーのデフォルト設定は次のとおりです。
プロンプトと提案: 保持されません
ユーザーエンゲージメントデータ: 2 年間保存されます。
フィードバック データ: 本来の目的に必要な期間保存されます。他のすべての GitHub Copilot は以下にアクセスして使用します。
プロンプトと提案: 28 日間保持されます。
ユーザーエンゲージメントデータ: 2 年間保存されます。
フィードバック データ: 本来の目的に必要な期間保存されます
コンプライアンス基準と認証
GitHubは、GDPRおよび類似の法令への準拠をサポートしています。
また、SOC 1、SOC 2、SOC 3、ISO 27001:2013、CSA STAR Level 2、TISAXなどの認証を取得しています。Microsoftの責任あるAI標準に準拠し、AI影響評価を実施しています。 https://github.com/trust-center
エンタープライズセキュリティ機能
集中管理とポリシー制御
管理者は、組織内の全メンバーの動作を制御できます。外部のAIモデルに繋ぐ際のAIモデルへのアクセス制御ができます。(Anthropic Claude, Google Gemini, OpenAIモデルなど)
アクセス管理
組織は、GitHub Copilotへのアクセスを管理し、きめ細やかなアクセス制御を提供します。2要素認証(2FA)の強制も可能です。
- 監査ログと監視: 詳細な監査ログが提供され、リポジトリへのアクセス、変更、削除を含むすべてのユーザーアクションが記録されます。
- コードセキュリティ: 機密情報(APIキー、パスワードなど)をスキャン・フィルタリングする機能が含まれています。
- DPA: GitHub Enterprise Cloud、GitHub Enterprise (Unified)、GitHub Teams、およびGitHub Copilotのデータ処理にデータ処理方針が適用されます。
参考:Harnessing GitHub Copilot’s Data Privacy Features to Safeguard Business Data
DeepSeek に関するリスク
DeepSeekはデータプライバシー、管轄権、およびコンプライアンスに関する重大なリスクがあります。
DeepSeekの公開クラウド製品は、使用が推奨されません。
企業はDeepSeekに関係するアクセスをブロックおよび封じ込めるべきという記事があります。ファイアウォールなどあらゆる保護ツールを講じて、社内ネットワークおよびデバイス上から、接続を拒否するべきだと主張しています。それだけ、企業にとってDeepSeekへのアクセスが危ないということです。
DeepSeek のオープンソースモデル(例:DeepSeek-R1-abliterated)をダウンロードする場合にも注意が必要です。ローカル環境での利用であっても、製品のパフォーマンスデータを収集したり、監視と分析のために遠隔地にデータ送信する可能性があります(隠されたテレメトリー)。
そのような脆弱性があるため、厳格なコード監査が必須です。
例え手元にダウンロードでき、オンラインにアクセスしないことが約束されたローカルモデルであっても、機密情報・個人を特定できる情報(PII)を DeepSeek に入力することは避けてください。
DeepSeekの規約では、DeepSeekは責任を否認し、補償を提供しないことになっています。
コンプライアンス・知的財産リスクについてDeepSeekへコンプライアンス/補償に責任を求めることができません。
DeepSeek は厳格なセキュリティ監査のもと、使う必要があります。
データレジデンシーについては、中国でのデータ保存と、中国政府がデータアクセスを強制する可能性のある国家情報法が絡んでくるため、地政学的リスクがあります。(記事)