C12 プライバシー保護と個人データ管理 (Privacy Protection & Personal Data Management)

管理目標

AI ライフサイクル全体 (収集、トレーニング、推論、インシデント対応) にわたって厳格なプライバシー保証を維持し、個人データが明確な同意、必要最小限の範囲、証明可能な消去、形式プライバシー保証でのみ処理されるようにします。


C12.1 匿名化とデータ最小化 (Anonymization & Data Minimization)

Remove or transform personal identifiers before training to prevent re-identification and minimize privacy exposure.

#
説明
レベル
ロール

12.1.1

検証: 直接識別子と準識別子は削除され、ハッシュされている。

1

D/V

12.1.2

検証: 自動監査は k-匿名性/l-多様性 を測定し、閾値がポリシーを下回ると警告を発している。

2

D/V

12.1.3

検証: モデルの特徴量重要度レポートは ε = 0.01 相互情報量を超える識別子の漏洩がないことを証明している。

2

V

12.1.4

検証: 形式証明や合成データ証明はリンク攻撃の下でも再識別リスクが 0.05 以下であることを示している。

3

V


C12.2 忘れられる権利と削除の強制 (Right-to-be-Forgotten & Deletion Enforcement)

Ensure data-subject deletion requests propagate across all AI artifacts and that model unlearning is verifiable.

#
説明
レベル
ロール

12.2.1

検証: データ主体の削除要求は、30 日未満のサービスレベル契約内で、未加工データセット、チェックポイント、エンベディング、ログ、バックアップに伝播している。

1

D/V

12.2.2

検証: 「機械学習解除 (machine-unlearning)」ルーチンは、認定された学習解除アルゴリズムを使用して、物理的に再訓練するか、削除を近似している。

2

D

12.2.3

検証: シャドウモデルの評価は忘れられたレコードが与える影響が学習解除後の出力の 1% 未満であることを証明している。

2

V

12.2.4

検証: 削除イベントは不変にログ記録されており、規制当局により監査可能である。

3

V


C12.3 差分プライバシーの安全対策 (Differential-Privacy Safeguards)

Track and enforce privacy budgets to provide formal guarantees against individual data leakage.

#
説明
レベル
ロール

12.3.1

Verify that differential privacy budget consumption is tracked per training round (both ε and δ values) and that cumulative budget dashboards alert when ε exceeds policy thresholds.

2

D/V

12.3.2

検証: ブラックボックスプライバシー監査は宣言値の 10% 以内で ε̂ を推定している。

2

V

12.3.3

検証: 形式証明はトレーニング後のすべてのファインチューンとエンベディングをカバーしている。

3

V

12.3.4

Verify that federated learning systems implement canary-based privacy auditing to empirically bound privacy leakage, with audit results logged and reviewed per training cycle.

3

V


C12.4 目的の制限とスコープクリープの保護 (Purpose-Limitation & Scope-Creep Protection)

Prevent models and datasets from being used beyond their originally consented purpose.

#
説明
レベル
ロール

12.4.1

検証: すべてのデータセットとモデルのチェックポイントは元の同意に沿った機械読み取り可能な目的タグを伝達している。

1

D

12.4.2

検証: ランタイムモニターは宣言された目的と一致しないクエリを検出し、ソフト拒否をトリガーしている。

1

D/V

12.4.3

検証: Policy as Code ゲートは DPIA レビューなしでの新しいドメインへのモデルのデプロイメントをブロックしている。

3

D

12.4.4

検証: 形式トレーサビリティ証明はすべての個人データのライフサイクルが同意された範囲内にとどまっていることを示している。

3

V


Record, enforce, and revoke consent across AI processing pipelines.

#
説明
レベル
ロール

12.5.1

検証: 同意管理プラットフォーム (CMP) はデータ主体ごとにオプトインステータス、目的、保持期間を記録している。

1

D/V

12.5.2

検証: API は同意トークンを公開している。モデルは推論前にトークンのスコープを検証する必要がある。

2

D

12.5.3

検証: 拒否または撤回された同意は 24 時間以内に処理パイプラインを停止している。

2

D/V


C12.6 プライバシー制御を備えた連合学習 (Federated Learning with Privacy Controls)

Apply differential privacy and poisoning-resistant aggregation to federated learning to protect individual participant data.

#
説明
レベル
ロール

12.6.1

検証: クライアントの更新は集約前にローカル差分プライバシーノイズの追加を採用している。

1

D

12.6.2

検証: トレーニングメトリクスは差分プライベートであり、決して単一クライアントの損失を明らかにしていない。

2

D/V

12.6.3

検証: ポイズニング耐性集約 (Krum/Trimmed-Mean など) は有効にされている。

2

V

12.6.4

検証: 形式証明は全体的な ε 予算が 5 未満の効用損失であることを示している。

3

V


参考情報

Last updated