索引

パーマリンク: https://owaspai.org/goto/index/

以下のアルファベット順のクリック可能なトピックを探します。脅威とそのコントロールの概要については AI セキュリティの周期表 をご覧ください。

A 敵対的攻撃 (Adversarial attacks) エージェント AI (Agentic AI) アライメント (Alignment)

B バイアス (Bias)

C コンプライアンス (Compliance) 継続的バリデーション (Continuous validation) 貢献 (Contribute) コントロール (Controls) 著作権 (Copyright) 文化的センシティビティ (Cultural sensitivity)

D データとモデルのガバナンス (Data and model governance) モデル出力でのデータ開示 (Data disclosure in model output) 訓練データ/ファインチューンデータのデータポイズニング (Data poisoning of train/finetune data) モデルサービス拒否 (Denial of model service) 直接プロンプトインジェクション (Direct prompt injection)

E 欧州 AI 法 (EU AI Act) 回避 (Evasion) 説明可能性 (Explainability)

F 連合学習 (Federated learning)

G GDPR 生成 AI (Generative AI) ガバナンス (Governance)

I 間接プロンプトインジェクション (Indirect prompt injection)

L LLM (LLMs) ログ記録 (Logging)

M MCP メディア (Media) モデルアライメント (Model alignment) モデル入力の漏洩 (Model input leak) モデル反転 / メンバーシップ推論 (Model inversion / Membership inference) インジェクションを含むモデル出力 (Model output contains injection) 開発環境でのモデルポイズニング (Model poisoning in development-environment) 実行時のモデルポイズニング (Model poisoning in runtime) 訓練データ/ファインチューンデータのデータポイズニングを通じてのモデルポイズニング (Model poisoning through data poisoning of train/finetune data) 実行時の直接モデル窃取 (Model theft directly in runtime) サプライチェーンのデータポイズニング (Model poisoning in supply chain) 開発時のモデル窃取 (Model theft in development-time) 使用によるモデル窃取 (Model theft through use) 監視 (Monitoring)

O 監督 (Oversight)

P 周期表 (Periodic table) プライバシー (Privacy)

R レッドチーミング (Red teaming) 参考情報 (References) 責任ある AI (Responsible AI) リスク分析 (Risk analysis)

S 安全性トレーニング (Safety training) スポンサー (Sponsoring) サプライチェーンマネジメント (Supply chain management)

T テスト (Testing) 脅威モデリング (Threat modelling) 脅威 (Threats) トレーニングデータの漏洩 (Training data leaks) 透明性 (Transparency)

Last updated