序文
人工知能セキュリティ検証標準 (AISVS) バージョン 1.0 へようこそ!
はじめに
AISVS は 2025 年にコミュニティの共同作業を通じて設立され、現代の AI モデル、パイプライン、AI 対応サービスを設計、開発、デプロイ、運用 する際に考慮すべきセキュリティ要件を定義しています。
AISVS v1.0 は、プロジェクトリーダー、ワーキンググループ、幅広いコミュニティ貢献者の共同作業の成果であり、AI システムを保護するための実用的でテスト可能なベースラインとなります。
このリリースの目標は AISVS を簡単に採用できるようにすることであり、定義されたスコープに焦点を絞り、急速に進化する AI 特有のリスク状況に対処することです。
AISVS バージョン 1.0 の主な目的
バージョン 1.0 はいくつかの指針に沿って作成されます。
明確なスコープ
各要件は AISVS の名称や使命と合致する必要があります。
人工知能 (Artificial Intelligence) – コントロールは AI/ML 層 (データ、モデル、パイプライン、推論) で動作し、AI 実務者の責任となります。
セキュリティ (Security) – 要件は、特定されたセキュリティ、プライバシー、安全性のリスクを直接緩和します。
検証 (Verification) – 言語は適合性を客観的に検証できるように記述されます。
標準 (Standard) – セクションは一貫した構造と用語に従い、整然としたリファレンスを形成します。
AISVS に従うことで、組織は AI ソリューションのセキュリティ態勢を体系的に評価および強化し、安全な AI エンジニアリングの文化を醸成できます。
Last updated