序文

人工知能セキュリティ検証標準 (AISVS) バージョン 1.0 へようこそ!

はじめに

AISVS は 2025 年にコミュニティの共同作業を通じて設立され、現代の AI モデル、パイプライン、AI 対応サービスを設計、開発、デプロイ、運用 する際に考慮すべきセキュリティ要件を定義しています。

AISVS v1.0 は、プロジェクトリーダー、ワーキンググループ、幅広いコミュニティ貢献者の共同作業の成果であり、AI システムを保護するための実用的でテスト可能なベースラインとなります。

このリリースの目標は AISVS を簡単に採用できるようにすることであり、定義されたスコープに焦点を絞り、急速に進化する AI 特有のリスク状況に対処することです。

AISVS バージョン 1.0 の主な目的

バージョン 1.0 はいくつかの指針に沿って作成されます。

明確なスコープ

各要件は AISVS の名称や使命と合致する必要があります。

  • 人工知能 (Artificial Intelligence) – コントロールは AI/ML 層 (データ、モデル、パイプライン、推論) で動作し、AI 実務者の責任となります。

  • セキュリティ (Security) – 要件は、特定されたセキュリティ、プライバシー、安全性のリスクを直接緩和します。

  • 検証 (Verification) – 言語は適合性を客観的に検証できるように記述されます。

  • 標準 (Standard) – セクションは一貫した構造と用語に従い、整然としたリファレンスを形成します。


AISVS に従うことで、組織は AI ソリューションのセキュリティ態勢を体系的に評価および強化し、安全な AI エンジニアリングの文化を醸成できます。

Last updated