[ドイツ] AI の説明可能性を促進する新しい標準
2023/08/08
人工知能(AI)の話題は、長年にわたって科学とビジネスの両方を占めてきた。米国企業OpenAIによるChatGPTの適用により、AIに関する議論は国際的にも国内的にも一般市民にも広まった。AIが不信感を持たれていることも明らかになった。というのも、AIがどのようなソースに基づいてどのような結果を導き出すのか、そしてその結果が真実なのかどうかが不明確だからである。これまでは、アプリケーションの信頼性を高めるためのAIの説明可能性に関する標準は存在しなかった。
新しいDIN SPEC 92001-3は、AIの説明可能性を促進するための標準を規定している。
考え方
AIシステムが効率的、責任的かつ信頼性をもって使用されるためには、その開発と使用が関連する品質基準を満たす必要がある。「この新しい規格は、AIアプリケーションの説明可能性を通じて、その使用とセキュリティに対する信頼を促進し、この将来技術の開発における安全なフレームワーク条件を創出することを目的としています」と、neurocat GmbHの標準化/製品管理マネージャーであり、DIN-SPECコンソーシアムの責任者であるAnnegrit Seyerlein-Klug氏はその目的を説明する。
ガイドラインとしてのDIN SPEC 92001-3
新たに作成されたDIN SPEC 92001-3は、AIシステムのライフサイクルの全段階において説明可能性を促進するための適切なアプローチと方法のガイドラインを提供する。この規格は、今日のAIにおける透明性の欠如の原因と影響を定義し、説明している。そのために、この規格では、AIシステムのライフサイクルのさまざまな段階において、さまざまな利害関係者に対して、これらの影響を緩和するために説明をどのように利用できるか、また、どのように利用すべきかを検討している。
幅広い適用範囲
説明される品質基準は、あらゆる種類のAIシステムと、そのようなシステムが使用されるあらゆる領域に適用される。特に、様々な程度の不透明性を持つAIシステムに適用される。したがって、これらの品質基準は、説明可能なAIのより良い理解とより効果的な利用を促進する。また、組織がAIベースのアプリケーションに信頼と透明性の原則を組み込むことを可能にする。また、説明可能性に関する具体的要件の策定や、技術的に正しい動作の理解可能な証明のための概念的・手続き的基礎も形成する。
DIN SPEC 92001-3は、フラウンホーファーIAIS研究所が連邦情報セキュリティー局(BSI)、ドイツ標準化協会(DIN)、その他の科学的パートナーおよび関連産業パートナーとともに実施しているプロジェクト「CERTIFIED AI」の成果である。
シリーズ第3弾
DIN SPECは、CERTIFIED AIプロジェクトの開始前に策定された一連のAI規格の第3部である。このシリーズの最初の2つの文書であるDIN SPEC 92001-1とDIN SPEC 92001-2は、まず、堅牢性、説明可能性、性能という一般的なAI品質基準を強調するために、AI品質メタモデルとライフサイクルを定義している。次に、AIシステムの堅牢性を確保するための標準が規定されている。
※この標準はBeuth Verlag社(www.beuth.de)から無料でダウンロードすることができる。
[ジュネーブ事務所]
https://www.din.de/de/din-und-seine-partner/presse/mitteilungen/kuenstliche-intelligenz-transparenter-machen-931058