【セミナーレポ】「人工知能(AI)セミナー AIの進化を見据えて: 最新規制と国際標準化の実践、組織対応の最前線」を実施しました!
2024/11/12
2024年10月28日(月)に、「人工知能(AI)セミナー AIの進化を見据えて: 最新規制と国際標準化の実践、組織対応の最前線」を開催しました。
【本セミナー実施の背景】
「人工知能(Artificial Intelligence:AI)」は、世界的に研究・技術開発が加速しており、日常生活ではもちろん業務効率化やコスト削減などといったその有用性についても増々認識されてきており、AIは『使えるもの』ではなく『使うもの』との見方もされています。
また、今では気軽に利用できるツールが多数開発されており、我々一般市民においても馴染みのある技術となっている反面、
その使い方によっては思わぬ“事故”を招く蓋然性が高いという面もあり、AI技術を開発・利用する上での指針などの明確化が求められています。
その中、2024年5月、EUによるAI法案(EU AI Act)の最終案がEU理事会で承認されたことで、世界初の包括的なAI法(規制)が成立しました。EU AI Actは、罰則ありの「ハードロー」であるため、EU域内でAIシステムを展開する日本企業においても必ずしも無視できないものとなっています。
他方、アメリカでは2020年10月に「米国 AI権利章典の青写真」、2023年7月~10月にはAI関連事業者がAIの安全な開発等に関して「自主的なコミットメント」、同年10月には各連邦政府機関を対象にした「AIの安全・安心・信頼できる開発と利用に関する大統領令」が公表されました。
同大統領令は部分的に法律を引用する面を持つものの「ソフトロー」でありかつ民間企業を対象にするものではないですが、今後、民間企業を対象とした法律の議論が加速することが予想されます(本年9月29日、カリフォルニア州では、民間企業をも対象とする「最先端AIシステムのための安全で安心な技術革新法(SB1047)」が知事の拒否権行使により否決されました)。
そして、我が国においては、まず2019年3月に「人間中心の社会」の実現にむけた「人間中心のAI社会原則」が策定され、また日本政府はAIに関する最初の政府間基準である「人工知能(AI)に関するOECD原則」の策定にも大きく関与してきました。
その結果、2023年に日本が議長を務めたG7を受けて「広島AIプロセス」が立ち上がり、同年10月には「広島AIプロセスに関するG7首脳声明」が発出され、同年12月には「広島AIプロセス包括的政策枠組」が承認されました。
しかし、我が国における実務的なAIガイドラインとしては、従前より「国際的な議論のためのAI開発ガイドライン案(2017年,総務省)」「AI利活用ガイドライン~AI利活用のためのプラクティカルリファレンス~(2019年,総務省)」
「AI 原則実践のためのガバナンス・ガイドライン Ver. 1.1(2022年,経済産業省)」といった複数のガイドラインが存在し、統一的なガイドラインの策定が求められていました。その後、2024年4月19日にソフトローである「AI事業者ガイドライン(第1.0版)」の取り纏めがなされました。
現時点では、同ガイドラインが我が国におけるAI事業者(AI開発者・AI提供者・AI利用者)に向けた唯一のガイドラインとなっています。
日本を含み世界的にAI規制にかかる仕組みができつつある中、2023年12月18日にはAIマネジメントシステムに関する国際規格である
「ISO/IEC 42001(情報技術-人工知能-マネジメントシステム Information technology -- Artificial intelligence -- Management system)」が発行されました。
日本規格協会では2024年4月15日に「ISO/IEC 42001」の日英対訳版を発行し、我が国における標準化の普及に努めてきました(「ISO/IEC 42001」は、現在JIS化に向けて作業中です)。
このように、社会としての「仕組み」が整備されつつありますが、AI技術は日進月歩の発展を遂げており、現状、世界各国において法規制などがAI技術の進歩に追いついていない状況にあります。
それは翻ると、社会のAI技術利活用が多様になってきたことにより、我々が想定していたリスクの範疇を超えたリスク事象が生じてきていることも示唆します。
我が国において、2019年に「人間中心のAI社会原則」が公表され、AIに関する責任の所在については、AIを利活用する社会全体のAIであると捉え、AIを原因とした「人の責任」と示されています (いわゆる「責任あるAI」)。
この考えは、我が国のみならず世界共通の理解であるところ、2023年に公表された「全ての AI 関係者向けの広島プロセス国際指針」においても「我々は、安全、安心、信頼できる AI を適切かつ関連性をもって推進する上での、全ての AI 関係者の責任を強調する。」と明記され、
AIリスクに関する項目を含む12項目の原則が提示されました。
現在、「EU AI Act」、NIST「AIリスクマネジメントフレームワーク(AI RMF)」や「AI事業者ガイドライン(第1.0版)」においても、リスクベースアプローチにより、企業がAIを利活用する上で各社がAIリスクを特定し、対策を講じて企業活動を行っていくことが求められています。
しかしながら、エマージングテクノロジーであるAI技術についてはリスクの捉え方などが複雑です。
以上のとおり、AIは欠かすことのできないツールであるにも関わらず、AIを取り巻く環境は未だ不明瞭であるところ、そういった不安解消の一助となるべく、AI政策の動向からAIマネジメントシステムについて、
また企業のAIリスクに対しての取り組みについて、5名の著名な専門家にご講義いただきました。
●講師紹介●
内閣官房 内閣審議官
内閣府 科学技術・イノベーション推進事務局 審議官
AI戦略チーム
渡邊 昇治 氏
国立研究開発法人産業技術総合研究所
デジタルアーキテクチャ研究センター
チーフ連携オフィサー
杉村 領一 氏
一般財団法人日本情報経済社会推進協会
(JIPDEC)
常務理事
山内 徹 氏
大阪大学
社会技術共創研究センター
(ELSIセンター)
センター長・教授
岸本 充生 氏
日本電気株式会社
デジタルトラスト推進統括部
ディレクター
徳島 大介 氏