コラム

1.AIリスクマネジメントフレームワーク (ご参考) :2023年12月1日
米国商務省の国立標準技術研究所(NIST)は2023年1月、人工知能(AI)技術のリスク管理のためのガイダンスである「AIリスクマネジメントフレームワーク」(AI RMF)を発表しました。
日本の組織にとって非常に有益なドキュメントである「AI RMF」解説のWebサイトをご参照ください。

[ 参考文献 ]
 PwC Japan 「NIST AIリスクマネジメントフレームワーク」解説


2.人工知能(AI)規制について (ご参考) :2024年9月11日
AIの進歩は社会に新たな利益と、自動化に向けて驚くべき進化をもたらし、あらゆる業界での競争激化が予想されます。
このような流れを受け、欧州連合(EU)では、基本的権利、民主主義、法の支配、環境の持続可能性を保護するため、リスクベースアプローチによる包括的なAI規制法が暫定合意されました。
2024年5月21日に生成AIを含む包括的なAIの規制「EU版AI規制法」が成立、8月1日に発効され、規制内容に応じて2030年12月31日までに段階的に施行されます。
米国の動きとしては、米国コロラド州議会は2024年5月8日、民間部門によるAIの使用を規制するための法案を可決されました。
同法案はAIの潜在的なリスクから消費者を保護することを目的としたもので、知事に署名されれば、民間部門における全米初の州単位のAI規制法となり、2026年2月に施行されることになります。
最後に、日本国内においては、現時点ではAIを包括的に規制する法令は存在しませんが、拘束力のない「AI利活用ガイドライン」が定められています。

[ 参考文献 ]
 総務省 「EUにおけるAI規制と偽・誤情報対策」(PDF)
 総務省 「AI利活用ガイドライン」(PDF)
 内閣府 「AIを巡る主な論点」(PDF)


3.音声感情解析AI「ALICe」AI規制について (ご参考) :2024年9月18日
ALICeの音声感情認識の演算方法(基本手法)については、欧州連合(EU)で定義するAIシステムの範囲には含まれないと認識しています。
基本手法は、基本エンジン提供先であるNemesysco社が20年以上にわたって使用しているLVA(Layard Voice Analysis)テクノロジーを用いています。
LVAテクノロジーは、専門家が20年以上にわたって細心の注意で分析した専門知識に基づいて感情データを出力しており、人工知能に基づいている訳ではありません。
但し、ALICeにおいて、検出した感情データを用いてどのような場面で活用するかのアドバイスには、AI(音声認識AI、生成AI)を利用しているケースがあります。
アドバイスのAI利用により起こり得るリスクには、総務省「AI利活用ガイドライン」に沿った対応を取っておくことを推奨しています。

[ 参考文献 ]
 RHS社 「COLUM No.8」
  音声と感情についてPart2 〜AIによる感情検出とAIを使わない感情検出〜
 RHS社 「COLUM No.10」
  政府公表「AI事業社ガイドライン」に対する当社の対応について