AI導入におけるイノベーションとコンプライアンスを両立させる(2025年3-4月号)
ジョン・ニズリー[*]
2024年、企業におけるAI利用が595%急増して、業界の構造を変革し、世界的な規制に関する議論を巻き起こした。経済協力開発機構(OECD)によると、現在69カ国で1,000件以上のAI規制や取組が検討されている。AI導入の急速な進展により、立法機関、理事会、リスクマネジャーは、AI開発を支援する政策と、システムの信頼性、公平性、透明性、安全性の確保を両立させるという課題に直面している。
セキュリティとデータプライバシーは、AIを取り巻く多くの潜在的なメリットと懸念事項の根底にある。ラケラのセキュリティトレンド概要によると、セキュリティ専門家の93%がAIはサイバーセキュリティを確保できると回答している一方で、77%の組織がAIの脅威に対する防御体制が整っていないと感じている。さらに、企業の意思決定者のAI技術に対する信用度にばらつきがあることも、この課題をさらに複雑にしている。アッビーが最近発表した『インテリジェント・オートメーションの現状に関するレポート – AI信用度バロメーター』によると、AIを信用していない回答者の50%が、サイバーセキュリティとデータ侵害への懸念を挙げている。さらに、AIモデルの解釈と分析の精度についても、それぞれ47%と38%が懸念を抱いている。
AIを導入する上で、世界中の企業、政府、そして機関にとって、信用性と信頼性は極めて重要である。企業のリーダーにとっての課題は、AIが持つ変革の可能性を最大限に活かしつつ、固有のリスクを管理することである。
以下の4つの検討事項は、企業が規制基準を満たし、企業のリスクを管理できる、誠実で信用できるAIポリシーと実践を確保するのに役立つ。
1.良質なデータから始める
「ゴミからはゴミしかできない」という諺があるように、AIは学習データに依存しており、その多くは人間が触れていない。これが多くの企業がAIを導入する主な理由であるが、このデータはセキュリティ上の潜在的な弱点にもなりうる。古くて構造化されていない情報や個人データが、大規模言語モデル(LLM)に意図せず取り込まれることはよくあり、バイアスや不正確さ、データ盗難や差別につながる可能性がある。
LLMは、学習源となるデータが豊富で整理されている場合に最も効果的に機能する。今日の多くの組織にとって、これはLLMがサポートすることが期待される特定のニーズと業務について最低限の理解を持っている必要があることを意味する。このギャップを埋めるために、LLMの精度と信頼性を高める技術である検索拡張生成(RAG)が再び注目を集めている。RAGは、組織のデータでLLMを拡充し、LLMの有用性と信頼性を大幅に向上させる、費用対効果が高く安全な方法として急速に普及している。
質の低い学習データという課題に対処するために、組織はまずデータ保存場所を監査し、ギャップ、不正確さ、そして潜在的に機密性の高い情報を特定する必要がある。次に、より高品質な入力データを確保するために、明確なデータ洗浄および構造化プロトコルを確立することが重要となる。関連性が高く整理されたデータは、RAGソリューションを最大限に活用し、LLMにコンテキスト理解を深めさせ、ビジネスとの関連性を強化するための基盤を提供する。さらに、部門横断的なチームが連携してRAGプロセスを安全に実装することで、データ漏洩を防ぐ堅牢なデータガバナンス体制を確立できる。
2.説明可能なAIと透明性のあるAIを確保する
AIによる意思決定はデータにバイアスを生じさせる可能性があり、差別や不平等を永続させる可能性がある。この問題に対処するには、AIシステムの開発・導入において、幅広い視点を持つ多様なチームを編成し、その能力を構築することが重要である。これにより、説明可能で透明性のあるAIを確保できる。企業は、アルゴリズムリスク管理委員会やデータガバナンス委員会など、AI倫理に特化した部門横断的なチームを編成する必要がある。
AIの透明性、バイアスの低減、監査証跡を可能にするツールに重点を置くことで、企業はAIソリューションを信頼し、必要に応じてコンプライアンスを検証できるようになる。AIを活用したセキュリティツールは透明性の恩恵を受け、アナリストは意思決定を理解し、侵害検出方法を改善できる。
開発者は、特に保険、医療、金融などの重要な分野において、利害関係者がAIの意思決定を理解し、解釈し、異議を申し立てることができるインターフェースを提供できる必要がある。組織は、特に個人データが関与する場合、AIの運用について明確に説明する必要がある。ユーザーはAIがどのようにデータを扱うかを理解すれば、情報共有について十分な情報に基づいた選択を行うことができ、不要な個人情報が漏洩するリスクを軽減できる。
企業は、バイアスを特定・軽減するためのフレームワークを構築し、システムを定期的に監査し、フィードバックを受け入れることで、説明責任を優先することができる。外部監査は、公平な視点を提供するための一般的な方法になりつつある。例えば、フォーヒューマニティは、AIシステムを独立して監査し、リスクを分析できる非営利団体である。同団体は最近、AIポリシー・アクセラレーターを立ち上げた。これは、AI活用企業が厳格なリスクマネジメント基準に照らして自社製品を監査に提出することを奨励し、AIツールの規制遵守と責任について事前準備的に検証する手段を提供している。
信頼できるAIを実現するもう1つの方法は、小規模言語モデル(SLM)などの専用AIや特定の目的に特化したAIを導入することである。企業は、特定のタスクや目標に合わせた専用AIへと転換し始めている。このアプローチは、不必要な一般性を削減することで、より効率的で正確な結果を生み出すと同時に、不正確さや過剰な調査のリスクを軽減する。モデル自体を圧縮することで計算精度が向上し、速度と精度が向上する。
3.人間による監視を組み込む
AIは人間の能力を置き換えるのではなく、強化するものであるべきである。特にセキュリティ管理においては、AIの判断が重大な影響を及ぼす可能性があるため、その重要性は増す。人間による監視は、AIシステムを倫理基準や社会的価値観に沿った状態に保つのに役立つ。人間の介入がなければ、AIシステムは誤りを犯し、偏見を示し、悪用される可能性があり、深刻なセキュリティとプライバシーの問題につながる可能性がある。
しばしばヒューマン・イン・ザ・ループ(HITL)と呼ばれるこの協働アプローチは、人間の投入と機械学習を組み合わせることで、AIシステムの精度と信頼性を向上させる。組織は、HITLを様々なプロセスに組み込むことができる。例えば、人間がトレーニングデータにラベルを付けてアルゴリズムを調整するトレーニング、人間がモデルのパフォーマンスに関するフィードバックを提供するテスト、人間がAIによってフラグ付けされたコンテンツをレビューして確認する意思決定などである。
AIシステムにHITLアプローチを効果的に実装するには、トレーニング、テスト、導入、保守の各フェーズに人間による監視を組み込む必要がある。チームは、トレーニングデータにラベルを付け、継続的なフィードバックを提供し、AIが生成した出力を検証することで、システムの精度と信頼性を高める必要がある。
AI倫理、規制要件、ベストプラクティスについて従業員を教育することも重要である。ビジネスリーダーは、AI規制の変更やコンプライアンス戦略について従業員に周知するための継続的な研修セッションを実施する必要がある。倫理的慣行の監督に人間を活用することで、設計段階からプライバシーを最優先し、データの収集、処理、保管が安全かつ透明性の高い慣行に従って行われることを保証する。
4.継続的な評価を実施する
新たな脅威や変化する規制環境は企業にとって重大な課題であるが、AIは規制監視を自動化することで負担を軽減できる。プロセスインテリジェンス(PI)などのAIツールは、ワークフローや大規模なデータセットを分析し、潜在的なコンプライアンス問題を検知することで、手作業とコストを削減しながら規制遵守を確保できる。
定義済みの信頼指標を用いることで、このソフトウェアはリスクを早期に検知・対処し、サイバー脅威がデータ侵害につながる前に防止するのに役立つ。ルール違反やプロセス逸脱が発生した場合にアラートを発することで、企業は事前に矛盾点に対処し、コンプライアンスを確保できる。例えば、GDPRのルールに照らして財務ワークフローを継続的に監査したり、不正検出モデルを改良して誤検知を減らし、新たな不正パターンを検出したりすることができる。また、ログイン履歴を追跡することで、権限のある従業員のみが機密データにアクセスできるようにすることも可能である。
効果的なAIガバナンスとベストプラクティスは、企業リスクを軽減するだけでなく、ブランドロイヤルティの向上や顧客維持率の向上など、具体的なビジネスメリットをもたらす。信頼できるAIフレームワークを導入することで、組織は利害関係者との信頼関係を築き、AI主導の世界において、持続的な成長を確保しながら、企業の評判を守ることができる。
トピック
人工知能、新興リスク、規制、リスクマネジメント、テクノロジー
注意事項:本翻訳は“Balancing Innovation and Compliance When Implementing AI ”, Risk Management Site (https://www.rmmagazine.com/articles/article/2025/04/30/balancing-innovation-and-compliance-when-implementing-ai ) April 2025をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。
ジョン・ニズリーはアッビー社AIプロセス・スペシャリスト。