AI実装における法的リスクを管理する(2024年9-10月号)

AI実装における法的リスクを管理する(2024年9-10月号)

チン H. パーム、サミュエル S. ストーン[*]


2024年9月-10月web特別版

 人工知能とその他の新興技術の統合は、製品提供の拡大と競争力の維持を目指す企業にとって、戦略的な必須事項となっている。製品開発チームと法務チームは、AI ツールを計画および開発する際に、よくある落とし穴を回避するために、法的および規制上の課題を慎重に乗り越える必要がある。製品や社内ツールに AI やその他の新興技術を切れ目なくかつ効果的に実装するには、企業のリーダーは 3 つの共通の包括的原則に焦点を当てて、リスクを積極的に管理する必要がある。

1.AI をビジネス目標と実践に合わせる

 新しい技術を導入する組織は、経営幹部、法務担当者、技術専門家のチームを配置し、ビジネス目標と潜在的なリスクの管理を一致させることを検討する必要がある。

 この一致を達成するための最初のステップは、企業がビジネス目標を達成するために AI をどのように活用するか定義することである。従業員が生産性を高めるために社内で AI ツールを活用するのか。組織は、消費者または他の企業に AI ツールを製品として提供するのか。企業は新しいサービスまたは既存のサービスを提供するために AI ツールを活用するのか。多くの場合、AI ロードマップをビジネス目標やリスクマネジメントの実践と整合させないと、価値の低い AI プロジェクトに会社の資源が無駄に投資されたり、AI を活用して競争で優位に立つ機会を逃したり、追加的な (場合によっては壊滅的な) リスクに不必要にさらされたりすることになる。

2.関連するリスクを理解し、優先順位を付ける

 AI と新興テクノロジーをビジネスモデルに統合する場合、組織は潜在的な落とし穴を回避するために、メリットと法的および規制上の要件を慎重に検討してバランスを取る必要がある。

 法的、倫理的、運用上の潜在的なリスクを特定するためにリスク評価を実施することは、良い方法でである。例えば、AI ツールのトレーニングと改善に活用されるデータの出所、AI ツールがデータを外部と共有できるかどうか、または共有すべきかどうか、AI ツールが適用されるデータ セキュリティ ポリシーに準拠しているか、こうしたことを保証するためにどのような安全対策が整備されているかを把握することを目指す。

 さらに、AI ツールのコンプライアンス評価によって、潜在的なリスクから組織を保護することもできる。評価の一環として、プロセスを文書化することで、採用された基本的な前提を検証し、調査や監査の際に潜在的なリスクを軽減できる。

 組織がリスクを特定したら、それらのリスク軽減に優先順位を付けることで、AI モデルの開発を導くことができる。組織は、AI ツールを実装する際に、次のような特定のリスクを検討する必要がある。

  • プライバシーとセキュリティ:  AI モデルで使用されるデータのプライバシーとセキュリティを検討することは、機密情報を保護し、誤用や不正アクセスを防ぐために必要である。
  • 倫理的影響: AI モデルは、誤って偏向を学習する可能性がある。規制産業では、偏向のあるモデルの出力に基づいてビジネス上の決定 (申請者の住宅ローンを承認するかどうかなど) を行うと、違法な差別やその他の禁止行為につながる可能性がある。したがって、こうした偏向を検出して軽減し、禁止行為を防ぐために、AI ツールを監査する手順を確立することが重要である。
  • 責任での懸念:  組織は、データと AI の決定に関する責任での懸念を検討する必要がある。AI システムに関連する苦情や問い合わせを処理するための明確な方針と手順は、こうした潜在的な問題に対処するのに役立つ。
  • 知的財産:  データの所有権とライセンス契約を明確にすることは、知的財産(IP)での不必要な損失を防ぎ、IP 侵害の申し立てにさらされるリスクを制限するために不可欠である。サードパーティの AI ソリューションを使用するときに明確なライセンス契約を締結すれば、所有権と使用権が明確になる。
  • 正確性と安全性: AI出力が正確かつ安全かどうかを判断することは、信頼性の高い技術展開に必要である。
3.AI モデルへの信頼を確立する

 組織は、AI ツールへの信頼を確立する際に、いくつかの問題に対処する必要がある。最初のステップは、包括的な訓練プログラムを通じて、従業員に AI ツールの法的および倫理的影響について教育することである。AI の導入に携わる従業員が、適用される法律や規制の下での義務を理解していることを確認することが重要となる。同様に、組織内でコンプライアンスと倫理的行動の文化を育むことで、AI の誤用や過失に関連するリスクを軽減できる。コンプライアンスを優先する組織は、複雑な法的環境を乗り越え、高額な罰金や評判リスクを回避するための準備がより整っている。

 AI ツールへの信頼は、AI ツールが「説明可能性」を示すことで大幅に高まりる。つまり、特定のデータ入力が特定のデータ出力や推奨事項を生成する理由を効果的に明確に表現する。説明可能性を高めることで、組織はユーザーの懸念に対処し、AI テクノロジーに対する確信を高めることができる。

 AI システムの障害など、避けられないリスクや責任をカバーする保険が必要かどうかを検討する。このような課題に事前に備えることで、組織は影響を最小限に抑え、責任ある AI 実装を保証し、利害関係者の信頼を高めることができる。

 AI 技術は効率性を高めることができるが、AI の動作を導き、エラーを最小限に抑え、倫理的な懸念に対処する上で、人間による監督が重要な役割を果たすことがよくある。重要な決定に人間を関与させることで、組織は AI システムが組織の価値観や倫理的検討事項と一致していることを確認できる。AI ツールの組み込みに対する人間による監督も、品質管理に必要になる場合がある。

トピックス
人工知能、法的リスク、リスクマネジメント


注意事項:本翻訳は“Managing Legal Risks in AI Implementation ”, Risk Management Site (https://www.rmmagazine.com/articles/article/2024/09/24/managing-legal-risk-in-ai-implementation) September 2024,をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。
チン H. パームは知的財産弁護士で、グリーンバーグ・トラウリグ法律事務所ベンチャー キャピタル・新興技術業務の共同議長、およびイノベーション・人工知能グループのメンバー。
サミュエル S. ストーンは、グリーンバーグ・トラウリグ法律事務所ボストンオフィス知的財産弁護士兼アソシエイト、ベンチャー キャピタル・新興技術業務とイノベーション・人工知能グループのメンバー