AI技術のデータ・セキュリティ・リスクを管理する(2023年7-8月号)

AI技術のデータ・セキュリティ・リスクを管理する

ニール ホッジ[*]


リスクマネジメント7-8月号

この数ヶ月間、Chat GPTのようなツールが個人的にも専門的にも幅広く利用されるようになり、人工知能は幅広い関心を集め話題となっている。しかしながら、この議論にとっておそらく同様に重要なことは、企業にとって予期せぬ結果をもたらしてきた重要なデータ・セキュリティの脅威など、AI技術によって生み出されるリスクを理解することであろう。

このところAI技術を用いて、ユーザーはこれまで以上に多くのデータを入力し、その情報を用いて行動パターンを学習し、将来の傾向を明らかにして予測している。また、迅速かつ効率的に、作品、音声や画像を作成し、模倣している。これは、多くの有益な活用を組織に提供する可能性があるが、専門家はデータの漏洩、知的財産の喪失、およびその他のデータ・セキュリティ・リスクがいずれも指数関数的に増加するであろうと警告している。

こうした脅威はすでに顕在化している。3月サムスン社は、誠実に行動してきた従業員が、どれほど簡単に、第三者のAIツールを使用して企業機密を不注意に侵害し、知的財産を侵害する可能性があることを明らかにした。1カ月間に発生した3件のイベントでは、従業員がチャットGPTを使って仕事関連の問題を処理しようとしたとき、会社の機密情報を不用意に漏洩した。ある社員はチャットGPTに、チップの欠陥を特定するためのテスト手順の最適化を求めた。これは極秘の仕事である。別の従業員は、プレゼンテーションを作成するためにチャットGPTに会議ノートを入力し社内の機密情報を公開した。さらに、数人の従業員は、改善しようとして、同社の半導体のデータベースから機密性の高いバグの多いソースコードをチャットGPTに貼り付けた。

チャットGPTあるいは他の公的AIベースのプラットフォームに課題解決の支援を依頼することの問題は、入力された情報がプラットフォームの大規模言語モデル(LLM)のための訓練データになるといったことにある。そして、チャットGPTは、ユーザーが自分自身を訓練するために入力したデータを持ち続けるため、サムスン社の企業秘密と知的財産は、プラットフォームの親会社であるオープンAI社に効率的にインプットされるのである。

後にオープンAI社は組織がこのような情報を検索することが可能であることを認めたが、この自ら招いた違反行為から知っておかなければならない重要なことは、チャットGPTや他のLLMベースのサービスに独占所有の情報を貼り付けるべきではないということである。さらに、企業は、第三者であるいかなるAIプロバイダーに対しても、その従業員が侵入する問い合わせやプロンプトから情報の入力や出力に対してどんなことが起きうるかを尋ねておくべきである。

AI活用方針を策定する

このような失敗は、企業内の誰がAIツールにアクセスすべきか、また、どのような目的のためにアクセスすべきかを、企業が再検討することを余儀なくしている。サムスン社の反応は、従業員にこのツールの使用を制限し、データ量が少なかったために同様の規模のセキュリティ障害が発生する可能性は低いということであった。アマゾン、アップル、ベライゾンなどの大手企業では、従業員がチャットGPTを利用することを禁止している。一方、ウォール街の大手JPモルガン、チェイス、バンカメ、シティグループなども利用を制限している。

しかし、このような一般的で使いやすいソリューションの使用を禁止または制限することは、他の問題を引き起こす可能性がある。サイバーセキュリティー・コンサルティングのホワイト・ナイト・ラボズ社創設者の1人であるグレッグ・ハッチャーは言う。「こうした反応の問題は、従業員の一部が、禁止する会社方針にもかかわらず、職場でLLMを利用していることである」。「LLMは従業員の生産性を指数関数的に高め、かつ、生産性は職場の報酬と直接相関する。企業は20年間、影のITと戦ってきた。LLMが影のAIになって、『同じことを繰り返す』といった状況を望まない。」

今後の最善の方法は、企業が従業員に、職場での許容可能あるいは許容できないAIの使用を明確に伝えることである。「AIやLLMの採用は比較的早い時期に行われているが、最終的にはプライバシーが重要とされる神経質な環境でのAIの使用に関して、コンプライアンスと規制の要件が存在することになるだろう」と同氏は言う。「まだその段階には至っていないだけである。」

専門家は将来に向けて、研修を通じて社員のリスク意識を向上させることが不可欠であると考えている。ウルスター大学のサイバーセキュリティ教授ケビン・カーランによれば、上級管理職は、各レベルの従業員のセキュリティ研修を優先する必要がある。「すべての訓練は、従業員に対して自分の仕事に及ぼすセキュリティ実践の影響を示し、従業員が関係する可能性のある現実的な事例や事例を提示するべきである。従業員の継続的な教育を奨励し、組織は新たなセキュリティ上の脅威や対策について、スタッフが常に最新の状態を保つ機会を提供することが重要である。また、不審な活動の報告や議論への寄与、さらにはセキュリティ対策の改善に向けた提言など、セキュリティ対策へのより積極的な参画も必要である。」という。

また、分析研究所の教育担当ディレクターであるクレア・ウォルシュ博士は、十分な訓練を受け、関連するリスクを認識するようになるまでは、企業はAI技術の使用を抑制する、AI技術の使用に関する全社的な方針を策定し、周知することも重要であると述べた。

彼女は、会社が個人データでも、会社にとって商業的価値のあるものでも、システムコードでも、そのツールに入力できるものと入力できないものを明確にするルールを確立することを勧告している。また、すべての従業員は、いつAIによって何らかのモノが作られたのかを言明することも求められるべきである。

もう1つの良識のある予防措置は、「利害関係の低い」データ要求のみを認可して、「アウトプットを要求する人間が、機械が何か正確なものを作り出すことを監督し確認することを訓練され、そうした知識を持っている場合にのみ、これらの技術の使用を支持することである」とワルシュはいう。そのためには、プレゼンテーション、マーケティング資料、そして意味が分からない、重要性がない、または事実上不正確なアウトプットなどの他の文書における単純な例外を探すように従業員を訓練する必要がある。

サイバーセキュリティのトラストウエーブ社EMEA地域担当副社長エド・ウィリアムは、労使双方が、AIをどのように利用しているか、またAIを安全に利用しているかを問題として取り上げる義務があるということに賛同する。彼らは、次のような重要な問題を検討すべきである。すなわち、AIモデル(そのインフラストラクチャを含む)が、設計上安全であるかどうか、可能性のあるデータ漏洩や有害なアウトプットにつながる可能性のある脆弱性は何か。正しい認証と認可、並びに適切なログ記録とモニタリングを確実にするためにどのような措置を取ることができるか、ということである。

「企業と従業員の双方がこれらの質問に適切に答えれば、次に、可能であればリスクの受容や軽減、そして従業員のスキル、社内のサイバーセキュリティ能力、脅威の検知についての一貫した評価が問題となる」と同氏はいう。

リスクマネジメントの役割

リスクマネージャーは、AIが取り込むサイバーセキュリティやデータリスクの増加から企業を保護する上で重要な役割を果たす。まず、企業はリスク評価を徹底しなければならない。「組織内のAI技術に関連する潜在的なリスクを評価することから始めなければならない」と、サイバーセキュリティのトラスティファイ社CEO兼共同創設者であるロム・ヘンドラーは言う。「使用中のAIシステム、それらが処理するデータ、潜在的に脅威となるプログラム言語配列を明確にしなければならない。既存のセキュリティ対策を評価し、対処すべきギャップを明確にしなければならない。」

もう1つの重要なステップは、データの安全な収集、保管、処理を確実にするための包括的な方針と手順を開発することによって、強固なデータガバナンスを実施することである。企業は、機密データを暗号化してアクセス・コントロールを実施し、データの取扱い手続きを定期的に監査すべきである。また、社会工学的技術を認識して潜在的な脆弱性を報告し、データ処理のためのベストプラクティスを強調しつつセキュリティ意識の文化を醸成すべきである。さらに、データ最小化戦略も違反の潜在的影響を低減するために重要である。企業が保有するデータが多ければ多いほど、盗まれる可能性のあるデータが多くなり、世界中のデータ規制当局からのランサムウェアに対する要求や罰金が増える可能性がある。

AIデータガバナンスの枠組みを確立することは、それほど困難ではないかもしれない。多くの企業は、おそらくいくつかの重要な新興の人工知能リスクに対処するために、すでにガバナンスとコントロールのインフラを整備しているだろう。彼らはそれを認識していないかもしれないが。「AIの主要なリスクの中には、既知のサイバーセキュリティリスクと非常に似通ったものもあり、企業はこのテーマの多様性を把握するために、技術的・組織的な対策を調整することができる」と、法律事務所フレッシュフィールドの米フィンテック部門パートナー兼事務所長、ブロック・ダールは言う。

同氏は、企業に対して、引き続き柔軟性と適応性を確保する一方で、現在のサイバーセキュリティ・リスクガバナンスの枠組みを構築することを助言した。組織は、この新しい技術の利用がその資産や活動に不可欠であるのか、また、この技術に関連して、一般的に知れているガバナンス上の課題を提起する特徴があるのか、あるいは、新しい課題を導入すべきなのを問うべきである。

「イノベーションが急速に進む時代にあって重要なのは、単に新たな進展がある度に歩調を合わせることではなく、一歩後退して、組織のリスクマネジメント・アーキテクチャーが常に流れを吸収する方向に向けられるようにすることである」と同氏は言う。「驚くかもしれないが、リスクマネジメント企業の目標は驚異が発生した場合に強固な緩和能力を創出することであり、同時に驚異を可能な限り大きな程度に制約することである」。

しかし、リスクマネージャーはAI特有の他のリスクを認識する必要がある。例えば、反転攻撃では、ハッカーは機械学習モデルの出力を通して詳細に調べることによって、データ対象に関する個人情報を特定しようとする。データにマルウェアを仕込む場合、悪意のある行為者は結果を歪めるために不当な情報を入力する。たとえ必要なコントロールが既存のガバナンス措置と類似しているように見えるとしても、これらのリスクには専門的な軽減アプローチが必要となるであろう。

また、AI、データ、サイバーセキュリティ規制の進展をモニタリングすることも重要である。ビジネスにおけるチャットボットの利用はまだ比較的新しいものであるため、現在のルールが曖昧であるかもしれない。

ハントン・アンドリュース・クルス法律事務所のパートナーであるサラ・ピアースは、「われわれは、世界中のさまざまな管轄区域で、AIに特化した法律制定に向けた動きを見ている」という。「その中で最も進んでいるのはEUのAI法であり、発効の最終段階にきている。提案された法律の特定の側面は、間違いなく、そのうち明確にすることが必要となるであろう。例えば、AI自体の定義は、解釈、そして最終的には、どの技術が法律の要件の対象となるかを特定する上で、問題を提起する可能性が高い。」

リスクマネージャーは、AIに関連するリスクと適切な予防対策について共通の理解が得られるように、組織全体の連携を促進し、サイバーセキュリティの専門家、AIの専門家、法務・コンプライアンスチームを関与させるようにひたむきに努力すべきである。ヤシバ大学科学・健康学科カッツスクールのサイバーセキュリティ教授で、学内での実践家であるデビット L シュウッドによれば、リスクマネージャーは強力なコントロールを確立するために、これらの独自の攻撃対象となるプログラム言語配列を理解しているサイバーセキュリティ専門家と連携すべきである。「先週十分な有効であったコントロールは、今週になるとそれは十分ではないかもしれない」。「AIに関連したより広範なサイバーリスクの発展を考えると、この新しい世界では『同じことを繰り返す』といった考え方は機能しないかもしれない。」

より良いデータ・セキュリティに焦点を合わせる

一部の専門家は、サイバーリスクの増加はAIの責任ではなく、リスクマネジメントが不十分なためであると考えている。AIセキュリティのトレーサブル社の最高セキュリティ責任者リチャード・バードによると、企業が何年にもわたってデータやITセキュリティの取り扱いを誤ってきたために漏洩が増加したという。全社的にAI技術を導入しようとすると、弱点がさらに明らかになったわけである。

「非常に単純であるにもかかわらず見過ごされがちな原因があるために、AIをあらゆる企業のワークフローのすべての側面に統合する時ではない。つまり、AIの使用、活用、利用の最適化に必要な業務上、機能上、企業上の変化を解明するのに、時間をかけている人はいないからである」。

「われわれの仕事の流れは、何世紀にもわたって人間の相互作用を管理するように調整されてきた。」とバードは説明する。AIを実施するための単純な「取り換えアプローチ」は、意図しない結果の大規模な暴走を招くかもしれない。大中規模の企業は、企業内政治、予算の制約、株主への責任の問題が加わり、変革に関しては硬直的で柔軟性に欠ける機関である。AIをこうした組合せの中に単純に取り入れるのでは、回避することができるであろう痛みと失敗を生み出すことになる。」

バードは付け加える。「セキュリティに関して言えば、ほとんどの企業は、わずか6カ月前に比べて、企業や顧客のデータが盗まれたり漏洩したりするリスクを軽減することは、はるかに厳しくなっていることは明らかである。これは、多くの企業が、生成AIの台頭以前から、データを安全に保つことに苦心していたからである。従業員がこの技術を簡単に利用できることと、それに関わるセキュリティ管理が十分に行われていないことが、企業のリスクをさらに増大させている。

AI技術は急速に進歩している。組織やリスクの専門家はAIリスクを理解し、適切なコントロールが整備されているだけでなく、リスクガバナンスの枠組みが、新たな脅威が出現したときに適応できるだけの柔軟性を確保するために、迅速に行動する必要がある。こうした準備が少しでも整っていなければ、貴重な企業データをリスクにさらす可能性がある。

トピックス
サイバー、コンプライアンス、新興リスク、法的リスク、規制、リスク評価、リスクマネジメント、セキュリティ、技術


注意事項:本翻訳は“Managing Data Security Risks of AI Technology ”, Risk Management, July-August 2023, pp.18-23,をRIMS日本支部が翻訳したものです。原文と和訳に相違があるときには、原文を優先します。本文中は敬称略です。

[*] ニール・ホッジスは英国を拠点とするフリーランス・ジャーナリスト兼写真家。