ジェネレーティブAIのリスク軽減

ブログ

ジェネレーティブAIのリスク軽減

生成型人工知能(AI) は、多くの業界や分野で大きな可能性を秘めています。しかし、他の強力な新技術と同様に、新たなセキュリティリスクももたらします。ここでは、新たなジェネレーティブAIの脅威の状況について、特にデータとシステムのセキュリティの分野に焦点を当てて、詳しく見ていきましょう。このブログ記事では、これらのリスクがあっても、組織がこれらのツールを安全に採用する方法についても説明します。

ジェネレーティブAIはどう違うのですか?

ジェネレーティブAIが脅威の状況をどのように変えるかを理解するには、まず、これらの新しいシステムが、過去50年間にサプライチェーンシステムのバックボーンとして機能してきた従来のシステムとどのように異なるかを考える必要があります。上位 5 つの違いは次のとおりです。

  • ジェネレーティブAIのセキュリティツールとプラクティスは、データベースですでに利用可能なテクノロジーと比較して、まだ成熟しています。SQLインジェクションのようなデータベースセキュリティの脆弱性は、何十年にもわたって注目されてきたことから、よく理解されています。開発者はこれらの脅威について広範なトレーニングを受けており、堅牢な監査ツールがCI/CDパイプラインに統合されています。しかし、ジェネレーティブAIの旅はまだ始まったばかりで、脅威のモデリングやツールはまだ登場していません。
  • ジェネレーティブAIは、単にレコードを取得するだけでなく、新しい洞察を提供します。データベースは、変換や計算など、以前に保存したデータを返しますが、ジェネレーティブAIは、そのトレーニングに基づいて新しいデータを合成します。これは、アナリストが分析情報を生成するのに対し、事務員がレコードを取得するのと似ています。
  • 正式なプログラミング言語は、生成AIが使用する自然言語に存在するニュアンスや曖昧さとは異なり、予測可能で明確です。 データベースは、SQLなどの形式言語を利用し、SQLは形式的で理解された構文を利用してデータにアクセスします。特定の SQL ステートメントは、既に格納されているデータのコンテキストで取得され、常に同じ結果を生成します。しかし、ジェネレーティブAIは、すべての入力と出力に、ニュアンスや曖昧さも含めて、自然な「日常」の言語を利用します。2人が契約を交渉するように、人間とAIアプリケーションの間には誤解が生じることがあります。さらに、ジェネレーティブAIの出力は非決定論的であるため、同一の入力が言い回し、言葉遣い、または意味において異なる結果をもたらす可能性があります。
  • ジェネレーティブAIは、より厳格な制御を持つデータベースと比較して、トレーサビリティと監査機能に欠けている可能性があります。 データベースを使用すると、許可されたユーザーは保存されたデータを簡単に監査し、その出所を追跡できます。対照的に、ジェネレーティブAIモデルは、ほとんどの人が理解できない形でニューラルネットワークに知識を保存します。さらに、生成AIモデルが取得した「知識」や、そのトレーニングデータからの潜在的なバイアスを監査するための堅牢な手法は現在のところありません。
  • 現在、ジェネレーティブAIには、データベースよりも組み込みのデータアクセス制御が少なくなっています。データベースには、データ・アクセスを制御する堅牢な認可制御があります。しかし、ジェネレーティブAIには現在、そのような組み込み制御がありません。認証されたユーザーは、任意のデータにアクセスできます。

 

従来のシステムと生成AIの違いを調べると、新しいセキュリティの脆弱性と必要な緩和策が明らかになり、機密データの保護、悪意のある使用からのシステムとデータの保護、AIエージェントとプラグインの適切な管理という3つの主要なドメインに分類できます。
 

ChatGPTはサプライチェーンテストに合格できますか?

Blue Yonderは、言語学習モデル(LLM)のベンチマーク研究を明らかにし、LLM(Language Learning Models)がすぐに使える能力と、サプライチェーン分析に効果的に適用してサプライチェーン管理で直面する実際の問題に対処できるかどうかをテストします。 

リスク要因とその管理方法を理解する

企業がソフトウェアシステムに機密データを委託する場合、すべての情報が不正アクセス、変更、または流出から完全に保護されることが期待されます。従来の脆弱性は依然として懸念事項ですが、ジェネレーティブAIのユニークな性質により、警戒しなければならない追加のリスクが発生します。

ジェネレーティブAIは、機密データを保護するだけでなく、可用性、スケーラビリティ、パフォーマンス、信頼性、ディザスタリカバリなどのサービスレベル契約(SLA)を満たすことも重要です。また、ジェネレーティブAIは、ダウンストリームシステムのSLAに悪影響を及ぼさないことを証明する必要があります。これらの脆弱性を理解し、セキュリティ上のリスクを生じさせないようにすることで、ジェネレーティブAIの大きな可能性を実現する道が開かれます。

注意すべき主な脆弱性には、次のようなものがあります。

  • 迅速な注入。巧妙に作られた入力は、ジェネレーティブAIアプリケーションを騙して機密データを開示させたり、有害な行動をとらせたりする可能性があります。
  • 安全でない出力処理。精査せずにAI出力を盲目的に使用すると、不正なデータアクセスなどのシステムエクスプロイトの扉が開かれます。
  • トレーニング データ ポイズニング。操作されたトレーニングデータは、AIコンポーネントを破損させ、危険なバイアスやバックドアを引き起こす可能性があります。
  • サービス拒否のモデル化。攻撃者は、複雑なリクエストでジェネレーティブAIアプリケーションを圧倒し、サービスを低下させたり、無効にしたりする可能性があります。
  • 過剰なエージェンシー。AIコンポーネントに制御されていない自律性を与えると、誤った推論に基づいて有害な決定を下すことができる可能性があります。
  • 安全でないプラグイン設計。サードパーティのAIコンポーネントは、安全でないデータ処理を通じて深刻な脆弱性をもたらす可能性があります。
  • サプライチェーンの妥協。サードパーティのツールやデータソースがハッキングされた場合、これらのイベントは生成AIアプリケーション内にリスクをもたらします。
  • 機密データの漏洩。ジェネレーティブAIは、トレーニング中に公開された顧客やビジネスの機密データを明らかにする可能性があります。

 

幸いなことに、予防策を講じることで、複数の種類のAIの脆弱性を軽減できる可能性があります。たとえば、迅速なインジェクションやトレーニング データのポイズニングから保護することも、機密情報が漏洩する可能性を減らすのに役立ちます。堅牢な ID およびアクセス フレームワークと、よく考えられたアクセス制御の実装は、過剰な機関の攻撃から保護するための前提条件です。また、コンピューティングの黎明期から実践してきた従来のセキュリティ対策は、ジェネレーティブAIの保護を構築するための基盤となっています。

警戒心の強いセキュリティ体制と徹底的な防御策を講じることで、企業はシステムと機密情報を保護しながら、ジェネレーティブAIの大きな可能性を実現することができます。ジェネレーティブAIを保護するには、データ、モデルのトレーニングと微調整、インフラストラクチャ、ID、アクセス制御、そして重要なことに、ベンダーを評価する際のデューデリジェンスを含む多層的なアプローチが必要です。また、企業は、包括的なガバナンス、厳格なアクセス制御、入出力制御、監視、サンドボックス化、明確に定義された開発および運用プロトコルを実装する必要があります。


ジェネレーティブAIのセキュリティポジションを評価してから、ジェネレーティブAIのセキュリティポジションを評価してください

企業がジェネレーティブAIを社内構築ソリューションに直接組み込んでいる場合でも、これらの機能をベンダーから取得している場合でも、厳格なセキュリティを確保するためには、適切な質問をすることが重要です。適切な質問は、適切な保護が実施されているかどうかを判断するための会話を導くのに役立ちます。次のトピック領域をカバーすることを検討してください。

  • サプライ チェーンのセキュリティ。企業は、サプライチェーンのセキュリティを確保するために、第三者による監査、侵入テスト、コードレビューを要請する必要があります。彼らは、サードパーティプロバイダーが初期および継続的にどのように評価されるかを理解する必要があります。
  • データセキュリティ。組織は、個人データや専有ビジネスデータなど、機密性に基づいてデータがどのように分類され、保護されるかを理解する必要があります。ユーザーの権限はどのように管理され、どのような保護措置が講じられていますか?
  • アクセス制御。特権ベースのアクセス制御や徹底的な防御策など、厳重なセキュリティ体制により、企業はジェネレーティブAIの大きな可能性を実現すると同時に、システムや機密情報を保護することができます。
  • トレーニング パイプラインのセキュリティ。トレーニング データ ガバナンス、パイプライン、モデル、アルゴリズムに関する厳格な制御が不可欠です。データポイズニングから保護するためにどのような保護が実施されていますか?
  • 入力と出力のセキュリティ。ジェネレーティブAIを実装する前に、組織は入力の検証方法と、出力のフィルタリング、サニタイズ、承認の方法を評価する必要があります。
  • インフラストラクチャのセキュリティ。ベンダーはどのくらいの頻度でレジリエンステストを実施していますか?可用性、スケーラビリティ、パフォーマンスに関するSLAはどのようなものですか?これは、インフラストラクチャのセキュリティと安定性を評価するために重要です。
  • 監視と対応。企業は、ワークフロー、監視、対応がどのように自動化され、ログに記録され、監査されるかを完全に理解する必要があります。監査レコードは、特に機密情報や個人情報が含まれている可能性が高い場合は、セキュリティで保護する必要があります。  
  • コンプライアンス。企業は、ベンダーがGDPRやCCPAなどの規制に準拠していること、およびSOC2やISO 27001などの認証が取得されていることを確認する必要があります。国別または州固有の要件が満たされていることを確認するために、データが収集、保存、使用される場所を理解する必要があります。

 

ジェネレーティブAIの約束を安全に実現

ジェネレーティブAIは大きな可能性を秘めており、ほぼ毎日新しいアプリケーションが発見されています。現在の能力はすでに深遠ですが、さらに大きな可能性が待ち受けています。

しかし、この可能性には、慎重で継続的なガバナンスを必要とするリスクが伴います。 

セキュリティは信頼を確立し、進歩を可能にします — このブログ記事のガイダンスは、組織がこれらのリスクを評価して対処するための出発点を提供します。勤勉さにより、企業はジェネレーティブAIを早期かつ安全に採用し、現在および将来のジェネレーティブAIのメリットをいち早く実現することができます。重要なのは、セキュリティチームとAIチーム間の継続的なコラボレーションを通じて、イノベーションとガバナンスのバランスを取ることです。

Blue Yonderは、ジェネレーティブAIセキュリティの業界標準であるOWASP Top 10 for Large Language Modelsを適用し、当社のソリューションを保護しています。これは、お客様が自信を持って最新の技術革新を最大限に活用し、ビジネスをより迅速かつスマートに運営できることを意味します。お客様のサプライチェーンにおける安全なジェネレーティブAIの可能性についてご相談ください。 

予測的生成AIで最高のサプライチェーンパフォーマンスを実現

人は意思決定に集中し、AIには数十年にわたる専門的な経験と実証済みのイノベーションによる変革的な成果をもたらすデータを処理させます。