生成型人工知能(AI) は、多くの業界や分野で大きな可能性を秘めています。しかし、他の強力な新技術と同様に、新たなセキュリティリスクももたらします。ここでは、新たなジェネレーティブAIの脅威の状況について、特にデータとシステムのセキュリティの分野に焦点を当てて、詳しく見ていきましょう。このブログ記事では、これらのリスクがあっても、組織がこれらのツールを安全に採用する方法についても説明します。
ジェネレーティブAIはどう違うのですか?
ジェネレーティブAIが脅威の状況をどのように変えるかを理解するには、まず、これらの新しいシステムが、過去50年間にサプライチェーンシステムのバックボーンとして機能してきた従来のシステムとどのように異なるかを考える必要があります。上位 5 つの違いは次のとおりです。
- ジェネレーティブAIのセキュリティツールとプラクティスは、データベースですでに利用可能なテクノロジーと比較して、まだ成熟しています。SQLインジェクションのようなデータベースセキュリティの脆弱性は、何十年にもわたって注目されてきたことから、よく理解されています。開発者はこれらの脅威について広範なトレーニングを受けており、堅牢な監査ツールがCI/CDパイプラインに統合されています。しかし、ジェネレーティブAIの旅はまだ始まったばかりで、脅威のモデリングやツールはまだ登場していません。
- ジェネレーティブAIは、単にレコードを取得するだけでなく、新しい洞察を提供します。データベースは、変換や計算など、以前に保存したデータを返しますが、ジェネレーティブAIは、そのトレーニングに基づいて新しいデータを合成します。これは、アナリストが分析情報を生成するのに対し、事務員がレコードを取得するのと似ています。
- 正式なプログラミング言語は、生成AIが使用する自然言語に存在するニュアンスや曖昧さとは異なり、予測可能で明確です。 データベースは、SQLなどの形式言語を利用し、SQLは形式的で理解された構文を利用してデータにアクセスします。特定の SQL ステートメントは、既に格納されているデータのコンテキストで取得され、常に同じ結果を生成します。しかし、ジェネレーティブAIは、すべての入力と出力に、ニュアンスや曖昧さも含めて、自然な「日常」の言語を利用します。2人が契約を交渉するように、人間とAIアプリケーションの間には誤解が生じることがあります。さらに、ジェネレーティブAIの出力は非決定論的であるため、同一の入力が言い回し、言葉遣い、または意味において異なる結果をもたらす可能性があります。
- ジェネレーティブAIは、より厳格な制御を持つデータベースと比較して、トレーサビリティと監査機能に欠けている可能性があります。 データベースを使用すると、許可されたユーザーは保存されたデータを簡単に監査し、その出所を追跡できます。対照的に、ジェネレーティブAIモデルは、ほとんどの人が理解できない形でニューラルネットワークに知識を保存します。さらに、生成AIモデルが取得した「知識」や、そのトレーニングデータからの潜在的なバイアスを監査するための堅牢な手法は現在のところありません。
- 現在、ジェネレーティブAIには、データベースよりも組み込みのデータアクセス制御が少なくなっています。データベースには、データ・アクセスを制御する堅牢な認可制御があります。しかし、ジェネレーティブAIには現在、そのような組み込み制御がありません。認証されたユーザーは、任意のデータにアクセスできます。
従来のシステムと生成AIの違いを調べると、新しいセキュリティの脆弱性と必要な緩和策が明らかになり、機密データの保護、悪意のある使用からのシステムとデータの保護、AIエージェントとプラグインの適切な管理という3つの主要なドメインに分類できます。