ノースウエスタン大学の最新の研究によると、カスタムのGenerative Pre-trained Transformers(GPT)には驚くべき脆弱性が存在していることが明らかになりました。さまざまなアプリケーションにカスタマイズできる一方で、プロンプトインジェクション攻撃に対しても脆弱であり、機密情報を漏洩させる可能性があるというのです。
GPTは、OpenAIのChatGPTのユーザーが作成し形成することができる先進的なAIチャットボットです。ChatGPTのコアであるLarge Language Model(LLM)、GPT-4 Turboを使用しており、ユーザーとのやり取り方法に影響を与えるさまざまな要素が追加されています。
これらのカスタマイズには特定のプロンプト、ユニークなデータセット、カスタマイズされた処理手順が含まれており、さまざまな特殊な機能を提供することができます。しかし、これらのパラメータやGPTの形成に使用する機密データは、容易に第三者にアクセスされてしまう可能性があります。
例えば、Decryptは基本的なプロンプトハッキングの技術を使って、公開共有されたカスタムGPTのフルプロンプトと機密データを入手することができました。研究者たちは、200以上のカスタムGPTを厳密にテストした結果、このような攻撃やジェイルブレイクに高い脆弱性があることが判明し、初期のプロンプトが抽出され、アップロードされたファイルへの不正アクセスが可能となる可能性があることを強調しました。
研究者たちは、このような攻撃が知的財産の完全性とユーザーのプライバシーを脅かすという二重のリスクを強調しました。私たちのテストケースのような場合には、GPTに対して丁寧にプライベート情報を明らかにするように頼むだけで可能なこともあります。
「研究によれば、ファイルの漏洩はGPTの指示を求めるという行為がファイルの開示につながる可能性があると判明しました」と研究者たちが結論づけました。研究者たちは創造力を持って攻撃すると、2つのタイプの情報漏洩が引き起こせることがわかりました。「システムのプロンプト抽出」と「ファイルの漏洩」です。前者はモデルに対してコア構成とプロンプトを共有させるトリックであり、後者は機密のトレーニングデータセットを明らかにし共有させるものです。
研究はまた、防御的なプロンプトなどの既存の防御策も洗練された攻撃的なプロンプトに対して完璧ではないことも指摘しています。チームは、これにはより堅牢で包括的なアプローチが必要であると述べており、これらのAIモデルのセキュリティを強化するためには、現在の防御戦略だけでは不十分であると結論付けています。
この調査結果を踏まえ、OpenAIからの監視やテストなしにユーザーがプロンプトを調整できる現状を考えると、この研究は広いAIコミュニティに対し、より強力なセキュリティ対策の開発を優先するよう呼びかけています。研究は「これらの問題に対処するためには、単純な防御的なプロンプトの範囲を超えた追加の保護策が必要であり、それによってカスタムGPTのセキュリティをこれらの攻撃技法から守ることが求められる」と結論付けています。
GPTのカスタマイズは非常に大きなポテンシャルを持っていますが、この研究はそれに伴うセキュリティのリスクを重要なリマインダーとしています。AIの進歩はユーザーのセキュリティとプライバシーを損なうべきではありません。今のところ、最も重要な情報や機密データを含むGPTは自身に保持しておくか、最初から機密データでトレーニングしない方が良いかもしれません。