GPT-4V 圖片辨識:潛在的安全疑慮,圖片也可以 Prompt Injection
最近小編讀了一些 Matthias Bastian 在 THE DECODER 上所發表的一篇文章,感覺非常有意思。這篇文章詳細分析了 GPT-4—特別是其視覺系統和圖片辨識功能—所面臨的安全漏洞。文章的標題叫做 "To hack GPT-4's vision, all you need is an image with some text on it",它透露了 GPT-4 和 ChatGPT 在視覺識別安全性方面的缺陷。內文寫得很精彩,有興趣深入了解的朋友可以點進去看看。
問題的關鍵
這篇文章強調,儘管 GPT-4V 的視覺系統和圖片辨識機能通過了嚴格的安全審查,卻仍然可能受到所謂的 "prompt injections" 的影響,然後被輕易地欺騙。這些通常是藏在圖像或文字中的特定指令,會讓 AI 偏離原定的操作目標。這就像魔術師用手法讓你的注意力轉移,AI 也會因此而做出錯誤的回答。
現實生活的影響
這些漏洞在現實世界應用中可能會產生嚴重後果。例如,僱員招聘軟體若過度依賴 GPT-4 或 ChatGPT 的圖片辨識能力,則可能會被有心人士輕易操作,造成錯誤的判斷結果。
電腦的「潛意識」信息
文章引用的 Daniel Feldman 把這種現象稱為電腦的「潛意識」信息。這類攻擊不一定總是成功,而是取決於隱藏文字或指令的確切位置。這突顯出 AI—尤其是 GPT-4 和 ChatGPT—在功能強大和安全脆弱之間的微妙平衡。
OpenAI 的回應
OpenAI 有意識到這一問題,但至今還沒有提出確定的解決方案。不僅是 GPT-4,即使是它的前身,如 GPT-3,也存在相似的安全漏洞。
寫在後面
總而言之,這篇文章為我們預警了一些問題,顯示出在 AI 技術,尤其是在 GPT-4V,ChatGPT 的視覺系統和圖片辨識功能方面,安全性仍然是一個需解決的問題。也希望大家不要濫用與過度依賴 GPT-4V 進行重要判斷,避免過有心人士的操作。
留言
張貼留言