GPT-4V 圖片辨識:潛在的安全疑慮,圖片也可以 Prompt Injection 最近小編讀了一些 Matthias Bastian 在 THE DECODER 上所發表的一篇文章,感覺非常有意思。這篇文章詳細分析了 GPT-4—特別是其視覺系統和圖片辨識功能—所面臨的安全漏洞。文章的標題叫做 "To hack GPT-4's vision, all you need is an image with some text on it",它透露了 GPT-4 和 ChatGPT 在視覺識別安全性方面的缺陷。內文寫得很精彩,有興趣深入了解的朋友可以點進去看看。 問題的關鍵 這篇文章強調,儘管 GPT-4V 的視覺系統和圖片辨識機能通過了嚴格的安全審查,卻仍然可能受到所謂的 "prompt injections" 的影響,然後被輕易地欺騙。這些通常是藏在圖像或文字中的特定指令,會讓 AI 偏離原定的操作目標。這就像魔術師用手法讓你的注意力轉移,AI 也會因此而做出錯誤的回答。 現實生活的影響 這些漏洞在現實世界應用中可能會產生嚴重後果。例如,僱員招聘軟體若過度依賴 GPT-4 或 ChatGPT 的圖片辨識能力,則可能會被有心人士輕易操作,造成錯誤的判斷結果。 電腦的「潛意識」信息 文章引用的 Daniel Feldman 把這種現象稱為電腦的「潛意識」信息。這類攻擊不一定總是成功,而是取決於隱藏文字或指令的確切位置。這突顯出 AI—尤其是 GPT-4 和 ChatGPT—在功能強大和安全脆弱之間的微妙平衡。 OpenAI 的回應 OpenAI 有意識到這一問題,但至今還沒有提出確定的解決方案。不僅是 GPT-4,即使是它的前身,如 GPT-3,也存在相似的安全漏洞。 寫在後面 總而言之,這篇文章為我們預警了一些問題,顯示出在 AI 技術,尤其是在 GPT-4V,ChatGPT 的視覺系統和圖片辨識功能方面,安全性仍然是一個需解決的問題。也希望大家不要濫用與過度依賴 GPT-4V 進行重要判斷,避免過有心人士的操作。 Read more Sydney 的起死回生: 談 Prompt Injection Reddit 超強文章:使用 ChatGPT 的 Custom Instruction 提升回答品質 參考資料 To h...
這是一個提供科技新知的部落格,你可以在這裡找到各種有趣的科技話題和小技巧,讓你了解最新科技趨勢。趕快來關注我們,探索科技世界的奧秘吧!