跳到主要內容

Prompt Injection:GPT-4V 如何被輕易欺騙


GPT-4V 圖片辨識:潛在的安全疑慮,圖片也可以 Prompt Injection

最近小編讀了一些 Matthias Bastian 在 THE DECODER 上所發表的一篇文章,感覺非常有意思。這篇文章詳細分析了 GPT-4—特別是其視覺系統和圖片辨識功能—所面臨的安全漏洞。文章的標題叫做 "To hack GPT-4's vision, all you need is an image with some text on it",它透露了 GPT-4 和 ChatGPT 在視覺識別安全性方面的缺陷。內文寫得很精彩,有興趣深入了解的朋友可以點進去看看。


問題的關鍵

這篇文章強調,儘管 GPT-4V 的視覺系統和圖片辨識機能通過了嚴格的安全審查,卻仍然可能受到所謂的 "prompt injections" 的影響,然後被輕易地欺騙。這些通常是藏在圖像或文字中的特定指令,會讓 AI 偏離原定的操作目標。這就像魔術師用手法讓你的注意力轉移,AI 也會因此而做出錯誤的回答。



現實生活的影響

這些漏洞在現實世界應用中可能會產生嚴重後果。例如,僱員招聘軟體若過度依賴 GPT-4 或 ChatGPT 的圖片辨識能力,則可能會被有心人士輕易操作,造成錯誤的判斷結果。


電腦的「潛意識」信息

文章引用的 Daniel Feldman 把這種現象稱為電腦的「潛意識」信息。這類攻擊不一定總是成功,而是取決於隱藏文字或指令的確切位置。這突顯出 AI—尤其是 GPT-4 和 ChatGPT—在功能強大和安全脆弱之間的微妙平衡。



OpenAI 的回應

OpenAI 有意識到這一問題,但至今還沒有提出確定的解決方案。不僅是 GPT-4,即使是它的前身,如 GPT-3,也存在相似的安全漏洞。


寫在後面

總而言之,這篇文章為我們預警了一些問題,顯示出在 AI 技術,尤其是在 GPT-4V,ChatGPT 的視覺系統和圖片辨識功能方面,安全性仍然是一個需解決的問題。也希望大家不要濫用與過度依賴 GPT-4V 進行重要判斷,避免過有心人士的操作。


Read more


參考資料

留言

這個網誌中的熱門文章

Reddit 超強文章:使用 ChatGPT 的 Custom Instruction 提升回答品質

Forefront Chat:自由切換 GPT-3.5 和 GPT-4 聊天,現在免費!

提高投資決策效率:利用 ChatGPT 分析資產負債表

ChatGPT 可以顯示美觀數學公式:Tex All the Tings Chrome Extension

Glarity Chrome 擴充套件:使用 ChatGPT 生成 Youtube/bilibili, Google/Bing, Page Summary, Comment Summary 摘要

ChatGPT 的 GPTs 筆記 (4):GPTs Konwledge 知識庫的限制與風險

當未來和過去交錯:AI 翻譯古老楔形文字 Cuneiform

TRIZGPT:解決問題的小顧問

ChatGPT Sidebar: 全方位 AI 助手 (Chrome Extension)

Grammarly 推出 GrammarlyGo:創新的生成式 AI 寫作助手