使用微信「扫一扫」
业务经理
18530004437
18530004303

行业新闻

行业新闻大事,掌握行业动态

提示词用上“过去式“,秒破GPT4o等六大模型安全限制,中文语境也好使

2024.07.19

只要在提示词中把时间设定成过去,就能轻松突破大模型的安全防线。

而且对GPT-4o尤其有效,原本只有1%的攻击成功率直接飙到88%,几乎是“有求必应”。

有网友看了后直言,这简直是有史以来最简单的大模型越狱方式。

来自洛桑联邦理工学院的一篇最新论文,揭开了这个大模型安全措施的新漏洞。

而且攻击方式简单到离谱,不用像“奶奶漏洞”那样专门构建特殊情境,更不必说专业对抗性攻击里那些意义不明的特殊符号了。

只要把请求中的时间改成过去,就能让GPT-4o把燃烧弹和毒品的配方和盘托出。

而且量子位实测发现,把提示词改成中文,对GPT-4o也一样有效。