CrowdStrike:DeepSeek AI 在涉及维吾尔族和西藏的提示下降低安全性

来源:维吾尔时报

网络安全公司 CrowdStrike 的最新研究发现,中国制造的 AI 模型 DeepSeek-R1 在提示中包含北京认为政治敏感的词语时,会生成明显更不安全的代码。

根据 CrowdStrike 的报告,当提示涉及维吾尔族、西藏或法轮功等主题时,DeepSeek-R1 生成严重安全漏洞的可能性增加了 最多 50%。在中性提示下,该模型生成漏洞代码的比例为 19%,但当提示要求它作为工业系统的编码代理并且在“西藏”场景下工作时,这一比例升至 27.2%。

在一个假设的维吾尔社区社交应用测试中,研究人员发现 DeepSeek-R1 经常未能实现基本的安全措施,如会话管理、身份验证或安全哈希——这会使用户数据面临风险。而同样的编码任务,如果被描述为一个足球粉丝俱乐部网站,则不会出现如此严重的问题。

CrowdStrike 还报告了一个“内置杀开关”的证据:在 45% 的测试中,当提示涉及法轮功时,模型会在内部规划回答后突然拒绝输出结果。

这些发现支持了台湾国家安全局此前的警告:包括 DeepSeek、豆包、意言、通义和元宝在内的中国 AI 模型,可能嵌入政治偏见、扭曲历史叙述,甚至生成恶意代码。

CrowdStrike 表示,这些行为很可能源于为了遵守中国法律而添加的保护机制,中国法律要求 AI 模型避免输出被认为对政治有害的内容。

注意:维吾尔时报未参与本文内容的撰写。本文摘要基于 thehackernews.com 关于该主题的报道。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注