图片源于:https://venturebeat.com/security/deepseek-helps-speed-up-threat-detection-while-raising-national-security-concerns/
DeepSeek及其R1模型正在迅速重写实时网络安全AI的规则,本月包括初创企业和大型企业提供商在内的众多机构正在尝试将其新模型集成。
R1是在中国开发的,完全基于强化学习(RL)而无需监督微调。
它还是开源的,这使得几乎所有致力于开源架构、开发和部署的网络安全初创公司对其立即产生了兴趣。
DeepSeek对该模型的650万美元投资正在提供与OpenAI的o1-1217在推理基准上相匹配的性能,同时在较低层级的Nvidia H800 GPU上运行。
DeepSeek的定价设定了新的标准,每百万个输出令牌的成本显著低于OpenAI的模型。
deep seek-reasoner模型每百万个输出令牌的费用为2.19美元,而OpenAI的o1模型则为60美元。
这种价格差异及其开源架构引起了首席信息官(CIO)、首席信息安全官(CISO)、网络安全初创企业和企业软件提供商的关注。
(有趣的是,OpenAI声称DeepSeek利用其模型来训练R1及其他模型,甚至表示该公司通过多轮查询窃取了数据。)
Chris Krebs,美国国土安全部(DHS)网络安全和基础设施安全局(CISA)首任局长及SentinelOne的首席公共政策官,警告说,模型的安全性和可信性问题在于是否将审查和隐性偏见融入模型的核心。
他说:“对中国共产党(CCP)的批评内容的审查可能在模型中‘内置’,因此可能是一个设计特点,这可能会影响客观结果。”
“这种中国AI模型的‘政治性切除’可能支持……美国基于开放源代码的AI模型的发展和全球扩散。”
他指出,这种论点表明,民主化对美国产品的访问应增强美国的软实力,并削弱中国全球审查的扩散。
Krebs还表示:“R1的低成本和简单的计算基础质疑了美国试图剥夺中国公司获取先进西方技术(包括GPU)的战略的有效性。”
“在某种程度上,他们实际上是在做‘更少的事却取得更多的成果’。”
Reco的CISO Merritt Baer和多家安全初创公司的顾问对VentureBeat表示:“实际上,在更广泛的互联网数据上训练DeepSeek-R1,正是缺乏中国控制和防火墙,可能是一些担忧的解药。”
“我担心的不是明显的事情,比如审查对习主席的任何批评,而是更难界定的政治和社会工程,这在模型中体现出来。
模型创造者的背景与中国影响力运动关联,使人感到不安,但这并不是我们在选择模型时唯一需要考虑的因素。”
DeepSeek使用经过批准在中国销售但不如更先进的H100和A100处理器强大的Nvidia H800 GPU训练模型,进一步使得任何能够负担得起运行该模型的组织都能够民主化其模型。
关于如何以6000美元构建一个能够运行R1的系统的估算和材料清单正在社交媒体上广泛传播。
R1及其后续模型将致力于规避美国的技术制裁,Krebs认为这是对美国AI战略的直接挑战。
Enkrypt AI的DeepSeek-R1红队报告发现,该模型容易生成“有害、有毒、偏见、CBRN和不安全的代码输出”。
红队继续指出:“尽管它可能适合狭窄范围的应用,但该模型在操作和安全风险领域显示出相当大的脆弱性,如我们的方法论所详细阐述。
我们强烈建议在使用该模型时实施缓解措施。”
Enkrypt AI的红队还发现,Deepseek-R1的偏见程度是Claude 3 Opus的三倍,对生成不安全代码的脆弱性是Open AI的o1的四倍,对有毒内容的生成是GPT-4o的四倍。
该研究还发现,这一模型生成有害输出的可能性是Open AI的o1的十一倍。
分享数据之前须了解隐私和安全风险
DeepSeek的移动应用程序现在在全球下载中占据主导地位,网络版本的流量也创下纪录,同时两个平台上共享的所有个人数据均保存在中国的服务器上。
企业正在考虑在隔离的服务器上运行该模型以降低威胁。
VentureBeat了解到,许多组织正在使用通用硬件执行试点。
在移动和网络应用上分享的任何数据都可被中国情报机构访问。
中国国家情报法规定,企业必须“支持、协助和配合”国家情报机构。
这一做法在如此普遍且对美国公司和公民构成如此威胁,以至于美国国土安全部发布了一份数据安全商业建议。
由于这些风险,美国海军发布了一项指令,禁止在任何与工作相关的系统、任务或项目中使用DeepSeek-R1。
快速试点新模型的组织完全致力于开源,并将测试系统与其内部网络和互联网隔离。
目标是为特定用例运行基准,同时确保所有数据的私密性。
平台如Perplexity和Hyperbolic Labs允许企业在美国或欧洲的数据中心安全地部署R1,确保敏感信息不受中国法规的限制。
请查看有关模型这一方面的出色总结。
初创公司Prompt Security的CEO Itamar Golan以及OWASP大型语言模型(LLM)前十名的核心成员指出,数据隐私风险并不仅限于DeepSeek。
“组织也不应将其敏感数据传送到OpenAI或其他美国模型提供商。”
他指出:“如果流向中国的数据成为重大的国家安全问题,美国政府可能需要通过战略性举措进行干预,例如补贴国内AI提供商,以保持具有竞争力的定价和市场平衡。”
意识到R1的安全漏洞,Prompt在模型推出几天后就增加了对DeepSeek-R1查询生成流量的检查支持。
在对DeepSeek的公共基础设施进行调查期间,云安全提供商Wiz的研究团队发现一个ClickHouse数据库在互联网上公开,记录了超过一百万行的聊天历史、秘密密钥和后台细节。
数据库没有启用认证,这使得潜在的权限提升变得迅速。
Wiz Research的发现强调了快速采用未建立在安全框架基础上的AI服务的危险。
Wiz对此漏洞进行了负责任的披露,促使DeepSeek立即锁定数据库。
DeepSeek的初步失误强调了任何AI提供商在推出新模型时应记住的三个核心教训。
首先,必须在推出模型之前进行红队测试并彻底测试AI基础设施的安全性。
其次,强制执行最少特权访问并采取零信任思维,假设您的基础设施已经被攻破,并信任任何跨系统或云平台的多域连接。
最后,安全团队和AI工程师应协作并能够管理如何保障敏感数据的安全。
DeepSeek创造了一个安全悖论
Krebs提醒说,该模型的真正危险不仅在于其制作地点,还在于其制作方式。
DeepSeek-R1是中国科技行业的副产品,在这里,私营部门和国家情报目标是不可分割的。
试图将模型防火墙或在本地运行作为安全保护的概念是一种幻觉,正如Krebs所解释的,偏见和过滤机制已经“内置”在基础层面。
网络安全和国家安全领导者一致认为,DeepSeek-R1是我们将看到的来自中国和其他国家的,具有卓越性能和低成本的模型中的第一个,这些国家实施对所有收集数据的控制。
底线是:开放源代码长期以来一直被视为软件民主化的力量,但该模型所带来的悖论表明,当一个国家选择时,开放源代码有多容易被武器化。