- 生成式人工智能和大型语言模型的快速普及使得近90%的组织正在探索其应用,但对安全措施的信心极低,仅约5%的组织对其安全框架表示高度信任。
- 调查和实地发现表明,安全风险可能被低估,Gandalf黑客游戏的参与者显示AI系统容易受到攻击。
- 这些结果强调了制定强大AI安全策略以应对生成式人工智能带来的独特挑战的紧迫性。
核心要点2
生成式人工智能(GenAI)和大型语言模型(LLM)的快速普及正在改变各个行业,近90%的组织正在实施或探索相关用例。
然而,只有约5%的组织对其生成式人工智能的安全框架表示高度信任,显示出安全措施的信心极低。
该报告基于对1000多名安全专业人士的调查以及LakeraAI黑客游戏Gandalf的实地发现,揭示了安全风险可能被低估。
Gandalf是全球最大规模的AI红队演练,吸引了超过一百万用户参与,成功完成七级防御的玩家超过20万,显示AI系统的脆弱性。
这些发现与调查结果相互印证,强调了制定强有力的AI安全策略以应对GenAI带来的独特挑战的紧迫性。
投资标的及推荐理由投资标的:生成式人工智能(GenAI)和大型语言模型(LLM)相关企业和技术。
推荐理由: 1. 快速增长的市场需求:近90%的组织正在积极实施或探索LLM用例,表明生成式人工智能的市场潜力巨大。
2. 安全需求亟待满足:当前只有约5%的组织对其生成式人工智能安全框架表示高度置信,说明安全措施的不足为相关企业提供了发展空间。
3. 实地发现的安全风险:通过LakeraAI的Gandalf黑客游戏,揭示了AI系统的安全漏洞,强调了对安全策略的需求。
4. 玩家参与度高:Gandalf吸引了超过一百万用户参与,显示出公众对AI安全的关注和参与意愿,为投资提供了良好的市场基础。
5. 制定强大安全策略的紧迫性:随着生成式人工智能的普及,制定针对AI的安全策略成为必然趋势,为相关企业提供了发展机会。