企业努力解决生成人工智能的安全影响

在最近的一项研究中,云原生网络检测和响应公司ExtraHop揭示了一个令人担忧的趋势:企业正在努力应对员工生成人工智能使用的安全影响。

他们的新研究报告《生成式人工智能引爆点》(The Generative AI Tipping Point)揭示了随着生成式人工智能技术在工作场所变得越来越普遍,企业面临的挑战。

该报告深入研究了组织如何处理生成式人工智能工具的使用,揭示了IT和安全领导者之间的重大认知失调。令人惊讶的是,73%的领导者承认他们的员工经常在工作中使用生成式人工智能工具或大型语言模型(LLM)。尽管如此,令人震惊的是,大多数人承认不确定如何有效地解决相关的安全风险。

当被问及他们的担忧时,IT和安全领导者表示,他们更担心可能出现不准确或荒谬的响应(40%),而不是客户和员工个人身份信息(PII)暴露(36%)或经济损失(25%)等关键安全问题。

ExtraHop联合创始人兼首席科学家Raja Mukerji表示:“通过将创新与强大的保障措施相结合,生成式人工智能将在未来几年继续成为提升整个行业水平的力量。”

这项研究的一个惊人发现是,生成式人工智能禁令是无效的。大约32%的受访者表示,他们的组织禁止使用这些工具。然而,只有5%的人报告说他们的员工从未使用过这些工具,这表明仅凭禁令不足以遏制他们的使用。

该研究还强调了对指导的明确渴望,特别是来自政府机构的指导。多达90%的受访者表示需要政府参与,60%的人主张强制性法规,30%的人支持政府标准,让企业自愿采用。

尽管对他们目前的安全基础设施有信心,但该研究揭示了基本安全实践方面的差距。

虽然82%的人对其安全堆栈抵御生成式人工智能威胁的能力充满信心,但只有不到一半的人投资于监控生成式人工智能使用的技术。令人震惊的是,只有46%制定了管理可接受使用的政策,只有42%向用户提供了安全使用这些工具的培训。

这一发现是在ChatGPT等技术迅速普及之后得出的,这些技术已成为现代企业不可或缺的一部分。企业领导者应了解员工对生成式人工智能的使用情况,以识别潜在的安全漏洞。


作者:法瑞恩

链接:https://www.artificialintelligence-news.com/2023/10/18/enterprises-struggle-address-generative-ai-security-implications/

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com