您现在的位置是:测试开发营 > 系统运维

企业在AI创新与安全之间走钢丝

测试开发营2025-11-26 22:40:02【系统运维】7人已围观

简介根据Zscaler的数据,全球范围内AI/ML工具的使用激增,企业纷纷将AI融入运营之中,员工也在日常工作流程中加以运用。该报告显示,企业使用AI/ML工具的数量同比增长了3000%以上,凸显出各行业

根据Zscaler的企业数据,全球范围内AI/ML工具的创新使用激增  ,企业纷纷将AI融入运营之中 ,安全员工也在日常工作流程中加以运用。间走钢

该报告显示,企业企业使用AI/ML工具的创新数量同比增长了3000%以上 ,凸显出各行业迅速采用AI技术 ,安全以解锁生产力 、间走钢效率和创新的企业新水平。这些发现基于Zscaler云在2024年2月至12月期间分析的创新5365亿笔AI和ML交易。

企业向AI工具发送了大量数据 ,安全总计达3624TB,高防服务器间走钢这进一步强调了这些技术与企业运营的企业融合程度  ,然而,创新这种采用热潮也带来了更高的安全安全隐忧。企业阻止了59.9%的所有AI/ML交易,这表明企业已经意识到AI/ML工具可能带来的风险,包括数据泄露 、未经授权的访问和合规性违规。

威胁行为者也日益利用AI来增强攻击的复杂性  、速度和影响力,迫使企业重新思考其安全策略。香港云服务器

Zscaler首席安全官迪潘·德赛表示:“随着AI改变各行业,它也带来了新的 、未曾预料到的安全挑战。数据是AI创新的金矿 ,但必须安全地处理 。”

ChatGPT占据AI/ML交易的主导地位

ChatGPT已成为使用最广泛的AI/ML应用程序  ,占全球已识别AI/ML交易的45.2%,然而,由于其引发的服务器租用敏感数据泄露和未经授权使用的担忧 ,它也成为被阻止最多的工具 。其他被阻止最多的应用程序还包括Grammarly、Microsoft Copilot、QuillBot和Wordtune ,这显示出AI在内容创作和生产力提升方面的广泛应用模式 。

企业在AI创新与安全之间走钢丝

随着AI采用的持续增长 ,企业将不得不在控制风险的同时 ,利用AI/ML的力量保持竞争力 ,免费模板在AI创新与安全之间走钢丝 。

AI放大了网络风险,自主式AI工具使威胁行为者能够扩大攻击规模 。在2025年至今,我们目睹了DeepSeek挑战美国巨头 ,如OpenAI 、Anthropic和Meta,凭借其强大的性能 、开放获取和低成本冲击了AI开发 ,然而,这些进展也带来了重大的安全风险。

历史上,前沿AI模型的开发仅限于一小部分精英“建设者”——如OpenAI和Meta等投入数十亿美元训练大型基础模型的云计算公司 ,然后,“增强者”在这些基础模型之上构建应用程序和智能体,之后才到达更广泛的“采用者”或终端用户 。

DeepSeek通过大幅降低训练和部署基础大型语言模型(LLM)的成本,打破了这一结构,使得更多参与者能够进入AI领域 。与此同时,随着xAI的Grok 3模型的发布,该公司宣布Grok 2将成为开源——这意味着 ,与Mistral的Small 3模型等一起,源码下载用户在开源AI方面有了更多选择。

各行业加大力度保障AI/ML交易安全

美国和印度产生的AI/ML交易量最高,体现了全球向AI驱动创新的转变 ,然而 ,这些变化并非在真空中发生,这些地区以及其他地区的企业正面临着日益严峻的挑战 ,如严格的合规要求 、高昂的实施成本和熟练人才的短缺 。

金融和保险行业占所有企业AI/ML活动的28.4% ,反映了其广泛的采用程度,也表明了该行业所支持的关键功能,如欺诈检测、风险建模和客户服务自动化。制造业位居第二 ,占交易量的21.6%,这可能是由供应链优化和机器人自动化方面的创新所驱动的 。

包括服务业(18.5%) 、技术业(10.1%)和医疗保健业(9.6%)在内的其他行业也在增加对AI的依赖  ,而每个行业都面临着独特的安全和监管挑战,这些挑战带来了新的风险 ,并可能影响整体的采用率 。

各行业也在加大力度保障AI/ML交易的安全 ,但阻止的AI/ML活动量各不相同。金融和保险行业阻止了39.5%的AI交易 。这一趋势与该行业严格的合规环境以及保护财务和个人数据的必要性相一致。

制造业阻止了19.2%的AI交易,这表明该行业在广泛采用AI的同时 ,也采取了一种密切监控安全风险的战略方法 ,而服务业则采取了一种更为平衡的方法,阻止了15%的AI交易 。另一方面,医疗保健行业仅阻止了10.8%的AI交易。尽管医疗保健组织处理着大量的健康数据和个人身份信息(PII) ,但在确保AI工具的安全方面仍然滞后 ,其安全团队正在追赶快速的创新步伐。

Deepfake将成为各行业的一大欺诈手段

随着企业将AI融入其工作流程,它们还必须应对影子AI的风险——即未经授权的AI工具使用,这可能导致数据泄露和安全盲点。如果没有适当的控制措施,敏感的商业信息可能会被泄露、被第三方AI模型保留,甚至被用于训练外部系统 。

GenAI将在2025年及以后将社会工程学攻击提升到新的水平,特别是在语音和视频网络钓鱼方面 。随着基于GenAI的工具的兴起 ,初始访问代理组织将越来越多地使用AI生成的语音和视频与传统渠道相结合。随着网络犯罪分子采用本地化语言 、口音和方言来提高其可信度和成功率 ,受害者将越来越难以识别欺诈性通信 。

随着企业和终端用户迅速采用AI ,威胁行为者将越来越多地利用人们对AI的信任和兴趣 ,通过设计用于促进恶意软件、窃取凭据和利用敏感数据的虚假服务和工具来牟利 。

Deepfake技术将掀起新一轮欺诈浪潮,从操纵公众人物视频的简单手段扩展到更复杂的骗局 。欺诈者已经在使用AI生成的内容制作假身份证 、伪造事故图像以骗取保险金 ,甚至制作假冒X光片来利用医疗保健系统。

随着Deepfake工具变得更加先进和易于获取 ,且其输出更具说服力,欺诈将更难被检测,从而破坏身份验证和通信信任。

采用AI应用需采取战略性和分阶段的方法。最安全的起点是阻止所有AI应用程序 ,以减轻潜在的数据泄露风险,然后  ,逐步整合经过审查的AI工具,并实施严格的访问控制和安全措施,以维持对企业数据的全面监督。

很赞哦!(58)