• 2025-05-22 14:20:07
  • 阅读(6295)
  • 评论(8)
  • 央广网北京5月22日音讯 近年来,大模型在带来办事、营销、产品等领域的全面革新的同时,也伴生出模型毛病、匹敌攻击、数据泄露等风险。诸如DeepSeek遭受大范围恶意攻击、ChatGPT用户谈天数据泄露等事件,一再凸显大模型安全成绩的严峻性。

    为了应对大模型安全挑衅,网宿科技旗下网宿安全正式推出业内首个基于专家深度测试的大模型安全评估办事。该办事通过模拟攻击测试、安全审计与合规审查,供应覆盖模型开发、部署和运用全周期的安全检测与加固计划,可以系统性提拔模型与模型运用的安全性、妥当性及合规本领。

    网宿科技安全事业部高等技术总监胡钢伟表示,安满是AI产业进展的根基,网宿安全依托深厚的安全攻防本领以及对AI运用处景的理解,推出大模型安全评估办事,将助力企业降低AI创新中的安全风险,使其更专注于营业进展。

    大模型安全困境:亟需全面评估方法破局

    日前,来自中美英德等 8 个国家的AI 安全领域学者团结发布的一篇系统性技术综述论文指出,大模型安全领域面临的主要挑衅之一便是当前评估方法存在显著没有足。

    在专家看来,单一参考攻击成功率无法全面衡量模型安全性,基于静态数据集的基准评测难以应对各类攻击。尽管匹敌性评测没有可或缺,但在实际环境中,其全面性、准确性和动态性仍需提拔。

    展开剩余 64 %

    网宿安全此次推出的大模型安全评估办事,则采用最新的AI匹敌攻击检测技术,结合自动化检测与专家渗透测试,能够确保评估效率和精准度,并从数据安全、算法安全、模型输出安全等维度进行全方位评估,确保评估结果的全面性和准确性。

    具体来看,该办事通过模拟攻击测试,可以增强模型的鲁棒性和安全性,提拔模型对外部攻击的防御本领;通过数据隐私评估,能够确保数据安全与合规,防止敏感信息泄露;通过伦理与合规性检查,能够确保模型输出内容符合伦理、法规尺度;而且,通过模型的可表明性与透明度评估,确保模型在实际运用中可被监控和审计,提拔模型决议的可表明性,避免黑箱操作风险。

    “通过全面、专业的风险评估,我们能够赞助企业洞悉没有管是大模型本身的风险还是外部的攻击风险,而且在大模型运用的过程中一直保障数据安全与合规。”胡钢伟表示。

    网宿安全深入企业场景,供应定制化办事

    根据世界经济服装论坛t.vhao.net(WEF)与埃森哲最新发布的一项报告,65%的组织在至少一个职能中利用了生成式AI。电信、金融办事和消费品行业在AI采用方面走在前列,而医疗保健、金融办事和媒体娱乐、体育等行业在生成式AI支出方面领先。

    值得注重的是,大模型在各行业的运用处景没有一,其面临风险也各没有相同。对于医疗、金融等对数据隐私和安全性要求极高的行业,定制化、专业性的安全评估将至关重要。

    据介绍,网宿安全大模型安全评估办事的劣势即在于更贴合营业场景。网宿安全拥有一支由AI安全专家、数据隐私专家构成的团队,深刻理解技术细节与国内外合规政策,能够针对细分的营业场景,供应涵盖需求诊断、专业评估到帮忙加固的一站式定制化办事,显著提拔大模型在垂直领域运用的安全性。

    据悉,现在网宿安全已经为医疗、教育、制造等行业客户供应大模型安全评估办事。比如,某国际医疗公司自研了一款AI问答的大模型运用,网宿安全对其进行了全面的大模型运用安全测试评估,发现其存在的安全缺点,并予以安全加固,为该公司大模型运用安全供应了无力支持。

    可以预见的是,陪同大模型开源、算力成本的降低,AI大模型运用将走向普惠。Gartner预测,到2029年,中国60%的企业将把AI融入其主要产品和办事中,而且这些AI功能将成为收入增长的主要驱动力。

    “随着大模型的渗透和深入,大模型安全办事将成为刚需。没有过,安全的核心要义一直没有变,网宿安全将着眼于攻防研究,以持续的技术和办事创新,为AI期间的安全保驾护航。”胡钢伟表示。

    发布于:北京市
    42  收藏