您好,欢迎来到报告网![登录] [注册]

AI能被“污染”?大模型浪潮下 网络安全面临哪些新挑战?

  AI就像硬币的两面,“既能帮助好人也能助纣为虐”,这背后是AI大模型可能被“投毒”。

  当前,AI大语言模型浪潮席卷全球,国内企业院校纷纷推出自研大语言模型,各行各业也在探索AI赋能之道。但AI既可以为效率“提速”,也有可能成为黑灰产牟利的工具,在这一背景下,大模型本身以及大模型相关产业将会出现哪些安全风险?国内的网络安全行业要如何应对?

  新京报贝壳财经记者近日分别参加C3安全大会与2023全球数字经济大会人工智能高峰论坛并采访相关专家。有专家认为,人工智能的安全问题并非如今才有,但在大模型浪潮下,需要防止AI大模型被“污染”,同时大模型时代数据安全将比以往更加重要,大模型是否会导致数据泄露,如何保护企业核心技术资产,都是大模型时代需要关注的重点。

我要投稿 版权投诉
  1. 标签 模型
  2. 机构、内容合作请点这里: 寻求合作>>
模型行业标签

桃之**夭ぅ

该用户很懒,什么也没介绍!

关注 私信

报告咨询

  • 400-817-8000全国24小时服务
  • 010-5824-7071010-5824-7072北京热线 24小时服务
  • 059-2533-7135059-2533-7136福建热线 24小时服务

如您想投稿,请将稿件发送至邮箱

seles@yuboinfo.com,审核录用后客服人员会联系您

机构入驻请扫二维码,可申请开通机构号

Copyright © 2025 baogao.com 报告网 All Rights Reserved. 版权所有

闽ICP备09008123号-13