AI智能体,或将成为2025年的关键词之一,国内外厂商激战正酣,探索其能为千行百业带来的变化。但对数据安全的忧虑也浮出水面。有多少交互的工作内容会上传?用户数据会不会云上“裸奔”?
记者发现,目前用户在个人数据隐私方面的授权甚为被动,多名业内安全专家呼吁,期盼大模型出台强制性合规标准,落实隐私安全要求。
AI智能体今年或将规模化就业
“我相信2025年人们将会看到第一批AI智能体加入劳动力大军,从根本上改变各公司产出的东西。”日前,Open AI CEO山姆·奥尔特曼发布的一篇博客,引发业界对AI智能体的再度关注。英伟达CEO黄仁勋近日也表示,“AI智能体可能是下一个机器人产业,蕴藏着价值数万亿美元的机会”。
什么是AI智能体?它和去年如日中天的大模型又有何区别?业内专家表示,大模型虽然能理解、能问答、能生成,但是“不能直接干活”。只有加上知识获取、感知、推理、工具使用以及系统架构的能力,变成智能体后才能高效执行具体任务。
记者注意到,近段时间,国内外多个厂商在这个赛道中纷纷布局,展开激烈角逐。微软一口气发布了10个商业智能体,称一个智能体提升的生产力相当于增加187名全职员工;Open AI将要发布新的AI智能体工具,代表人类执行预订旅行、编码等任务。
国内企业也不甘落后。聚焦PPT制作、文书写作等,科大讯飞一口气升级了8款办公智能体;智谱清言最新AI智能体可以实现自动点咖啡、发红包;腾讯也透露,微信、QQ、输入法、浏览器等产品都将推出AI智能体。
用户个人数据或用于“炼”AI
上传附件,点击几个按键,不到2分钟,一份制作精美的PPT就通过某AI智能体自动生成。“这可比过去一页页排版轻松多了!”白领小孙感到欣慰的同时,一股担忧也在心底浮现:“PPT里的敏感财务数据会不会也上云了?”
小孙的担忧不是个例。记者随机采访了10名用户,有9名用户在使用AI智能体时,有过对数据隐私安全的疑虑:“我的个人敏感数据,会不会被直接采集,用来训练AI?”
AI智能体的驱动平台是大模型。记者查阅了Kimi、豆包、智谱清言、混元、讯飞星火等多个大模型的隐私条款,发现多个平台在这些隐私条款中声明,会在经过安全加密、严格去标识化且无法重新识别特定个人的前提下,将用户向AI输入的数据、发出的指令以及AI相应生成的回复、用户对产品的访问和使用情况进行分析并用于模型训练。有平台还称“处理后此类数据将不属于个人信息范畴,其使用无需另行征得用户同意。”
用户是否能明确拒绝大模型平台使用其个人对话进行模型训练?记者发现,相比Open AI、谷歌Gemini等国外大模型,目前国内多个大模型并没有“一键关闭”功能进行拒绝授权的操作。
业内盼望出台强制性合规标准
中国信通院泰尔实验室信息安全部副主任傅山认为,对用户而言,一条指令,往往会涉及多个App智能体产品,过度的数据收集会带来数据滥用、算法偏见、透明度不足等问题。
“对于用户来说,大模型的隐私安全问题涉及三个点,是否接触、是否计算和是否输出。”奇安信行业安全研究中心主任裴智勇表示,其中对外输出是核心点,一旦平台向不合法的用户输出敏感个人信息,不但可能损害用户隐私,甚至可能危害国家安全。
“这一问题的解题思路,还是在于对大模型和AI智能体的行业监管。”裴智勇说,可以通过对大模型抓取数据和输出数据的流量监测,知晓大模型是否读取了敏感个人信息,是否输出了敏感个人信息,从源头和终端两个层面把控个人信息的使用,从而及时发现问题,化解或减少大模型对于个人隐私带来的侵害。
多名业内专家也呼吁,期盼尽快完善大模型强制性合规标准,确保大模型及AI智能体研发、训练、部署过程的隐私安全要求得到遵守。