实测 7 款主流 AI 大模型,隐私裸奔成通病
作者:思原,科技新知
图片来源:由无界AI生成
在AI时代,用户输入的信息不再仅仅属于个人隐私,而是成为了大模型进步的“垫脚石”。
“帮我做一份PPT”“帮我做一版新春海报”“帮我总结一下文档内容”,大模型火了以后,用AI工具提效已经成了白领们工作的日常,甚至不少人开始用AI叫外卖、订酒店。
然而,这种数据收集和使用的方式也带来了巨大的隐私风险。很多用户忽视了数字化时代,使用数字化技术、工具的一个主要问题,就是透明度的缺失,他们不清楚这些AI工具的数据如何被收集、处理和存储,不确定数据是否被滥用或泄露。
今年3月,OpenAI承认ChatGPT存在漏洞,导致部分用户的历史聊天记录被泄露。此事件引发了公众对大模型数据安全和个人隐私保护的担忧。除了ChatGPT数据泄露事件,Meta的AI模型也因侵犯版权而饱受争议。今年4月,美国作家、艺术家等组织指控Meta的AI模型盗用他们的作品进行训练,侵犯其版权。
同样,在国内也发生了类似的事件。最近,爱奇艺与“大模型六小虎”之一的稀宇科技(MiniMax)因著作权纠纷引发关注。爱奇艺指控海螺AI未经许可使用其版权素材训练模型,此案为国内首例视频平台对AI视频大模型的侵权诉讼。
这些事件引发了外界对大模型训练数据来源和版权问题的关注,说明AI技术的发展需要建立在用户隐私保护的基础之上。
为了解当前国产大模型信息披露透明度情况,「科技新知」选取了豆包、文心一言、kimi、腾讯混元、星火大模型、通义千文、快手可灵这7款市面主流大模型产品作为样本,通过隐私政策和用户协议测评、产品功能设计体验等方式,进行了实测,发现不少产品在这方面做得并不出色,我们也清晰地看到了用户数据与AI产品之间的敏感关系。
01、撤回权形同虚设首先,「科技新知」从登录页面可以明显看到,7款国产大模型产品均沿袭了互联网APP的“标配”使用协议和隐私政策,并且均在隐私政策文本中设有不同章节,以向用户说明如何收集和使用个人信息。
而这些产品的说法也基本一致,“为了优化和改进服务体验,我们可能会结合用户对输出内容的反馈以及使用过程中遇到的问题来改进服务。在经过安全加密技术处理、严格去标识化的前提下,可能会将用户向AI输入的数据、发出的指令以及AI相应生成的回复、用户对产品的访问和使用情况进行分析并用于模型训练。”
事实上,利用用户数据训练产品,再迭代更好产品供用户使用,似乎是一个正向循环,但用户关心的问题在于是否有权拒绝或撤回相关数据“投喂”AI训练。
- 申链财经
免责声明:投资有风险,入市须谨慎。本资讯不作为投资建议。