返回列表 发布新帖
查看: 23|回复: 0

“投喂”AI不能滥用隐私数据

发表于 2023-11-23 15:24:47 | 查看全部 |阅读模式

马上注册!

您需要 登录 才可以下载或查看,没有账号?注册

×
原标题:“投喂”AI不能滥用隐私数据

“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用……”近日,办公软件WPS在其隐私政策中的表述被质疑滥用用户隐私,随后其官方向用户致歉,并承诺用户文档不会被用于人工智能训练目的。

随着生成式人工智能应用场景日益增多,带来的潜在风险隐患不容小觑。向AI“投喂”用户数据价值,目的是帮助训练生成式人工智能的“大脑”,实现数据资源化利用。但由于目前对于人工智能的各种风险识别仍处在摸索阶段,如何科学规避其进化成“脱缰野马”,仍然存在不少盲区。

追求更高的人工智能准确度,让机器越来越懂人,是人工智能不断接受训练的目标。越来越智能的机器,离不开大量数据的训练和培养。理论上讲,投喂的数据越多,生成式人工智能就会越“聪明”,如果没有海量数据“充饥”,生成式人工智能就难以填饱“数据饥饿”。但在AI数据训练中,有的涉及技术风险,有的涉及经济风险,有的涉及伦理风险,有的涉及法律风险,这一过程让人工智能与安全隐私之间的关系更加微妙。更高质量的数据获取及人工智能模型的自动迭代,是目前在技术层面亟待解决的问题。保护隐私是人的基本权益,享受智能化便利,不意味着对侵犯隐私之举可以无底线纵容、无规则约束。如果让AI“胃口”越来越大,越界吞噬不加甄别的数据,增加错误技术打开的漏洞,就难以体现技术进步带来的福祉。

今年7月,我国出台《生成式人工智能服务管理暂行办法》,强调开展训练数据处理活动“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”。任何行业发展和技术进步,不能以牺牲隐私安全为代价,不能游离在监管的真空地带。侵犯个人隐私、数据信息伪造、算法歧视等与生成式人工智能发展相伴相生的社会问题,不仅需要与时俱进的有效监管,还需要整个社会的约束。创新要在法律框架之内,虽然没有一种算法是完美的,但实现机器“智”变和保护隐私安全并不是非此即彼。

遵守法律法规,尊重社会公德、公序良俗,才是大模型发展的正轨。规避不良情形,加强安全底线、伦理标准与合规规范,才能让技术手段真正造福于民。(程曼诗)
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关注公众号
QQ会员群

Copyright © 2021-2025 中企互动平台 版权所有 All Rights Reserved.

相关侵权、举报、投诉及建议等,请发 E-mail:bztdxxl@vip.sina.com

Powered by Discuz! X3.5|京ICP备10020731号-1|京公网安备 11010102001080号

关灯 在本版发帖
扫一扫添加管理员微信
返回顶部
快速回复 返回顶部 返回列表