|
楼主 |
发表于 2024-11-24 11:08:03
|
查看全部
三、如何解决隐私和保密问题
AI写作需要将数据、文本、指令以及用户信息传输给平台,而平台掌握这些信息后,存在信息安全和隐私泄露的风险。尤其是开放的平台还会遭受互联网的攻击。这就限制了AI写作的应用,有的重要政府部门已经明文禁止使用某些AI工具写作。
从保密角度考虑,自行开发写作大模型,并在对外封闭、对内联通的网络中使用,所有的东西都掌握在手里,无疑是最安全的。
但是了解AI写作原理的人都知道,开发一个写作大模型的成本非常高。由于写作涉及的领域十分广泛,即便是一份报告或一部小说,也可能跨越多个行业和领域,因此训练、运营、维护大模型的成本非常高。类似于ChatGPT的大模型,需要海量的数据、算力、存储,还有运算的基座,基本是百亿人民币起步。ChatGPT训练用的数据就是整个互联网上所有数据,涵盖了人类几千年历史积累的知识、信息。因此,训练这样的大模型只有极少数实力雄厚的大型机构才有可能完成。当然,利用免费的开源数据进行二次修改可以大幅降低成本,但正如有人所说,“免费的往往是最贵的”,你无法要求数据提供者提供个性化服务,也无法知道其中是否隐藏了潜在的风险。
将已有的AI写作平台作私有化部署,实现与互联网的物理隔绝也是一种不错的选择。在局域网内部署高水平的写作大模型,其成本在千万人民币级别,大型企业和政府机构已经具备承受能力。只不过你至少要有一个封闭的内网,并且有这个需求,愿意花这笔钱。可惜的是,最先破局并且笔者认为使用体验较好的ChatGPT4,还没有开放私有化部署。
那么军队、政府部门这种安全诉求大于效率诉求的机构,可以自主开发大模型并做内部部署。关乎国计民生的金融、能源、交通等领域也可以这么做。其他大型机构可以在内部部署现成的AI写作平台,成本低很多,安全性也会差一些。包括作家在内占绝大多数的散户写作者,使用大模型服务商的服务是最佳选择。这需要将指令传到外部云端,在云端运算完再把结果传回来,隐私和保密就难以保障了。当然这也可以通过不断完善立法和执法予以规范,现阶段个人作者在使用AI写作时应具备保密意识,避免将需要保密的信息传给大模型。
总之,从科技发展的趋势来看,AI的作用将日益增强,这一趋势不可阻挡。随着AI功能的完善和应用的扩展,越来越多的人将在更多领域使用AI写作,这也将引发更多的争议和问题。甚至可能会出现一个新的奇点,颠覆我们现有的认知。AI必将在争议中迅速前行,因此,拥抱AI、善用AI、完善AI,是我们必须面对和实践的课题。
(蔡啸系北京作家协会会员、湖南大学行业产业研究生导师,吴娜系中国移动研究院AI中心主任研究员、高级工程师) |
|