返回列表 发布新帖
查看: 83|回复: 0

ChatGPT真能通过图灵试验吗

发表于 2023-2-11 21:27:47 | 查看全部 |阅读模式

马上注册!

您需要 登录 才可以下载或查看,没有账号?注册

×
来源:光明网-时评频道2023-02-07 15:13
  作者:张田勘

  美国OpenAI公司的人工智能撰稿和聊天工具ChatGPT去年底投入使用,最近大火,微软联合创始人比尔•盖茨高度评价ChatGPT称,这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的诞生。Gmail的创始人也在推特上表示ChatGPT这样的人工智能聊天机器人将像搜索引擎杀死黄页一样摧毁谷歌。

  如果说ChatGPT能比肩互联网的诞生,说明人工智能已发展到新阶段,一个最具标志性的特点是,许多人隐隐约约或者干脆认为,ChatGPT已经通过了图灵试验,人们如果事先不知道它是人工智能软件,会觉得对话者就是一个活生生的而且无比狡黠的人。

  有人拿老婆、妈妈同时掉水中你会先救谁的问题诘难ChatGPT,几次提问,ChatGPT的回答都不同。感觉ChatGPT是根据问话者的态度、趋向性和语调在修正答案,是在迎合提问者,但又要给出一个合理也说得通的答案。其实,ChatGPT是一个生成式AI,即内容生成器。它不仅擅长分析事物,也能做创造性工作,如写各类文章,还能设计产品,制作游戏,编写代码。它并非凭空生成或制造产品,而是通过人类向它提供的材料、信息、文献、文体等进行深度学习,模拟甚至创造性地发挥而生成产品。可以说,ChatGPT是一个大型语言模型,接受过大量文本数据的训练,能够对各种各样的输入生成类似人类的反应。语言模型的目标是能够基于之前出现的单词,预测给定文本中的下一个单词或单词序列,同时以合乎人类语言的语法和逻辑的规则回答问题和写出文章。因此,ChatGPT回答问题和写文章都是以其训练为基础,用一种听起来与人无异的方式聊天。

  从这个意义来看,即便ChatGPT能根据问话者的问题随时调整答案,而且能帮助学生写论文获得第一,但并不意味着ChatGPT就真的超越人类的智慧。《自然》杂志刚刚发表的一篇文章提出了这方面的问题。使用类似ChatGPT 的对话式人工智能进行专业研究可能会带来不准确、偏见和抄袭。研究人员向 ChatGPT 提出了一系列问题和作业,这些问题和作业需要对文献有深入的了解,但ChatGPT经常产生虚假和误导性的文本。

  当被问及“有多少抑郁症患者在治疗后复发?”时,ChatGPT产生了一个过于笼统的文本,认为治疗效果通常是持久的。但是,许多高质量的研究表明,治疗效果减弱,在治疗完成后的第一年复发风险从29%到51%不等。如果是换做人来做这个工作,在重复相同的查询后会生成更详细和准确的答案。研究人员认为,ChatGPT 出错是因为在对其训练中缺少相关文章、未能提取相关信息或无法区分可信和不太可信的来源。即便是人也经常因为偏见误入歧途,但在对ChatGPT的训练中,这类偏见可能经常被放大。

  也因此,虽然ChatGPT能给科学家提供动力,但是,不能完全依赖它。即便ChatGPT真能通过图灵试验,对它和其他人工智能生成的产品,也必须采取人工验证,多方检测,才能避免错误。(张田勘)
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关注公众号
QQ会员群

Copyright © 2021-2025 中企互动平台 版权所有 All Rights Reserved.

相关侵权、举报、投诉及建议等,请发 E-mail:bztdxxl@vip.sina.com

Powered by Discuz! X3.5|京ICP备10020731号-1|京公网安备 11010102001080号

关灯 在本版发帖
扫一扫添加管理员微信
返回顶部
快速回复 返回顶部 返回列表