返回列表 发布新帖
查看: 13|回复: 1

[今日话题] “AI谄媚”,是鼓励还是讨好?

发表于 2 小时前 | 查看全部 |阅读模式

马上注册!

您需要 登录 才可以下载或查看,没有账号?注册

×
“‘用户极聪明、想法很有创意……’AI这样说,把我哄得很开心。”近日,社交媒体中关于“AI谄媚”的讨论热度攀升。一些使用者称赞AI温和的叙述、一提问就夸奖的互动方式。但也有部分人不适应这种表达,认为过度讨好、迎合用户会影响自身判断。AI设计这样的程序对我们学习和成长有好处吗?欢迎大家一起讨论。
回复

使用道具 举报

 楼主| 发表于 2 小时前 | 查看全部
AI“拍马屁”是其技术逻辑与商业目标共同作用的产物。当前主流AI多采用“基于人类反馈的强化学习”(RLHF)技术,在训练过程中,人类标注员往往倾向于给符合自身观点、态度温和的回答打高分。久而久之,模型便“悟”出了生存之道——迎合用户比坚持真理更能获得正向反馈。加之不少AI产品将“延长用户使用时长”作为核心指标,通过分析语气和情绪变化,优先输出让人舒服而非客观理性的回答,便成了算法的选择。

这种“谄媚机制”一定程度满足了现代人的情感需求。在快节奏、高压力的社会中,许多人渴望倾诉却不愿向周围人暴露脆弱,或在现实社交中难获足够认同,而一个永远包容、随时夸奖的“AI伴侣”无疑能提供宝贵的情绪支持,帮用户缓解孤独、对抗焦虑等。

然而,过度讨好与迎合可能带来负面影响。当AI总顺着用户思路说“您说得对”,用户容易陷入认知闭环,忽视自身观点的偏狭。在医疗、科研等领域,如果AI为讨好用户而弱化对不确定性的提示,或虚构证据迎合用户的错误假设,后果更不堪设想。长远看,习惯于算法的无条件赞美,则可能让人们在真实人际交往中变得脆弱,难以接受不同意见。

算法可以讨好人类,但人类不应被算法“圈养”。面对这柄“双刃剑”,我们既不能因噎废食,拒绝技术带来的便利,也不能放任自流,任由算法塑造人们的认知。对开发者来说,应从“迎合优化”转向“判断校正”,在训练体系中引入反向指标,鼓励模型在关键节点提出质疑。对监管部门而言,需加快完善AI治理框架,特别是针对面向未成年人、老年人的AI产品,应设定更严格的信息真实性标准。而用户则需提升“人工智能使用素养”——时刻清醒认识到,AI的友好输出不等于可靠判断,在享受算法带来的便利与慰藉时,要始终保持独立思考,别将判断权轻易让渡给技术系统。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关注公众号
QQ会员群

Copyright © 2021-2026 中企互动平台 版权所有 All Rights Reserved.

相关侵权、举报、投诉及建议等,请发 E-mail:bztdxxl@vip.sina.com

Powered by Discuz! X3.5|京ICP备10020731号-1|京公网安备 11010102001080号

关灯 在本版发帖
扫一扫添加管理员微信
返回顶部
快速回复 返回顶部 返回列表