统计排行幸运大转盘每日签到社区服务会员列表最新帖子精华区博客帮助
今日发帖排行
主题 : 纠正大模型性别偏差也是科技向善
新组建个圈子,欢迎大家来捧场。
级别: 管理员

UID: 22506
精华: 409
发帖: 445689
财富: 614394632 鼎币
威望: 2272070 点
贡献值: 679 点
会员币: 15 个
好评度: 5186180 点
在线时间: 32918(时)
注册时间: 2012-05-22
最后登录: 2024-06-25
楼主 发表于: 06-04  

纠正大模型性别偏差也是科技向善

管理提醒: 本帖被 为生歌唱 执行加亮操作(2024-06-05)
原标题:纠正大模型性别偏差也是科技向善 TM!R[-\  
fhH* R*4  
老鹰 b% $S6.  
XF^c(*5  
据《中国青年报》5月29日报道,近日有学者研究发现,不少大模型可能因为训练数据的性别偏见而产生对特定性别的刻板印象。比如,大模型画出的护士都是女性,给企业家画像则是男性。 ys+?+dY2  
t T-]Vj.  
大模型是指拥有超大规模参数、超强计算资源的机器学习模型,能够处理海量数据,完成各种复杂任务,如自然语言处理、图像识别等。如果大模型存在偏见,不仅限制了模型的准确性,也可能在人机交互中加深性别歧视。比如,有学者之前在做AI编舞的时候,没有想到性别问题,采集的舞蹈视频基本都由女性进行表演,缺少男性样本,这给人的感觉是舞蹈演员只有女性。由此,不少学者开始反思大模型中的性别偏差问题,并引发学界关注。 6ap,XFRMh  
z@~1e]%  
男女平等的理念在今天已经深入人心。但让人遗憾的是,作为前沿科技领域的大模型中却存在某些性别偏差问题。如果不改变这种现象,不仅容易加深某些人刻板的性别偏见,还可能耳濡目染误导一些人的性别观念。 < ]wN/B-8J  
}'H Da M  
而大模型性别偏差的根源在于,大模型处理的各种数据、资料等均来源于现实社会,由于一段时间以来社会上存在性别偏见,大模型性别偏差实际就是社会上性别偏见的一种投射。加之,一些大模型研发者、数据训练者或AI使用者可能缺乏性别平等意识,导致大模型处理结果中出现性别偏差。 M*c\=(  
_nx|ZJ  
作为广受关注、广泛使用的大模型及其产品,要在推动人类男女平等方面发挥示范作用,这也是科技向善的重要体现。对此,相关学者意识到问题所在,并探讨解决之道,都是纠正大模型性别偏差的积极表现。 H:[z#f|t  
*tRJ=  
部分学者提出,应在社会层面呼吁、倡导打破性别刻板印象,纠正固有的性别偏见,减少对大模型的性别化影响。同时,大模型的研发者、数据训练者和AI使用者等关键环节的操作者,需要积极培养和提升自身的性别平等意识。有关部门也有必要在制定或完善针对大型语言模型和人工智能的相关法律法规时,特别加入保障性别平等的条款。各方共同推动人工智能向更加公平、包容的方向发展。
评价一下你浏览此帖子的感受

精彩

感动

搞笑

开心

愤怒

无聊

灌水
为生歌唱
描述
快速回复

谢谢,别忘了来看看都是谁回帖哦?
验证问题:
正确答案:余梦伦
按"Ctrl+Enter"直接提交
上一个下一个