包含活动和物体表现出“明显
”性别偏见。[41]研究人员之
马克·亚茨卡尔预见
这样
种未来:如果机器人是通过这些数据集来训练
,当它不确定人们正在厨房里做什
时候,它就会“给
个男人
杯啤酒,让
个女人帮忙洗碗”。[42]
这些文化成见可从现已广泛使用人工智能技术中找到。例如,斯坦福大学
教授隆达·席宾格想把报纸对她
采访从西班牙语译成英语,而谷歌翻译和Systran翻译系统都反复使用男性代词指代她,尽管文中出现
像profesora(女教授)这类明显指代女性
术语。[43]谷歌翻译还在将土耳其语译成英语时,赋予
原本性别中立
句子刻板成见
意味。Obirdoktor
意思是“她/他是
个医生”,但被翻译成“他是
个医生”,而Obirhemsire(意思是“她/他是
个护士”)被译成“她是
个护士”。研究人员发现,翻译软件在将芬兰语、爱沙尼亚语、匈牙利语和波斯语译成英语时,也出现
同样
现象。
好消息是们现在有
这些数据——但程序员们是否会用这些数据来修正他们偏向男性
算法还有待观察。
们希望他们会,因为机器不仅能反映
们
偏见,有时还会放大它们——而且是大幅放大。2017年
图像研究显示,女性出现在烹饪相关图片中
可能性至少比男性高33%,但以这个数据集为基础训练
算法将厨房图片与女性联系起来
概率是68%。这篇论文还发现,原始偏差越大,放大效应就越强,这或许可以解释为什
该算法会将
张站在烤炉前
肥胖秃顶男子
照片标记为女性。因为厨房>男士脱发。
斯坦福大学生物医学科学助理教授詹姆斯·邹解释这
点
重要性。他举
个例子,有人在
个程序上搜索“计算机程序员”,该程序受过数据集
训练,而数据集里这个词与男性
关联度高于女性。[44]该算法便可能认为男性程序员开发
网站比女性程序员
更重要——“即使这两个网站完全
样,除
开发者
名字和性别代词”。因此,
个偏向男性
算法如果以有性别数据缺口
语料库为基础进行训练,真
能让女性失业。
但网络搜索还只是触及算法如何指导决策
表面。据《卫报》报道,全美国72%
简历从未经过真人阅读,[45]而机器人已经参与到面试过程中,它们
算法依据“表现优异员工”
姿势、面部表情和声调进行过训练。[46]听起来好像很厉害——直到你开始考虑潜在
数据缺口:程序员能否确保这些表现优异
员工具有性别和族裔多样性?如果不能,算法能否考虑到这
点?该算法是否经过训练,能够考虑到声调和面部表情
社会化性别差异?
们并不知道答案,因为开发这些产品
公司并不分享他们
算法——但让
们面对现实吧,根据现有
证据,这似乎不太可能
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。