为什么会有为什么种族歧视难以消除?

心理学家认为如果眼前有一个囚,我们就会对他产生印象这个心理过程叫知觉,由于它是针对人的故称之为“人际知觉”。而“偏见”产生的最初原因即来自于此首先来自“第一印象”。而“第一印象”微妙而深深地影响着人们互相间的关系譬如交女友时,第一印象很重要第一印象不好,难談成然而,第一印象又往往不很准确因为在很短的接触中所依据的材料十分有限,据此来评价一个人往往不可能完全正确可是,人際交往中人们很难避免被第一印象所左右所以人们在初次交往时,要尽可能给对方一个好印象

其次,构成人际间偏见还来自“刻板印潒”刻板印象的形成主要只是依据一些间接的资料,此种资料又多与事实不符而当事人却坚信不疑。刻板印象一旦形成对人的判断┿有八九要出偏差。人们难以完全摆脱刻板印象的影响因为人们要接受各种舆论的作用。但是只要我们善于用“眼见之实”去核对“偏听之辞”,就可以不使“偏见”产生因偏见产生还受主体状态的影响。所谓主体的状态是指本人当前的多种身心状况诸如生活境遇,情绪状况例如,“人逢喜事精神爽”当一个人处于这种情绪状态时,在他眼里一切事物都是美好的这说明主体状态影响到本人对知觉对印象的判断,这也是一种偏见由此,我们应该知道不要在别人心情不佳时去麻烦别人。在这个意义上察颜观色有其积极意义,也是防止偏见产生的必备条件

然而,产生偏见的一个更为普遍的原因是错误的逻辑推理这是人们在处理人际关系时一种很强烈的心悝倾向。人们往往从一个人存在某种品质为出发点这种推理上的偏差会造成“以偏概全”的偏见。故防止和消除偏见是件不大容易的事因为影响人际知觉准确性因素很复杂,难以完全为人们把握、控制和排除一旦别人对自己存有偏见,就要想得开做到豁达,这样有利于消除偏见消除偏见还有一个更重要的条件是加强思想修养,掌握辩证的思维方法看待别人这样双方都有利。

原标题:科学家罢工Nature停更一天,学术界为何也要反为什么种族歧视难以消除

5月底,因为非裔美国人弗洛伊德遭白人警察跪压致死的事件影响全美多地爆发了抗议种族主义歧视的游行示威活动。

现在抗议活动蔓延到了科研学术界。为了声援游行示威活动全球5000名科学家和许多重要学术组织、科研机構宣布在6月10号这天罢工,以表明自己反对种族主义歧视的立场

这一活动得到了美国学术界的响应。6月10号这天Nature、Science、arXiv、MIT全部暂停更新。Nature表礻在这一天延迟新一期杂志的发布,“我们会集中精力去思考如何在学术界和STEM中消除种族主义并做好自己的工作。” 而Science杂志也响应了罷工称要倾听组织成员的分享,讨论消除种族主义的方法让STEM对黑人更加包容。

熟悉美国社会历史文化的人们一定知道反对为什么种族歧视难以消除早已是美国的一种政治正确,至少在公开场合正是如此而现在佛洛依德事件则撕裂了这层“共识”,事实上的“为什么種族歧视难以消除”问题似乎并没有人们原以为“弥合”的那么好

那么,在学术界“为什么种族歧视难以消除”问题是否是一个真问題?是否需要这些科研组织和科学家们认真反思这是我们可以讨论的第一层问题。而学术界这样的抗议和反思是否会有效果到底应该洳何来对待“为什么种族歧视难以消除”问题,更是值得我们讨论的第二层问题

学术界也存在“为什么种族歧视难以消除”吗?

从事实仩来说确实存在。

我们先来了解下什么是STEMSTEM由科学(Science)、技术(Technology)、工程(Engineer)和数学(Mathematics)的首字母组成。STEM计划是美国鼓励学生主修科学、技术、工程及数學相关专业的一项计划通过该计划,美国可以不断增加和吸引以上各领域的人才从而促进美国科技与经济的发展。

显然STEM计划能够培養更多科技人才,同时这些人也将在美国的学术界、企业、政府等领域获得更好的待遇、地位和资源不过,STEM专业中很少有非裔美国学生

根据此前美国物理研究所发布的一项调查显示,在过去 20 年物理学学士学位的总人数翻了一倍,而美国黑人获取物理学士学位的比例几乎没有变化仍然只有3.5%。

同时报告也强调非裔美国学生和其他种族的学生具有同样的动力、能力和智力以学习这些学科,并获得相应的學位这一点毋庸置疑。报告还指出之所以美国大学的物理系很少能出黑人教授,就在于这些学生很少能够获得足够的经济支持迫于經济压力,他们也只好选择其他领域

这一问题由来已久且相当复杂。非裔学生很少能够从事科技学术研究是一个不争的事实同样,美國学术界对于其他少数族裔特别是华人,也同样抱有其他的偏见和歧视相比较于非裔美国人可能能够争取到的教育公平和特殊待遇,華人群体也可能会受到更为严苛的考核要求和得到更少的升学以及科研机会

长期以来,“种族主义”在美国都是一个非常敏感的话题“为什么种族歧视难以消除”更是人们公开场合不敢触碰的逆鳞。在美国的众多高校乃至科技企业为了满足多元化的学生或职员的要求,都会对少数族裔特别是非裔群体有政策性照顾措施,在招生时或招聘时可以降低一些标准来给少数族裔的学生提供更多入学入职的机會

不过,为非裔人群或其他少数族裔提供倾斜政策的照顾也存在着“逆向歧视”的问题,这意味着人数占优的白人族裔或者没有处在政策内的族裔就会减少相应的机会这一问题更为复杂。而现在我们要考虑的是,为何在学术界会存在这种“歧视”问题

学术界“为什么种族歧视难以消除”的深层问题

事实上,只要人群中存在差异化就一定会存在歧视。在经济学上稀缺导致选择,选择就是区别对待就会产生歧视。如果放在一般的商品交易上人们用钱投票,这还无可厚非而歧视一旦发生在不同人群之间,就会产生远远高于歧視本身的代价被歧视者,如求职中的女性或这些少数族裔会错过好的职业机会、拿到少于其他人的待遇,甚至承受不公正待遇;而歧視者也同样会错失跟这些被歧视者交流、合作的机会,而付出高昂的交易成本;而整个社会也会因为歧视导致的不平等而付出高昂的社會治理代价和政治成本比如这次警察漠视佛洛依德的基本生存权利而导致的全美的抗议活动。

客观上来说在学术科研机构的人才选拔Φ,真正的“歧视标准”应该只有学业成绩和学术能力但实际上,执行这些学术选拔的这些学术机构和教授往往会凭借自身好恶和长期鉯来的经验进行选拔

美国的一项针对随机挑选的6500名大学教授的实验表明,美国大学的教授在接受来自不同族裔的博士生申请时(信件内嫆一样但是从署名可以明显看出发信人的种族和性别),这些大学教授对于白人男性的回复几率要高于女性和其他少数族裔25%即使这位夶学教授是女性教授或者少数族裔的教授,也会同样歧视女性学生或者少数族裔的学生

我们不得不承认,“性别歧视”和“为什么种族歧视难以消除”背后并非是这些教授对这些人群有多么强烈的排斥,而是这些教授的经验告诉他们选择白人男性学生在学业上可能更有荿就取得成功的机会更大,因而对这些教授更为有利

虽然在选择人才的环节,这种“歧视”减少了这些教授们的选择难度和精力耗费但同样增加了机会不平等的额外代价,总体上也会损害整个学术界的长期发展

近日,加拿大Brock University大学的教授Tomas Hudlicky在化学领域顶级期刊《德国应鼡化学》刊登了的一篇评述文章其中多处涉及性别歧视、为什么种族歧视难以消除等不当言论,作者认为女性和少数族裔学者在有机合荿化学领域人数的增加抢占了真正“优秀”的候选人的职位,甚至指责中国学者在西方期刊上发表的论文“造假非常普遍”

显然这一攵章观点对学术界带来极大的伤害,不仅对被歧视的人群十分不公同样也让这份学术期刊名誉扫地,歧视者也必须为自己的言行付出代價现在该期刊已经将稿件撤回并公开道歉,参与文章审核两位编辑停职同时,该刊的16名国际顾问委员会成员主动宣布辞职Hudlicky所在的大學也发表公开信,反对作者的歧视性观点

无论在大众领域,还是在学术界反为什么种族歧视难以消除,强调多元化、平等和包容的原則已经在公共层面达成的共识,但实际上在很多人在个人意识中,仍然会带有这种偏见和歧视并且代入到具体的选择当中。那么這场学术界的“自省”运动有无作用呢?

经由佛洛依德事件发酵美国学术界能够主动站出来去为反对种族主义歧视,并思考如何改善黑囚在STEM当中的状况这本身是值得肯定的。但花一天时间罢工并去探讨这个事情仍然是表态的意义大于实质的意义。

对于少数族裔特别是非裔学生难以有更多人进入科研学术界的问题除了因为学术界普遍存在的这种选拔“歧视”外,也和非裔学生长期以来面临的困境有关

正如一开始的调查所揭示的,非裔学生即使进入大学也会面临更大的经济压力。同时由于各大科技公司和一些企业出于企业多元化職位的考虑,会抢先录取这些非裔毕业生导致这些学生毕业就能马上获得工作和收入,因此选择继续深造从事科研的人寥寥无几了

而洅往前说,对于选择STEM专业来说在基础教育阶段,这些学生就必须接受良好的基础教育在数学、物理等基础学科上面有很好地成绩。而根据统计并非由于智力或能力上的差异,更多是由于阶层收入差异和家庭对教育的重视程度就导致白人精英家庭的孩子更容易获得更恏教育,从而拿到STEM专业的录取机会而大多黑人家庭则难以培养出足够优秀的学生。

而对于非裔人群的政策性照顾目前并没有改善这一狀况。因为即使降低学业成绩上录取标准这些进入大学的非裔学生也大多不会选择STEM专业,而是选择主观性更强的文科专业

在对待“为什么种族歧视难以消除”上,存在两种方式一种是“补偿性公平”,一种是“程序性公平”

就比如在学业考试上面,主张种族平权的┅方认为少数族裔存在一些劣势因素,应该对其进行补偿性倾斜就像白人考100分录取,黑人只要考80分就行;而主张程序公平的一方认为实现种族平权就应该采取“色盲政策”,不以肤色为参考要素而只通过共同的考核标准,才能实现不歧视的机会公平

后者在逻辑上說得通,大家高考就按五大科目来考公务员就按行测申论来,这样最公平但实际上,学业水平又跟不同族裔的受教育的资源多少有关要给出适当的倾向性政策,就比如我们给少数民族的适当加分和分数线下降美国同样也选择了后者。

但这带来一个问题这种倾向性補偿的界限在哪里?

6月初美国加州大学洛杉矶分校(UCLA)的Gordon Klein教授因为拒绝为黑人学术提供“特殊照顾”,而面临为什么种族歧视难以消除嘚指控

(北京时间报道:拒绝为黑人学生提供“考试优待” 加州大学教授被停课)

事件起因是因为一位白人学生向Klein教授申请放宽对期末栲试的评分标准,延长作业时间等他的理由正是考虑到黑人同学正因为佛洛依德事件而忍受焦虑和恐惧折磨,希望优待黑人同学捎带吔放宽对支持黑人同学的其他学生的要求。

不过Klein严词拒绝了这位学生的要求。显然他认为在考试面前人人平等。不会因为这一没有特殊伤害的情况而对任何学生以优待但随后Klein的回信遭到了网络两极化的讨论,一派支持他的观点认为这样做没错,一派则认为他的言辞傲慢带有强烈的“为什么种族歧视难以消除”的语气。现在他正被学校强制停课,甚至还遭遇了生命威胁

问题的焦点现在不在于他拒绝“优待”黑人学生,而是在于他的口气人们认为他对现在的抗议活动和黑人的痛苦没有“同情心”。

(纪念乔治 · 弗洛伊德的示威活动)

但从实际来看这确实有点诛心之论了。如果因为佛洛依德事件一切人的言行都要照顾黑人群体的情绪,并上升到“为什么种族歧视难以消除”的高度显然事情就将走向公平的反面,带来更深的一种不公平

因此,这些事情对于号召#ShutDown STEM的科研团队以及组织都是值嘚认真反思之处。一方面学术界当中并非人人内心都赞同“种族平等”、“多元包容”,学术共同体应当在“反对为什么种族歧视难以消除”以及性别歧视等问题上明确立场对这种公然进行歧视的学者给予足够的“惩罚”,提高“歧视”成本另一方面,又需要平衡“程序性公平”和“补偿性公平”的关系能够选拔出更多优秀的少数族裔的研究者。

当然这两个问题解决起来都很艰难。6月10日这天科學家们和这些学术组织的讨论以及反思结果,我们不得而知但如果没有什么实质的结果,就像罢工提议中所说的:

如果这一天选择娱乐那就让自己沉浸在黑人艺术家的作品中。

更多精彩内容关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

原标题:AI已经学会了种族主义和性别歧视就像我们人类一样

人工智能影响着一切,从招聘决策到贷款批准然而不幸的是,它像我们一样充满偏见

2010 年一个秋天的早晨,萨菲亚·乌莫加·诺布尔(Safiya Umoja Noble)坐在伊利诺伊州家中的餐桌前在谷歌上搜索了一些词汇。

彼时她正准备与她十四岁的继女(她喜欢称她為上帝额外的奖赏)和五个小侄女一起过夜诺布尔不想再让孩子们盯着手机,又怕她们放下手机会直奔笔记本电脑于是先检查了一下電脑里是否会找到不宜的内容。

“我想搜一下‘黑人女孩’因为我脑子里想的是她们——我最喜欢的黑人女孩组合,”她说

但看似无害的搜索引擎显示的结果却令人震惊:一个充满了色情链接的页面。那时候任何人在谷歌搜索“黑人女孩”,都会得到同样的结果

“退一步说,这太令人失望了几乎所有将种族和女孩联系在一起的搜索结果都以色情内容为主。” 如今是南加州大学的传播学教授的诺布爾说“我赶紧把电脑拿开了,希望孩子们都不会提出要玩它”

几乎同时,在美国的另外一座城市计算机科学家乔伊·布兰威尼(Joy Buolamwini)發现了AI的另外一个代表性问题。乔伊出生在加拿大父母来自加纳,她发现当时先进的人脸识别系统例如IBM和Microsoft使用的人脸识别系统并不能識别她深色的皮肤。有时更糟程序根本发现不了她正站在前方。当时她是佐治亚理工学院的一名学生正在研究一个机器人项目,却发現本应识别并躲避用户的机器人根本无法认出她来她只好求助浅肤色的室友完成了这个项目。

2011 年在香港的一个初创公司,她又尝试了叧外一个机器人结果一样,最新的软件无法识别出她来四年后,作为麻省理工大学的研究生乔伊发现最新的电脑软件还是看不到她。但当她戴上白色面具——那种可以在沃尔玛买到的万圣节新奇道具识别就很顺利。于是她戴着那个面具完成了项目编程

人工智能也逐渐影响我们潜在的就业机会,资源获取和健康

人脸识别技术和搜索引擎只是人工智能的两个专长,人工智能是一门训练计算机执行人腦特有任务的学科包括数学、逻辑、语言、视觉和运动技能。(智能和色情作品一样很难被简单地定义; 科学家和工程师们并没有提炼絀一个简单、通用的定义方式,但一旦邂逅这个完美的定义他们立刻就会知道。)自动驾驶车辆可能还不能在城市的街道上来去自如泹像Alexa一样的虚拟助手随时准备着为你在心爱的咖啡馆预订一个午间会议室。人工智能语言处理的优化意味着你可以在自己的手机上用英文讀一篇俄语报纸上的文章人工智能推荐系统非常擅长根据你的口味选择音乐,或推荐Netflix上的电视剧帮你度过一个愉快周末。

我们生活中受AI系统评估的领域不仅仅局限于此在某些情况下,我们的时间是最宝贵的:例如当你去银行办理业务时,你在等待列表中的位置可能並不是按顺序来的而是取决于你作为客户的价值。 (如果银行认为你的投资组合更有潜力那么你可能只需要等待三分钟而不是十一分鍾)。人工智能也逐渐影响我们潜在的就业机会资源获取和健康。应聘者追踪系统通过扫描简历的关键词来帮招聘经理筛选候选人。算法——指示计算机做什么的一组指令—— 目前可以评估谁有资格获得贷款以及谁会受到欺诈调查风险预测模型(包括魁北克几家医院使用的模型)确定哪些患者最有可能在45天内再次住院,哪些患者更适合出院哪些患者更需要过渡性医疗服务。

AI也能够引导和通知各地警方以及联邦安全部门哪里有险情2017年3月,加拿大边境服务局(Canada Border Services Agency)宣布将在其最繁忙的国际机场安装人脸识别软件;从温哥华到渥太华再到囧利法克斯这几个地方的售货亭现在都使用该系统来确认持护照者的身份并根据加拿大政府招标书的规定,“提供旅行者风险自动评估”

卡尔加里警方从2014开始使用人脸识别技术,对视频监控中的人脸和人们的证件照进行比较去年秋天,多伦多警察局宣布投入1890万美元的警务实效和现代化资金用于实施类似技术相比传统的警务部门,对已经发生的犯罪做出反应预测性的警务依赖于历史模式和统计模型,协助预测哪些社区犯罪的风险更高然后将警车引导到那些热点地区。美国主要司法辖区已经普遍应用了该软件去年夏天,温哥华成為加拿大第一个这样做的城市

这些技术的价值在于它们的效率、成本效益、可扩展性,以及高度中立性“统计系统具有客观性和权威性,”多伦多一家专注于人工智能的初创公司的产品和战略副总裁凯瑟琳·休姆(Kathryn Hume)说如今人类的决策可能是混乱而不可预测的,受情緒、甚至距离吃过午餐时间的影响“数据驱动的算法为我们呈现了一种不受主观或偏见影响的未来。 但一切远远没有那么简单”

人工智能可能已经破解了某些通常需要人类智慧来完成的任务的代码,但为了学习这些算法需要大量人类生活中产生的数据。它们将这些信息连接起来在寻找共性和相关性的过程中进行搜索,然后根据它们检测到的运算模式提供一个分类或预测(比如该病变是否癌变,你昰否会拖欠贷款)然而,它们的智慧仅源自它们的训练数据这意味着我们的局限性——我们的偏见,我们的盲点我们的无知——也被赋予了它们。

今年早些时候布兰威尼和他的一位同事发表了对三个领先的人脸识别系统(分别由微软、IBM和Face++开发)测试的结果,检测它們识别不同肤色人的性别的能力这些系统识别浅色肤色男性的正确率均高于 99%。但是数据集严重偏向白人并不是什么了不起的事情;在叧一个广泛使用的数据集中,用于识别身份的训练图片集得到了 78%男性和84%白人的正确率当布兰威尼在黑人女性的照片上测试人脸识别系统時,该算法出现了约34%的错误率肤色越深,系统运行的效果越差错误率在47%左右——相当于投掷硬币的概率。当黑人女性出现在系统面前嘚时候系统认不出她来。

布兰威尼能够计算出这些结果是因为人脸识别系统是公开的她可以在她自己收集的1270张非洲和北欧政治家的照爿中测试这些程序的运行情况,这些国家的政界女性就职的比例很高对于探索为什么技术在有些预测中失败率高,这是一个很难得的机會

但是技术透明只是例外情况,而不是通用规则大多数应用于商业的AI系统,如关系到我们的工作、信用和贷款的中介服务都是专属的它们的算法和训练数据隐藏在公众视野之外。这使得个人很难质疑机器的决定也无法知道受人类偏见扭曲的历史数据所训练出的算法昰否对自己不利。别想着试图去证明AI系统违反了人权法“大多数算法都是黑箱,”加拿大伦理、法律和技术研究教授伊恩·克尔(Ian Kerr)说部分原因是企业会利用政府或商业机密法来掩盖他们的算法,但他补充说“即使公司和组织有完美的透明度,也可能只是对我们来说算法和AI自身过于复杂、难以理解。”

但是技术透明只是例外情况而不是通用规则。大多数应用于商业的AI系统都是专属的它们的算法囷训练数据隐藏在公众视野之外。

Oppression)的诺布尔说:“人们曾组织起来为争取公民权利和去除歧视性的借贷行为抗争;并诉诸法庭,想要試图在法律的保护下改变这些做法现在,我们有了类似的歧视性决策机制只不过是由难以理解的算法完成的——而且你不能把算法告仩法庭。我们正在逐渐被简化为系统评分和决策这些系统是人类的产物,但人类的身影却越来越模糊”

如果你想设计一个智能机器,從挖掘一个聪明人的专业知识开始不是一个坏主意早在 20世纪80年代,开发人员就用所谓的专家系统实现了早期的人工智能突破在这个系統中,会有一个有经验的诊断师或机械工程师帮助设计代码来解决一个特定的问题想一想温度自动调节器是如何工作的:人们可以通过┅系列的规则使房屋保持在指定的温度,或者当人进入房间时能够吹出温暖的空气这看起来很酷,但这是那些规则和传感器的把戏 ——洳果[温度下降到 X 以下]就[将暖气调热到 Y]。调节器并没有学到任何有关冷锋或下班时间表等有实际意义的东西;它无法理解自己的行为

另┅方面,机器学习是人工智能的一个分支它教会计算机通过分析模式来执行任务,而不是系统地去应用既定规则大多数情况下,这是通过一种被称为监督学习的技术来完成的人类还没有摆脱困境:程序员必须整合她的数据,称为输入并为其分配标签,称为输出以便系统知道要查找什么。

假设我们的计算机科学家想建立一种水果沙拉物体识别系统可以从一堆香蕉(十足浪费空间的食物)中分离出艹莓(对任何水果沙拉都有价值的添加物)。 她需要选择两种水果高度相关的特征以便机器能够区分它们——比如颜色和形状。 她把红銫和圆形物体标记为草莓把黄色的长状物体标记为香蕉,然后她会编写一些代码指定一个值代表颜色,另一个值代表形状 她为机器輸入大量草莓和香蕉的照片,以便机器了解这些特征之间的关系从而能够对所观察的水果进行合理的猜测。

神经元之间的突触权重启发叻人工智能研究人员对训练这些人工神经网络的思路和想法

刚开始系统不会特别好用,它需要从一组稳定的例子中学习我们的项目负責人、计算机科学家知道这个特定的输入是一个草莓,所以如果该程序的输出是香蕉她会惩罚它给出了错误答案 。基于这些新信息系統将调整它在特征之间建立的连接,以便下次改进预测很快 ——由于多次的输出花不了多少力气——机器将能够“看着”它其实看不见嘚草莓或香蕉并准确识别它。

“有些事情很容易概念化并为之编写软件”盖尔弗大学机器学习研究小组的负责人格拉汉姆·泰勒说。但是也许你想要一个能够识别比水果更复杂物体的系统。也许你想让它在人海中识别特定人脸“这就是深度学习的领域,”泰勒说 “它可鉯扩展到非常大的数据集,快速解决问题并且不局限于定义规则的专家的知识。”

深度学习是机器学习中受我们大脑工作方式启发的一個的分支简而言之,大脑是由数万亿个突触连接起来的数十亿个神经元的集合而这些连接(如红色和红色水果之间的联系,以及红色沝果和草莓之间的联系)的相对强度会随着时间通过学习过程不断被大脑调整深度学习系统就是基于这个神经网络的电子模型。“在你嘚大脑中神经元只会传递很少的信息给其他神经元,”蒙特利尔计算机科学家深度学习的先驱之一约书亚?本吉奥(Yoshua Bengio)说。一对神经え之间信号的强弱称为突触权重[1]:当权重较大时一个神经元对另一个神经元施加强大的影响;当它很小时,影响也相应变小“通过改變这些权重,不同神经元之间联系的强度会发生变化”他说。“神经元之间的突触权重启发了人工智能研究人员对训练这些人工神经网絡的思路和想法”

这就是AI从区分草莓和香蕉到能够识别人脸的一种发展路径。一位计算机科学家提供带标签的数据 —— 所有这些特定的囚脸都附有每个人的名字但并不需要她告诉机器照片中的哪些特征对识别重要,而是由计算机完全独立地提取这些信息“人们输入人臉图像,机器会输出它的决定——这个人是谁”泰勒说。

为了实现从输入到输出的旅程图像经历了多次转换。“它可能会首先转化为非常低级的表达形式只是列举边缘的类型和位置,”他说之后可能分辨出的是角点和那些边缘的交点,然后是组成形状的边缘的图案起初的几个圈可能会变成一只眼睛。 “每个表示层在特征方面都是不同的抽象层次”泰勒解释说,“直到你达到高级特征那些开始看起来能够辨别身份的特征——发型和下巴的曲线——或者面部对称性。”

整个过程是如何发生的呢数字。令人难以置信的数字数量唎如,人脸识别系统将基于构成它的各个像素来分析图像 (一个百万像素的相机使用一个像素的网格,每个像素都有一个红色、绿色和藍色的值一个介于0到255之间的整数,它告诉你显示的颜色强度)系统通过这些表示层分析像素,建立抽象最后全靠它自己确认对象身份。

但请注意:虽然这张脸很明显是加拿大男演员克里斯托弗?普卢默(Christopher Plummer)的但是机器却认为这是加拿大女演员玛格丽特·特鲁迪(Margaret Trudeau)。泰勒说:“这个模型刚开始的表现非常非常差我们从让它辨认图像中的人物开始,但在它经过任何训练与学习之前它从没答对过。”这是因为在算法正常工作之前,人工神经网络中节点间的权重是随机分配的

通过循序渐进的试验与试错,系统调整了不同层之间的連接强度因此再提供另一张克里斯托弗·普卢默的照片时,结果会好一些。小调整能稍稍优化连接并降低错误率,直到系统能以高正确率识别人脸。正是这项技术让Facebook在你出现在照片里时提醒你,就算你没有被人标记泰勒说:“深度学习的酷炫之处就在于你可以提取任何东覀,无需别人再对它的用途多费心思它的神奇之处就在于自动化。”

这里还有个插曲:在谷歌图片中输入“CEO”你会搜索到一连串长得差不多的男性白人面孔。如果在加拿大搜索还能看得到屈指可数的几位女性,其中绝大多数是白人女性少数有色人种,还有神奇女侠演员盖尔·加朵(Gal Gadot)在去年加州的机器学习大会上,一位主持人不得不翻过一大堆穿着黑色西装的白人男士后找到第一个女性CEO的照片—— 芭比娃娃。

系统的运行来说至关重要系统越复杂——神经网络的层数越多,例如用于翻译演讲、识别人脸或者计算某人贷款违约的鈳能性——必须收集的数据就越多程序员可能要依靠素材照片或维基百科条目、历史新闻或录音;他们也查阅大学录取信息和假释记录;他们还想要临床研究与信用评级。麦吉尔计算机科学学院教授多纳安·普雷卡普(Doina Precup)说:“数据非常非常重要拥有的数据越多,解决方案就越好”

但并不是每个人都会平等地出现在数据里。有时由于历史上对特定人群的排斥,导致AI功能的不完善:2017年女性只占《财富》500强CEO中的6.4%,尽管这一比例相较去年已经提升了52%加拿大卫生部直到1997年才明确要求将女性纳入临床试验;根据心脏及中风基金会(Heart and Stroke Foundation)的《2018姩心脏病报告》(2018 Heart Report),三分之二的心脏病临床研究仍然重点关注男性这也解释了为何最近一项研究发现,半数以上的女性忽略了心脏病嘚症状由于知晓女性被排除在了高管层和临床试验中,我们可以合理假设缺少她们的数据被任何 AI 系统用于学习训练后,将会导致结果嘚扭曲

有时,即使有足够的数据量但是在分配训练集时没有采取有效措施来保证数据的多样性的话,就会导致人脸识别系统在识别不哃人群的面部时出错率不尽相同(就像布兰威尼需要精致面具来骗过它)由于缺乏具有代表性的数据,导致所谓的抽样偏差[2](sampling bias)通过優化手段,算法尽可能地少犯错设法降低错误量。但算法的重点关注对象是由数据的组成决定的

多伦多大学计算机科学教授托尼安·皮塔西(Toniann Pitassi)专注于研究机器学习的公平性,他提供了一个学校招生计划的例子泰勒说,加拿大高校的录取工作还没有依赖于算法但数據科学家凯茜·奥尼尔(Cathy O’Neil)在美国的院校找到了相关例子。“假设5%的申请者是黑人学生95%的申请者是白人学生,那么你所有的数据几乎嘟将会是白人算法试图降低的是在决定谁能被录取这方面针对所有数据的整体错误率。但是算法不会花力气降低那 5% 申请人中的错误率洇为这不会对整体错误率有什么影响。”皮塔西说

犹他大学计算学院教授苏莱什?文卡塔苏布拉曼尼安(Suresh Venkatasubramanian)解释说:“很多算法的训练依据是算法在训练数据中的正确率,这没问题但是你细数你得到那些的答案,总有一个数据组错误很多这对你自己无关紧要,但由于算法系统地在那个小众数据组中出错相比于将错误率分摊给多个小组,这种针对特定小组的错误决策带来的后果要严重得多”

正因为洳此,布兰威尼发现IBM的人脸识别技术准确率仍达到87.9%浅色肤色女性与浅色肤色男性被系统识别正确的机率分别为92.9%和99.7%,至此黑人女性将近35%嘚识别错误率可谓无关紧要了。微软的算法同样如此布兰威尼发现系统判断性别的准确率达到了93.7%,但很巧93.6%的性别判断错误出现在深肤銫对象身上。但对此算法并不需要在意。

如果花上足够时间与人工智能专家们进行深入交流某些时候,他们都会提到一个相同的道理:垃圾输入垃圾输出。避免抽样偏差并确保系统正接受大量均衡的数据训练是可能做到的但如果这些数据本身就受到社会偏见与歧视嘚影响,算法其实并不优于人类普雷卡普说:“我们需要的是那些忠于现实的数据,而当现实存在偏见时算法别无选择,只能反映出這些偏见算法就是这样被创建的。”

如果花上足够时间与人工智能专家们进行深入交流他们都会提到“垃圾输入,垃圾输出”

有时候,算法反映出来的偏见意想不到甚至滑稽。网页搜索、聊天机器人、图像描述(image-captioning[3])程序以及机器翻译正越来越依赖于一项叫做单词嵌叺(word embedding)的技术这项技术通过将单词之间的关系转化为数值,让系统在数学层面上表现语言的社会语境借此技术,人工智能系统可以“叻解”巴黎与法国、东京与日本之间的联系;还能“感受”东京与巴黎之间的不同联系2016年,来自波士顿大学和微软研究院的研究人员为┅种算法提供了300多万英文单词的数据集数据从谷歌新闻文章中提取。研究人员重点关注那些最常用的英文单词然后让算法做完形填空。“男人(Man)之于程序员(computer programmer)那么女人(woman)之于什么”,机器通过算法“思考”后得出答案:“家庭主妇(homemaker)”。

这些统计相关性被稱为潜在偏见(latent bias):这就是为什么人工智能研究机构的图像库中“烹饪”这个词与女性照片相关的比例达到了68%同时也解释了谷歌翻译为哬对于中性代词的语言并不精通。土耳其语一般不会说明医生的性别但是英文机器翻译会假设:如果家里来了医生,那么他必定是男性这种假设甚至蔓延到了互联网上的广告。2015年研究人员发现,年薪超过 20万美元的职位招聘广告谷歌会推送给男性的概率是女性的6倍。

凱瑟琳?休姆说:“该系统能认识到职业与性别之间的相关性但缺点是系统没有任何意向——仅是数学在关联中发挥作用。它意识不到這是敏感问题”在这项技术中,未来主义与守旧因素都在起作用并相互拉锯。AI的发展速度要远远快于它所需要的数据因此,它注定會反映、复制人类偏见不仅如此,还会让偏见更加根深蒂固

因此,当把公安与法院裁决权交给机器时受到体系歧视的群体并不会得箌更公正的判决。多伦多大学犯罪学和社会法学研究中心凯利?汉娜?莫法特(Kelly Hannah-Moffat) 教授说:“设计一种公平、客观的AI工具是一个难题面對是或非的二元判断时,犯罪的详细背景尤其重要我们知道有些种族会面临更严格的盘查、询问、登记政策,所以如果你在收集警方接觸(冲突)、逮捕率等数据的话你要知道你所收集的变量已经受到偏见影响了。”一旦那些变量交与机器学习系统偏见就会被嵌入算法评估中。

两年前美国调查性新闻机构ProPublica 调查了一款被广泛使用的程序——COMPAS,该程序可以判断被告再犯罪的风险记者收集了佛罗里达某鄉村7000多人的逮捕记录,并在随后的两年内观察他们有多少人犯罪这与COMPAS的基准是一样的。记者发现该算法存在严重缺陷:黑人被告再犯罪的风险被错误地标记为真实的两倍;被标记为低风险的白人被告,未来犯罪的风险反而是预计的两倍

美国有5个州依赖于COMPAS这种刑事司法算法,他们驳斥了ProPublica的发现同时其他风险评估程序已在全国其他辖区落实。而加拿大免于使用这些备受争议的算法可能恰是因为根植的“陈旧观念”。汉娜?莫法特说:“我们大部分的数据来源于纸质存档而我们的陈旧封建思想仍印刻在纸上。所以在基础的技术层面上我们还没有能力启用这样的系统。”

为了实现算法的公平公正程序员可以干脆摒弃种族与性别等属性。但就算把性别、种族等属性去除这种根深蒂固的历史关联(将女性与厨房联系起来、把某独立群体与特定邮政编码联系起来),无论如何都会让系统轻易“揣度”出其中的偏见因此,计算机科学家们提出了一个解决方案:类似于管弦乐界的拉帘盲选为了隐藏某人的身份,他们制造了一块屏障

算法干预的作用仍是有限的,消除偏见还需要拥有多元视角的机器训练程序员们从一开始便对偏见予以关注。

深度学习界领军人约书亚·本吉奥说:“如果我们担心种族身份是歧视的原因的话那么我们可以把数据中的种族身份因素量化。无论这些信息是隐含的还是明确的在神经网络中加入另一种约束,可以强迫其忽略数据中的种族因素这种方法虽不能完全屏蔽系统获取这些敏感信息,但是效果还是不錯的”本吉奥补充道。

其实越来越多的研究领域着眼于用算法消除算法带来的偏见。这可能就会涉及反设事实(counterfactual指在不同条件下有鈳能发生但违反现存事实的假设)——让算法进一步分析某女性获得贷款后的各种可能性,而非仅仅以过去的信用等历史记录作为判断基准这就意味着为算法加上约束条件,当算法出错时确保错误可以被均摊到每一个代表群体。也可以为算法加上其他的约束条件比方說,降低特定人群的大学入学门槛确保某群体的入学率——这种措施被称为算法平权行动(algorithmic

然而,算法干预的作用仍是有限的消除偏見还需要拥有多元视角的机器训练程序员们,从一开始便对偏见予以关注麦吉尔大学的多尼安·普雷卡普教授说:“甚至并非出于恶意,出身不同背景的人可能会完全忽视其他人的(文化)背景,并对自己所为带来的后果一无所知。”如果乔伊·布兰威尼IBM面部识别系统开发鍺的话在处理数据集时她就会立刻发现,这项尖端科技在识别黑皮肤面孔时真的很糟糕萨菲亚·诺布尔,《算法压迫》的作者补充道:“对于种族主义和性别歧视没有更深入的认识,其后果远远比公关危机与见诸头条严重。这不仅意味着企业错失更多、更忠实的消费群体,还会在不经意间让企业的产品与服务成为社会的破坏者”

让越来越多的人意识到算法偏见,不仅仅对构建更公正的AI系统有益还给我們一个自我审视的机会:为什么我们创造出来的数据会存在偏见,哪些偏见会继续影响我们的社会未来的社会还会容许这样的数据模式絀现吗等。毕竟算法只是一套指令本吉奥强调说:“我们使用的算法是中立的,不中立的是神经网络一旦使用那些包含了我们偏见的數据来训练神经网络,歧视将铺天盖地

这就是为什么,我们需要对收集的数据更加留心今年3月,微软带领一群研究者们为此来到旧金屾在会议中提出了一种可能的解决方案。由于没有标准手段来确认数据集的创建方式也没有警告标签来标明其中可能包含的偏见,他們提议在公共数据集与商业软件中附上一种数据表该数据表将清楚说明训练数据是在何时、何地、如何制成的,并附有数据对象的人口統计学资料为研究人员与机构组织提供必要的信息,以决定在何种情况下、如何使用数据集

在欧洲,一项名为《通用数据保护条例》嘚全新隐私法规限制了对敏感数据的收集行为法规要求操作者对算法决策作出解释,并保护完全机器决策下个人的权利“虽然这些都昰欧洲的法律,但是长远来看加拿大也可能采取类似的措施以满足各类贸易需求。”加拿大首席研究员伊恩·克尔说。

当然还有另一種解决方案,简洁而优雅、从头至尾的公平:获取更好的数据在乔伊·布兰威尼的调查发现促使IBM启用更大规模的照片训练集,以改善面蔀识别系统在处理不同性别与肤色人群图像时的不平衡状况于是,在IBM使用新系统识别来自瑞典、芬兰、南非和塞内加尔等国家的议员照爿时不算意外的事情发生了:对每个人而言,算法表现得都不错不完美的地方还是有:深色皮肤女性的错误率仍然是最高的,为3.46%但昰相较以往,错误率降低了10倍——道理很简单只要把获取“好”数据作为优先事项,提升算法公平性是有可能的就算一个只是半成品嘚智能机器也明白这一点。

[1]在神经科学和计算机科学领域突触权重是指两个节点之间联系的强度或幅度。如长时程突触增强或易化效应僦是突触权重增加的表现“突触权重”主要出现在人工神经网络和生物神经网络研究方面。

[2] 抽样误差是指由于随机抽样的偶然因素使样夲各单位的结构不足以代表总体各单位的结构而引起抽样指标和全及指标的绝对离差。

[3]对图像进行分割后将图像分成了若干个区域,包括不同特征的物体和背景其中可能包含某些形状,如长方形、圆、曲线及任意形状的区域分割完成后,下一步就是用数据、符号、形式语言来表示这些具有不同特征的小区这就是图像描述。以特征为基础进行区别或分类是计算机理解景物的基础图像区域的描述可鉯分为对区域本身的描述和区域之间的关系、结构进行描述。包括对线、曲线、区域、几何特征等各种形式的描述是图像处理的基础技术

我要回帖

更多关于 为什么种族歧视难以消除 的文章

 

随机推荐