机器相面术新瓶装旧酒2019iyiou

2019年05月15日 来源:

“通过机器学习,分类器能比较可靠地区分罪犯与非罪犯这两个群体的照片。平均来讲,罪犯的内眼角间距要比普通人短5.6%,上唇曲率大23.4%,鼻唇角角度小19.6%。”去年11月上载在预印本站arXiv上的一篇论文里的研究结论让学界和舆论界都瞬间“炸锅”。

半年后,三位美国学者撰写万字长文隔空喊话:机器学习不应洗白相面术。

该论文的作者、上海交通大学图像通信与络工程研究所教授武筱林已在过去的半年间收到了无数质疑或批评的邮件,近日,他又遭遇了三位美国学者以撰写万字长文的形式隔空喊话。

这篇万字长文名为《相面术的新外衣》(Physiognomy’s New Clothes),于当地时间5月6日发表在新媒体站Medium上。三名作者,Blaise Agüera y Arcas是机器学习领域的工程师,2013年从微软跳槽到谷歌;Margaret Mitchell同样是谷歌的人工智能研究员;而Alexander Todorov则是普林斯顿大学的神经科学教授。

“机器相面术”,新瓶装旧酒

三位美国学者的文章并非学术论文,在万字的篇幅中,他们讲述了相面术发展的历史,解释了机器学习研究领域的一些基本情况,并以武筱林和张熙的研究为靶子,指出就像他们的研究是披着机器学习外衣的相面术,人类社会中的许多歧视也可能会被算法洗白。

文章的三位作者指出,“相面术试图从人的外貌推测其内在性格。虽然今天相面术被视为伪科学,但民间还是有人相信可以从面相或身材中鉴别出低级一点的人群。而在有些历史时期,相面术也内嵌在了国家法律中,为侵占土地、反移民、奴隶制和种族清洗提供依据。而关于相面术的伪科学就是科学种族主义。”

他们认为,上述的这类研究在人工智能时代的新形态就是武筱林式的。“在计算机和大数据无处不在的时代,‘机器相面’开发出了许多前所未有的用途。因此,人工智能的开发者、评论家、用户们都急需了解技术的边界和相面术的历史,如今它披上了现代的外衣。”

纳粹“种族科学家”在做容貌测定。

5月9日,武筱林向澎湃回应道:“那三个美国作者忽略我们原文中的一再声明,我们没有兴趣也无社会科学的学术背景解释我们的结果,讨论其成因。更没有暗示要用于执法司法。他们硬把这些意思强加给我们。”

“在价值观上我们与此文作者没有任何差别,他们歪曲我们的初衷,为了自己找一个假想敌。”武筱林强调。

“看脸识罪犯”研究无实用可能性

这篇饱受争议的论文题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)。在实验中,武筱林和其博士生张熙选取了1856张中国成年男子面部照片,其中730张是已经定罪的罪犯身份证照片(330张来自上的通缉令,400张由一家签署过保密协议的派出所提供),其余1126张是在络上抓取的普通人照片。经过机器学习,算法鉴别出犯罪嫌疑人的准确率达到87%。

武筱林研究使用的照片样本。a组为罪犯,b组为非罪犯。

在论文的导语部分,武筱林和张熙声明:“在本文中,我们无意也不够格去讨论社会偏见问题。我们只是好奇,全自动的犯罪性推定能有多高的准确率。一开始我们的直觉是机器学习和计算机视觉会推翻相面术,但结果是相反的。”

而论文中的87%准确率,只是在学术层面上得到了比较显著的相关性。一方面,这并不能解释任何因果关系,即到底是长相决定了天生的犯罪性,或者是人类社会对长相的歧视促成了犯罪概率的差异,都留待社会科学的解读。另一方面,这个数据也完全不具备应用可能性。舆论对其研究实用性的关注,甚至有友建议他把这项研究交给纪检委,都让武筱林觉得哭笑不得,十分“跑偏”。

这是因为,基于中国千分之几犯罪率的背景条件,实验中87%的真阳性若用于实用,判断正确率将非常低。此外,这项研究本身就存在许多值得商榷的地方。比如,实验样本不够大,容易造成机器过度学习。

平均来讲,罪犯的内眼角间距要比普通人短5.6%,上唇曲率大23.4%,鼻唇角角度小19.6%。

虽然武筱林团队的研究成果无意也无法用于现实应用,但近来,人工智能领域确实出现了类似应用的苗头。而在人脸识别上惹出伦理官司的也绝非别无分号,这次站在政治正确性高地的Blaise Agüera y Arcas和Alexander Todorov供职的谷歌就曾栽过一个大跟头。

黑人被识别为 “大猩猩”

2015年,谷歌推出了相册应用Google Photos。该应用除了备份、整理照片之外,还会自动为照片添加标签,以便用户快速查找。

然而,就是这个基于图像识别技术的自动标签功能捅了篓子。纽约的一名黑人程序员Jacky Alcine惊讶地发现自己和黑人朋友的自拍照被Google Photos打上了“大猩猩”(Gorillas)的标签。他将截图放上了推特,谷歌时间做出了道歉,将“大猩猩”这个标签暂时撤出系统,并以优先级解决这个问题。

黑人自拍照被Google Photos打上了“大猩猩”(Gorillas)的标签

相关技术人员指出,谷歌可能并没有提供足够的大猩猩照片供机器学习到其中的差别。不过,也有其他友安慰Alcine道,自己的照片也曾被识别为“猫”或“马”。

以色列初创企业“看脸识恐怖分子”

或许有人会说,一个黑人的照片被标签为“大猩猩”的事件不应该被过分解读,就像一个日本人的照片被标签为“猫”一样,只是谷歌闹出的一个笑话。但如果司法和国土安全系统也参考了这些可能会犯错的系统,还是笑话吗?正如三位美国作者在长文中指出的,武筱林研究中可怕的一点,是将“算法”和“法律”这两样看上去客观权威的东西相结合。

2016年夏天,一家名为Northpointe的密歇根公司被推向了舆论的风口浪尖。美国各地都有法庭在使用这家公司的AI产品COMPAS,以评估某个犯罪嫌疑人再次犯罪的概率。法庭作出判决或保释决定时会参考COMPAS的评估意见。

COMPAS的评估系统基于超过100个因素,包括年龄、性别、犯罪历史等,给嫌疑犯给出一个1到10区间内的评分,分数越高越危险,但因素里并不包含种族。然而,非营利性民间站ProPublica指出,对于那些实际上没有重复犯罪的嫌疑犯,黑人被打高分的概率要比白人大。因此,ProPublica指责COMPAS作为内嵌有种族歧视的AI系统,不应再作为法庭的参考。

COMPAS预测重复犯罪概率

《华盛顿邮报》撰文称,如果COMPAS算法按照公司本身的定义确实是“公正的”,即给予同等分数的黑人或白人嫌疑犯重复犯罪的概率相同,那么造成ProPublica测得的偏差的实际原因,是黑人嫌疑犯的整体重复犯罪率确实更高。

而Blaise Agüera y Arcas等三人的文章里还点名批评了一家以色列初创企业Faception。据《华盛顿邮报》报道,该公司已与某国土安全机构签署合同,协助识别恐怖分子。Faception宣称他们开发的系统能通过人脸分析鉴别恐怖分子的成功率超过80%,并能成功识别出2015年11月巴黎恐怖袭击11名犯罪嫌疑人中的8人。

Faception识别人脸

Faception的首席执行干Shai Gilboa告诉媒体:“我们的个性是由DNA决定的,也会体现在脸上。这是一种信号。运用先进的机器学习技术,我们开发出了15个分类标准,每种标准都代表了一种人格,是一些个人特征和行为的集合。我们的算法可以针对每个人对这些人格的契合程度打分。”

除了恐怖分子之外,Faception宣称他们的算法还可以用于识别恋童癖和白领罪犯。

不是算法有歧视,而是人类有偏见

基于美国特殊的历史和文化,种族问题一直容易挑动敏感的神经。而在上述的谷歌人脸识别BUG和COMPAS断案系统中,媒体都分外关注黑人族裔这一“少数派”遭受不平等的算法。Blaise Agüera y Arcas等三人的文章中也一再强调,不应用看似客观公正的算法替人类的歧视“洗白”。

事实上,近年来已有越来越多的学者开始认识到算法并不客观。英国巴斯大学教授Joanna Bryson上个月发表《科学》杂志上的一项研究指出,AI也会表现出各种偏见和歧视,这些偏见涉及种族、性别、年龄等。Joanna Bryson说道,“人们会说实验说明AI有歧视。不是的。这其实说明我们人类有歧视,被AI习得了。”

武筱林也告诉澎湃,“我们说机器作判断时,没有偏见,当然是假设数据的标记是公平的。机器不会纠正人在输入数据标记中的偏差。”

人类偏见会作为数据被人工智能“习得”这一点,在聊天机器人上体现得淋漓尽致。2016年3月,微软的聊天机器人Tay(小冰的美国姊妹版)在推特上线,被设定为可以与任何@她的推特用户聊天。短短24小时后,一个甜美、礼貌的“小姑娘”竟然开始脏话连篇,甚至爆出不少种族主义和性别歧视的言论。这个被民调教速成的“AI希特勒”引发民震惊,被微软草草关进“小黑屋”。

被“教坏”的Tay

另有一部分研究者指出,黑人这样的“少数派”可能会遭受不平等算法的主要原因是,训练数据集中代表这些“少数派”的样本太少了,因而算法对这部分人群的训练不够成熟,往往会做出不准确的结论。而许多算法开发者自己没有意识到这一点。

机器人觉得白人更美?

武筱林告诉澎湃,他在学界听过一个说法,说现在关于人工智能伦理的会议比关于人工智能本身的会议还要多。

由于研究犯罪概率遭受了许多压力,武筱林虽然仍将继续挖掘计算机视觉在模拟人类感知上的潜力,但会将研究主题转向其他方向。他在那篇论文之后上传在arXiv上的研究题为Automated Inference on Sociopsychological Impressions of Attractive Female Faces(《自动推断有吸引力的女性面孔造成的社会心理学印象》)。

这项研究考察了计算机视觉在学习人类审美的能力。实验结果发现,经过训练后的算法可以大概率区分性感(hot)与可爱(cute)美女,审美与中国高校男生非常接近。

“我们必须要认识到这一点,就是人工智能有这个潜力,人工智能已经到这一点了。”武筱林说道。

不过,他的这项计算机“审美”研究放在美国社会可能也会面临一些麻烦。2016年,包括英伟达、受微软支持的青年实验室(Youth Laboratories)在内的数家机构共同举办了届国际人工智能选美大赛(International Beauty Contest Judged by Artificial Intelligence)。全球范围内的用户只需在相关APP上传自己的自拍照,机器人裁判就会根据面部对称性、皱纹等因素选出美的获胜组。令人尴尬的是,在来自100多个国家的近6000张自拍中,机器人裁判挑选出来的44个美的获胜者几乎全是白人,有一小部分亚洲人,只有一个拥有深色皮肤。

“机器人不喜欢深色皮肤。”当时许多报道以此为标题。

2014年呼和浩特其他A轮企业
2017年金华零售A+轮企业
全球直播平台BIGOLIVE获C轮融资
相关文章
  • 科协主席称中国应积极主动参与全球人才竞争
    科协主席称中国应积极主动参与全球人才竞争

    中新社北京6月8日电 ( 孙自法)全国人大常委会副委员长、中国科学技术协会主席韩启德8日说,随着经济科技全球化不断深入,国际间人才竞争日益激烈。中国应积极主动地参与全球人才竞争,努力造就一批世界水平的科学家、科技领军人才、工程师和高水平创新团队...

  • 高盛下调麦当劳评级至中性
    高盛下调麦当劳评级至中性

    高盛一位分析师周三下调了麦当劳(MCD)的股票评级,原因是预计该公司的增长将减速。分析师迈克尔-凯尔特(Michael Kelter),麦当劳面临的几项挑战困难在一段长时期内限制其销售额增长,包括:重新出现的竞争;欧债危机对该公司欧洲业务的影响;美元升值侵蚀海外市...

  • 取消投资税或是激活民间资本信号
    取消投资税或是激活民间资本信号

    财政部日前表示,将从2013年1月1日起取消“固定资产投资方向调节税”(下称“投资税”)。有关专家告诉中国经济时报,取消“投资税”是释放市场活力、稳定增长和对经济局部改良的信号。顺应这个趋势,一些不适应发展需要的其他税费或规定,亦将逐步纳入调整...

  • 舒茂琴称预防猝死应先远离白领高血压
    舒茂琴称预防猝死应先远离白领高血压

    专家简介舒茂琴,心血管内科学博士、博士生导师,教授、主任医师,西南医院心内科副主任。擅长各种心律失常的介入治疗对心血管常见病多发病,如高血压病、冠心病、心律失常、慢性心衰等的诊断治疗造诣精深。白领,一个以生活常常没有规律,熬夜加班更是...

  • 专家争议反贪法律武器要不要更严热点资讯
    专家争议反贪法律武器要不要更严热点资讯

    官员收了钱,但如果无法证明其为行贿者“办了事”,算不算受贿?在大多数国家和地区都可按受贿罪论处,但按照我国现行《刑法》,除非是“索贿”,必须要有“为他人谋取利益”这一条件才构成受贿罪。反腐一直是十八大以来全国上下的关键词。随着反腐的深...

  • 美媒选中国人喜欢5大美国产品飞机大豆上榜
    美媒选中国人喜欢5大美国产品飞机大豆上榜

    韩国Edaily站12月11道称,美国经济专门媒体《Market Watch》10日公布了中国喜欢的5大“美国制造”,它们分别是客机、大豆、汽车、铝制品和电脑芯片。调查显示,受中国人喜爱的“美国制造”是客机。随着中国中产层的迅速扩大,中国国产大豆主要用于食用。居于...