如果看脸也能够识别一个人有没有犯罪的话,那么对于警察而言将会给他们省去不少的麻烦,目前上海交大看脸识罪犯研究正在进行中,但是这个研究项目出来以后,立即遭到了很多人的热议,关于这项研究有以下几种说法,我们赶快来了解一下吧!
通过机器识别人脸来判断罪犯,这像是科幻电影出现的一幕。上海交通大学教授武筱林的一项“人脸识别罪犯”研究却引起了巨大的争议。
5月7日,谷歌人工智能研究员布莱斯、玛格丽特和普林斯顿大学神经科学教授亚历山大发布的《相面术的新外衣》一文,质疑武筱林研究的可信性,并称其研究结论可“具有误导性,洗白科学种族主义”。
近日,武筱林回应记者记者称,“他们对我们研究的上下文进行断章取义,有失学术探讨的公正精神,我感到非常失望。”
看脸识罪犯
研究者“原本打算证伪”
事情缘起于2016年11月,上海交大图像通信与网络工程研究所教授武筱林和其博士生张熙在国际电子预印本文献库arX iv上提前发布了一篇题为《基于面部图像的自动犯罪概率推断》的研究。
“这在科学界是很常规的做法。”武筱林回应记者记者称。
清华大学纳米生物领域博士后张旭告诉记者记者,arX iv是国际科研工作者在研究成果未正式发表前,出于和同行交流目的先行发布的一个电子预印本文献库,涉及物理、数学、计算机科学等领域,“相当于永不落幕的学术会议”。
在该研究中,武筱林和团队通过运用计算机视觉和机器学习技术,对1856名18到55岁中国男性的身份证照进行检测。这些研究对象被分为罪犯组与非罪犯组两组,罪犯组包含730名犯罪人员,涉及盗窃、贪污、谋杀、强奸、绑架和抢劫等罪行。其余1100名普通人所在的非罪犯组,职业覆盖司机、医生、律师、教授、服务员、建筑工人等领域。
“我们当时在公安部、各省公安厅协助下得到这些图像”,武筱林指出,这些研究对象来自全国不同的地方,“后来这些照片都被调整为80cm×80cm大小,照片的亮度和对比度等都进行了统一处理,随后通过卷积神经网络算法(一种高度通用的深度学习技术)进行检测。”
研究结果显示:四类分离器(逻辑回归,K N N,SV M,C N N )对罪犯与非罪犯的区分准确率至少在86%以上。与此同时,两组面部特征方面在内眼角间距、上唇曲率和鼻唇角角度这三个测度最为显著。通过计算机模拟出来的罪犯与非罪犯的“平均脸”较相似,但非罪犯之间的面部特征差异要比罪犯小。也就是说,样本中非犯罪人员的样貌更为相似,变化幅度更小,犯罪人员的面部表情差异比普通人更大。
对于该结论,武筱林称,他们当时也很惊讶,“研究结果与预期相反,我们原本想用数据分析推翻‘相由心生’这种说法,原本是打算证伪的。”
{page}
结论引热议
被指样本量太小,研究不科学
结论一出,有研究者质疑武筱林的研究不科学,“样本量太小了”。部分人士表示担忧,这会加重人们对样貌有缺陷人群的歧视。
武筱林告诉记者记者,这半年来他收到了非常多的反馈邮件,“有的来信索取数据,有的想要与我们合作,还有质疑实验结论的。”有同行还要求他从arX iv上撤稿。
这些声音中,就包括谷歌研究员布莱斯等人最新发表的文章——— 《相面术的新外衣》。该文开头指出,武筱林的研究将人类行为中存在的偏见带入机器学习模型的开发过程中,“通过计算机算法对人类偏见的‘洗白’可能会使这些偏见看来是客观的。”
“武筱林的研究最让人不安的是,它让人群高低贵贱之分的这种说法再次复苏并且予以证明,是科学种族主义。”布莱斯等人担忧人工智能和机器学习的快速发展可能使科学种族主义进入了一个新的时代,“让机器习得人类的偏见。”
对于武的研究的实用性,布莱斯等人认为,“可能让一名人类法官将图像从微笑到皱眉来排个序,也可以很好地将‘非罪犯’与‘犯罪分子’区别开来。”
针对上述观点,武筱林在回应记者记者时表示,“对于纯粹的科学问题,我们欢迎一起讨论。”
“但谷歌研究者将我们的上下文割裂了。我们的研究设定的边界是证明机器学习的相关性。我们已经讨论过的数据的风险和采取的措施并反复核查,这也被谷歌的研究者忽略了。”武筱林称。
针对布莱斯等人的“科学种族主义”批评,武筱林表示,“他们对科学种族主义的指责毫无根据。事实上,我们在进步的社会价值观上与这些作者没有什么不同。”
武筱林告诉记者记者,近期他将尽快用英文正式回复谷歌研究员质疑。
专家观点
“该研究在法律上不具有参考意义”
人像识别在人工智能时代越来越成为社会关注重点。针对武筱林的研究是否科学与应用前景,中国政法大学刑事司法学院教授曲新久对记者记者表示,该研究成果“在法律上不具有参考的意义”。
“在刑事侦查中,公安机关早已采用图像识别技术寻找犯罪嫌疑人,但这种‘面部识别术’仅仅用于鉴定某个人的身份,在法律上,根据嫌疑人的长相特征来判定犯罪的可能性大小是不被允许的。”曲新久说。
一位不愿具名的计算机科学领域的研究人员对记者记者表示,把人脸特征作为判断犯罪的依据不具有科学性。“从论文本身的研究方式来看,这是一种单纯的数据挖掘和探索,即从数据直接关联标签,但数据与标签之间不存在有力的理论支撑。这种做法其实在数据挖掘领域已经有过很多尝试,而且一般也都是作为数据间某种关联的一种启发,不是作为最终判定依据。所以,对于这篇论文的结论的定位问题,如果只是作为数据挖掘中的一种探索,可以接受,但如果就因此认定人脸是判断犯罪的依据,无法接受。”
他表示,目前人工智能领域还做不到“看脸识别罪犯”,但即使未来技术上能做到,也不能“全看脸”。
“这种研究内容是需要考虑很多其他因素的,如社会因素、心理因素等,而不是简单地从脸推断是否为罪犯的概率。严肃点说,这种做法其实是很浅显且不负责任的。”该研究人员称。
{page}
对话
研究者武筱林:
“结论不是百分之百正确,但本着科学的精神在做”
记者:看到谷歌研究员的这篇文章你的第一反应是?
武筱林:我把对方的文章完整地读下来了。我对他们‘断章取义’这种有失学术公正精神的做法感到非常失望。今天下午我与同事、学生在会议上也讨论了这个事情,不是说对方文章中所有的指责都是错的,但他们忽略我们研究的上下文、居高临下进行道德审判这让人很不舒服。
记者:你怎么看谷歌研究员文章中对你们的批评?
武筱林:对方故意隐瞒了我们文章很多说明性的文字以及关键性的实验,比方数据过滤的问题。其实这个问题我们是排查过的,做过随机标记测试。当然我们的东西不是百分之百正确,但团队本着科学的精神做了当时知道的、能够做的所有的验证。
记者:网友的观点是研究样本量有些小。
武筱林:更多犯罪者的数据公安部门才有。这1856个样本我们是做了相当大的努力,从公安部、各省公安厅的通缉犯等网页或公共渠道获取的。因为存在隐私的问题,目前研究存在一些阻力,更多的数据相关部门不便提供。我们想推进,苦于没有数据。
记者:当时发起研究的背景是什么?总共花了多少时间进行研究?
武筱林:我们的本质研究是图像分析。这几年人工智能、人像处理和在人脸识别上都有长足的进步。这个研究我们前后投入了两年时间。
记者:2015年实验结果就出来了,为什么当时没有发布而推迟了一年?
武筱林:对,一年间我们有进行反复的推敲和认证。是不是罪犯从脸上的特征是很难去区分的,我们本来是想“证伪”,相由心生这种事我们本来是不相信的。结果刚出来时我们也很惊讶。
记者:选择在arX iv上提前发布的原因是?
武筱林:这是很常规的做法,提前公布自己的研究成果。因为在国际上这方面的研究还是比较有竞争力的,所以就先发表了。但这并不是急功近利,因为很长时间我们都没有公布这个结果。
记者:你对“相面术”怎么看?
武筱林:我也是受过教育的人,也反对歧视。但纯粹的科学问题,就应该用科学的态度。
记者:谷歌研究员指出你们文末提到了对“研究结论感到兴奋”。
武筱林:“当时用了一个错误的词‘excited’。我们当时认为,研究也许会对社会心理学、管理学、犯罪学有启示,让相关领域的专家去探究真正的原因和解释。但有意义不是说用来对人进行歧视。只是说可能有这种相关性,比方说犯罪分子具有这种面貌特征,有可能是此前受到歧视被社会歧视边缘化,最后走向犯罪道路。我们的研究结论,其实恰恰可以用来作为反样貌歧视的根据。
科技在不断进步的时候,一些难以想象的研究项目也出现,看着这些五花八门的研究项目,其中充满了不可思议的味道!对于这项上海交大看脸识罪犯研究,您持有什么样的态度呢?从一个人的长相去判断一个人有没有犯罪,小编总感觉是不是有点以貌取人的样子!