当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。图为人脸识别示意图。(图片来源:Adobe Stock)
【看中国2019年4月5日讯】随着脸部辨识科技的应用范围越来越广,美国麻省理工学院(MIT)的研究人员却发现,知名科技业者开发的人工智能(AI)软件存在歧视问题,系统在辨识深色人种或女性脸部时,错误率偏高。
麻省理工学院研究人员:人工智能软件存在歧视问题
据《中央社》报导,布兰维妮(Joy Buolamwini)是美国麻省理工学院(MIT)的黑人女性计算机科学家。布兰维妮研究发现,包括微软(Microsoft)、IBM、亚马逊(Amazon)等科技巨头开发的脸部辨识软件存在歧视问题,人工智能(AI)系统在辨识深肤色女性时,错误率较辨识浅肤色男性高出许多。
布兰维妮已成功使微软和IBM等企业开始改善自家系统,但亚马逊却表示反对,并公开批评她的研究方法。
一些人工智能(AI)领域的专家公开支持布兰维妮,呼吁亚马逊停止将自家脸部辨识软件销售给警方。
https://t.co/lB8KJDE2Ny Glad to see experts calling out @amazon’s misleading statements about my @MIT study. Great to have the support of knowledgeable computer scientists @nytimes @natashanyt @civicMIT @EthanZ @medialab @Joi @ACLU
— Joy Buolamwini (@jovialjoy) April 4, 2019
除了专业人士和企业界以外,布兰维妮的研究成果还引起政界人士的关注。其中一些人士主张,应该为脸部辨识技术的使用范围设限。
《自由时报》报导说,目前的人工智能(AI)大多采用监督式学习(supervised learning),会依照工程师提供的训练资料(training data)推断出规则,再把规则套用在未知的资料上,所以当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。
《中央社》报导,这种差别性有时可能攸关生死。一份近期发表的研究显示,帮助自动驾驶汽车“看路”的电脑视觉系统,在侦测深肤色行人方面,明显有困难。
布兰维妮说,人工智能(AI)对待不同性别与有色人种都表现出了差异性。她呼吁各大科技公司公平对待所有人,并表示如果人们不去主动包容,将会复制这种根本性的不平等。
"If we're not being intentional about being inclusive, we will replicate structural inequalities."@jovialjoy explains how AI can and will mirror our deeply ingrained biases: pic.twitter.com/QqmAv98dnV
— Doha Debates (@DohaDebates) April 3, 2019
责任编辑:刘馨
短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.
【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。