中读

算法,隐藏的偏见

作者:陈璐

2020-09-03·阅读时长9分钟

6782人看过

本文需付费阅读

文章共计4509个字,产生38条评论

如您已购买,请登录



2019年在伦敦巴比肯艺术中心的展览“人工智能:超越人类”中,展示了算法正义联盟创始人乔伊·博拉维尼的作品《AI,我不是女人吗》


一场全球关注的算法争议

不久前,推特上发生了一场备受人工智能界关注的论战,其原因是被指带有“严重种族歧视”的PULSE算法。这场长达两周的激烈讨论,最终以图灵奖得主、深度学习先驱杨立昆(Yann LeCun)宣布退出推特而告终。

PULSE算法是杜克大学推出的一项用于升级低分辨率图像的人工智能技术,可以在几秒钟内令一张模糊的照片变得清晰,效果极佳。但PULSE算法并不是真的消除了马赛克,而是利用英伟达(NVIDIA)公司的StyleGAN算法,生成一张全新的高分辨率图像,再降低它们的分辨率,与低分辨率的原图对比,最终找出匹配程度最高、最接近原图的高清图像输出到用户面前。

然而,当杜克大学将利用PULSE算法开发的软件“Face Depixelizer”发布到网上时,人们很快发现其中的种族偏见问题。6月20日,一名网友在推特上指出,他在使用Face Depixelizer对美国前任总统奥巴马的低分辨率图像进行处理后,生成的照片变成了一张白人男性的样子。同样地,输入华裔女演员刘玉玲和拉丁裔美国会女议员亚历山德里娅·奥卡西奥-科尔特斯的图像后,得到的面孔也明显看起来都是白人。正如奥巴马一条被广泛引用的推文所言:“这张照片充分说明了人工智能中偏见的危险。”

杨立昆也参与到这场讨论中,他回应道:“当数据有偏差时,机器学习系统就有偏差。这个面部采样(upsampling)系统让每个人看起来都像白人,是因为系统是在FlickFaceHQ上预先训练的,它主要包含了白人的照片。若用来自塞内加尔的数据集训练同样的系统,每个人都会看起来像非洲人。”

谷歌人工智能科学家蒂姆特·格布鲁(Timnit Gebru)是一名非洲裔美国人,她表示对杨立昆的言论感到“失望”。格布鲁多年来一直倡导人工智能领域的公平和道德,因倡导消除面部识别系统和其他人工智能算法中的种族和性别偏见而闻名。她和麻省理工学院的计算机科学家乔伊·博拉维尼(Joy Buolamwini)领导的一项名为“性别阴影”(Gender Shades)的项目显示,商用面部识别软件更容易对深色皮肤的女性进行错误分类,准确率也更低。针对深色皮肤女性的平均错误率达到35%,远高于对浅肤色男性0.8%的平均错误率。

对此,杨立昆回答说,他的评论是针对PULSE算法中关于模型和数据集的特殊情况,“偏见的后果在已发布的产品中比在学术论文中要严重得多”,他还暗示需要更谨慎选择数据的不是机器学习的研究人员,而是工程师。但格布鲁认为他的分析忽略了PULSE算法背后暴露的根本问题,“你不能仅仅减少由机器学习导致的对数据集偏见造成的伤害”。

杨立昆和格布鲁长达一周的互动吸引了成千上万的点赞、评论和转发。

文章作者

陈璐

发表文章77篇 获得17个推荐 粉丝266人

《三联生活周刊》主任记者

中读签约作者

收录专栏

你有偏见吗

如何避免成为“乌合之众”

18341人订阅

现在下载APP,注册有红包哦!
三联生活周刊官方APP,你想看的都在这里

下载中读APP

全部评论(38)

发评论

作者热门文章

推荐阅读