智能算法把奥巴马识别成白人,AI也学会歧视了?
在人工智能愈發(fā)普及的當(dāng)下,越來越多的地鐵、商場或其他公共場所,都已出現(xiàn)了人臉識(shí)別的儀器。
按理說,這樣先進(jìn)的技術(shù),本該讓人們的生活更便捷,更自由。然而,在某些時(shí)候,這些技術(shù)非但沒能造福人類,反而揭開了人類社會(huì)中最丑陋的傷疤。
比如,最近一種新的AI去馬賽克算法PULSE,就犯了“種族歧視”的大忌,將美國前總統(tǒng)奧巴馬打了馬賽克的圖片識(shí)別成了白人。
在美國的BLM(黑命貴)運(yùn)動(dòng)愈演愈烈的背景下,怒不可遏的大眾在網(wǎng)上開始了對AI技術(shù)的又一輪口誅筆伐。
而網(wǎng)友們怒罵的火力,全都集中在了一個(gè)名叫楊立昆的AI大神身上。
這位大神之所以躺槍,是因?yàn)樯頌镕B公司首席AI科學(xué)家,并且拿過圖靈獎(jiǎng)的他,實(shí)在不忍看到AI技術(shù)遭到大眾如此誤解與貶損,于是便在推特上為PULSE算法“出頭”辯護(hù)。
楊立昆解釋說,這種情況往往是由于數(shù)據(jù)偏差導(dǎo)致的,PULSE算出來的人臉之所以傾向于白人,是因?yàn)樯窠?jīng)網(wǎng)絡(luò)是在FlickFaceHQ上訓(xùn)練的,而上面的大部分照片都是白人。
盡管楊立昆的解釋已經(jīng)十分冷靜與客觀,但怒火中燒的網(wǎng)友仍將種族歧視的帽子扣在了他頭上,并對他展開了鋪天蓋地的謾罵。
最后,這位被網(wǎng)友“噴怕了”的AI大神,不得不宣布退出了推特。
不過,雖然楊立昆選擇了主動(dòng)避退,但人們對于“AI歧視”的爭議卻不會(huì)就此終止,實(shí)際上,這次AI識(shí)別技術(shù)的失誤,只是眾多類似事件中的一角。
早在2015年,谷歌就在自己的網(wǎng)站中,加入了一個(gè)通過機(jī)器識(shí)別照片中的內(nèi)容,并自動(dòng)打標(biāo)簽分類的功能。
谷歌推出這項(xiàng)功能的初衷,本是為了方便用戶管理和搜索。然而,這個(gè)心智不成熟的AI,卻在實(shí)際操作中“抽風(fēng)”,將一位黑人程序員和其女友的照片打上了“Gorilla”(大猩猩)的標(biāo)簽。
頓時(shí),黑人程序員小哥心中一陣MMP……
而這樣的情況,也讓人禁不住發(fā)問:為什么現(xiàn)在連AI也開始沾染上人類“歧視”的惡習(xí)了呢?
實(shí)際上,AI 本是一種工具,本身并無偏好與喜惡,而AI所具有的“歧視”與“偏見”,往往是背后算法訓(xùn)練的數(shù)據(jù)所導(dǎo)致的。
目前的人工智能背后需要即為大量的數(shù)據(jù)去訓(xùn)練,盡管人工智能本身并沒有“歧視”與“偏見”,但背后數(shù)據(jù)的研究人員卻會(huì)因?yàn)閭€(gè)人的因素,以至于在訓(xùn)練數(shù)據(jù)的選擇上就會(huì)產(chǎn)生偏向性。
通常情況下,在創(chuàng)建 AI 算法的過程中會(huì)有許多工程師參與,而這些工程師通常來自高收入國家的白人家庭,他們的思想、價(jià)值觀與階層意識(shí),都導(dǎo)致了經(jīng)由他們制造出來的 AI ,也不可避免地帶上了與之類似的色彩。
如果用于訓(xùn)練的數(shù)據(jù)里白人比黑人更多,那顯然白人的識(shí)別率就會(huì)更高。
然而,盡管人工智能在被制造的過程中,會(huì)不可避免地受到人類研究者的影響,但人類卻學(xué)會(huì)了用一種“AI制AI”的方式,來消解人工智能可能存在的偏見。
比如,舊金山就曾經(jīng)推出過一種“偏見緩解工具”,該工具使用人工智能技術(shù)自動(dòng)編輯警方報(bào)告中的嫌疑人種族等信息。它的目的是在決定某人被指控犯罪時(shí),讓檢察官不受種族偏見的影響。
根據(jù)舊金山地區(qū)檢察官辦公室的說法, 這個(gè)工具不僅會(huì)刪除關(guān)于種族的描述,同時(shí)還會(huì)進(jìn)一步刪除關(guān)于眼睛顏色和頭發(fā)顏色等可能有意無意對檢察官造成暗示的信息,甚至地點(diǎn)和社區(qū)名稱也將會(huì)被刪除。從而避免歧視現(xiàn)象的發(fā)生。
由此可見,人工智能所帶有的“偏見”,并非一個(gè)無法消除的弊端,經(jīng)過人們對算法的改進(jìn),以及完善研發(fā)之初的測試和驗(yàn)證,就能避免在后續(xù)研發(fā)過程中AI無意識(shí)創(chuàng)造“偏見”。
而類似偏見緩解工具這樣的AI技術(shù),也進(jìn)一步說明了,AI的發(fā)展并非會(huì)真的加深人類社會(huì)中固有的歧視,相反,它有可能會(huì)為糾正這種人類數(shù)千年來的痼疾提供一個(gè)新的解決方案。
而這,也正是人工智能技術(shù)發(fā)展的初衷之一——讓更多的人平等而有尊嚴(yán)地生活下去。
總結(jié)
以上是生活随笔為你收集整理的智能算法把奥巴马识别成白人,AI也学会歧视了?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 浙大团队研发铜基沸石纱布口罩,1分钟杀灭
- 下一篇: 哈佛研究人员开发基于折纸造型高精度微型手