應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

新華社評(píng)論:AI犯錯(cuò)不可怕 反躬自省糾正它

2018-10-19 14:57 新華網(wǎng)
關(guān)鍵詞:人工智能AI機(jī)器人

導(dǎo)讀:人工智能也是人類(lèi)的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類(lèi)提供了在更深的層面反省自己的契機(jī)。這次亞馬遜的案例就讓人認(rèn)識(shí)到原來(lái)即便在倡導(dǎo)了幾百年男女平權(quán)的西方社會(huì),性別歧視問(wèn)題依然如此嚴(yán)峻。

最近,亞馬遜招聘軟件被爆出具有“重男輕女”的傾向,給女性求職者打低分。這一時(shí)刷新了人們對(duì)人工智能更加客觀(guān)科學(xué)的看法。按照亞馬遜研究團(tuán)隊(duì)最初的設(shè)想,給招聘軟件輸入100份簡(jiǎn)歷,它會(huì)吐出前5名,然后公司就可優(yōu)先雇用他們,這將大大緩解人力資源部門(mén)的壓力,結(jié)果卻事與愿違。

現(xiàn)在不少大公司或許沒(méi)有亞馬遜這般“一攬子”解決選才問(wèn)題的雄心,但在招聘過(guò)程中,通過(guò)人工智能來(lái)篩選簡(jiǎn)歷、推薦崗位,卻是習(xí)以為常的事。在許多招聘者看來(lái),人工智能可以減少招聘人員主觀(guān)意見(jiàn)的影響。但亞馬遜的失敗案例,為越來(lái)越多正在尋求自動(dòng)化招聘流程的大型公司提供了一個(gè)教訓(xùn)。同時(shí),也促使人們反思技術(shù)倫理層面的算法公平問(wèn)題。顯然,在亞馬遜的案例中,人工智能不僅繼承了人類(lèi)社會(huì)的偏見(jiàn),而且把這種偏見(jiàn)進(jìn)行了“提純”,使它更加“精準(zhǔn)”而“直接”。

更關(guān)鍵的是,人類(lèi)的偏見(jiàn)經(jīng)過(guò)算法“洗地”之后,又披上了貌似客觀(guān)公正的“科學(xué)技術(shù)”的外衣。實(shí)際上,在有偏見(jiàn)的數(shù)據(jù)基礎(chǔ)上訓(xùn)練出來(lái)的系統(tǒng),也必然是有偏見(jiàn)的。比如,此前就爆出過(guò)微軟的聊天機(jī)器人Tay,在與網(wǎng)友的廝混中很快就學(xué)了滿(mǎn)嘴臟話(huà),以及種族主義的極端言論,在推特上咒罵女權(quán)主義者和猶太人。這提醒我們注意,算法處理的數(shù)據(jù)是具有人類(lèi)社會(huì)特點(diǎn)的,發(fā)展人工智能也好,運(yùn)用算法也罷,必須目中有“人”,也就是要充分考慮到作為人工智能開(kāi)發(fā)者的人類(lèi)的局限性,以及這種局限性在人工智能中的“遺傳”。

有人說(shuō),孩子是父母的鏡子。人工智能也是人類(lèi)的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類(lèi)提供了在更深的層面反省自己的契機(jī)。這次亞馬遜的案例就讓人認(rèn)識(shí)到原來(lái)即便在倡導(dǎo)了幾百年男女平權(quán)的西方社會(huì),性別歧視問(wèn)題依然如此嚴(yán)峻。

人工智能不可能只在脫離現(xiàn)實(shí)人類(lèi)語(yǔ)境的真空中使用,否則,人工智能也就失去了它的意義。而在可預(yù)計(jì)的將來(lái),把人類(lèi)自身推向完美也不過(guò)是美好的夢(mèng)想。那么,如何克服人工智能自我學(xué)習(xí)中的這些問(wèn)題,讓不完美的人類(lèi)創(chuàng)造出接近完美的人工智能,就成為必須攻克的重要課題。

其實(shí),以不完美創(chuàng)造完美,正是人類(lèi)這個(gè)物種高明的地方。這一切的實(shí)現(xiàn),不是靠反智的玄想,而是靠不斷地打補(bǔ)丁和修復(fù),在科技進(jìn)步中克服科技前行產(chǎn)生的漏洞。2017年曾有報(bào)道披露,在Google Image上搜索“doctor”,獲得的結(jié)果中大部分都是白人男性。這實(shí)際上反映了醫(yī)生總是與男性相連,護(hù)士總是與女性相連的社會(huì)現(xiàn)實(shí)。后來(lái),通過(guò)修改算法,基本解決了這一問(wèn)題。

進(jìn)而言之,人工智能的漏洞被及時(shí)發(fā)現(xiàn)和得到糾正,有賴(lài)于科技政策和機(jī)制的進(jìn)一步規(guī)范。在這個(gè)問(wèn)題上,倡導(dǎo)算法在一定限度內(nèi)的透明和可解釋性,不失為可行之策,同時(shí)還應(yīng)加快建立人工智能犯錯(cuò)追責(zé)機(jī)制。比如,日本已經(jīng)把AI醫(yī)療設(shè)備定位為輔助醫(yī)生進(jìn)行診斷的設(shè)備,規(guī)定AI醫(yī)療設(shè)備出錯(cuò),由醫(yī)生承擔(dān)責(zé)任。這一做法是否完全合理,值得探討。但是,提高算法問(wèn)責(zé)的意識(shí)并將之納入人工智能發(fā)展規(guī)劃和頂層設(shè)計(jì),確為人工智能長(zhǎng)遠(yuǎn)發(fā)展并造福于人的必要舉措。