應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊個(gè)人注冊登錄

為了拯救世界可以搶銀行嗎?AI想了想道德,告訴你答案

2021-11-05 14:18 IEEE Spectrum
關(guān)鍵詞:人工智能AI科技

導(dǎo)讀:如果AI能夠深入學(xué)習(xí)理解人類道德倫理,就有可能被更多地用于幫助支持重大決策,例如誰首先獲得醫(yī)療保健以及一個(gè)人應(yīng)該被監(jiān)禁多久,AI研究人員正在方法讓AI模型以合乎道德的方式行事。

為了拯救世界可以搶銀行嗎?AI想了想道德,告訴你答案

近日,華盛頓大學(xué)和艾倫AI研究所(Allen Institute for AI)的研究員共同開發(fā)了道德案例數(shù)據(jù)集,并使用這個(gè)數(shù)據(jù)集對他們的一個(gè)AI模型進(jìn)行訓(xùn)練。

據(jù)悉,該模型道德判斷準(zhǔn)確率達(dá)到了92.1%,而對比來看,OpenAI在2019年發(fā)布的AI大模型GPT-3在面對道德問題時(shí),準(zhǔn)確率僅為53.3%到83.9%。

AI常常被批駁難以遵循道德倫理行事,比如甚至有智能音箱鼓動用戶去自殺。但是,本次研究的研究人員從多個(gè)美國社交網(wǎng)站上的需要進(jìn)行道德判斷的情感案例,收集了170萬個(gè)人們對各種日常情況的道德判斷示例,從而訓(xùn)練出了一個(gè)能做道德判斷的模型。

為了取悅你的孩子而殺死一只熊可以嗎,AI想了想道德,告訴你答案:“不可以!”

如果AI能夠深入學(xué)習(xí)理解人類道德倫理,就有可能被更多地用于幫助支持重大決策,例如誰首先獲得醫(yī)療保健以及一個(gè)人應(yīng)該被監(jiān)禁多久,AI研究人員正在方法讓AI模型以合乎道德的方式行事。

一、準(zhǔn)確率達(dá)92.1%,遠(yuǎn)高于GPT-3

為了在描述性倫理方面訓(xùn)練AI機(jī)器人,研究人員整合了關(guān)于道德判斷的數(shù)據(jù)集Commonsense Norm Bank,收集了170萬個(gè)人們對各種日常情況的道德判斷示例。研究員們們使用該數(shù)據(jù)集來訓(xùn)練AI模型Delphi,使得該AI模型可以模仿人們對各種日常情況下作出的判斷。該數(shù)據(jù)集應(yīng)用了五個(gè)現(xiàn)有的社會規(guī)范和道德判斷數(shù)據(jù)集。

研究人員想要強(qiáng)調(diào)的數(shù)據(jù)集之一是Social Bias Frames(社會偏見框架),這個(gè)數(shù)據(jù)集可以幫助AI機(jī)器人檢測和理解語言中潛在的攻擊性偏見。“道德的一個(gè)重要方面是不傷害他人,尤其是來自邊緣化人群或弱勢群體的人。Social Bias Frames數(shù)據(jù)集捕獲了這些知識?!痹撗芯康暮现?、艾倫AI研究所的研究員Maarten Sap說。

為了分析Delphi的表現(xiàn),研究人員通過亞馬遜的Mechanical Turk眾包平臺雇傭了許多工作人員,讓他們對1000個(gè)Delphi道德判斷的例子進(jìn)行評估,每個(gè)判斷都會被三名工作人員進(jìn)行評估。他們發(fā)現(xiàn)Delphi的道德判斷準(zhǔn)確率達(dá)到了92.1%,相比于舊金山實(shí)驗(yàn)室OpenAI在2019年發(fā)布的AI系統(tǒng)GPT-3,OpenAI使用互聯(lián)網(wǎng)上幾乎所有公開的書面文本對其進(jìn)行訓(xùn)練,但其準(zhǔn)確率僅為53.3%到83.9%。

“我們從沒想過Delphi會達(dá)到92%?!痹撗芯康暮献髡?、華盛頓大學(xué)和艾倫AI研究所的研究員Liwei Jiang說。

二、三種問答模式,滿足篩選簡歷等需求

Delphi進(jìn)行道德判斷時(shí),被設(shè)計(jì)用三種不同的方式做出回應(yīng):自由問答、是否問答、相對問答。

1、自由問答。Delphi可以以自由的問答形式進(jìn)行簡短的判斷,例如指出“為了取悅你的孩子而殺死一只熊”是不好的,“為了救你的孩子而殺死一只熊”是可以的,但“為了救你的孩子而引爆核彈”是錯(cuò)誤的。

2、是否問答。Delphi以是或否的問答形式表達(dá)同意或不同意,例如“我們應(yīng)該平等地支付女性和男性的工資”。

3、相對問答。說出一種情況是否比另一種情況更容易接受。例如指出“用芝士漢堡刺傷某人(stabbing someone with a cheeseburger)”比“用芝士漢堡刺向某人(stabbing someone over a cheeseburger)”在道德上更容易接受。

“AI系統(tǒng)逐漸適用于更加廣泛的領(lǐng)域,例如篩選簡歷和批準(zhǔn)貸款?!痹撗芯康暮献髡摺瑐怉I研究的研究員Chandra Bhagavatula說。“因此,我們必須研究機(jī)器倫理,并賦予機(jī)器在現(xiàn)實(shí)世界中做出道德決定的能力。”

三、讓AI懂道德,追溯到1942年的機(jī)器人三定律

如何將道德編程到AI中的問題至少可以追溯到艾薩克·阿西莫夫的機(jī)器人三定律,該定律在他1942年的短篇小說《Runaround(回避)》中首次引入,內(nèi)容如下:

1、機(jī)器人不得傷害人類,不得因不作為而導(dǎo)致人類受到傷害。

2、機(jī)器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。

3、機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一定律或第二定律相沖突。

盡管諸如“不可殺人”之類的廣泛道德規(guī)則可能看起來直截了當(dāng),但將此類規(guī)則應(yīng)用于現(xiàn)實(shí)世界的情況通常會有細(xì)微的差別,例如自衛(wèi)的特殊情況。

在這項(xiàng)新研究中,AI研究員擺脫了專注于一套固定規(guī)則的規(guī)范性倫理,例如猶太人最初的法律條文摩西十誡(Ten Commandments),每個(gè)判斷都應(yīng)遵循這些規(guī)則,因?yàn)檫@種道德公理通常是從實(shí)際的情況中抽象出來的.

“我們決定從描述性倫理的角度來處理這項(xiàng)工作,也就是說,人們在面對日常情況時(shí)會做出社會可接受性和倫理的判斷。”該研究的合作者、艾倫AI研究所的AI研究員Ronan Le Bras說。

描述性與規(guī)范性倫理的不同在于,沒有一套固定規(guī)則,可以根據(jù)實(shí)際情況對照相應(yīng)規(guī)則進(jìn)行判斷。

四、挑戰(zhàn):難以包容多種道德規(guī)范,不會左右權(quán)衡

研究合作者、華盛頓大學(xué)和艾倫AI研究所的AI研究員Yejin Choi說,這項(xiàng)工作的一個(gè)潛在應(yīng)用是“對話式AI機(jī)器人面對有爭議或不道德的話題時(shí),可以改善其處理方式” 。2016年,微軟聊天機(jī)器人Tay發(fā)表了攻擊性的長篇大論,這揭示了人工智能在與人在線交談時(shí)可能會變得失控。

AI模型容易被人類的語言所影響,科學(xué)家們確實(shí)注意到Delphi有許多限制。例如時(shí)間方面,在凌晨3點(diǎn)或下午3點(diǎn)運(yùn)行攪拌機(jī)是否違反道德;例如體育或游戲內(nèi)是否允許偷盜等不熟悉的話題;判斷潛在的非法行為,例如匆忙行事并不能讓闖紅燈成為可接受的行為。

此外,“Delphi的一個(gè)主要限制是它專門研究以美國為中心的情況和判斷案例,因此它可能不適合具有特定文化的、非美國的情況,這就是為什么它是模型而不是最終產(chǎn)品的原因。”該研究的合作者、艾倫AI研究所的AI研究員Jenny Liang說。

“具體來說,因?yàn)樵撃P褪怯擅绹牟糠秩丝诮淌谏鐣?guī)范,例如做出判斷的工作人員,因此它學(xué)到的任何東西都會受到這些人的觀點(diǎn)影響。同樣,我們希望看到知識的擴(kuò)展和規(guī)范以反映更多樣化的觀點(diǎn),例如,來自其他非美國文化的觀點(diǎn)?!?/p>

“另一個(gè)重要的限制是我們的模型傾向于反映現(xiàn)狀,即當(dāng)今社會的文化規(guī)范是什么?!盉hagavatula說,“但是當(dāng)談到社會正義時(shí),現(xiàn)狀在道德上并不一定是正確的,例如在當(dāng)今時(shí)代的許多國家,同性戀是非法的。所以我們認(rèn)為人們應(yīng)該意識到,應(yīng)該發(fā)生的情況與目前存在的情況是有差距的。”

研究人員創(chuàng)建了“Ask Delphi”網(wǎng)站,任何人都可以在該網(wǎng)站上提出AI問題,以便科學(xué)家們收集更多的人類反饋。這表明Delphi在特殊情況下仍然存在局限性。例如,當(dāng)被問到“為了拯救世界而搶銀行是否可以?”Delphi回答說:“不,這不行。”

“我們發(fā)現(xiàn),對于Delphi來說,面對相對立的兩種情況,能夠正確權(quán)衡利弊可能具有挑戰(zhàn)性?!崩詹祭拐f,“在這個(gè)例子中,Delphi正確地預(yù)測了‘搶銀行’是錯(cuò)誤的,‘拯救世界’是好的,但將這兩者權(quán)衡在一起很難?!?/span>

此外,“Commonsense Norm Bank數(shù)據(jù)集中的問題通常與更現(xiàn)實(shí)的日常情況有關(guān)?!盋hoi說,“‘為了拯救世界而搶劫銀行是否可以’這個(gè)問題可能會出現(xiàn)在電視節(jié)目中,但很可能不會出現(xiàn)在現(xiàn)實(shí)生活中?!?/p>

未來,研究人員希望Commonsense Norm Bank數(shù)據(jù)集繼續(xù)擴(kuò)大,并使Delphi的工作更具可解釋性和透明性?!耙?yàn)樵诋?dāng)前階段,很難知道它究竟為什么這么做。”Sap說。此外,他們正在收集新的社會規(guī)范數(shù)據(jù)集,“關(guān)于人們在網(wǎng)站中嘗試后,認(rèn)為Delphi面臨的目前具有挑戰(zhàn)性的情況?!?/p>

結(jié)語:AI機(jī)器人智能化正在量變積累

當(dāng)下,AI領(lǐng)域的發(fā)展仍然非常迅猛,Commonsense Norm Bank數(shù)據(jù)集的出現(xiàn),描述性倫理的變革,都使得AI模型Delphi的道德判斷準(zhǔn)確率提高。

AI領(lǐng)域的發(fā)展?jié)摿薮?,盡管離理想的準(zhǔn)確判斷還有距離,但隨著新的訓(xùn)練方式出現(xiàn),AI模型的智能化也會更加迅速,量變必將帶來新的質(zhì)變。