應用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

自動駕駛汽車必談道德困境

2019-04-08 09:36 汽車HMI進化圈Nico

導讀:即使自動駕駛汽車決定殺人的特殊情況可能不到0.001%,但是風險因素如何分配?

自動駕駛,無人駕駛,自動駕駛,道德困境

圖片來自“123rf.com.cn”


每個人都曾想擁有自己的自動駕駛汽車,但自動駕駛汽車并不完美。首先需要肯定一點,自動駕駛汽車仍然需要像你和我一樣做出決定,而這樣的結(jié)果是它們并沒有完全消除碰撞的可能性,從某一個角度來看,自動駕駛汽車只是減少它發(fā)生的可能性而已,越來越多在自動駕駛模式下的汽車發(fā)生事故的報告能說明這點。

諸多的自動駕駛汽車事故報告可以表明,自動駕駛汽車不會主動去碰撞行人(殺人),而是選擇被動情況下不得不碰撞行人(被動殺人),汽車不會故意殺人,但如果發(fā)生碰撞,自動駕駛系統(tǒng)中會有相關機制告知自動駕駛汽車不能做什么。如果讓自動駕駛汽車選擇在兩個不同的人群之間碰撞,那么選擇不殺死一個人對另一個人來說則是致命的,這反映的一個問題就是自動駕駛汽車的優(yōu)先項和他的“價值觀”,這是自動駕駛機制編程人員的一個基本考慮因素,因為他們決定計算機的功能,以及汽車在各種復雜工況中的行動方式。那么是誰,通過什么方式以什么形式確定的優(yōu)先項和機器的“價值觀”呢?

如果你在Netflix上觀看了Circle(2015),你就會知道它是怎么回事!這部劇能讓我們思考人類的未來,以及我們每天做出決定對別人的影響 -每個人都要拼命“活在當下”,證明他們的價值。電影的前提很簡單:影片講述被俘虜?shù)娜耍鎸磳⒌絹淼奶帥Q,五十個陌生人被迫從中選擇一個值得存活下去的人的故事。Circle是一部關于人性的電影,當我們被迫在最壞的情況下做出決定時,我們?nèi)绾卧u價彼此以及人們?nèi)绾畏磻?。這部電影講述了什么使我們成為人類的核心——我們是誰,我們相信什么,以及最終,我們將會花費多少時間去拯救我們自己 ,但是自動駕駛汽車似乎沒有這么多人性和道德的考量!

道德選擇并不通用

你認為正確的道德選擇很可能與你周圍的人想的完全不一樣。因為道德是主觀的,而 每個人的價值觀都不同。無論你喜歡與否,我們都必須承認的一點是我們的選擇都是缺陷的:我們根據(jù)我們過去的經(jīng)驗和預判及偏見來做出決定, 關于你是否應該在事故中拯救A或B也很難辯論,因為你根據(jù)你已經(jīng)制定的一些抽象標準以及社會接受的東西判斷一個人的價值。 什么是好人的標準在哪里? 因此,除了通用道德之外,人們普遍認為“對社會更重要”是評價的標準之一。醫(yī)生,孕婦和孩子是更值得關注的人,即使在泰坦尼克號上,婦女和兒童也是第一批登上安全船的人,這種道德選擇已經(jīng)深入人心。

看著不同的人做不同的選擇是一件很有意思的事情。做選擇能體現(xiàn)人的性格,就像Trolley problem問題一樣。電影Circle結(jié)束時,您可以看到不同房間中的其他組決定誰能活下去的結(jié)果,很讓人震驚。如果我們回歸到“生活主題”中:我們應該思考我們該重視什么:是群體還是個體?

用戶(有時)永遠是對的

如果發(fā)生車禍,而你懷孕的妹妹和她的丈夫正好就在其中,如果你是一名醫(yī)生或隨機的一名陌生人,大家都不難猜測,你會來救你的妹妹和妹夫。 但是如果車禍中還有其他隨行乘客呢,為了拯救你的家人,隨行的乘客將不得不死你會作何選擇。你可能仍然會救你的妹妹和妹夫,這時候我意識到,因為人們并不總是想要拯救乘客,更多的關注殺死了多少人和什么類型的人。

可以對汽車進行編程來實現(xiàn)“最佳情況”, 這看起來很容易。但困難的是,沒有人愿意買一輛在發(fā)生事故時犧牲乘客的汽車,這對企業(yè)來說很糟糕,這對他們的營銷或銷售產(chǎn)品時帶來選擇困境,自動駕駛汽車是否應該被編程不惜一切代價來避免事故?如果懷孕的母親和丈夫違反交通規(guī)則的情況下該如何選擇?就目前來看仍然沒有確定的答案。這篇文章的構(gòu)思啟發(fā)源于麻省理工學院的測驗,讓你在自駕車的不同場景中選擇行動(選擇誰不被殺)。 在測驗結(jié)束時,他們會為您提供結(jié)果摘要,令人驚訝的是,我的“最佳拯救角色”是一位女醫(yī)生,而我最“被該殺的角色”則是一位老人,我覺得結(jié)果令我很沮喪,但就其實際以及我個人的偏見和經(jīng)驗而言,結(jié)果仍然是有道理的。

此外需要注意的是,這并不一定是您處于該情況時將執(zhí)行的準確且唯一操作,因為理論與實踐中的一切都有所不同。 如果感興趣可以參與道德測試:道德機器 ?- 麻省理工學院。

性別偏好

當您看到結(jié)果時,您還會了解到與你一起參加測試的其他人的結(jié)果。總的來說,人們傾向于挽救女孩而不是男孩。這可以追溯到一些古老的生物學推理,因為女性的主要角色是繁殖和生育,而這依賴來自于對女性的刻板印象,即女性是“照顧者”并表現(xiàn)出母性行為,這使得殺害她們更加殘忍。

這個結(jié)果很有趣,因為即使當今世界的人仍然很多人認為在求助選擇時候選擇一個女人而不是一個男人。雖然這個小樣本量并不是一個很具有代表性的統(tǒng)計數(shù)據(jù)結(jié)果,但確實提供了一種暗示性的趨勢。如果你考慮性別角色和過去的男性優(yōu)勢,你仍然能夠預測到未來的潛在結(jié)果如何。當然我并不知道偏見不會徹底消除,因為我們可以發(fā)現(xiàn)這種偏見已經(jīng)滲透到了各個領域!

人類>動物

人們不僅拯救女孩而不是男孩,而且還會一次又一次地拯救人類超過動物。有一個物種偏好,僅僅因為我們是人類并具有自我保護的基本本能。如果你與那只動物有所屬關系,比如它是你的寵物,那可能就會略有不同,這恰恰反映了人自私的本性。

拋棄老人,留下幼童

前面我曾經(jīng)說過,上述實驗中我的“殺死最多的人物”是一位老人,我不知道我是否潛意識的同意這一點,但我很明確的認為老年人有價值。 無可否認,根據(jù)過去的經(jīng)驗,老一輩人是智慧和知識的載體。雖然他們可能沒有以最典型的方式為社會做出具體貢獻,但誰能說他們的知識和/或智慧無效呢?

 當然,時代變了,幾個世紀前的智慧和經(jīng)驗并不適用于當代社會。當我們做選擇的時候,我們?nèi)匀豢赡軆A向于拯救這些幼童,因為他們還沒有完整的擁有過自己的一生,而老年人已經(jīng)體驗了他們經(jīng)歷的一切,我知道這就是我所做上述選擇的原因。因為在我所救下的那個年輕人很可能是下一個伊隆馬斯克,很可能會對社會帶來更多價值,但從反面來看,這個年幼的孩子有可能也是壞人,但這是一個事實,無論你喜不喜歡,其實我們決定不了這個幼童的未來走向,但我們?nèi)匀桓鼉A向于拯救他們。

留下醫(yī)生

在做決定時,我發(fā)現(xiàn)傾向于拯救醫(yī)生而不是流浪者。我并不是唯一一個做出這樣選擇的人。我認為這不是一種好的思維方式,因為社會地位不應該是你生還是死的決定因素。

所有國家都表現(xiàn)出令人不安的選擇偏好,即拯救地位較高的人,例如,高管人數(shù)超過流浪者,我們也發(fā)現(xiàn)這與一個國家的經(jīng)濟不平等程度密切相關,在存在更大的不平等的情況下,更傾向于犧牲無家可歸者。

我們重視醫(yī)生,因為我們認為他們的工作對人類的生存至關重要,事實上確實如此,不是每個人都能做到這一點,醫(yī)生需要接受大量的教育才能開始就醫(yī),但是醫(yī)生不是每個人過好生活所需的唯一角色,我們不能忽視的一點是,沒有農(nóng)民,我們照樣不能吃到飯菜,沒有工程師,就沒有橋梁和工廠,沒有教育工作者,你將如何學習?

這讓我意識到測驗本身是有缺陷的,因為給出的關于不同選擇的信息是有限的,但是缺陷不來源于測試,而是源于固有的社會缺陷和社會偏見,我們對一個人的重視程度是基于他們對社會的貢獻嗎?我們的答案很多時候是肯定的。

如何定義正確和錯誤?善與惡?

把這個問題想成“選擇不殺誰”是很苛刻的。但這是我們處境的現(xiàn)實,我們都知道。

那么答案是什么?在發(fā)生事故之前,你只需要踩剎車...... 哈哈,不 - 我只是在開玩笑。雖然這是一種可能性,但制造自動駕駛汽車必須考慮到大量不同的情況,包括你不能踩剎車而汽車必須做選擇的情況。關于自動駕駛汽車殺人的道德決定,這可能是罕見的(或我們希望是),但是不可避免的問題, 而這個問題最大的隱患在于沒有真正的答案。目前來看沒有關于什么是“正確”和什么是“錯誤”的機制,我們每個人都會拯救不同的人,那么誰的道德規(guī)范適用于自動駕駛汽車? 這種自動駕駛汽車決定殺人的特殊情況可能不到0.001%,但是風險因素如何分配?

我對這些問題沒有全部答案,但我希望我們能一起思考。