英國出臺首個機(jī)器人倫理標(biāo)準(zhǔn) 2016年09月26日08:49 來源:騰訊網(wǎng)|
談到機(jī)器人的行為準(zhǔn)則,你肯定會想起阿西莫夫(IsaacAsimov)著名的“機(jī)器人三原則”:不傷害人類,服從人類指揮,保護(hù)自己。現(xiàn)在,英國協(xié)會(簡稱BSI)正式發(fā)布了一個指南,旨在幫助設(shè)計者研發(fā)符合倫理規(guī)范的機(jī)器人,就如同給機(jī)器人用上了“緊箍咒”。
這份指南的名稱叫《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》,讀起來像是一本健康安全手冊,但它強(qiáng)調(diào)的“不良行為”簡直就像是從科幻小說里摘錄出來的。指南指出,機(jī)器人欺詐問題、機(jī)器人成癮現(xiàn)象,以及自學(xué)習(xí)系統(tǒng)越俎代庖的行為,這些都是機(jī)器人制造商應(yīng)該考慮的問題。
英國出臺首個機(jī)器人倫理標(biāo)準(zhǔn)
在英國牛津郡舉辦的“社會機(jī)器人和AI”(SocialRoboticsandAI)大會上,西英格蘭大學(xué)機(jī)器人學(xué)教授阿蘭 溫菲爾德(AlanWinfield)說,這個指南代表了“把倫理價值觀注入機(jī)器人和AI領(lǐng)域的第一步”。
“據(jù)我所知,這是歷史上發(fā)布的首個關(guān)于機(jī)器人倫理的設(shè)計標(biāo)準(zhǔn),”溫菲爾德表示?!斑@比阿西莫夫的機(jī)器人三原則更加復(fù)雜一些,它規(guī)定了如何對機(jī)器人進(jìn)行道德風(fēng)險評估?!?
原則和問題
這份指南一開頭就提出了一些寬泛的道德原則:“機(jī)器人的主要設(shè)計用途不能是或傷害人類;需要對事情負(fù)責(zé)的是人類,不是機(jī)器人;對于任何一個機(jī)器人及行為,都應(yīng)該有找到背后負(fù)責(zé)人的可能。”
接著,該指南強(qiáng)調(diào)了一系列更具爭議的問題,比如人與機(jī)器人之間的情感紐帶是否可取,特別是當(dāng)一個機(jī)器人的設(shè)計用途是與兒童或老人互動的時候。
英國謝菲爾德大學(xué)的機(jī)器人學(xué)和AI名譽(yù)教授諾埃爾 夏基(NoelSharkey)說,這類機(jī)器人可能會在無意中欺騙我們的感情?!白罱囊豁?xiàng)研究,調(diào)查了小型機(jī)器人在幼兒園里的使用情況,”他說?!昂⒆觽兒芟矚g這些機(jī)器人,而且對它們有了依戀之情。但是在后來的詢問中,孩子們顯然認(rèn)為機(jī)器人的認(rèn)知能力比家里的寵物強(qiáng)?!?
該指南建議,機(jī)器人設(shè)計者要以透明性為導(dǎo)向,但科學(xué)家說,這一點(diǎn)說起來容易做起來難?!癆I系統(tǒng),尤其是深度學(xué)習(xí)系統(tǒng)的一件棘手事,就是你不可能知道它們做決定的原因,”溫菲爾德說。
在給深度學(xué)習(xí)技術(shù)編程的時候,并不是讓它們以固定的方式完成某個特定任務(wù)。相反,它們會嘗試了數(shù)百萬次,在這個過程中進(jìn)行學(xué)習(xí),然后制定出一個策略來執(zhí)行任務(wù)。有時候,這些策略會出乎人類創(chuàng)造者的預(yù)料,讓他們無法理解。
對人類的歧視
該指南甚至還暗示會有性別歧視或種族主義傾向的機(jī)器人出現(xiàn),發(fā)出了小心機(jī)器人“缺乏對文化多樣性和多元化的尊重”的警告。
“警方使用的一些技術(shù)這已經(jīng)顯示了這種傾向,”夏基說。這些技術(shù)的用途是突顯可疑人員,方便警方在機(jī)場進(jìn)行攔截。事實(shí)證明,這種技術(shù)在種族貌相上存在傾向性。
溫菲爾德說:“毫不夸張地說,深度學(xué)習(xí)系統(tǒng)使用了整個互聯(lián)網(wǎng)上的數(shù)據(jù)來進(jìn)行訓(xùn)練,但問題是,這些數(shù)據(jù)本身就是有偏差的。系統(tǒng)傾向于青睞白人中年男子,這顯然是一場災(zāi)難。各種人類偏見都有可能被攜帶到系統(tǒng)中?!?
在未來的醫(yī)療應(yīng)用中,系統(tǒng)可能不太擅長為女性或少數(shù)族裔做診斷。目前已經(jīng)有一些語音識別軟件識別女聲的能力遜色于識別男聲,或者是面部識別軟件識別黑人比識別白人困難得多。
“對于機(jī)器人,我們需要一個可以打開和檢查的黑匣子,”夏基所述?!叭绻粋€機(jī)器人警察有種族主義傾向,我們可以關(guān)閉它,把它從街頭移除?!?
過分依賴機(jī)器人
該指南還提出了更加廣泛的社會問題,比如“過分依賴的機(jī)器人”,但是在這些問題上應(yīng)該采取怎樣的做法,它沒有給設(shè)計者指出清楚的方針。
“過分依賴機(jī)器人的一種形式是自動化偏見,當(dāng)你和一臺機(jī)器打交道的時間比較長,它每次都為你提供了正確的答案時,你就會開始信任它,自己不再去驗(yàn)證答案。而在這時,機(jī)器人可能會給你提供一些十分愚蠢的答案,”夏基說。
也許以更加長遠(yuǎn)的目光來看,這份指南提醒我們,流氓機(jī)器人“可能會制定出新的或者更改后的行動計劃……可能帶來無法預(yù)料的后果”。
丹 帕爾默(DanPalmer)是BSI制造業(yè)的主管,他說:“使用機(jī)器人及自動化技術(shù)來提高制程的效率、靈活性和適應(yīng)性,這是制造業(yè)增長的重要組成部分。要讓人們接受這種趨勢,就必須識別和應(yīng)對機(jī)器人的倫理問題和風(fēng)險,比如人類變得過分依賴于機(jī)器人等等。這份指南提供為機(jī)器人和自主系統(tǒng)領(lǐng)域的設(shè)計者和用戶提供了幫助。”
對經(jīng)濟(jì)和就業(yè)的影響
溫菲爾德認(rèn)為,機(jī)器人對經(jīng)濟(jì)的影響絕對是積極的,但圍繞機(jī)器人和就業(yè)機(jī)會展開的爭論則太過兩極分化。他的看法是,簡單地說“機(jī)器人一定會搶走我們的工作”,或者“新工作一定會比舊工作更多”是沒有意義的,這得取決于具體情況,總之這是一個相當(dāng)微妙的問題。
在影響就業(yè)方面,溫菲爾德更擔(dān)心的是AI,而不是有形的機(jī)器人。他認(rèn)為,知識工作者(律師、呼叫中心工作人員、翻譯、數(shù)據(jù)分析師)被AI取代的風(fēng)險,比體力勞動者被機(jī)器人取代的風(fēng)險更大,因?yàn)闄C(jī)器人技術(shù)的成熟和部署遠(yuǎn)遠(yuǎn)更加困難。而且人們已經(jīng)發(fā)現(xiàn),在機(jī)器人可以發(fā)揮優(yōu)勢的地方,都需要人類和機(jī)器人并肩工作,因?yàn)楝F(xiàn)在的體力工作無法完全自動化。那些可以完全自動化的體力工作,早就已經(jīng)自動化了。
溫菲爾德認(rèn)為,機(jī)器人可以創(chuàng)造出新的崗位類型。過去20年的數(shù)字化經(jīng)歷提供了一個教訓(xùn):你很難預(yù)測這些工作是什么。關(guān)鍵在于,新技術(shù)開辟了創(chuàng)造的新途徑。我們顯然需要更多的人來維護(hù)機(jī)器人,但是新技術(shù)也催生了新的創(chuàng)業(yè)領(lǐng)域。比如OpenBionics的3D打印假肢,當(dāng)初誰能想到機(jī)器人可以用這種方式來使用!隨著技術(shù)的改進(jìn),可穿戴機(jī)器人將會變得普遍。不僅是殘障人士,老年人也可以用它們來代替輪椅。
溫菲爾德認(rèn)為,還需要很長一段時間,我們才會在道路上看到無人駕駛和卡車,因?yàn)檫@項(xiàng)技術(shù)還沒有做好上路的準(zhǔn)備。
一個重要的問題在于:這種車是需要人工輔助,還是應(yīng)該完全自主駕駛。最近發(fā)生的特斯拉事故致死案表明,讓人類參與自動駕駛?cè)蝿?wù)是一個非常糟糕的做法。
如果駕駛者在車上無事可干,那么他的注意力就很難集中在道路上,所以,如果你覺得自動駕駛系統(tǒng)一旦遇到問題,駕駛者就可以馬上接手,恢復(fù)人工控制,這也想得太簡單了一些。
特斯拉的事故還說明機(jī)器人的感知能力仍不夠好。在行駛過程中,機(jī)器人有很多時候都不太了解狀況,因?yàn)樗鼈冊诟泻秃驼J(rèn)知上存在缺陷。
溫菲爾德表示,如果一個要想獲得成功,他們的目標(biāo)應(yīng)該是獲得“蓋章認(rèn)定”,證明他們的機(jī)器人符合相關(guān)標(biāo)準(zhǔn)。
監(jiān)管是政府給我們提供的一顆定心丸。為什么我們會相信商業(yè)客機(jī)?因?yàn)槟鞘且粋€高度監(jiān)管的行業(yè),標(biāo)準(zhǔn)定得非常高。
商用飛機(jī)的經(jīng)驗(yàn)也應(yīng)該用在機(jī)器人領(lǐng)域。特斯拉就是一個需要進(jìn)行監(jiān)管的例子。他們的自動駕駛儀沒有公布正式的標(biāo)準(zhǔn),所以不能信他們。
責(zé)任編輯:黎晉