英國英國標準協(xié)會(簡稱
BSI)標準BS8611的目標——《機器人和機器系統(tǒng)的倫理設計和應用指南》中提到“機器需要講道德”。該標準主要針對機器人設計研究者和制造商,指導他們評估機器人的道德能否融入人類社會。

實際上,機器人倫理,面露著許多嚴肅和艱巨的挑戰(zhàn),甚至可能動搖人類文明的根基。當遠超于人類能力的機器有了類似人的情感,如何能確保人類的主導地位?他們變壞怎么辦?

在現(xiàn)實世界中,“機器變壞”的憂慮仍然存在。今年3月,微軟公司上線了一款叫“泰”的聊天機器人,幾小時后又被迫將它下線。原因是“泰”不斷爆出種族歧視、性別歧視之語。

據(jù)了解,“泰”的聊天才能來自深度學習技術(shù)。這項技術(shù)不再通過編寫程序,讓機器按照某種既定方式完成任務。面對問題,機器將通過模擬高達數(shù)十萬次不同的解決方式,自己探索出成功策略。

這需要海量數(shù)據(jù)的支撐,很多數(shù)據(jù)來自用戶,更多來自整個互聯(lián)網(wǎng)。而這些數(shù)據(jù)既包含著道德上“對”的,也有“不對”的?!疤钡睦兹酥Z,就是從和他聊天的壞家伙那里學來的。

這讓人不禁思考:機器學習人的智慧做得比人;當他們開始學習人性中的惡時,我們將面對一個怎樣的未來呢?

相對于可能發(fā)生的噩夢,離我們更近的麻煩,可能是人工智能對善惡標準帶來的挑戰(zhàn)。當機器以人的形態(tài)越來越融入人類社會,人類社會道德概念的外延被擴寬了。

科幻作家艾薩克·阿西莫夫在自己的科幻小說《我,機器人》里討論了數(shù)個更加復雜的機器人倫理問題。女主人公達爾文博士依靠機器人三定律屢破困局:

機器人不得傷害人,也不得見人受傷害而袖手旁觀;

機器人必須服從人的一切命令,但不得違反定律;

機器人應保護自身的安全,但不得違反、第二定律。

這三條定律被確定在機器人的邏輯電路中,容不得一點修改。而在現(xiàn)實世界中,這三條小說的產(chǎn)物也已經(jīng)在人工智能的實際研究中被應用。

此次的《機器人和機器系統(tǒng)的倫理設計和應用指南》,是在技術(shù)發(fā)展的新時代,對三定律更詳細的延伸。這項指南究竟能不能發(fā)揮效用還待觀察。比如,它建議設計者增強機器工作的透明性。但科學家們覺得太懸了——深度學習系統(tǒng)作出決策的過程太復雜,有時候連系統(tǒng)的設計者都難以理解。