科幻作家阿西莫夫曾提出了“機器人三定律”。如今,隨著機器人以及智能設備不斷增多,簡單的定律可能無法滿足需求了。最近,英國標准協會(BSI)編寫了一份文檔(編號 BS8611),以幫助設計師們創造出更有道德感的機器人。 據衛報的報道,在牛津大學召開的 Social Robotis and AI(社交機器人和人工智能)大會上,相關領域的專家談到了這份文檔,並發表了自己的看法。 西英格蘭大學的機器人學教授 Alan Winfield 認為,這份文檔代表了“把道德價值融入機器人和人工智能的第一步。“據我所知,這是首個關於機器人道德設計標准的正規文檔,” 他說,“它比阿西莫夫的定律要更加複雜。基本上,它講述的是如何對機器人做道德風險的評估。”
(圖片來自 denofgeek) 這份文檔定義了一些寬泛的道德准則,比如機器人的設計不應該以殺害或者傷害人類為唯一或首要目的;責任人應該是人類而非機器人;任何機器人都應該有負責人,而這個人應該為機器人的行為負責。此外,文檔還提到了一些有爭議的話題,例如,人類是否應該與機器人建立感情聯系,特別是那些與兒童或老人交互的機器人。 文檔還建議設計師遵循透明化的原則。不過,這可能難以實現。“人工智能系統,特別是深度學習系統的問題在於,你很難了解它們做決策的原因,” Alan Winfield 說,“在訓練過程中,深度系統使用了互聯網上的大量數據,但是這些數據是有偏見的。這些系統傾向於關注中年白種人,顯然這是一場災難。它們可能會吸收人類的所有偏見,或者說,這是一種潛在的風險。”
(圖片來自 QZ) 一些寬泛的社會問題也出現在文檔中,比如“對機器人的過度依賴”。不過,在如何避免這些問題上,文檔並未給設計者指出明確的方向。“你與機器人共處一段時間後,它一直給予你正確答案,於是,你開始信任它並且變懶了。然後,它給了你超級愚蠢的建議,” 謝菲爾德大學機器人和人工智能教授 Noel Sharkey 說。 英國標准協會的 Dan Palmer 也評論了這份文檔。他說,“通過機器人和自動化技術,生產過程會更有效率、更加靈活和更具適應性,這也是制造業發展的必要階段。因此,我們有必要辨識和處理一些道德問題,比如對機器人的過度依賴。這份新指導告訴人們如何處理不同的機器人應用,從而幫助機器人和自動化系統的設計師和用戶更好地適應新的工作領域。”