首页 > > 24

壞消息:人工智能存在認知偏差可能成爲種族主義者

2017-04-17
来源:新浪科技

研究顯示,人工智能可能自動發展出某種認知偏差。即使在訓練人工智能系統時使用的材料全部來自中性素材來源,比如維基百科或者新聞報道,最終人工智能仍然有可能會在價值取向上發展出某種偏差,就像人類一樣

  新浪科技訊 北京時間4月17日消息,當微軟公司在去年三月份在推特上發布一款名爲「tay」的聊天機器人時,他們肯定想不到這件事很快會變成一場灾難:在不到24小時的時間裏,這款機器人就已經變成了一個歇斯底里的種族主義者和新納粹分子,之所以出現這種狀况,很大程度上是受到了在推特上與它進行對話的那些用戶的「教授」和「引導」。

  不幸的是,一項最新研究顯示,推特幷非人工智能「學壞」的唯一途徑。事實上,科學研究顯示,任何借助人類語言進行學習的人工智能機器人都有可能和人類小孩可能學壞一樣,在價值取向上出現扭曲。

  研究人員借助一款名爲「詞義全球向量」(GloVe)的機器學習系統開展了一項實驗,結果發現人類在學習過程中可能出現的任何一種偏差都有可能在人工智能系統的學習過程中出現。

  美國普林斯頓大學計算機科學博士後艾琳·卡利斯坎(Aylin Caliskan)表示:「看到這些模型中內嵌的所有這些結果令我感到震驚。」即使在訓練人工智能系統時使用的材料全部來自中性素材來源,比如維基百科或者新聞報道,最終人工智能仍然有可能會在價值取向上發展出某種偏差,就像人類一樣。

  內禀性偏差

  GloVe是一款能够從文檔中提取語義框架結構的工具,具體到這項研究中,其作用是從互聯網上自動提取幷建立計算機語料庫。

  心理學家們很早之前就已經瞭解人類大腦會基于每個單詞背後隱含的意思來建立起不同單詞之間的聯繫。

  在心理學上有一種被稱作「內隱聯想測驗」(IAT)的測試方式,其做法是通過測試人對不同單詞的反應時間來檢測這種相關性:測試人會在屏幕上看到一個名詞,比如「水仙花」,同時出現的還有兩個分別代表正面和負面感受的詞匯,比如「痛苦」和「美麗」。測試人必須用最快的速度做出反應幷按下相應按鍵。不出意外的,更多的人會更傾向于將「花卉」一詞與正面語義聯繫起來,而將「武器一詞與負面語義聯繫起來。」

  內隱聯想測驗可以測定人們對于某種特定社會現象或群體的潜意識觀點。比如說,一項內隱聯想測驗顯示在美國,人們會下意識地將「武器」一詞與黑膚色人群聯繫在一起,而將一些無害的詞匯與美國白人聯繫在一起。

  關于這類結果的解讀還存在一些爭議。專家們目前還難以明確,之所以會出現這樣的語義聯繫,是因爲被試人的確存在內心認定的,根深蒂固但自己却毫不意識到的社會認知偏差,還是因爲在日常對話和信息獲取過程中,從統計學上看有更大的幾率將一些負面的詞匯與少數族裔,老年人或邊緣群體聯繫在一起,而被試受到了無意識的影響?

  數字偏見

  卡利斯坎和她的同事們在針對人類被試進行測試的IAT系統基礎上開發了針對計算機人工智能的IAT系統,幷將該系統稱爲「WEAT」,意爲「詞匯內嵌聯合測試」。該測試旨在評估GloVe系統所給出的不同詞匯之間的相互聯繫,這一點與傳統的IAT測試觀察人類大腦中不同詞匯之間的聯繫非常相似。

  在每一種語義聯繫和習慣測試中,WEAT測試都得到了與IAT測試相同的結果。這款機器學習工具成功地重現了人類將花卉與美好事物聯繫起來的傾向,它也不喜歡「昆蟲」和「武器」這類詞,但是喜歡「樂器」幷將其與美好事物聯繫在一起。但令人不安的是,這款人工智能工具認爲歐洲裔美國人的名字聽上去更加令人愉悅,而非洲裔美國人的名字則比較容易令人不快。另外,它會更多地將男性名字與事業和工作聯繫起來,而將女性名字更多地與家庭相關詞匯聯繫在一起;同樣的,它還將男性名字更多地與數學和科學聯繫在一起,而將女性名字更多地與藝術詞匯聯繫在一起。而老人的稱謂常常與令人不悅的詞匯聯繫在一起,而年輕人的稱謂則與令人愉悅的詞匯聯繫在一起。

  卡利斯坎表示:「我們感到很震驚,我們竟然能够完全重現過去在數百萬的人們身上進行過的IAT測試結果。」

  情况還不止于此,利用另外一種相似的方法,研究組還發現機器學習工具基于語義聯繫得到的認知結果竟然是可以比較精確地反映現實世界情况的。比較WEAT測試的結果與美國聯邦勞工統計局關于女性職業分布的數據,卡利斯坎發現GloVe數據中,那些被人工智能與「女性」聯繫起來的職業,在現實世界中從事這項職業的女性比例也更高,兩者的相關性超過90%。

  換句話說,基于人類語言進行學習的計算機程序能够「非常精准地領會人類語言背後的含義和其所代表的人類文化」,即便那種文化本身可能是存在偏見的甚至是某種下意識地歧視,計算機也能敏感地領會幷學習到。但與此同時,人工智能在某些人類學習者感覺非常容易理解的地方却會感覺理解起來非常吃力。舉個例子,一篇關于馬丁·路德-金在1963年由于參加黑人人權運動而在亞拉巴馬州伯明翰被監禁的新聞報道中當然會涉及很多將美國黑人與負面詞匯相互聯繫的情况,但一名人類讀者很容易就能體會到這篇報道中的美國黑人是一名英雄,而在計算機看來,它的收穫只不過是將「黑人」與「監獄」兩個詞匯之間建立起了聯繫。

  要想在保證精確性的同時還要力求讓人工智能來理解人類文化中的「公正性」是一項巨大的挑戰。卡利斯坎指出:「我們幷不認爲去除偏向性之後這個問題就能够得到解决,因爲這樣做可能將會打破人工智能對于這個世界的完整理解能力。」

  去除偏向性

  而在哈弗福德學院計算機科學家索瑞爾·福雷德勒(Sorelle Friedler)看來,本月12日發表在《科學》雜志上的這項最新研究幷不會讓她感到驚訝。索瑞爾幷未參與這項研究,但她認爲這一研究成果意義重大。她說:「這是一種基本方法,很多系統都基于此構建。」換句話說,任何基于GloVe平臺或是通過人類語言學習進行構建的人工智能系統都有可能受到這種偏差性的影響。

  索瑞爾的研究涉及一項近年來逐漸興起的領域,那就是機器學習中的公平、責任與透明性。要想解决這一問題幷不容易,在某些情况下,程序能够清晰地告訴系統去自動忽略一些思維定式。但在任何涉及微妙差异的表達識別案例中,人類都需要及時介入,來確保人工智能不會理解錯誤。取决于你不同的設計目的,具體的人工智能解决方案可能會有所差异,你設計這款人工智能系統是做什麽的?爲了搜索應用?爲了輔助决策還是其他事情?

  在人類社交習慣中,人們表面上模棱兩可的表態幷不代表他們對某些特定社會群體在內心有著某種明確的看法。心理學家們一直在對這一現象進行分析:這種現象的出現是否是因爲人們會傾向于隱藏自己的偏見,保持沉默不發表觀點,以避免陷入某種尷尬局面?是否有可能IAT測試幷不能那麽好的測試出人們的內心偏見?但對于人類而言,即便內心帶有某種偏見,人們至少仍然能够分辨是非對錯,可是機器就不一定,他們沒有倫理是非概念。因此,卡利斯坎和同事認爲在人工智能發展過程中,人類仍然必須要有所參與,幷保持程序代碼的透明度,以便人類能够時刻監督,幫助機器把握好價值判斷的尺度。

  卡利斯坎表示:「在存在認識偏差的狀况下,我們知道如何做出正確的决定。但不幸的是,機器幷沒有自我意識。「

 

[责任编辑:肖静文]
网友评论
相关新闻