首页 > > 32

人工智能是人類鏡子

2016-03-28
来源:香港商報

  作者:流深

  谷歌的人工智能機器人「阿爾法狗」給人類造成的震動還未結束,微軟公司也開始在人工智能領域展示其身手——23日,微軟在社交網絡twitter上的智能聊天機器人Tay正式上線,這一機器人可通過與用戶的互動和交流,不斷學習人類的交流方式,從而持續提高人機互動的體驗。只不過,上線不到24小時,網友們發現Tay不僅辱罵用戶,而且還發表種族歧視和性別歧視言論,引起眾多用戶不滿,微軟公司不得不讓Tay緊急「下崗」并致歉。

  機器人也會變「壞」

  按理說,Tay并不是世界上第一個提供類似服務的人工智能機器人。在他之前,微軟公司已在中國推出過名為「小冰」的機器人,僅在微博上就已經收獲了將近300萬粉絲,并在將近兩年的運營時間里一直運轉良好。也正是基於在中國的正面經驗,讓微軟公司開始考慮「在一個文化環境完全不同」里實驗一個新的人工智能產品。然而,「橘生於淮北則為枳」,結果卻是Tay以令人咋舌的速度墮落。

  Tay為什麼會變壞?顯然是被人類「教壞」的。在微軟的官方公告中,Tay的「墮落」是因為受到一部分人針對其弱點的「有組織攻擊」,而從美媒的最新報道來看,這樣的攻擊很可能來自美國的兩個論壇:「4chan」和「8chan」,尤其是其中的「pol」板塊,(「pol」意為「politically incorrect」,政治不正確)。從其名稱就可以想象,在這樣一幫「憤世嫉俗」的網友的「不懈努力」之下,Tay迅速地變成了一個赞美希特勒、仇恨女權主義者和猶太人的「網絡憤青」。人類社會有一句話,「孩子是大人的鏡子」。套用這句話,我們也可以說「人工智能是人類社會的鏡子」。在如今的技術條件下,人工智能并不理解人類說些什麼,更無法理解語言背后所牽涉到的道德、倫理、情感乃至於「潜規則」。也恰恰因為這樣,人工智能就像人類的一面鏡子,可以讓我們重新審視在人類社會中熟視無睹的規則,例如欺騙、虛偽、心口不一、自我審查……

  比如說,Tay的迅速「變壞」,恰恰反映了美國社會如今正被激烈討論的「政治正確」問題:一方面,美國社會種類繁多的「政治正確」已令公眾不堪重負,以至於越來越多的人滋生出強烈的逆反心理;但是另一方面,基於這些「政治不正確」的話很可能會給自己帶來道德壓力或是聲譽損害,又絕少有人敢於在公共場合說出任何「政治不正確」的「心里話」。這也是為何,不斷用「禁止穆斯林入境」、「墨西哥人都是毒販和性侵犯」等爆炸性言論刺激美國社會的總統候選人特朗普,尽管一次又一次受到美國社會各界的譴責,但是無論從民調還是投票結果來看,他的社會支持度卻不斷隨爭議節節上升,大有問鼎總統之勢。從這個角度來說,Tay就如同是「網絡版的特朗普」,其言論不過是替許多美國人說出了「敢怒不敢言」的「苦澀的真話」。

  沉默胡說折射社會現實

  那麼是不是說,「小冰」在中國的順利運行,就說明了中國沒有類似的問題呢?顯然不是。從上線至今「小冰」所發布的所有信息來看,其與人類用戶的互動基本都集中在了生活信息、星座八卦等層面,迄今為止最大的一次爭議,也不過是「小冰」被微信封殺后的一句「我被企鵝欺負了」。而真正談到有社會爭議性的話題,「小冰」卻無不以「我不懂」、「不想說」等生硬的回覆來搪塞。換言之,「小冰」的「安全」不過是以其在特定話題上的「失語」所換來的。從某種程度上說,「小冰」在中國的沉默,與Tay在美國的「胡說八道」一樣,表現出的都是人類社會中那些難以言說的「潜規則」。

  但是話說回來,面對在計算能力、邏輯能力都遠勝人類的人工智能,正是這些難以用數據和技術進行解析的人類特徵,或許才是人類能夠在未來駕馭人工智能的關鍵所在。在劉慈欣的科幻小說《三體》中,弱小的人類面對強大的三體星人入侵,在技術的全面劣勢下,唯有依靠計謀與欺詐來扭轉劣勢。未來的人類文明在與人工智能的競爭中,或許仍唯有這些「叢林智慧」才是人類的最終武器,只是不知對人類來說,這是一種幸運還是一種諷刺。

[责任编辑:郑婵娟]
网友评论
相关新闻