【有一說一】應重視人工智能安全風險-香港商报
首页 > 新闻专题 > 评论 > 商报评论

【有一說一】應重視人工智能安全風險

2023-04-25
来源:香港商報

 城市智庫研究員 吳家俊

 港府「全民國家安全教育日」網頁本月更新,原國家安全16個重點領域新增至20個,新增的4個重點領域分別為人工智能安全、數據安全、金融安全和糧食安全,充分反映人工智能是國家安全的新焦點。人工智能可分三個級別:弱人工智能(Artificial Narrow Intelligence)、通用人工智能(Artificial General Intelligence)、超人工智能(Artificial Super Intelligence),各級別製造不同爭論和問題,世界各國都充分意識到人工智能將對國家安全構成不確定性影響,各國政府為保障國家安全,不能再付之闕如。

 人工智能牽涉巨資,普通的訓練模型動輒千萬美元,運算海量數據超級電腦維修保養費昂貴,種種龐大金錢投資,並非財力有限的小國可負擔。超級大國有財力,霸權國家一定會「有風使盡」,打壓所有較弱的國家,恃巨額支援,便可透過人工智能影響別國的國家安全。毋庸置疑,現時美國擁有這個優勢,美國亦好大機會將利用其人工智能去干擾別國安全。故此國安領域新增人工智能安全,合情合理。

 人工智能風險可以簡單分為數據、演算和應用三個方面的風險,數據方面較常見,例如雲端和敏感數據的竊取風險,2022年亞馬遜的律師團隊就提醒員工,不要與ChatGPT分享絕密數據,因為會被機器用作訓練學習;又如合成和深偽技術的合法性與知識產權,各國的法律學者已展開深入研究。數據的分享與貯存亦需研究,外國分裂國家組織若與本地人工智能系統分享數據,後者隨時可能陷入勾結外國勢力危害國家安全的罪行。

 演算方面,現時開發商在機器系統內界定不良非法等不恰當內容,當系統遇到這些「禁區」內的資料,便不會進一步提供演算並會作出警告,但劃界如何釐定,譬如各國的成年人定義有別,如何保護不同國家的未成年人去判斷內容,一些別有用心的勢力與組織,會在演算上故意放寬不當行為的界線,誘導人民分裂國家,後果難以控制。另外,演算出錯誰要負責,無人駕駛車輛意外的歸責仍在探討中,因演算出錯而錯誤發布了宣揚顛覆國家政權的資訊又該如何歸責,這些問題都需要政府和開發商共同思考與應對。

 應用方面,人工智能引導「民意」問題,機器假裝「民意」輸出它的意見,透過互聯網和各個AI系統渲染,讓社會輿論出現「主流意見」左右政府決策;還有人工智能可以創建暗網市場劇本,為非法交易提供自動對盤,生成極大量用戶和密碼組合,恐怖組織會利用其作為掩飾工具,逃避追查,策劃恐襲。

 上述只是冰山一角,我們必須明白,國家安全是穩定繁榮的基石,隨着人工智能發展,必須警惕它的潛在風險。人工智能安全是國家安全不可分割的一部分,業界和社會大眾必須嚴肅應對。

[责任编辑:赵桐曲]