因應人工智能應用在本港日漸普及,個人資料私隱專員公署今日(18日)發出指引,要求機構在開發、使用人工智能時,遵從相關規定。
私隱公署今日發布《開發及使用人工智能道德標準指引》,列出7項道德原則,包括機構應確保在人工智能的運作期間,有適當的人為監督;機構應披露正使用人工智能及相關的政策,並致力改善自動化和人工智能輔助作出的決定的可解釋性;機構應具備有效的數據管治;機構使用人工智能時應避免出現偏見及歧視;機構在使用人工智能時,應為持份者带來益處及減低對持份者造成傷害;以及應確保人工智能系統能可靠地運作,能夠處理錯誤,並得到保護而免遭攻擊。
另外,指引涵蓋4個主要範疇,分別是制定人工智能策略及管治、進行風險評估及人為監督、實行人工智能模型的開發及人工智能系統的管理,及促進與持份者的溝通、交流。
私隱專員鍾麗玲表示,人工智能的應用在香港日漸普及,包括面容識別、語音識別、聊天機械人等,所涉及的私隱、道德風險不容忽視,而目前世界各地就如何規管人工智能,尚未有共識,公署期望透過推出指引,協助機構在開發、使用人工智能時,遵從《私隱條例》規定,同時合乎良好數據道德標準。她又期望,指引配合《粵港澳大灣區發展規劃綱要》,促進香港成為區內創科中心、世界級的智慧城市。
對於會否就此立法,鍾麗玲認為仍有爭議性,她指,即使在歐洲,不同政府有不同做法,目前未見到立法規管的逼切性,但未來會繼續留意其他國家發展。
鍾麗玲補充,雖然指引沒附加罰則,若企業不遵守指引,有機會干犯保障私隱原則、私隱條例,公署亦會視乎實際情況,決定需否展開調查。
公署表示,會按個別情況,建議機構加強保障客戶的個人資料私隱,防止員工不當地使用客戶個人資料用作「起底」或其他非法目的。