AI領域最具影響力的四家公司將聯手成立行業機構,負責監督該領域最先進模型的安全開發。
據英國《衛報》報道,谷歌、微軟、OpenAI及Anthropic當地時間26日宣布,將組建「前沿模型論壇」(FMF),該行業組織將專注於安全、負責任地開發AI前沿模型。
報道稱,前沿模型是指能力超過最先進的現有模型、能夠執行各種任務的AI模型。所有開發前沿模型的組織均有資格成為FMF成員。
微軟總裁布拉德史密斯表示,開發AI技術的公司有責任確保其安全性及可靠性,並使其始終處於人類控制之下。這一倡議希望將科技界團結起來,負責任地推進AI發展並應對挑戰,從而造福全人類。”
FMF成員表示,其主要目標是推進AI安全方面的相關研究,如制定評估AI模型的標準、與政治家和學者探討AI的安全風險、幫助探索AI在氣候問題及癌症檢測等多領域的積極作用等。
在AI四巨頭成立行業機構的同時,推進AI技術監管工作的步伐也在加快。 FMF成員及其他多家科技公司21日在白宮與美國總統拜登會面後,同意採取新的AI保障措施。據悉,科技公司將允許獨立專家測試AI模型,同時還將為AI內容添加浮水印,明人們更好地辨別通過深度偽造等技術形成的誤導性內容。
美國白宮方面也聲明未來AI必須符合安全、保障與信任三大原則,並且必須以負責任形式打造。
圖源:路透社