打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

英韓舉辦峰會 16科技大廠達成 AI 安全協議

英國與南韓共同舉辦的AI安全峰會首日,16家科技大廠就AI安全,達成了指標性的國際協議。 (美聯社)
英國與南韓共同舉辦的AI安全峰會首日,16家科技大廠就AI安全,達成了指標性的國際協議。 (美聯社)

本文共753字

經濟日報 編譯陳苓/綜合外電

英國與南韓共同舉辦的人工智慧(AI)安全峰會(AI首爾峰會,AI Seoul Summit)首日,包括微軟、亞馬遜、OpenAI等16家科技大廠,21日就AI安全,達成了指標性的國際協議。此外,全球領袖可望在峰會上,敲定實際管理AI科技的新協定,顯示各國積極規範AI,也爭奪AI監管話語權。

16家科技業者的協議將使美國、中國大陸、韓國、阿拉伯聯合大公國等的公司,自願確保能安全開發最先進的AI模型。

AI模型研發商將各自公布安全架構,闡明要如何評估前沿模型的風險,例如檢視技術遭有惡意人士濫用的危險性。這些架構也會包含科技公司的紅線,也就是被視為無法容忍的風險,如自動化網路攻擊或生物武器威脅。在極端情況下,若無法保證能減少相關風險,將停止發展AI模型。

英相蘇納克表示:「這麼多世界各地的AI大廠,均同意對AI安全做出相同承諾,為全球首見。」該協議僅限於前沿模型,即OpenAI聊天機器人ChatGPT大型語言模型背後的科技。

ChatGPT 2022年底問世後,監管機關和科技領袖都日益憂慮先進AI帶來的風險。六個月前英國舉辦了首場AI安全峰會,南韓首爾會議將以前次會議為基礎,應對相關風險。

英相蘇納克和南韓總統尹錫悅21日與全球領袖進行線上會議,數位部長與專家等則將在22日進行實體會議。下一場實體峰會則由法國主辦,明年召開。

與此同時,歐盟成員國也在21日通過「AI法案」,該法將於下個月生效,有望替這個幾乎可應用於各行業和日常生活的技術,設定潛在的全球基準防線。

美國對AI監管較為寬鬆,僅要求業者自願遵守,歐盟AI法案則更為全面,依據風險採取對策,倘若某一系統為高風險,業者將有更嚴格的規範,以保護公民權益。該法生效後,AI模型如ChatGPT須在法案上路後12個月遵行新法,企業則須在2026年前遵守。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
教宗良十四世為烏克蘭祈禱和平 接見澤倫斯基夫婦
下一篇
巴菲特股東大會談話已成絕響?股神計劃明年不再登台 只為了他

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!