本文共530字
生成式AI系統蓬勃發展,但生成式AI系統訓練機制的正確性、可信任性、資安風險仍有待觀察;資安院院長何全德今(29)日指出,資安院將研擬AI系統檢測機制,規劃今年底出爐。
紅遍全球的ChatGPT,就屬於生成式AI。所謂的生成式AI,是將各式資料數據輸入系統後,讓系統自主進行學習,並在學習過後,重新產生出全新內容。
ChatGPT的學習模式,就是透過大量自然語言文本數據進行訓練,這些數據來自互聯網、社交媒體、新聞等各個領域;但也因為數據來自各個領域,不見得每個數據都具備正確性,這也會影響ChatGPT的學習,ChatGPT有時甚至會給出錯誤答案。
這也是社會各界對於生成式AI的正確性、可信任性、資安風險仍抱持疑慮的主因。
為了解AI技術是否值得信任,資安院也打算擬定AI系統檢測機制;何全德指出,美國國家標準技術研究院(NIST)先前已發布AI風險管理框架,內容包含將可信賴等因素納入AI產品、服務和系統的設計、開發等,未來,資安院會依國科會發布的人工智慧科研發展指引,搭配NIST AI風險管理框架,擬定AI系統檢測機制,作為未來技術發展基石。
何全德表示,資安院會先將AI檢測機制標準、制度建立起來,未來,政府各單位是否要運用這套標準,則由各主管機關再做研議。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言