經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

應對人工智慧發展新挑戰

AI示意圖。路透
AI示意圖。路透

本文共1359字

經濟日報 社論

根據日本經濟新聞的報導,七大工業國家集團(G7)在4月的數位和科技部長會議上,呼籲針對生成式人工智慧(AI)的相關風險,包括偏見和錯誤信息的傳播、侵犯版權等,制定國際評估標準,以促進該技術的審慎發展。會議並就適當使用AI和其他正在開發的科技達成五項原則:法治、正當程序、利用創新機會、民主和尊重人權。

事實上,近年來AI發展迅猛,已成為各行各業創新及提升生產力的重要工具,但其產生的副作用也為社會及產業帶來許多新的議題。G7成員國義大利曾要求ChatGPT下線,調查ChatGPT可能違反個資法的情形,儘管已於4月底解除禁令,但這項行動引發歐洲其他國家的關注,某種程度也鼓舞了各國監管隱私單位啟動調查的動機。

而隨著AI的應用與滲透性愈發普遍,其所帶來的挑戰也愈來愈嚴峻,這包括其一,偏見與公平性。機器學習的演算法是基於訓練資料來進行學習和預測,但如果訓練資料中存在偏見,這種偏見就會被機器學習模型所學習,進而導致偏見的預測和決策。例如,一個用於招聘的機器學習模型如果只學習男性在特定職位上的表現,就可能對女性申請者產生偏見。

其二,隱私保護與安全的議題。隨著AI技術的發展,大量的個人數據被收集和使用,隱私是否受到充分的保護成為眾所矚目的焦點。

如果個人數據被不當使用或洩露,則可能造成嚴重的社會和個人損失,這樣的事件屢見不鮮;另外,人工智慧系統愈來愈複雜,且擔負的任務愈來愈重要,萬一受到駭客攻擊,後果也不堪設想。

其三是倫理道德的問題。例如自動駕駛汽車是否應該優先考慮乘客的生命,還是要考慮其他道路使用者的生命。在人工智慧決策中,如何考量與平衡各方利害關係人的利益,這也是一個非常複雜的問題。

其四是透明度、可解釋性及法律和監管框架的問題:由於AI技術的複雜性,往往難以理解和解釋AI模型的決策和結果,這也給使用者和監管機構帶來了困難。而隨著AI技術的發展,法律和監管框架也需要相應的更新和調整;因為現有的法律和監管框架可能無法涵蓋AI技術的各個方面,或者不足以解決AI技術所帶來的議題。

其五是經濟和社會衝擊的問題:一方面,AI技術的應用可以提高生產力、創造新的就業型態;但另一面,也將導致工作機會減少、失業率上升,加劇收入和財富的不平等,造成社會的對立與不安。

AI帶來的創新生產力顯而易見,但其負面挑戰也逐漸顯現,政府應積極與各界加強合作,以降低其對產業、經濟及社會可能造成的衝擊。首先,為解決偏見和公平性問題,應增加數據的種類、規模及多樣性、加強數據的可靠性。

其次,應儘速制定AI倫理準則、加強相關法規與監管,並採取有效的隱私保護及技術安全防範措施,例如加密、匿名化、分散化存儲及強化技術及資訊安全等。

再者,應加強多方及國際參與的協作機制。AI技術的發展需要跨國、跨界、跨部門、跨學科的合作。為了促進AI技術的發展和應用,必須建立多方參與的協作機制,促進不同領域之間的交流和合作,加強技術創新和知識共享。再其次是加強AI透明度和可解釋性。通過使用可解釋性的演算法、將AI決策與人工智慧系統背後的原理相結合、開放AI模型、建立透明度機制等。

最後,為了應對AI帶來的挑戰和問題,必須加強人工智慧教育和培訓,提高勞動力對新技術和應用的認識和理解,增強對AI風險和挑戰的意識,並培養弱勢族群相對應的技能和能力,以迎接未來的挑戰。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

上一篇
馬習二會對兩岸經貿的意義
下一篇
​壽險業嚴謹監理 確有必要

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!