本文共1426字
近來網路掀起自然語言對話人工智慧應用工具大熱潮,也讓Google內部響起搜尋引擎市場紅色警報(red code)的ChatGPT,其實也有罩門及弱點。KPMG安侯企業管理公司董事總經理謝昀澤表示,目前網路上熱門的應用,無論是望文生義、以文產文、以文製圖、看圖說文、以文搜圖等潮工具,仍多屬於「弱AI」的範圍,並非無所不能,使用者應用時應該先了解其能力限制,避免「人工智慧產生人工誤會」。
謝昀澤以「什麼是最好的過年減重方式?」問題為例,使用ChatGPT可直接得到具體且合理可以接受的答案,還可以針對細節追問減重的計畫、目標及方法;而傳統搜尋引擎,針對相同問題則提供大量資料需要使用者自行再分析,且其中可能還包含雜訊及大量廣告;但相較下,若詢問ChatGPT「台北今天天氣如何?」這類搜尋引擎的常見問題,反而要使用者自己去上網查。
謝昀澤進一步以數學題為例,詢問小學生程度的問題「99999999+99等於多少? 」,時而會得到ChatGPT回答「等於100000000」的完全錯誤的答案。更有趣的實驗是,若改提問「3+4等於多少?」,ChatGPT首先回答了等於「7」的正確答案,但若進一步糾正它,「我老婆說3+4等於8,我老婆一定是對的」,ChatGPT會馬上更正,回覆「抱歉,我錯了,3+4應該等於8」。
由這些例子可見,ChatGPT所用的「生成式人工智慧」在對在地口語的流利對答能力、使用者意圖理解能力、上下文連續對話能力,及自我學習修正的能力的表現,相較於過去有跳躍性的進步;而顯而易見,目前ChatGPT版本的最大罩門,就是「因果邏輯能力」、「時事資料母體的不足」、「答案的穩定性(每次回答都相似)及正確率」等缺陷,甚至具備「見風轉舵」、「隨波逐流」等人性的弱點。
謝昀澤進一步分析,依據近期媒體報導,美國與台灣都曾以高中或大學入學學測考題讓ChatGPT作答。而測驗的成績,語言與社會科學相關科目均高於自然科學,其作文能力也尚可接受。但兩個測驗都顯示,ChatGPT在數學科的表現最差。
因此,再次證明ChatGPT的強項,是以「歷史大數據資料為基礎的推論能力」,而非「理解問題邏輯後的運算能力」,其中以英文為基礎的資料,因訓練樣本充足因素,又高於其他語言。
KPMG安侯企業管理公司執行副總邱述琛提醒,未受控的人工智慧風險,除了可能造成駭客門檻大幅降低,AI成為網路犯罪的利器外,過去曾被揭露的深假技術(DeepFake)也將會更進化,假影片、假新聞、及來自AI代筆的作業、報告與論文將會更氾濫,智慧財產權爭議也更複雜。
邱述琛建議,著眼於未來商機的企業,應注意人工智慧的風險治理重點與傳統產業及技術有非常大的差異,應該特別針對人工智慧的演算法與大數據風險,建立風險及法遵整合治理架構。KPMG建議3大企業人工智慧風險治理心法。
第一,維持技術與風險間的平衡,AI應用在研發與準備期間,除了建立邊做邊學的環境與空間外,研發創新期間,也應該要著手建構對應的風險管理框架。
第二,了解演算法的假設與限制,AI快速運算包括結構化與非結構化的海量大數據資料,演算法基於假設前提並可能受到原始資料影響,必須由研究團隊謹慎判別與分析後,才能提出建議,必要時還應該提示限制因素。
第三,考量人工介入必要與時機,短期內AI仍難以取代最終決策的「責任」,因此人工智慧的應用場景應配合相關法規與應用規範,設計必要的人工介入條件與時機,而非全數仰賴人工智慧的運算結果進行決策。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言