打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

小心金融歧視/演算法偏見 須矯正

本文共599字

經濟日報 記者林安妮/台北報導

AI的誕生,有助解決一部分的社會問題,不過,AI的「先天缺陷」,如幻覺或者偏見,也需要「人」很有意識的去矯正。

玉山銀行消費金融處資深協理蔡宗樺表示,有些歧視是肉眼看不見、藏在細節裡的,演算法歧視就是其一。舉凡拿來訓練模型的資料,或是演算設計的基礎,若不仔細排除歧視,很容易把實體通路上的歧視,帶到更高速運轉的數位通路,「如此一來,實體通路的歧視,就彷彿被複製貼上到數位通路再放大。」

常見的演算法偏見,包括原先的訓練資料就存在歷史歧視、採樣不足、標註者偏見等問題,由此訓練的模型,自然而然就會「不公平」。還有一種歧視的產生,是標籤偏差,例如有銀行或保險公司,拿過去成功取得貸款或核保的結果當標籤,其結果就是,持續複製不公。

蔡宗樺說,在台灣,只要跟AI模型有關的議題,主管機關都特別謹慎,甚至要求銀行要建立半年度或年度的考核機制,確認模型運作是否合理正確,減少演算法歧視。

Lydia AI共同創辦人李俊毅提到,過去看台灣資料時,的確會發現偏鄉或某些族群會有一些偏高的數據,如酗酒率;同樣的情況看美國資料,有些族裔也會有類似情況。這時要降低偏見,AI就必須從倫理的角度去做調整,例如去找同年齡、同性別群裡面的標準是多少,跟對照組做比較來調整,當然這個調整的過程,必須出一個正式的報告給保險公司。

李俊毅說,在國外,要調整AI的偏見,也常會以替代性資料,比如健檢頻率、運動習慣等行為數據,來取代敏感族群標籤。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

猜你喜歡

上一篇
小心金融歧視/保費上漲 引發社會陣痛
下一篇
小心金融歧視/特殊弱勢 不應該「殺無赦」

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!