本文共466字
經濟日報 記者邱金蘭/台北報導
AI時代來臨,演算法可能隱藏歧視,不少金融機構改用看似中立的變項,如郵遞區號等,本以為可消除歧視,殊不知,這些變項仍隱含敏感特徵,形成另一種「代理歧視」。有鑑於此,不少國外監理機關透過法令及演算法審查,來阻絕歧視。
新光人壽副總廖晨旭表示,傳統金融機構經常使用性別、種族、身心障等項目,評估危險發生率,有些國家立法禁止,於是金融機構改採替代變項,如健康行為、郵遞區號等。偏偏有些地方的郵遞區號會與特定族群高度重疊,本要消除歧視,卻還是讓少數族群貸款困難。
台灣也有類似情況,像台北市大安區的仁愛路、敦化南路等路段,聚集了不少豪宅、高收入人士,這裡的郵遞區號,就隱含了較高的社經地位;有些新資料,會採用民眾的社群媒體行為或瀏覽紀錄,實則也有敏感的年齡、宗教、教育程度、種族等資訊在其中。
去年生效的《歐盟人工智能法案》(AI Act)要求對高風險演算法,進行代理歧視檢測與修正,並將保險公司的定價與核保列為最高風險等級,演算法須送審後才可上架。
美國紐約州、加州保險監理機關,則明文禁止使用「與敏感特徵高度相關」但無合理目的的變項。(系列完)
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言