AI藏種族歧視誤判因子 清大跨國團隊揭醫學倫理隱憂

清大資工系助理教授郭柏志(左)與麻省理工學院、 哈佛、史丹佛大學等校合作分析超過20萬名病患的X光電腦斷層掃描,發現人工智慧有歧視誤判時,相關研究成果登上期刊刺胳針數位健康 (Lancet Digital Health)。(圖/清華大學提供)

【新唐人亞太台 2022 年 06 月 09 日訊】清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。

清華大學今天發布新聞稿指出,郭柏志與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」(The Lancet Digital Health),吸引外媒報導。

郭柏志指出,透過AI人工智慧協助診療發現,白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配。

郭柏志說,醫界近年大量引進人工智慧,透過智慧診療及醫學影像識別技術等有助於醫生更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人工智慧產生的醫療不平等現象。

郭柏志表示,未來要如何去除歧視,讓各族群醫學影像判讀都有一致的準確率,為下一階段努力的目標。

(新聞來源:中央社)

相關新聞

今日整點新聞

九評共產黨引發三退大潮

目前退出中共黨、團、隊總人數

隨處可看新唐人