AI竟会种族歧视!清大携手跨国团队披露“医学伦理隐忧”

栏目:游戏资讯  时间:2023-06-09
手机版

  

  AI人工智能竟会种族歧视?清华大学信息工程系助理教授郭柏志与麻省理工学院、哈佛大学跨国研究发现,当采用先进的AI深度学习算法来判读X光片及计算机断层扫描时,计算机竟会从医学图片分辨出患者是黑人、白人或亚洲人,并影响判断的准确率,但科学家至今还不明白AI是如何办到。

  郭柏志表示,医界近年大量引进人工智能,研发医疗机器人、智能诊疗及医学图片识别技术等,协助医生更快速、准确地诊断,这本该是造福病患的好事,但这项研究披露其中的隐忧,提醒医界应该注意医疗伦理问题,并消弭引进人工智能产生的医疗不平等现象。

  跨国研究团队横跨4国,包括斯坦福大学、多伦多大学与美国国家卫生院,分析超过20万位病患的胸部、颈椎、手部X光及胸部计算机断层扫描,披露人工智能也有歧视问题的惊人真相,这项研究成果最近登上国际顶尖期刊《柳叶刀数字健康》。

  美国食品药物管理局(FDA)目前已核准医院采用人工智能辅助判读X光片及计算机断层扫描等医学图片,人工智能的深度学习系统可帮助计算机针对大量数据自我训练,并发展出识别模型,研究团队发现,人类放射师无法从X光片判断出患者的种族,但AI却能轻易完成,而且准确率高达9成。

  

  研究团队中一名哈佛大学教授表示,当团队成员称AI可以从X光片来判断人种,自己简直不敢置信,认为这真的太疯狂,一定是哪里出错,但当越来越多的证据浮现,有团队成员则直言感觉很“恐怖”。

  郭柏志表示,团队本来猜想AI可能是从骨质密度来判断人种,因黑人的骨质密度高于白人,但后来发现并非如此,以某张手掌的X光片,显示AI判读人种的重点聚焦在中指与食指的第三指节,团队里也有二、三十年经验的放射科医师,但实在想不出来AI是怎么判读取人种。

  令研究团队忧心的是人工智能的种族歧视,甚至可能影响医学图片判读的准确率,郭柏志表示,研究发现白人的医学图片有问题,却没被检查出来的误判率是17%,但黑人的误判率却高达28%,相差超过10个百分点,而医学图片的误判也会进一步影响急诊、医疗给付等资源分配。

  郭柏志强调,原本以为人类才会歧视,计算机应该是最公平的,但没想到计算机也默默地提取人类没教的信息,包括人种及性别等,因此如何去除歧视,让各群体的医学图片判读都有一致的准确率,成为团队下一阶段要努力的目标。

  (首图来源:清华大学)

  举报/反馈

上一篇:孙俪的痣,余男的厚嘴唇,娱乐圈坚决不整容的女星,我只服这10位
下一篇:韩国限制级电影《小姐》:荆棘之城的曼陀罗,“绕指柔”的百味情