手机访问:wap.265xx.comAI竟会种族歧视!清大携手跨国团队披露“医学伦理隐忧”

AI人工智能竟会种族歧视?清华大学信息工程系助理教授郭柏志与麻省理工学院、哈佛大学跨国研究发现,当采用先进的AI深度学习算法来判读X光片及计算机断层扫描时,计算机竟会从医学图片分辨出患者是黑人、白人或亚洲人,并影响判断的准确率,但科学家至今还不明白AI是如何办到。
郭柏志表示,医界近年大量引进人工智能,研发医疗机器人、智能诊疗及医学图片识别技术等,协助医生更快速、准确地诊断,这本该是造福病患的好事,但这项研究披露其中的隐忧,提醒医界应该注意医疗伦理问题,并消弭引进人工智能产生的医疗不平等现象。
跨国研究团队横跨4国,包括斯坦福大学、多伦多大学与美国国家卫生院,分析超过20万位病患的胸部、颈椎、手部X光及胸部计算机断层扫描,披露人工智能也有歧视问题的惊人真相,这项研究成果最近登上国际顶尖期刊《柳叶刀数字健康》。
美国食品药物管理局(FDA)目前已核准医院采用人工智能辅助判读X光片及计算机断层扫描等医学图片,人工智能的深度学习系统可帮助计算机针对大量数据自我训练,并发展出识别模型,研究团队发现,人类放射师无法从X光片判断出患者的种族,但AI却能轻易完成,而且准确率高达9成。

研究团队中一名哈佛大学教授表示,当团队成员称AI可以从X光片来判断人种,自己简直不敢置信,认为这真的太疯狂,一定是哪里出错,但当越来越多的证据浮现,有团队成员则直言感觉很“恐怖”。
郭柏志表示,团队本来猜想AI可能是从骨质密度来判断人种,因黑人的骨质密度高于白人,但后来发现并非如此,以某张手掌的X光片,显示AI判读人种的重点聚焦在中指与食指的第三指节,团队里也有二、三十年经验的放射科医师,但实在想不出来AI是怎么判读取人种。
令研究团队忧心的是人工智能的种族歧视,甚至可能影响医学图片判读的准确率,郭柏志表示,研究发现白人的医学图片有问题,却没被检查出来的误判率是17%,但黑人的误判率却高达28%,相差超过10个百分点,而医学图片的误判也会进一步影响急诊、医疗给付等资源分配。
郭柏志强调,原本以为人类才会歧视,计算机应该是最公平的,但没想到计算机也默默地提取人类没教的信息,包括人种及性别等,因此如何去除歧视,让各群体的医学图片判读都有一致的准确率,成为团队下一阶段要努力的目标。
(首图来源:清华大学)
举报/反馈
上一篇:孙俪的痣,余男的厚嘴唇,娱乐圈坚决不整容的女星,我只服这10位
下一篇:韩国限制级电影《小姐》:荆棘之城的曼陀罗,“绕指柔”的百味情
最近更新游戏资讯
- 秋瓷炫老公什么星座(秋瓷炫血型星座)
- 法国电影中的女性符号和觉醒
- 惊人的秘密:颜色政治背后的渗透与分化
- 让BB接受家庭伦理教育洗礼
- 语言礼仪十篇
- 美军欲打造AI战机部队 面临严重伦理问题
- 医学伦理学:医学伦理学的主要观点和基本理论
- 豆瓣9.0分以上|50本好书推荐
- 达尔文的故事赏析八篇
- 港台国学类学术会议信息(四十)
- 东野圭吾本格推理极致之作《回廊亭杀人事件》开票5折抢
- 辩论赛包含哪些技巧?
- 【铸牢中华民族共同体意识
- 徽州醉春丨水墨画里的徽州-婺源篁岭-江岭- 新安江- 西递- 呈坎丨六天五夜
- 心理治疗总论 【医学心理学与精神医学版】
- 苏德超教授的新论文:道德绑架为何难以避免
- 企业社会责任综述十篇
- 政务礼仪的作用(五篇)
- 韩素希出道最大尺度 泄朴海俊指导秘诀 咬牙拍完《夫妇》只有2感想
- 《封神三部曲》:为什么要重述这个神话?
- 输血和喝血真的能帮助女性和老人保持年轻吗?
- 集齐九部《星球大战》,教你如何把家庭伦理拍成太空歌剧
- 这十部顶级英美剧,是当之无愧的业界巅峰,每一部都值得通宵去看
- 邪王宠妻之金牌医妃
- 【博览】《科奖在线》:“破四唯、立新标”典型案例官宣,项目/人才/成果未来可能这