滑铁卢大学的研究人员开发了一种新的可解释的人工智能(AI)模型,以减少偏见,增强机器学习生成的决策和知识组织中的信任和准确性。
传统的机器学习模型通常会产生有偏见的结果,倾向于人口众多或受未知因素影响的群体,并且需要花费大量的精力从包含来自不同类别或主要来源的模式和子模式的实例中进行识别。
医学领域是一个对有偏见的机器学习结果有严重影响的领域。医院工作人员和医疗专业人员依靠包含数千份医疗记录的数据集和复杂的计算机算法来做出有关患者护理的关键决策。机器学习用于对数据进行排序,从而节省了时间。然而,具有罕见症状模式的特定患者群体可能未被发现,并且错误标记的患者和异常可能影响诊断结果。这种固有的偏见和模式纠缠导致对特定患者群体的误诊和不公平的医疗保健结果。
滑铁卢大学杰出的系统设计工程荣誉教授Andrew Wong博士领导了一项新的研究,他提出了一个创新的模型,旨在通过从数据中解开复杂的模式,将它们与不受异常和错误标记实例影响的特定潜在原因联系起来,从而消除这些障碍。它可以增强可解释人工智能(XAI)的信任和可靠性。
Wong说:“这项研究对人工智能领域做出了重大贡献。”“在分析来自x射线晶体学的大量蛋白质结合数据时,我的团队揭示了物理化学氨基酸相互作用模式的统计数据,由于结合环境中存在的多种因素的纠缠,这些模式在数据水平上被掩盖和混合。这是我们第一次表明,可以通过科学证据解开纠缠的统计数据,为数据层面上缺失的深度知识提供正确的图景。”
这一发现促使Wong和他的团队开发了新的XAI模型,称为模式发现和解纠缠(PDD)。
“有了PDD,我们的目标是弥合人工智能技术和人类理解之间的差距,帮助实现值得信赖的决策,并从复杂的数据源中获取更深入的知识,”Wong团队的首席研究员周培元博士说。
来自多伦多大学的自然语言处理专业的合著者和合作者安妮·李教授预见了PDD对临床决策的巨大价值。
PDD模型彻底改变了模式发现。各种案例研究都展示了PDD,展示了基于临床记录预测患者医疗结果的能力。PDD系统还可以在数据集中发现新的和罕见的模式。这使得研究人员和从业者都可以检测到机器学习中的错误标签或异常情况。
结果表明,在严格的统计和可解释的模式的支持下,医疗保健专业人员可以做出更可靠的诊断,从而为不同阶段的各种疾病提供更好的治疗建议。
这项研究,可解释的一体化模式发现和解开系统的理论和原理,发表在npj数字医学杂志上。
最近,NSER为PDD提供了12.5万美元的创意创新资助,这表明PDD得到了业界的认可。PDD通过滑铁卢商业化办公室进行商业化。
作者:滑铁卢大学
链接:https://www.sciencedaily.com/releases/2023/08/230808110905.htm
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com
2023-08-23 14:02:44
滑铁卢大学