无法在这个位置找到: ”baidu_js_push.htm” 今日热点推荐: 爱地那非是什么?悦康“爱力士” 加入收藏 | 设为首页 | 热门搜索 | 网站地图

AI病理诊断解释方案或解决人工智能CFDA三类申报获批关键难点(3)

2019-08-23  未知 admin

AI可解释性的研究

正如前文所示,该系统通过扫描器网络、诊断器网络、聚合器网络,对AI辅助诊断的可解释性进行了探索,最终会产生说明文字同ROI同步输出。

可解释性图示

如上图,a、b显示的为全片肿瘤检测结果,c、d、e则为生成的“特征感知注意图”,对诊断细节进行描述。我们可以看到,针对每一张切片,系统在判读后,除了常规地将ROI区域框选出来,还针对不同区域生成了解释性文字。

其中,不同特征的文字被使用不同颜色加以区分,而该描述所对应的ROI,都被加以相同颜色的框表示,便于病理医生查看时一一对应。

该系统描述了观察到的一定数量的细胞特征以及特征感知注意图,注意图对网络观察到的视觉信息的类型给出了强有力的解释(图c-e)。实际上,注意图包含了框选区域中每一个像素的权重,用以确定不同像素对于给定的特征观察的重要程度,但输出的内容却并不是令人费解的数值,而是类似于病理医生的判读依据。

这样专业化的文字表述加强了AI分析病理切片的可信度,当人类医生与机器诊断结果不符时,医生们也能够更容易地对比自己与机器的诊断意见到底在何处有所区别,了解产生区别的原因,在很大程度上能够提高诊断准确度。

系统网络组件的评估

在算法结构方面,算法的各部分性能在完成后均被予以验证。

首先,研究人员评估肿瘤和非肿瘤图像的s-net的肿瘤检测召回率(非肿瘤图像表示内部没有突出肿瘤的裁剪的滑动组织区域)。s-net达到94%的高真阳性(检测到的肿瘤像素数/总注释肿瘤像素)并同时维持95.3%的阴性召回率。

其次,研究人员使用了两个评估指标验证了生成的诊断描述的质量:双语评估Understudy(BLEU)和基于共识的图像描述评估(CIDEr)。而这些验证结果显示,该算法已经具备了一定的优越性。

此项实验突破了AI病理三类证审批的关键难点

囿于其决策流程的不可解释性,“深度学习”一直被遵循循证医学指南的临床医生拒之门外,成为了制约医学影像人工智能发展,特别是获得三类证审批的关键。

而本次实验则为人工智能的审批提供新的思路:虽然现阶段的人工智能仍不具备推理能力,但我们能将医生的推理步骤模块化,从而模拟推理的过程。此外,本次实验中的文字匹配过程是按照WHO标准并具有严格依据的,这与许多基于多样本深度学习生成的勾画不同,实验的每一个步骤都可由AI提供决策依据,并非单纯概率云下的黑箱运算。

杨林教授现任职于迪英加CEO,这是迪英加科技在三类证申报过程中的一步坚实工作,用于解决CFDA三类证申报中广泛要求的可解释行提供了关键的核心技术解决方案。

鐑瘝锛

鐢熸畺鎰熸煋鐑棬鎺掕

关于我们 | 版权声明 | 广告服务 | 诚聘英才 | 合作伙伴 | 联系我们 | 友情链接 | 网站地图
Copyright © 2013-2017 东方健康网 版权所有 Power by DedeCms闽ICP备17010993号-4