《自然》下期:火眼!科学家开发了一个基于病理切片的人工智能系统。肺癌分型准确率为97%,还能鉴定出6个常见的肺癌突变基因|科学发现
每个医学生都应该经历过看病理切片的痛苦。眯眼看几分钟显微镜“找差异”真的是一种很大的折磨,但是如果我们没有经历过这几千种折磨,面对一些看起来特别像的肿瘤就不得不麻木了。例如,肺腺癌(LUAD)和鳞状细胞癌(LUSC),两者都属于非小细胞肺癌,非常相似,但它们的临床治疗选择却大相径庭。
几十年来,医生一直依靠训练有素的眼睛为病人寻找诊断依据,但也许他们很快就能摆脱这种繁琐的重复工作。
今天发表在《自然医学》上的一项新研究带来了纽约大学研究人员的最新成果。研究人员通过使用大量的数字病理切片图像,对Google的深度学习算法盗梦空间V3进行了重新训练。AI识别癌组织和正常组织的准确率为99%,区分腺癌和鳞癌的准确率为97%,远远领先于以往的研究![1]
更令人惊讶的是,该算法可以从切片图像中识别肺癌中六种常见的基因突变,包括靶向治疗的EGFR突变,准确率为73%-86%。目前,一个数字切片在单个GPU上的检测时间约为20秒。研究人员认为,有了更新的技术和多个GPU的并行处理,每个切片的检测时间只能是几秒钟!
真的很关键!
记者阿里斯托里·齐里戈斯(左)和纳尔吉斯·拉扎维翁(右)
无论发病率还是死亡率,肺癌都是中国癌症的头号杀手,每年新增病例80万,死亡近70万。肺腺癌(LUAD)和肺鳞癌(LUSC)是绝大多数非小细胞肺癌中的两种主要亚型[1],它们现有的治疗方案,从常规化疗到最新的靶向治疗,完全不同[2],因此准确区分亚型是关键。
病理组织切片是临床常用的分类方法。但是,第一,在几倍放大的显微镜下,数据量巨大。第二,癌细胞的形态可能没有明显的差异。如何解放医生的眼睛,值得探讨。
以前,一些研究人员使用随机森林模型来开发病理切片的识别算法。肿瘤组织与正常组织的区分准确率达到85%,亚型分型准确率达到75%[2];另一项研究达到了83%的打字准确率[3]。
纽约大学的研究人员选择了Google的开源算法cutout v3[4],这是一种常用于分析视觉图像的卷积神经网络(CNNs)。在谷歌手里,它可以识别1000多种物体,还被成功用于检测皮肤癌[5]和糖尿病视网膜病变[6]。
那么AI怎么才能知道肿瘤组织和正常组织呢?用知识喂它!
研究人员从基因组数据共享(GDC)数据库中获得了1634幅数字化病理切片图像,包括1176个肺肿瘤组织和459个正常肺组织,分为三组分别进行训练、验证和检测。
考虑到整个数字切片中的数据量巨大,不能直接用于分析,研究人员进一步将每个切片分为512×512像素的碎片图像,根据切片大小从几万到几千不等,平均每个切片约500个碎片。
培训过程
不得不说机器真的很智能。吃了这些知识,就成了病理学家。区分肿瘤组织和正常组织的准确率达到99%,达到真正的专家水平;在区分正常组织、鳞状细胞癌组织和腺癌组织时,准确率达到96.8%!
研究人员邀请了三名病理学家与人工智能竞争,两名专门研究胸部,一名是解剖专家。总的来说,三位经过尝试和测试的专家的水平基本和AI一样。50%有AI分类错误的切片也至少有一个专家搞错了,说明腺癌和鳞状细胞癌确实很难区分。此外,专家误读的切片有83%(45/54)能被AI正确分类,说明该系统具有很大的二次校正潜力。
红色腺癌、蓝色鳞状细胞癌和灰色正常组织
AI除了精准,还有一个优势就是速度。一般情况下,医生看一片需要几分钟。如果病理组织特别复杂,也许用免疫组化分析,诊断时间会超过24小时。
AI快多了。目前研究人员使用单个特斯拉K20m GPU进行分析,每个数字切片平均分为500块。分析只需要20秒左右。如果多个GPU并行运行,几乎几秒钟就能产生结果!目前最大的障碍在于扫描系统,放大20倍扫描一个切片需要2-2.5分钟。但是FDA去年才批准最新的超高速数字病理扫描仪[7],相信这不会是一个很难逾越的障碍。
研究人员还在纽约大学的独立数据库中进行了测试,AI在83%-97%的情况下仍然可以正确分类。考虑到纽约大学保存的肿瘤样本纯度远低于GDC样本,GDC样本中含有更多的炎症、血管、血凝块、坏死区域等“噪声”,保存样本的方式也不同,研究人员认为,只要数据量上来,准确性也会提高。
在冰冻切片、FFPE样本和活检样本中,准确性良好
接下来,研究人员将尝试训练人工智能从病理切片中“看到”突变,这是任何杰出的医生都做不到的!
为了保证足够的样本量,研究人员只选取突变率高于10%的基因和腺癌样本,包括320片和21.2万个片段进行训练和验证,62片和4.4万个片段进行测试。AI经过努力学习,能够识别肺癌中STK11、EGFR、FAT1、SETBP1、KRAS、TP53等6个基因的常见突变,准确率在73%-86%之间。
再者,从数据上看,面对各种EGFR突变,免疫组织化学分析(IHC)只能检测到两种最常见的p.L858R和p.E746_A750del,AI也能检测到更多的突变和缺失,如p.G719A、p.L861Q和p . E709 _ T710delinsD。
如前所述,EGFR已经有了相应的针对性治疗方案;STK11存在于15-30%的非小细胞肺癌中,也是潜在的治疗靶点[8,9];其他基因的突变也有一定的预后意义,与肿瘤的耐药性和侵袭性有关。
特定精度数据
与亚型检测一致,独立样本中突变检测的准确率略有降低,幅度与亚型检测相近。研究人员认为,这也是样品制备带来的差异,可以通过大数据训练来改善。
但研究人员仍然不知道AI如何从切片中判断突变,只能猜测突变会带来人类无法观察到的极小变化。这就是机器学习的“黑箱”问题。有人认为我不需要知道为什么,用好就好。一些反对的研究人员提出,如果你不知道为什么,你怎么能100%确定呢?
这是研究人员接下来要做的。未来几个月,研究人员将使用更多不同来源的数据来训练AI,并积极考虑商业化用于早期临床应用。
想象一下,肿瘤测序需要几天到几周的时间。考虑到时间和费用,不能纳入标准处理流程。而如果这项技术真的产生了,那么只要把病理切片一扫而空,就有可能得到可行的治疗方案。岂不是很美?
AI也可以给出变异率
当然,研究还处于比较基础的阶段。斯坦福大学癌症研究所研究员丹尼尔·鲁宾(Daniel Rubin)表示,说这项技术可以取代目前的诊断方法还为时过早,AI还需要更多的验证工作。然而,这项研究确实向我们展示了人类与计算机合作的前景,也表明病理图像中包含的信息远远超过了我们现在可以使用的范围[10]。
本文记者Aristotelis Tsirigos在接受采访时也表示,AI可以通过病理切片诊断肺癌亚型,并不意味着很快就可以取代医生的工作,但目前AI可以帮助医生减少阅读错误[11]。
我希望这些基本任务在未来都可以交给机器来完成,这将真正解放医生去处理越来越重要的临床决策。
参考文献:
[1]顾德瑞,莫瑞拉,萨基拉罗普洛斯,等.利用深度学习从非小细胞肺癌组织病理学图像进行分类和突变预测[J].bioRxiv,2017。
[2]俞,金宏,等.全自动显微病理图像特征预测非小细胞肺癌预后.纳特。社区。7, 12474 (2016).
[3]科斯拉维,p .,卡泽米,e .,伊米林斯基,m .,Elemento,O. & amp深度卷积神经网络能够区分不同种类的数字病理图像。EBioMedicine 27,317–328(2018)。
[4] Szegedy,c .,Vanhoucke,v .,Iofe,s .,Shlens,J. & amp重新思考计算机视觉的初始架构。在IEEE计算机视觉和模式识别会议记录,2818–2826(美国马萨诸塞州波士顿,2015年)。
[5]Esteva,A .等.用深层神经网络对皮肤癌进行皮肤科医生级分类。自然542,115–118(2017)。
[6]Gulshan,v .等.在视网膜眼底照片中检测糖尿病视网膜病变的深度学习算法的开发和验证。J. Am。Med。协会316, 2402–2410 (2016).
[7]东叶步司;美国全载玻片成像设备监管轨迹的现状。J. Pathol。通知。8, 23 (2017).
[8]LKB1/STK 11的失活是肺腺癌中的常见事件。癌症研究62,3659–3662(2002)。
[9]Shackelford,D. B .等人LKB1失活决定了非小细胞肺癌对代谢药物苯乙双胍的治疗反应。癌细胞23,143–158(2013)。
[10]https://www . wired . com/story/Google-ai-tool-identifies-a-transferences-from-an-image/
[11]https://medical research . com/cancer-_-肿瘤科/肺癌/人工智能-can-可靠地-诊断-特定类型的肺癌/44583/
1.《病理切片 基于病理切片的AI系统》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《病理切片 基于病理切片的AI系统》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/shehui/1478411.html