【协和医学杂志】人工智能在胰腺癌诊疗中的应用

时间:2024-08-17 22:00:27   热度:37.1℃   作者:网络

胰腺癌恶性程度极高,发病隐匿,进展速度快,仅约20% 的患者在初诊时具有手术机会[1]。然而,由于胰腺位置深、与周围血管关系密切,手术难度极高。近年来,随着医用材料、腹腔镜设备、手术机器人系统、微创手术技术等的发展,胰腺癌手术实现了重大突破,由传统的开腹手术、腹腔镜手术逐渐升级为更精准、更智能的机器人手术[2-3]。人工智能(AI)是在计算机科学、数学、物理学等多学科快速发展的基础上产生的综合性技术,集新理念、新方法、新技术于一体。在医学领域,AI技术促进了精准医疗的蓬勃发展,在“促、防、诊、控、治、康”等全流程均发挥十分重要的作用。本文阐述国内外胰腺癌领域AI应用的最新进展,以期进一步推动AI技术在胰腺癌诊疗中的应用。

1 AI在医疗领域的发展现状

AI技术发展日新月异,医学数据的“井喷”式产出使得医学AI快速跨越了传统的机器学习阶段,进入深度学习时代。相较于机器学习,深度学习具有分层的算法结构,类似于人类神经系统中神经元的单元组成,可通过调整不同层的参数实现“自主学习”能力。基于深度学习,现阶段AI领域已开发出许多实用模型,如面向文字与语义翻译的大语言模型、面向图像全局识别的Transformer模型、面向图像分割和目标检测的YOLO模型、面向生成式任务的Generative Adversarial Networks模型等[4]

尽管机器学习在蛋白质组学、代谢组学等研究领域被广泛应用,但快速更新迭代的深度学习算法(如图像分割、模式识别、计算机视觉等)更适用于医疗领域的现实场景,如CT、病理切片等影像学数据和复杂多维的基因组学、转录组学数据等。而其衍生的智能问诊、术中导航、计算机辅助视觉和增强现实等功能已逐步应用于临床。

2 AI在胰腺癌领域的应用

2.1  AI技术与影像学检查

影像学成像设备(如CT、MRI等)的检查结果是与AI技术适配度较高的数据类型之一。病理诊断结果往往需对切片染色结果进行扫描,但影像学检查结果多从计算机处理获得,其数据由图像矩阵和信号值构成,可快速、准确接入现有AI影像诊断模型。

AI影像具有低暴露、高灵敏度、高特异度等优点,可充分学习胰腺癌的特征原型,对肉眼难以识别的局部纹理、胰腺相对位置、不规则边缘等进行像素级别的分类,并提取出潜在的细微病灶特征。研究表明,“UNet”“multi-mask CNN”“Transformer”等AI模型可在临床诊断前即检测出潜在的胰腺病变,提示AI在胰腺癌“早期筛查、早期治疗”方面的巨大潜力。

近期由中国研究团队提出的胰腺癌AI检测模型(PANDA)显示了基于上述AI模型分析影像学数据的巨大潜力,其通过构建独特的深度学习框架,并使用2万余例CT平扫图像进行预训练,在真实世界回顾性研究中其灵敏度高达90%,特异度高达99.9%,并有效检测出31例漏诊的胰腺病变患者[5]

基于AI的影像组学在胰腺癌患者术前及术后风险预测模型方面亦具有一定的应用前景。相较于放射科医师判断、临床模型和传统影像组学方法,Blan等[6]研究显示,基于CT图像构建的胰腺导管腺癌淋巴结转移模型具有更高的淋巴结转移预测效能(AUC=0.92)。同时,一项基于MRI的影像组学研究表明,结合患者肿瘤大小等临床信息应用LASSO回归和XGBoost等算法建立机器学习模型,可预测胰腺癌CD8+ T淋巴细胞浸润及患者的预后情况。该模型通过对CD8+ T淋巴细胞浸润程度的预测,精准筛选可从免疫治疗中获益的潜在胰腺癌患者[7]。此外,基于AI的影像组学技术在胰腺良性肿瘤、复发、隐匿性转移风险预测等方面亦有诸多应用[8-10]

2.2 AI技术与病理诊断

AI可通过多种算法对扫描后的病理图像进行优化、特征提取和模式识别[11]。病理图像是胰腺癌诊断的金标准,AI模型对病理图像结果的判断逻辑可学习性强,即一旦发现恶性肿瘤细胞,即可判断患者罹患恶性肿瘤。这一逻辑与深度学习中的半监督学习十分相似,由此衍生出了大量用于病理图像快速诊断的半监督学习图像分割模型,这些模型可模拟人类病理学家对完整的病理切片进行分区,再对每个区域依次进行判断,确定是否存在恶性肿瘤细胞[12]

AI模型在胰腺癌病理领域的应用已有诸多进展。研究表明,使用经病理学家手工标注的病理图像数据进行预训练,AI模型可有效、准确分割病理图像中良性与恶性细胞群,并辅助诊断,在保证病理图像质量的前提下,深度学习模型展现出优于病理学家的诊断表现[13]。在另一项研究中,研究者基于组织学图像开发了深度学习模型Pacpaint,该模型使用病理图像和转录组学数据进行预训练,可较精确地预测肿瘤分子分型及肿瘤亚型[14]。同时,该模型还提出了新的解释肿瘤内部异质性的评价维度,将肿瘤内部分为经典和基底样、活跃和不活跃间质4种成分,可更准确地反应肿瘤内部特征。

需注意的是,在AI处理病理图像的初期阶段,需大量病理学专家对无标签的病理切片进行手动标注,这一过程在深度学习所需大样本量的背景下变得无比繁琐。但也有研究表明,AI可通过公开数据中的自然文字描述数据及带分类标签的病理图像数据进行自学习,提高其处理病理图像的效率[15]

2.3 AI技术与手术机器人

手术机器人高度依赖计算机的精密系统。腹腔镜、手术机器人拍摄的手术视频以及外科医师对这些视频数据的标定、注释与配准等,为术中导航、决策支持、教学、增强现实等基于图像数据的AI模型提供了坚实的基础[16]

在使用腹腔镜设备、手术机器人系统的过程中,术者往往面临视野狭窄、空间定位困难等挑战[17]。而基于计算机辅助的图像引导手术则可在一定程度上辅助术者克服这些困难,通过提取术前拍摄的患者CT或MRI图像关键特征,并在术中采用手术设备拍摄系统获得实时的胰腺组织图像,AI技术可对手术视野中的实际组织器官特征进行提取,并与术前拍摄的图像相融合,检测肿瘤是否存在、肿瘤边界、血管走行等目标结构的解剖位置关系,并指导手术切除范围[17]

一项纳入82例胰腺癌患者的回顾性队列研究评估了增强现实辅助导航系统在腹腔镜胰十二指肠切除术中的应用,相较于对照组,增强现实辅助导航组的出血量更少、术后胰瘘和胆漏的发生率更低、术后住院时间更短,提示基于增强现实技术的辅助导航系统在识别重要血管结构、减少术中损伤、降低术后并发症等方面可能具有一定优势[18]

此外,当前国产手术机器人如术锐、康多、妙手等在术中实时成像和5G远程手术等方面均取得了重大突破。多模态大模型如CARESCopilot等,融合了手术大模型和手术机器人,可在手术阶段自动识别病灶并实时提供解剖结构,提高手术的安全性。

总体来说,AI模型在机器人手术的诸多方面,特别是术中图像配准、术中导航、优化控制等领域将大有可为。

2.4 AI技术与医师人才培养

应用手术机器人时将产生大量数据,基于该数据建立AI模型有助于低年资医师学习手术技术、缩短外科医生培养周期、模拟手术过程实时纠错、复盘复杂手术环境、提高手术成功率等,这些优势在复杂胰腺手术中具有更高的价值。Müller等[17]在人工胰腺硅模型中开发了图像导航与配准方法,这一整合系统可将术前CT检测到的模拟病灶在内镜图像下实时定位,且配准误差小于3 mm。

而3D图像重建技术可用于可视化主胰管及胰腺周围血管,结合增强现实算法有助于外科医师在术中对各关键解剖结构进行识别和定位,对于变异较小的解剖结构,则有望实现精准、微创手术;同时,3D图像重建技术有助于低年资外科医师建立解剖-图像-外科手术知识体系,并根据不同患者的术中情况迅速制订手术方案[19]。 

此外,通过术中自动操作与器械追踪等功能,AI可为术者提供步骤敏感的指令和反馈,并通过互联网传输手术操作以实现远程手术学习和指导,有效减轻培训医师的压力,从而使其获得更好的手术表现[20-21]。同时,AI也可辅助5G远程手术实施,根据远程术者的操作步骤进行自动补充与执行,从而在一定程度上弥补远程信号传输时信息丢失的问题。

3 小结与展望

随着AI技术的发展以及腹腔镜、手术机器人等医疗器械的更新迭代,目前增强现实、虚拟现实等技术已可辅助完成手术规划、评估和引导等环节。AI在胰腺癌诊疗中展现出了巨大的应用潜力,但AI模型的开发和应用仍面临诸多困难,如数据收集、数据标注、伦理审核等。

在模型效能方面,无论是假阳性或假阴性均可对患者产生深刻影响,因此需不断优化模型的底层逻辑、扩大数据纳入量、增加真实世界数据等;在模型安全性方面,当术者赋予手术机器人等医疗设备辅助决策、操作功能时,势必带来误操作、功能异常等风险,因此术者在术中对医疗设备的掌控、医疗设备对手术视野下各成分的评估和安全保障也成为AI发展过程中不可忽视的环节。

此外,在模型训练过程中,需基于大量高质量的临床数据,如何保证数据的真实性和保护患者隐私,需工业界和临床医生共同探索。当前,AI技术已展现出辅助胰腺癌临床实践的潜能,但还不能替代外科医师作出临床决策。随着计算机性能的发展、AI模型和算法的开发、医疗设备的更新,AI技术将在胰腺癌的诊断、治疗、预后、康复等诸多方面发挥作用,进一步提高患者的生活质量,改善患者预后。

参考文献

[1]Halbrook C J, Lyssiotis C A, Pasca Di Magliano M, et al. Pancreatic cancer: advances and challenges[J]. Cell, 2023, 186(8): 1729-1754.

[2]Honselmann K C, Pergolini I, Castillo C F D, et al. Timing but not patterns of recurrence is different between node-negative and node-positive resected pancreatic cancer[J]. Ann Surg, 2020, 272(2): 357-365.

[3]沈柏用. 胰腺癌诊疗的进展与展望[J].上海医学, 2023, 46(8): 524-529.

[4]Teijeira Á, Garasa S, Gato M, et al. CXCR1 and CXCR2 chemokine receptor agonists produced by tumors induce neutrophil extracellular traps that interfere with immune cytotoxicity[J]. Immunity, 2020, 52(5): 856-871.e8.

[5]Cao K, Xia Y D, Yao J W, et al. Large-scale pancreatic cancer detection via non-contrast CT and deep learning[J]. Nat Med, 2023, 29(12): 3033-3043.

[6]Bian Y, Zheng Z L, Fang X, et al. Artificial intelligence to predict lymph node metastasis at CT in pancreatic ductal adenocarcinoma[J]. Radiology, 2023, 306(1): 160-169.

[7]卢明智, 刘芳, 方旭, 等. 基于MRI影像组学特征的机器学习模型预测胰腺癌CD8+ T细胞浸润及预后的研究[J]. 中华胰腺病杂志, 2023, 23(5): 344-352.

[8]Xu S, Zhang X P, Zhao G D, et al. Derivation and validation of a preoperative prognostic model for resectable pancreatic ductal adenocarcinoma[J]. Hepatobiliary Pancreat Dis Int, 2023, 22(2): 160-168.

[9]Zhao B, Xia C, Xia T Y, et al. Development of a radiomics-based model to predict occult liver metastases of pancreatic ductal adenocarcinoma: a multicenter study[J]. Int J Surg, 2024, 110(2): 740-749.

[10]邓文祎, 谢飞扬, 毛丽, 等. 基于临床和CT影像学特征的胰腺囊性病变进展预测模型的建立及验证[J]. 中华胰腺病杂志, 2024, 24(1): 23-28.

[11]Fu B K, Zhang M D, He J J, et al. StoHisNet: a hybrid multi-classification model with CNN and transformer for gastric pathology images[J]. Comput Methods Programs Biomed, 2022, 221: 106924.

[12]Gao Z Y, Hong B Y, Li Y, et al. A semi-supervised multi-task learning framework for cancer classification with weak annotation in whole-slide images[J]. Med Image Anal, 2023, 83: 102652.

[13]Zhang S, Zhou Y F, Tang D H, et al. A deep learning-based segmentation system for rapid onsite cytologic pathology evaluation of pancreatic masses: a retrospective, multicenter, diagnostic study[J]. EBioMedicine, 2022, 80: 104022.

[14]Saillard C, Delecourt F, Schmauch B, et al. Pacpaint: a histology-based deep learning model uncovers the extensive intratumor molecular heterogeneity of pancreatic adenocarcinoma[J]. Nat Commun, 2023, 14(1): 3459.

[15]Chen R J, Ding T, Lu M Y, et al. Towards a general-purpose foundation model for computational pathology[J]. Nat Med, 2024, 30(3): 850-862.

[16]Maier-Hein L, Vedula S S, Speidel S, et al. Surgical data science for next-generation interventions[J]. Nat Biomed Eng, 2017, 1(9): 691-696.

[17]Müller P C, Haslebacher C, Steinemann D C, et al. Image-guided minimally invasive endopancreatic surgery using a computer-assisted navigation system[J]. Surg Endosc, 2021, 35(4): 1610-1617.

[18]Wu X W, Wang D H, Xiang N, et al. Augmented reality-assisted navigation system contributes to better intraoperative and short-time outcomes of laparoscopic pancreaticoduodenectomy: a retrospective cohort study[J]. Int J Surg, 2023, 109(9): 2598-2607.

[19]Lin C, Gao J Y, Zheng H, et al. Three-dimensional visualization technology used in pancreatic surgery: a valuable tool for surgical trainees[J]. J Gastrointest Surg, 2020, 24(4): 866-873.

[20]Kowalewski K F, Hendrie J D, Schmidt M W, et al. Development and validation of a sensor- and expert model-based training system for laparoscopic surgery: the iSurgeon[J]. Surg Endosc, 2017, 31(5): 2155-2165.

[21]Nickel F, Cizmic A, Chand M. Telestration and augmented reality in minimally invasive surgery: an invaluable tool in the age of COVID-19 for remote proctoring and telementoring[J]. JAMA Surg, 2022, 157(2): 169-170.

上一篇: European Radiology:对...

下一篇: eGastroenterology:AI...


 本站广告