CN115439701B - 多模态超声图像的ra活动度深度学习方法及装置 - Google Patents

多模态超声图像的ra活动度深度学习方法及装置 Download PDF

Info

Publication number
CN115439701B
CN115439701B CN202211387968.5A CN202211387968A CN115439701B CN 115439701 B CN115439701 B CN 115439701B CN 202211387968 A CN202211387968 A CN 202211387968A CN 115439701 B CN115439701 B CN 115439701B
Authority
CN
China
Prior art keywords
model
image
static
sonographers
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211387968.5A
Other languages
English (en)
Other versions
CN115439701A (zh
Inventor
杨萌
王坤
王铭
何雪磊
赵辰阳
姜玉新
张睿
李雪兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking Union Medical College Hospital Chinese Academy of Medical Sciences
Original Assignee
Peking Union Medical College Hospital Chinese Academy of Medical Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking Union Medical College Hospital Chinese Academy of Medical Sciences filed Critical Peking Union Medical College Hospital Chinese Academy of Medical Sciences
Priority to CN202211387968.5A priority Critical patent/CN115439701B/zh
Publication of CN115439701A publication Critical patent/CN115439701A/zh
Application granted granted Critical
Publication of CN115439701B publication Critical patent/CN115439701B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0875Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

多模态超声图像的RA活动度深度学习方法与装置,能够对RA患者以静态图像或视频剪辑形式获得的GS和PD图像进行处理,从而更客观和可靠地对疾病活动进行分类。方法包括以:(1)静态模型建立;(2)动态模型建立;(3)采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性。

Description

多模态超声图像的RA活动度深度学习方法及装置
技术领域
本发明涉及医学图像处理的技术领域,尤其涉及一种多模态超声图像的RA活动度深度学习方法,以及多模态超声图像的RA活动度深度学习装置,其主要用于静态灰阶(SGS)、动态灰阶(DGS)、静态能量多普勒(SPD)和动态能多普勒(DPD)超声图像的处理。
背景技术
类风湿性关节炎(Rheumatoid arthritis,RA)是一种全身性、慢性的炎症性疾病,以滑膜炎症为主,主要累及小关节。关节炎症的反复发作可导致不可逆的畸形和功能障碍,给患者和社会造成沉重的负担。规范RA的诊断和治疗策略在临床实践中具有重要意义,但即使患者达到了治疗目标,当抗风湿药物逐渐减少或停用时,仍有可能发生疾病复发。因此,需要一种敏感和客观的成像工具来检测亚临床滑膜炎。
肌肉骨骼超声成像(ultrasound,US)可以直接显示炎症征象,已被认为是评估关节炎的一种可行方法。超声可较临床标准提高RA滑膜炎诊断确定性,多普勒超声可检测病理滑膜血流,反映关节的炎症活动。因此,US作为一种对RA患者早期诊断、疾病活动监测和预后预测有帮助的技术,被欧洲风湿病联盟(European League Against rheumatatism,EULAR)推荐为一线筛查方法。然而,US在RA管理中的作用仍然存在争议,因为关于US联合评分与临床参数之间的相关性的结果存在冲突。长期以来,操作者的依赖和观察者之间一致性差的问题一直限制着US对RA疾病管理能力的提高。EULAR-OMERACT滑膜炎评分系统(EOSS)引入了一种标准化的方法来解释疾病活动,利用US对RA患者的关节进行评分。制定了滑膜肥厚和血管状况评价的0-3量表评分方法,并推荐将滑膜肥厚和血管状况的EOSS评分再次进行0-3联合评分,进一步提高US的可靠性。虽然EOSS在分类上更加标准化,但由于人类专家评估者固有的偏见,它仍然不可避免地受到观察者之间的差异的影响。这将影响RA患者的诊断、治疗选择,并可能影响临床试验的结果。因此,提高US对滑膜炎诊断的准确性(ACC)和可靠性对RA的管理非常重要。
近年来,通过自动深度学习(DL)方法构建的卷积神经网络(CNNs)已成为图像分析的最先进方法之一。通过一系列的变换层,如卷积层,CNNs可以从大量的数据中提取复杂的特征。很明显,这些自动化的方法可以减轻临床试验和实践中对操作者的依赖。在以往的研究中,根据EOSS定义设计CNN对彩色多普勒(CD)超声图像进行评分,0-3分严重度分级测试ACC为70.5 -83.9%。然而,这些研究中提出的级联模型仅用于对CD超声图像进行分类。用于灰度超声图像分类的CNN模型尚未开发出来。此外,报道的CNN只能对超声静态图像进行分类,对超声视频进行准确评分的潜力尚未开发,这实际上忽略了超声本身的固有优势。有时,超声医生很难根据单一的静态图像对关节US评分进行准确的分类,关节复杂的解剖结构可能进一步增加滑膜炎评分的难度。而动态视频可能有助于读者更容易地认识解剖结构以及病理和基本病变。为了避免偏差,所有的超声数据,包括通过不同的超声模式获得的静态图像和视频片段,都通过专门设计的CNN进行评估,以更客观和可靠地对疾病活动进行分类。
发明内容
为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种多模态超声图像的RA活动度深度学习方法,其能够对RA患者以静态图像或视频剪辑形式获得的GS和PD图像进行处理,从而更客观和可靠地对疾病活动进行分类。
本发明的技术方案是:这种多模态超声图像的RA活动度深度学习方法,其包括以下步骤:
(1)静态模型建立:静态灰阶SGS和静态能量多普勒SPD图像采集采用JPG或BMP格式,感兴趣区域ROI是使用视觉对象标记工具VOTT,通过简单地拖动图像上的一个矩形框来手动选择的,然后所有ROI都被调整为128×128像素,分别对灰阶多普勒GS和能量多普勒PD建立了两个模型,网络结构相同;
(2)动态模型建立:为每个视频片段在一帧上选择动态灰阶DGS或动态能多普勒DPD图像的初始矩形ROI,然后,通过来自开源计算机视觉库OpenCV的多实例学习MIL自动跟踪视频中所有帧上的矩形ROI,视频采样为128帧,每帧64*64像素;
(3)采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性。
本发明通过对静态GS、静态PD、动态GS和动态PD超声图像进行处理,并进行统计分析,能够对RA患者以静态图像或视频剪辑形式获得的GS和PD图像进行处理,从而更客观和可靠地对疾病活动进行分类。
还提供了多模态超声图像的RA活动度深度学习装置,其包括:
静态模型建立模块,静态灰阶SGS和静态能量多普勒SPD图像采集采用JPG或BMP格式,感兴趣区域ROI是使用视觉对象标记工具VOTT,通过简单地拖动图像上的一个矩形框来手动选择的,然后所有ROI都被调整为128×128像素,分别对灰阶多普勒GS和能量多普勒PD建立了两个模型,网络结构相同;
动态模型建立模块,为每个视频片段在一帧上选择动态灰阶DGS或动态能多普勒DPD图像的初始矩形ROI,然后,通过来自开源计算机视觉库OpenCV的多实例学习MIL自动跟踪视频中所有帧上的矩形ROI,视频采样为128帧,每帧64*64像素;
分析模块,采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性。
附图说明
图1是根据本发明的多模态超声图像的RA活动度深度学习方法的流程图。
具体实施方式
这种多模态超声图像的RA活动度深度学习方法,其包括以下步骤:
(1)静态模型建立:静态灰阶SGS和静态能量多普勒SPD图像采集采用JPG或BMP格式,感兴趣区域ROI是使用视觉对象标记工具VOTT,通过简单地拖动图像上的一个矩形框来手动选择的,然后所有ROI都被调整为128×128像素,分别对灰阶多普勒GS和能量多普勒PD建立了两个模型,网络结构相同;
(2)动态模型建立:为每个视频片段在一帧上选择动态灰阶DGS或动态能多普勒DPD图像的初始矩形ROI,然后,通过来自开源计算机视觉库OpenCV的多实例学习MIL自动跟踪视频中所有帧上的矩形ROI,视频采样为128帧,每帧64*64像素;
(3)采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性。
本发明通过对静态GS、静态PD、动态GS和动态PD超声图像进行处理,并进行统计分析,能够对RA患者以静态图像或视频剪辑形式获得的GS和PD图像进行处理,从而更客观和可靠地对疾病活动进行分类。
通过自动深度学习(DL)方法构建的卷积神经网络(CNNs)已成为图像分析的最先进方法之一。通过一系列的变换层,如卷积层,CNNs可以从大量的数据中提取复杂的特征。这些自动化的方法可以减轻临床试验和实践中对操作者的依赖。在以往的研究中,根据EOSS定义设计CNN对CD US图像进行评分,0-3分严重程度的测试ACC为70.5 -83.9%。然而,这些研究中提出的级联模型仅用于对CD超声图像进行分类。用于灰阶(GS)超声图像分类的CNN模型尚未开发出来。此外,报道的CNN只能对静态超声图像进行分类,利用超视频进行准确评分的潜力尚未开发,这实际上忽略了超声本质优势。有时,超声医生很难根据单一的静态图像对关节US评分进行准确的分类,关节复杂的解剖结构可能进一步增加滑膜炎评分的难度。而动态视频可能有助于读者更容易地认识解剖结构以及目标病理和基本病变。为了避免偏差,所有的超声数据,包括通过不同的超声模式获得的静态图像和视频片段,都通过本发明专门设计的CNN进行评估,以更客观和可靠地对疾病活动进行分类。
优选地,所述步骤(1)中,使用ImageNet对ResNet50模型进行预训练,然后,设计一个注意力模块AM,并与resnet50模型结合,进一步捕捉ROI的重要特征。
优选地,所述步骤(2)中,开发GS和PD视频的两个模型,分别命名为DGS和DPD模型,它们由ImageNet上预训练的ResNet50和双向长短时记忆Bi-LSTM构建,ResNet50提取空间特征,Bi-LSTM提取时间特征。
优选地,所述步骤(3)中,通过测试队列中152张超声图像的预测和诊断来确定总体准确性ACC。
优选地,所述步骤(3)中,将多位超声医生根据他们的超声经验被分为三组:高年超声医师>10年、资深超声6~9年、初年超声医师3~5 年;所有统计检验均为双侧检验,P <0.05为统计显著性水平。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,包括上述实施例方法的各步骤,而所述的存储介质可以是:ROM/RAM、磁碟、光盘、存储卡等。因此,与本发明的方法相对应的,本发明还同时包括一种多模态超声图像的RA活动度深度学习装置,该装置通常以与方法各步骤相对应的功能模块的形式表示。该装置包括:
静态模型建立模块,静态灰阶SGS和静态能量多普勒SPD图像采集采用JPG或BMP格式,感兴趣区域ROI是使用视觉对象标记工具VOTT,通过简单地拖动图像上的一个矩形框来手动选择的,然后所有ROI都被调整为128×128像素,分别对灰阶多普勒GS和能量多普勒PD建立了两个模型,网络结构相同;
动态模型建立模块,为每个视频片段在一帧上选择动态灰阶DGS或动态能多普勒DPD图像的初始矩形ROI,然后,通过来自开源计算机视觉库OpenCV的多实例学习MIL自动跟踪视频中所有帧上的矩形ROI,视频采样为128帧,每帧64*64像素;
分析模块,采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性。
优选地,所述静态模型建立模块中,使用ImageNet对ResNet50模型进行预训练,然后,设计一个注意力模块AM,并与ResNet50模型结合,进一步捕捉ROI的重要特征。
优选地,所述动态模型建立模块中,开发GS和PD视频的两个模型,分别命名为DGS和DPD模型,它们由ImageNet上预训练的ResNet50和双向长短时记忆Bi-LSTM构建,ResNet50提取空间特征,Bi-LSTM提取时间特征。
优选地,所述分析模块中,通过测试队列中152张超声图像的预测和诊断来确定总体准确性ACC。
优选地,所述分析模块中,将多位超声医生根据他们的超声经验被分为三组:高年超声医师>10年、资深超声6~9年、初年超声医师3~5 年;所有统计检验均为双侧检验,P <0.05为统计显著性水平。
以下更详细地说明本发明的内容。
本研究的数据来自一项前瞻性风湿性关节炎研究,从2019年4月至2020年12月,从门诊招募了156名年龄大于18岁的患者。根据2010年美国风湿病学会/欧洲风湿病联盟(ACR/ EULAR)分类标准诊断RA。排除标准:(1)在过去12个月接受手部手术,(2)有严重关节畸形不适合US检查,(3)怀孕,(4)不愿意参加。
本研究包括三个队列。两个测试队列的图像在EOSS系统评分和五个关节部位(MCP2, MCP3, PIP2, PIP3和手腕关节)中相对均匀地分布,这五个关节部位是RA最常见的病变。
记录相关临床信息,包括一般信息、病程、症状、目前使用的药物和相关实验室参数。每名患者的28个关节,包括双侧PIPs、MCPs、手腕、肘部、肩膀和膝盖,由具有18年临床风湿病学经验的风湿病专家进行临床评估。
关节的GS和PD成像由两名具有5年以上超声经验和2年肌肉骨骼超声评估的超声医生进行。超声医生根据EOSS指南对143例RA患者进行了临床优势手的超声扫描,包括腕关节、MCP和PIP关节的扫查。
由于后期(2020年5月至2020年12月)才开始采集动态数据,因此动态图像数量低于静态图像数量。使用超声设备(迈瑞生物医疗电子有限公司Resona 7),配备L20-3U高频线性探头(3 - 20mhz)进行图像残迹。在整个研究过程中,超声机器的设置没有变化,PD信号增益设置为略低于颜色噪声消失的灵敏度。
两位超声医生对EOSS系统提出的所有获取的匿名图像进行评分,SH评分从0到3,PD评分从0到3。如果出现意见分歧,另一位具有13年超声经验的超声医师将对影像数据进行复查,并通过联合审查和讨论达成共识。
SGS和SPD图像采集采用JPG或BMP格式。感兴趣区域(ROI)是由两名超声医师使用视觉对象标记工具(VOTT, Microsoft, USA),通过简单地拖动图像上的一个矩形框来手动选择的。然后,所有ROI都被调整为128×128像素。分别对GS和PD建立了两个模型,网络结构相同。使用ImageNet 对ResNet50模型进行预训练。然后,设计一个注意力模块(AM),并与ResNet50模型结合,进一步捕捉ROI的重要特征。
由超声医师为每个视频片段在一帧上选择DGS或DPD图像的初始矩形ROI。然后,通过来自开源计算机视觉库(OpenCV, Intel, USA)的多实例学习(MIL)自动跟踪视频中所有帧上的矩形ROI。视频采样为128帧,每帧64*64像素。开发了GS和PD视频的两个模型,分别命名为DGS和DPD模型。它们由ImageNet上预训练的ResNet50和双向长短时记忆(Bi-LSTM)构建。ResNet50提取空间特征,Bi-LSTM提取时间特征。
采用均数±标准差(SDs)来描述定量参数,包括临床评分和实验室数据。采用受试者工作特征(ROC)曲线分析来说明DL评分模型的预测性能。采用Delong检验来比较ROC曲线。此外,以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性。
为了比较DL模型和超声医生的诊断能力,通过测试队列中152张超声图像的预测和诊断来确定总体ACC。另外12名超声医生根据他们的超声经验被分为三组(高年超声医师>10年;资深超声6~9年;初年超声医师3~5 年)。所有统计检验均为双侧检验,P < 0.05为统计显著性水平。
患者基线情况
2019年4月至2020年12月期间,从门诊招募了156名患者,其中143名符合我们研究的纳入标准。训练队列、检验队列1(除SJC)和检验队列2间(除女性、TJC、CRP、PGA和DAS28-ESR)的基线特征无统计学差异。
4种DL模型诊断效能比较
结果表明,尽管DGS模型在训练队列中的表现优于其他模型,但在检验队列1中情况有很大不同。
在试验队列1中,基于静态和动态US图像的多模态DL模型对RA US评分较好,不同模型间0-3分评分无统计学差异(P>0.05), DPD、SGS、DGS和SPD模型分别在0、1、2和3评分上表现最好(AUC = 0.87/0.95/0.74/0.95)。而SPD模型在测试队列1上的表现优于SGS (0/2/3分AUC =0.82/0.67/0.95 vs. 0.66/0.66/0.75),在测试队列2上进一步证明了这一点(0分AUC = 0.89 vs. 0.81)。此外,在测试队列1中,动态模型对GS图像的评分优于静态模型(DGS AUC= 0.70/0.74/0.88 vs. GS AUC= 0.66/0.66/0.75)。对于PD图像,动态模型取得了与静态模型相似的性能(DPD AUC=0.87/0.85/0.65/0.92 vs. PD AUC= 0.82/0.83/0.67/0.95)。
DL模型与超声医师诊断效能比较
ACC被用来定量评估DL模型和超声医生之间的诊断能力。可以看出,静态和动态DL模型在1分和3分上优于超声医师,尤其是DPD模型在1分上表现更好(差异有统计学意义,P<0.05)。在评分为0时,DPD模型优于其他模型,且优于资深超声医师(P<0.05)。虽然DGS模型在所有得分上都是最好的(0-3分),但其表现与初级和经验较多的高年超声医师的评价能力没有显著差异。可以看出,DL模型对动态US图像的评分优于大多数资深超声医师,而对于静态US图像的评分,DL模型没有明显优势。
此外,超声医师与静态和动态DL模型的一致性结果显示,与不同经验的超声医生相比,在几乎所有病例中,DL模型与高年资超声在不同评分上的一致性结果更高(0.239<ICC<0.756, P<0.05)。综上所示,所有的DL模型与经验丰富的超声医师得出的结果更加一致,尤其是DPD模型。
本研究建立了一系列的DPD、SGS、DGS和SPD DL模型对RA患者的US图像进行评分。研究结果显示,静态和动态DL模型在不同模式的评分方面与资历较高的超声医生有一致的结果,并有各自的优势。动态DL模型在大多数评分过程中优于静态DL模型,可能成为超声医师辅助RA评估的一种有前景的工具,从而减少临床经验对诊断ACC和同质性的影响。
对于超声医师而言,基于静态US图像的滑膜炎GS评分比PD评分更困难,其类内相关系数(ICC)为0.29~0.57,ACC为0.569~0.758。2012年的一项研究发现PD评分ICC(0/1和2/3)较好,而ACC (0.623~0.812)受不同关节的影响。此外,ARD CNN对SGS 1分和2分的ACC值也低于0分和3分。在我们的研究中,SPD模型在测试队列1中比SGS模型取得了更好的效果。而在测试队列2中,SGS模型表现较好。我们认为主要原因可能是由于研究中关节部位分布不同造成的。需要注意的是,动态DL模型对GS图像的评分优于静态模型,对PD图像的评分与静态模型相似。以上结果表明,在对RA US进行准确评分时,静态和动态DL模型都应考虑在内,而动态DL模型为RA US的评估提供了一种有前景的可靠工具。
在不同的研究中,联合评分与临床参数的相关性不同。主要原因是复杂的结构难以通过静态超声检测,而动态超声有助于发现细微的病理改变。为了解决不同超声医师对静态超声评分的分歧,动态超声作为超声可靠性研究的替代方法。该方法在不同超声医师对DPD图像正常或异常的判断上取得了0.52~0.82的kappa值,提示需要更多的定义和培训来提高US的可重复性。在本研究中,动态DL模型比大多数资深超声医生产生了更好的ACC,而静态DL模型与超声医生的评估相比没有明显的优势。此外,研究结果还表明,不同经验水平的超声医生对超声影像的评分存在很大分歧。D’Agostino等为缺乏或没有评估MCP、PIP和MTP关节滑膜炎经验的超声医生制定了一项学习曲线,研究结果表明,至少需要进行70项检查以提高RA患者通过小关节US滑膜炎评估的能力。研究表明,DL模型,特别是动态超声图像,可以作为初级超声医师一种有用的计算机辅助诊断工具。
综上所述,利用DL方法对不同的US影像进行RA疾病活动度自动评分是可行的。DL模型的结果与经验丰富的超声医生一致,特别是动态DL模型可以达到与资深超声医生相似的性能。因此,DL方法是一种快速、公正的方法来分析多模态图像。DL模型是一个有价值的工具,可用于在日常临床实践和未来的试验中评估RA疾病的活动。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。

Claims (4)

1.多模态超声图像的RA活动度深度学习方法,其特征在于:其包括以下步骤:
(1)静态模型建立:采用JPG或BMP格式采集静态灰阶SGS图像和静态能量多普勒SPD图像,感兴趣区域是使用视觉对象标记工具VOTT,通过简单地拖动图像上的一个矩形框来手动选择的,然后所有感兴趣区域都被调整为128×128像素,分别对灰阶多普勒GS图像和能量多普勒PD图像建立了两个模型,网络结构相同;
(2)动态模型建立:为每个视频片段在一帧上选择动态灰阶DGS图像或动态能多普勒DPD图像的初始矩形感兴趣区域,然后,通过来自开源计算机视觉库OpenCV的多实例学习MIL自动跟踪视频中所有帧上的矩形感兴趣区域,视频采样为128帧,每帧64*64像素;
(3)采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性;
所述步骤(2)中,开发GS视频和PD视频的两个模型,分别命名为DGS模型和DPD模型,它们由ImageNet上预训练的ResNet50和双向长短时记忆Bi-LSTM构建,ResNet50提取空间特征,Bi-LSTM提取时间特征;
所述步骤(3)中,通过测试队列中152张超声图像的预测和诊断来确定总体准确性ACC;
所述步骤(3)中,将多位超声医生根据他们的超声经验被分为三组:高年超声医生>10年、资深超声医生6~9年、初年超声医生3~5 年;所有统计检验均为双侧检验,P < 0.05为统计显著性水平。
2.根据权利要求1所述的多模态超声图像的RA活动度深度学习方法,其特征在于:所述步骤(1)中,使用ImageNet对ResNet50模型进行预训练,然后,设计一个注意力模块AM,并与ResNet50模型结合,进一步捕捉感兴趣区域的重要特征。
3.多模态超声图像的RA活动度深度学习装置,其特征在于:其包括:
静态模型建立模块,采用JPG或BMP格式采集静态灰阶SGS图像和静态能量多普勒SPD图像,感兴趣区域是使用视觉对象标记工具VOTT,通过简单地拖动图像上的一个矩形框来手动选择的,然后所有感兴趣区域都被调整为128×128像素,分别对灰阶多普勒GS图像和能量多普勒PD图像建立了两个模型,网络结构相同;
动态模型建立模块,为每个视频片段在一帧上选择动态灰阶DGS图像或动态能多普勒DPD图像的初始矩形感兴趣区域,然后,通过来自开源计算机视觉库OpenCV的多实例学习MIL自动跟踪视频中所有帧上的矩形感兴趣区域,视频采样为128帧,每帧64*64像素;
分析模块,采用均数±标准差SDs来描述定量参数,包括临床评分和实验室数据;采用受试者工作特征ROC曲线分析来说明DL评分模型的预测性能;采用Delong检验来比较ROC曲线;以超声医生的评价作为金标准,计算模型中每种二元分类的敏感性和特异性;
所述动态模型建立模块中,开发GS视频和PD视频的两个模型,分别命名为DGS模型和DPD模型,它们由ImageNet上预训练的ResNet50和双向长短时记忆Bi-LSTM构建,ResNet50提取空间特征,Bi-LSTM提取时间特征;
所述分析模块中,通过测试队列中152张超声图像的预测和诊断来确定总体准确性ACC;
所述分析模块中,将多位超声医生根据他们的超声经验被分为三组:高年超声医生>10年、资深超声医生6~9年、初年超声医生3~5 年;所有统计检验均为双侧检验,P < 0.05为统计显著性水平。
4.根据权利要求3所述的多模态超声图像的RA活动度深度学习装置,其特征在于:所述静态模型建立模块中,使用ImageNet对ResNet50模型进行预训练,然后,设计一个注意力模块AM,并与ResNet50模型结合,进一步捕捉感兴趣区域的重要特征。
CN202211387968.5A 2022-11-07 2022-11-07 多模态超声图像的ra活动度深度学习方法及装置 Active CN115439701B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211387968.5A CN115439701B (zh) 2022-11-07 2022-11-07 多模态超声图像的ra活动度深度学习方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211387968.5A CN115439701B (zh) 2022-11-07 2022-11-07 多模态超声图像的ra活动度深度学习方法及装置

Publications (2)

Publication Number Publication Date
CN115439701A CN115439701A (zh) 2022-12-06
CN115439701B true CN115439701B (zh) 2023-04-18

Family

ID=84252990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211387968.5A Active CN115439701B (zh) 2022-11-07 2022-11-07 多模态超声图像的ra活动度深度学习方法及装置

Country Status (1)

Country Link
CN (1) CN115439701B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110613430A (zh) * 2019-10-18 2019-12-27 中国医学科学院北京协和医院 多模态光声/超声成像的类风湿性关节炎评分系统及应用
CN111275706A (zh) * 2020-03-04 2020-06-12 中山大学附属第一医院 一种基于剪切波弹性成像超声组学深度分析方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130046168A1 (en) * 2011-08-17 2013-02-21 Lei Sui Method and system of characterization of carotid plaque
US9792531B2 (en) * 2015-09-16 2017-10-17 Siemens Healthcare Gmbh Intelligent multi-scale medical image landmark detection
WO2019027910A2 (en) * 2017-07-31 2019-02-07 Myriad Genetics, Inc. MULTI-BIOMARKER DISEASE ACTIVITY SCORE ADJUSTED TO ASSESS INFLAMMATORY DISEASE
KR20200090757A (ko) * 2017-10-20 2020-07-29 장피트 조직학적 영상의 자동화 패턴 인식 및 점수화 방법
CN108095767B (zh) * 2018-01-19 2020-10-02 无锡海斯凯尔医学技术有限公司 组织炎症活动度检测装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110613430A (zh) * 2019-10-18 2019-12-27 中国医学科学院北京协和医院 多模态光声/超声成像的类风湿性关节炎评分系统及应用
CN111275706A (zh) * 2020-03-04 2020-06-12 中山大学附属第一医院 一种基于剪切波弹性成像超声组学深度分析方法及系统

Also Published As

Publication number Publication date
CN115439701A (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
Araki et al. Stroke risk stratification and its validation using ultrasonic echolucent carotid wall plaque morphology: a machine learning paradigm
US8840555B2 (en) System and method of ultrasound image processing
US20150005637A1 (en) Tissue displacement estimation by ultrasound speckle tracking
Acharya et al. Plaque tissue characterization and classification in ultrasound carotid scans: a paradigm for vascular feature amalgamation
CN104414685A (zh) 超声波诊断装置、超声波图像处理方法
Kim et al. Detection and severity assessment of peripheral occlusive artery disease via deep learning analysis of arterial pulse waveforms: Proof-of-concept and potential challenges
Koprowski et al. Assessment of significance of features acquired from thyroid ultrasonograms in Hashimoto's disease
Deepika Applications of artificial intelligence techniques in polycystic ovarian syndrome diagnosis
Das et al. Digital image analysis of ultrasound images using machine learning to diagnose pediatric nonalcoholic fatty liver disease
Xing et al. Automatic detection of A‐line in lung ultrasound images using deep learning and image processing
Jan et al. Machine learning approaches in medical image analysis of PCOS
CN112741651B (zh) 一种内窥镜超声影像的处理方法及系统
CN113948211A (zh) 胰腺切除术前无创定量评估术后并发胰瘘风险的预测模型
CN115439701B (zh) 多模态超声图像的ra活动度深度学习方法及装置
CN111481233B (zh) 胎儿颈项透明层厚度测量方法
CN112288733A (zh) 一种肌肉超声图像检测方法、系统、终端以及存储介质
Horng An ultrasonic image evaluation system for assessing the severity of chronic liver disease
US11742072B2 (en) Medical image diagnosis assistance apparatus and method using plurality of medical image diagnosis algorithms for endoscopic images
Koh et al. Myofascial Trigger Point Identification in B-Mode Ultrasound: Texture Analysis Versus a Convolutional Neural Network Approach
Liu et al. Automated fetal lateral ventricular width estimation from prenatal ultrasound based on deep learning algorithms
El-Sisi et al. Retracted: Iridology-Based Human Health Examination
Jayachitra et al. Blood Cancer Identification using Hybrid Ensemble Deep Learning Technique
Asha et al. An optimized modified faster region convolutional neural network for spina bifida identification from ultrasound images
Joharah et al. Evaluation of fetal head circumference (HC) and biparietal diameter (BPD (biparietal diameter)) in ultrasound images using multi-task deep convolutional neural network
Abonyi et al. Texture analysis of sonographic image of placenta in pregnancies with normal and adverse outcomes, a pilot study

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant