CN113177923A - 医学影像内容识别方法、电子设备及存储介质 - Google Patents

医学影像内容识别方法、电子设备及存储介质 Download PDF

Info

Publication number
CN113177923A
CN113177923A CN202110493643.4A CN202110493643A CN113177923A CN 113177923 A CN113177923 A CN 113177923A CN 202110493643 A CN202110493643 A CN 202110493643A CN 113177923 A CN113177923 A CN 113177923A
Authority
CN
China
Prior art keywords
human body
medical image
image data
body part
anatomical structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110493643.4A
Other languages
English (en)
Other versions
CN113177923B (zh
Inventor
高菲菲
曹晓欢
薛忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai United Imaging Intelligent Healthcare Co Ltd
Original Assignee
Shanghai United Imaging Intelligent Healthcare Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai United Imaging Intelligent Healthcare Co Ltd filed Critical Shanghai United Imaging Intelligent Healthcare Co Ltd
Priority to CN202110493643.4A priority Critical patent/CN113177923B/zh
Priority claimed from CN202110493643.4A external-priority patent/CN113177923B/zh
Publication of CN113177923A publication Critical patent/CN113177923A/zh
Application granted granted Critical
Publication of CN113177923B publication Critical patent/CN113177923B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本发明提供一种医学影像内容识别方法、电子设备及存储介质,该方法包括:获取待识别医学影像数据,其包括按照预设顺序排列的多个影像层;从多个影像层中确定若干目标影像层,并将各目标影像层输入人体部位识别模型,得到各目标影像层对应的人体部位标签,而后根据各目标影像层对应的人体部位标签、以及各目标影像层在待识别医学影像数据中的位置信息,获取待识别医学影像数据的部位识别结果;和/或将待识别医学影像数据输入解剖学结构识别模型,得到待识别医学影像数据的解剖学结构识别结果;其中,人体部位识别模型和解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练。本发明能够提高人体部位和解剖学结构的识别准确性。

Description

医学影像内容识别方法、电子设备及存储介质
技术领域
本发明涉及医学图影像处理技术领域,尤其涉及一种医学影像内容识别方法、电子设备及存储介质。
背景技术
在使用现有的计算机辅助诊断技术前,通过识别医学影像所覆盖的人体部位和解剖学结构(即器官),再根据确定的医学影像所覆盖的人体部位和器官司调用对应的计算机辅助诊断技术对该医学影像进行诊断,能够得到更加准确的诊断结果,因此,对医学影像所覆盖的人体部位和器官进行识别就显得尤为重要。
临床上识别人体部位的传统方式主要有两种:一是,结合医学数字成像和通信(Digital Imaging and Communications in Medicine,DICOM)信息中的研究描述(StudyDescription)和序列说明(Series Description)等信息判断医学影像主要涵盖的人体部位。这种方式能够快捷方便的获取人体部位的信息,但是需要建立在DICOM信息没有错误的情况下,而DICOM信息误填的情况时有发生;此外对于连扫的数据通过这种方式只能获取其中某一个部位的信息,例如,对于胸腹连扫的数据在DICOM信息中只能读到胸部或腹部其中一个;二是,在DICOM信息误填或不全时,通过人工校验医学影像数据所涵盖的实际部位,但这种方法比较耗时。
目前,也有通过特征提取与机器学习算法相结合对人体部位进行识别的方法,主要是通过提取待分析的医学影像的特征,通过分类器对待分析的医学影像所覆盖的人体部位进行识别;或者,根据人体部位特定的解剖结构将人体部位分为预设数量的区域并进行编号,然后采用神经网络的方法对待分析的医学影像所覆盖的人体部位进行识别,但存在识别准确度较低的问题。
解剖学结构智能识别的常规方法是通过训练解剖学结构识别模型来识别医学影像数据中的解剖学结构。例如,通过训练卷积神经网络来识别胸部CT影像数据中的器官,或者通过训练B-spline模型来识别MRI影像数据中的器官。
然而,目前采用机器学习算法对人体部位和解剖学结构进行识别的过程是相对独立的,两者之间缺乏联动,导致识别准确度较低。
发明内容
为了解决现有技术对人体部位和解剖学结构识别准确度较低的问题,本发明提供一种能够提高识别准确度的医学影像内容识别方法、电子设备及存储介质。
为了实现上述目的,本发明提供一种医学影像内容识别方法,包括:
获取待识别医学影像数据,所述待识别医学影像数据包括按照预设顺序排列的多个影像层;
从所述多个影像层中,确定若干目标影像层,将各所述目标影像层输入预先训练的人体部位识别模型,得到各所述目标影像层对应的人体部位标签,而后根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果;
和/或,将所述待识别医学影像数据输入预设的解剖学结构识别模型,得到所述待识别医学影像数据的解剖学结构识别结果;
其中,所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练。
在本发明一个优选实施例中,所述人体部位识别模型和解剖学结构识别模型的训练过程如下:
获取样本数据集,所述样本数据集包括若干样本医学影像数据、以及与所述样本医学影像数据对应的人体部位标注标签和解剖学结构标注结果;
将所述样本医学影像数据中的各影像层输入预设的人体部位识别模型,得到与所述样本医学影像数据对应的人体部位预测标签;
将所述样本医学影像数据输入预设的解剖学结构识别模型,得到与所述样本医学影像数据对应的解剖学结构预测结果;
根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果与人体部位标注标签,获取第一模型损失,并根据所第一模型损失对所述人体部位识别模型进行迭代训练;
根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果和解剖学结构标注结果,获取第二模型损失,并根据所述第二模型损失对所述解剖学结构识别模型进行迭代训练。
在本发明一个优选实施例中,所述样本医学影像数据包括人体完整医学影像数据和人体局部医学影像数据,
所述人体局部医学影像数据通过以下两种方式中的任意一种或两种获取:
从预设的数据库中,获取所述人体局部医学影像数据;
从所述人体完整医学影像数据中,截取所述人体局部医学影像数据。
在本发明一个优选实施例中,所述根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果与人体部位标注标签,获取第一模型损失,包括:
根据所述样本医学影像数据对应的人体部位预测标签和人体部位标注标签,计算部位损失;
根据预先建立的人体部位与解剖学结构之间的映射关系,获取所述解剖学结构预测结果所对应的人体部位映射标签;
根据所述人体部位映射标签与所述人体部位标注标签,计算部位映射损失;
根据所述部位损失和所述部位映射损失,获取所述第一模型损失。
在本发明一个优选实施例中,所述根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果和解剖学结构标注结果,获取第二模型损失,包括:
根据所述样本医学影像数据对应的解剖学结构预测结果和解剖学结构标注结果,计算解剖学结构损失;
根据预先建立的人体部位与解剖学结构之间的映射关系,获取所述人体部位预测标签所对应的解剖学结构映射结果;
根据所述解剖学结构映射结果与所述解剖学结构标注结果,计算解剖学结构映射损失;
根据所述解剖学结构损失和所述解剖学结构映射损失,获取所述第二模型损失。
在本发明一个优选实施例中,所述根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果,包括:
根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,拟合得到人体部位标签与位置信息的对应关系;
根据所述人体部位标签与位置信息的对应关系、以及所述待识别医学影像数据中各所述影像层的位置信息,获取所述待识别医学影像数据的部位识别结果。
在本发明一个优选实施例中,所述从所述多个影像层中,确定若干目标影像层,包括按照以下几种方式中的任意一种或多种确定所述目标影像层:
随机从所述多个影像层中抽取所述目标影像层;
按照预设间隔,从所述多个影像层中抽取所述目标影像层;
随机从预定位置范围内的所述影像层中抽取所述目标影像层;
按照预设间隔,从预定位置范围内的所述影像层中抽取所述目标影像层。
在本发明一个优选实施例中,所述解剖学结构识别结果包括:解剖学结构的类别和位置信息。
为了实现上述目的,本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前述方法的步骤。
为了实现上述目的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述方法的步骤。
通过采用上述技术方案,本发明具有如下有益效果:
本发明通过从待识别医学影像数据的多个影像层中,确定若干目标影像层,并将各所述目标影像层输入预先训练的人体部位识别模型,得到各所述目标影像层对应的人体部位标签,而后根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果;和/或,将所述待识别医学影像数据输入预设的解剖学结构识别模型,得到所述待识别医学影像数据的解剖学结构识别结果,从而能够根据需要对医学影像数据中的人体部位和/或解剖学结构进行识别,由于所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练,因而两者在训练时能够相互约束、相互指导,使得训练后的模型准确度提高,进而提高人体部位和解剖学结构的识别准确度。
附图说明
图1为本发明实施例1的医学影像内容识别方法的流程示意图;
图2为本发明实施例1的医学影像内容识别方法的一个应用示意图;
图3为本发明实施例1的医学影像内容识别方法的另一个应用示意图;
图4为本发明实施例1的医学影像内容识别方法的另一个应用示意图;
图5为本发明实施例2的医学影像内容识别方法的流程示意图;
图6为本发明实施例2中模型训练的原理图;
图7为本发明实施例3的医学影像内容识别装置的结构框图;
图8为本发明实施例4的医学影像内容识别装置的结构框图;
图9为本发明实施例5的电子设备的硬件架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
实施例1
本实施例提供一种医学影像内容识别方法,如图1所示,该方法具体包括以下步骤:
S11,获取待识别医学影像数据,所述待识别医学影像数据包括按照预设顺序排列的多个影像层。
在本实施例中,待识别医学影像数据可以为DICOM序列或者体数据序列,需要说明的是,DICOM序列和体数据序列在内容上是一致的,DICOM序列可以转换成体数据序列。
可选地,可以从PACS(Picture Archiving and Communication Systems,影像归档和通信系统)获取待识别医学影像数据,也可以从影像采集设备中实时地获取待识别医学影像数据。
可选地,待识别医学影像数据可以为计算机断层扫描(Computed Tomography,CT)影像序列,也可以为磁共振(Magnetic Resonance Imaging,MRI)影像序列,也可以为低剂量的正电子发射计算机断层显像(Positron Emission Computed Tomography/MagneticResonance Imaging,PET)影像序列或其它模态影像序列,本实施例并不对待识别医学影像数据的模态进行具体限制。
S12,从待识别医学影像数据的多个影像层中,确定若干目标影像层。
可选地,本实施例从所述多个影像层中抽取预设数量的目标影像层,以通过抽取影像层节省计算待识别医学影像数据中所有影像层消耗的时间、显存和内存等。通过抽层方式,还能够规避临床上影像重建不理想的情况对算法的相关影响,有效改善了算法的精准性。
具体地,可以按照以下几种方式中的任意一种或多种抽取所述目标影像层:随机从所述多个影像层中抽取所述目标影像层;按照预设间隔,从所述多个影像层中抽取所述目标影像层;随机从预定位置范围内的所述影像层中抽取所述目标影像层;按照预设间隔,从预定位置范围内的所述影像层中抽取所述目标影像层。需要说明的是,本实施例并不对目标影像层的抽取方式进行具体限定,除前述几种方式外,还可以采用其它任意合适的抽取方式进行抽取。
例如,当待识别医学影像数据包括按照预设顺序排列的20个影像层,若所述预设数量为5,则可以随机从20个影像层中抽取5个目标影像层,也可以每隔3个影像层进行一次抽取得到5个目标影像层,也可以随机从第5个-第10个影像层中抽取5个目标影像层,也可以从第5个-第10个影像层中每隔1个影像层进行一次抽取得到5个目标影像层。
S13,将各所述目标影像层输入预先训练的人体部位识别模型,得到各所述目标影像层对应的人体部位标签。
在本实施例中,人体部位识别模型为预先训练好的用于对抽取的各目标影像层对应的人体部位标签进行识别的模型。可选地,人体部位识别模型的网络结构为回归网络。
需要说明的是,按照多个解剖学关键点作为标记点,可以对人体进行分段线性分配。其中,标记点是可以扩展的,用N+1个标记点(L0,L1,…,LN-1,LN)将全身人体结构划分为N个部位,各部位对应的人体部位标签为0~N。当N较大时,对人体部位的划分较为精细,当N较小时,对人体部位的划分较为粗略概括,N的值可以根据实际应用设定,如N=100,N=200等。示例性地,假设通过分段线性分配将人体分为了头部、胸部、腹部和腹部以下四个部位,其中,头部对应的人体部位标签设为1,胸部对应的人体部位标签设为2,腹部对应的人体部位标签设为3,腹部以下对应的人体部位标签设为4。在此基础上,若输入人体部位识别模型的目标影像层为头部影像,则得到该目标影像层对应的人体部位标签为1。
S14,根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果,具体实现过程如下:
S141,根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,拟合得到人体部位标签与位置信息的对应关系。
具体地,采用预设的拟合方法,对各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息(例如位置编号)进行拟合,得到人体部位标签与位置信息的对应关系。示例性地,各目标影像层对应的人体部位标签可以为1-30区间内的任一实数值,各目标影像层对应的位置信息可以为1-100区间内的任意整数值,表示目标影像层在待识别医学影像数据中的排列顺序。可选地,上述拟合方法包括线性拟合法和非线性拟合法。可选地,预设的线性拟合方法可以为梯度下降法、最小二乘法和随机抽样一致算法中的任一种算法,也可以为其他的拟合算法,本实施例在此对线性拟合的方法不做限制。需要说明的是,拟合得到的对应关系为整个待识别医学影像数据中各影像层的人体部位标签与位置信息的对应关系。
S142,根据所述人体部位标签与位置信息的对应关系、以及所述待识别医学影像数据中各所述影像层的位置信息,获取所述待识别医学影像数据的部位识别结果。
具体地,将所述待识别医学影像数据中各所述影像层的位置信息代入所述人体部位标签与位置信息的对应关系中,即可得到所述待识别医学影像数据中每个影像层的部位识别结果。
S15,将所述待识别医学影像数据输入预设的解剖学结构识别模型,得到所述待识别医学影像数据的解剖学结构识别结果。
其中,解剖学结构识别模型所输出的解剖学结构识别结果可以包括:解剖学结构的类别和位置信息。
在本实施例中,所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练。
需要说明的是,上述步骤能够同时对待识别医学影像数据中的人体部位和解剖学结构进行识别。当仅需对待识别医学影像数据中的人体部位进行识别,而无需对解剖学结构进行识别时,则可以仅执行步骤S11-S14,而不执行步骤S15;当仅需对待识别医学影像数据中的解剖学结构进行识别,而无需对人体部位进行识别时,则可以仅执行步骤S11和S15,而不执行步骤S12-S14。
本实施例通过从待识别医学影像数据的多个影像层中,确定若干目标影像层,并将各所述目标影像层输入预先训练的人体部位识别模型,得到各所述目标影像层对应的人体部位标签,而后根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果;和/或,将所述待识别医学影像数据输入预设的解剖学结构识别模型,得到所述待识别医学影像数据的解剖学结构识别结果,从而能够根据需要对医学影像数据中的人体部位和/或解剖学结构进行识别,由于所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练,因而两者在训练时能够相互约束、相互指导,使得训练后的模型准确度提高,进而提高人体部位和解剖学结构的识别准确度。
在识别人体部位和解剖学结构之后,在一些场景中,可以根据得到的部位识别结果和解剖学结构识别结果进行一些应用。例如,如图2所示,通过本实施例的医学影像内容识别方法对原始影像数据进行识别并得到部位识别结果后,将部位识别结果与算法库中相关部位算法进行匹配,再调用匹配的算法进行后续的影像分析与计算机辅助诊断,获取最终的处理结果。又如,如图3所示,通过本实施例的医学影像内容识别方法对影像数据库中的影像数据进行识别并得到部位识别结果后,根据目标部位对影像数据库进行数据筛选,得到目标部位对应的目标数据库后,以便进行后续的处理工作。再如,如图4所示,通过本实施例的医学影像内容识别方法对影像数据库中的影像数据进行识别并得到解剖学结构识别结果后,进行关键器官匹配处理,以得到关键器官列表。
实施例2
本实施例进一步限定了所述人体部位识别模型和解剖学结构识别模型的训练过程,如图5和6所示,两个模型的具体训练过程如下:
S21,获取样本数据集,所述样本数据集包括若干样本医学影像数据、以及与所述样本医学影像数据对应的人体部位标注标签和解剖学结构标注结果。
在本实施例中,所述样本医学影像数据既包括人体完整医学影像数据又包括人体局部医学影像数据,以使训练得到的人体部位识别模型和解剖学结构识别模型对临床常见的完整影像与局部影像识别都适用,提高了模型的通用性和鲁棒性。
其中,所述人体局部医学影像数据可以从预设的临床数据库中直接获取。然而,临床中全身各个部位的局部影像较完整影像略少,为了弥补该缺陷,可以通过从所述人体完整医学影像数据中截取所述人体局部医学影像数据来实现人体局部医学影像数据扩增。
具体地,可以通过以下几种方式中的任一种或多种来截取所述人体局部医学影像数据:(1)对人体完整医学影像数据进行随机采样得到人体局部医学影像数据;(2)以人体完整医学影像数据的中心/质心向外随机采样得到人体局部医学影像数据;(3)通过滑窗法,从人体完整医学影像数据中遍历选取人体局部医学影像数据;(4)通过预设的网络模型,从人体完整医学影像数据中选取有识别力的人体局部医学影像数据。
本实施例并不对样本医学影像数据的模态进行具体限制,但应该理解,前述识别医学影像数据与样本医学影像数据的模态应保持一致。
优选地,在获取到样本数据集之后,对样本医学影像数据进行相应的预处理。
S22,将所述样本医学影像数据中的各影像层输入预设的人体部位识别模型,得到与所述样本医学影像数据对应的人体部位预测标签。
S23,将所述样本医学影像数据输入预设的解剖学结构识别模型,得到与所述样本医学影像数据对应的解剖学结构预测结果。
S24,根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果与人体部位标注标签,获取第一模型损失,并根据所第一模型损失对所述人体部位识别模型进行迭代训练。
在本实施例中,获取第一模型损失的过程如下:
S241,根据所述样本医学影像数据对应的人体部位预测标签和人体部位标注标签,计算部位损失。
在本实施例中,部位损失可以为MSE、Huber或Log-Cosh等损失。
S242,根据预先建立的人体部位与解剖学结构之间的映射关系,获取所述解剖学结构预测结果所对应的人体部位映射标签。
在本实施例中,预先通过大量数据模拟得到人体模板,对于预设的M个解剖学结构,通过该模板人确定每个解剖学结构Om对应的人体部位标签范围(Om∈[Si,Sj],m=0,…,M-1,其中,Si表示解剖学结构起始端部位标签,Sj表示解剖学结构末端部位标签,以此来建立解剖学结构所属人体部位标签的字典。反之,可以构建各人体部位标签对应的解剖学结构识别结构的字典,例如Sk∈{O1,O3,O5},其中,k=0,…,N-1,N表示人体划分为N个人体部位。由此,建立了人体部位与解剖学结构之间的映射关系。
S243,根据所述人体部位映射标签与所述人体部位标注标签,计算部位映射损失。
在本实施例中,部位映射损失反映人体部位映射标签与人体部位标注标签之间的误差。
S244,根据所述部位损失和所述部位映射损失,获取所述第一模型损失。
具体地,根据如下公式,计算第一模型损失:第一模型损失=W1*部位损失+W2*部位映射损失,其中,W1和W2为预设的权重。
S25,根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果和解剖学结构标注结果,获取第二模型损失,并根据所述第二模型损失对所述解剖学结构识别模型进行迭代训练。
在本实施例中,第二模型损失的训练过程如下:
S251,根据所述样本医学影像数据对应的解剖学结构预测结果和解剖学结构标注结果,计算解剖学结构损失。
在本实施例中,解剖学结构损失包括解剖学结构类别损失和解剖学结构位置损失,其中,解剖学结构类别损失优选为分类损失,解剖学结构位置损失优选为回归损失。
S252,根据预先建立的人体部位与解剖学结构之间的映射关系,获取所述人体部位预测标签所对应的解剖学结构映射结果。
其中,人体部位与解剖学结构之间的映射关系如步骤S242所示。
S253,根据所述解剖学结构映射结果与所述解剖学结构标注结果,计算解剖学结构映射损失;
在本实施例中,解剖学结构映射损失反映解剖学结构映射结果与解剖学结构标注结果之间的误差。
S255,根据所述解剖学结构损失和所述解剖学结构映射损失,获取所述第二模型损失。
具体地,根据如下公式,计算第二模型损失:第二模型损失=W3*解剖学结构类别损失+W4*解剖学结构位置损失+W5解剖学结构映射损失,其中,W3、W4和W5为预设的权重。
本实施例在训练过程中同时对样本医学影像数据中的人体部位和解剖学结构进行预测,而后将两者预测结果的损失函数进行融合,并基于融合的损失函数对人体部位识别模型和解剖学结构识别模型进行训练,使得两个模型在训练时互相约束、指导训练,从而能够改善模型训练优化方向,并提高模型的识别性能。
实施例3
本实施例提供一种医学影像内容识别装置,如图7所示,该装置具体包括:影像获取模块11、影像层确定模块12、部位标签获取模块13、部位识别模块14、解剖学结构识别模块15。下面分别对各个模块进行详细描述:
影像获取模块11用于获取待识别医学影像数据,所述待识别医学影像数据包括按照预设顺序排列的多个影像层。
在本实施例中,待识别医学影像数据可以为DICOM序列或者体数据序列,需要说明的是,DICOM序列和体数据序列在内容上是一致的,DICOM序列可以转换成体数据序列。
可选地,可以从PACS(Picture Archiving and Communication Systems,影像归档和通信系统)获取待识别医学影像数据,也可以从影像采集设备中实时地获取待识别医学影像数据。
可选地,待识别医学影像数据可以为计算机断层扫描(Computed Tomography,CT)影像序列,也可以为磁共振(Magnetic Resonance Imaging,MRI)影像序列,也可以为低剂量的正电子发射计算机断层显像(Positron Emission Computed Tomography/MagneticResonance Imaging,PET)影像序列或其它模态影像序列,本实施例并不对待识别医学影像数据的模态进行具体限制。
影像层确定模块12用于从待识别医学影像数据的多个影像层中,确定若干目标影像层。
可选地,本实施例从所述多个影像层中抽取预设数量的目标影像层,以通过抽取影像层节省计算待识别医学影像数据中所有影像层消耗的时间、显存和内存等。通过抽层方式,还能够规避临床上影像重建不理想的情况对算法的相关影响,有效改善了算法的精准性。
具体地,可以按照以下几种方式中的任意一种或多种抽取所述目标影像层:随机从所述多个影像层中抽取所述目标影像层;按照预设间隔,从所述多个影像层中抽取所述目标影像层;随机从预定位置范围内的所述影像层中抽取所述目标影像层;按照预设间隔,从预定位置范围内的所述影像层中抽取所述目标影像层。需要说明的是,本实施例并不对目标影像层的抽取方式进行具体限定,除前述几种方式外,还可以采用其它任意合适的抽取方式进行抽取。
例如,当待识别医学影像数据包括按照预设顺序排列的20个影像层,若所述预设数量为5,则可以随机从20个影像层中抽取5个目标影像层,也可以每隔3个影像层进行一次抽取得到5个目标影像层,也可以随机从第5个-第10个影像层中抽取5个目标影像层,也可以从第5个-第10个影像层中每隔1个影像层进行一次抽取得到5个目标影像层。
部位标签获取模块13用于将各所述目标影像层输入预先训练的人体部位识别模型,得到各所述目标影像层对应的人体部位标签。
在本实施例中,人体部位识别模型为预先训练好的用于对抽取的各目标影像层对应的人体部位标签进行识别的模型。可选地,人体部位识别模型的网络结构为回归网络。
需要说明的是,按照预定的多个解剖学关键点作为标记点,可以对人体进行分段线性分配。其中,标记点是可以扩展的,用N+1个标记点(L0,L1,…,LN-1,LN)将全身人体结构划分为N个部位,各部位对应的人体部位标签为0~N。当N较大时,对人体部位的划分较为精细,当N较小时,对人体部位的划分较为粗略概括,N的值可以根据实际应用设定,如N=100,N=200等。示例性地,假设通过分段线性分配将人体分为了头部、胸部、腹部和腹部以下四个部位,其中,头部对应的人体部位标签设为1,胸部对应的人体部位标签设为2,腹部对应的人体部位标签设为3,腹部以下对应的人体部位标签设为4。在此基础上,若输入人体部位识别模型的目标影像层为头部影像,则得到该目标影像层对应的人体部位标签为1。
部位识别模块14用于根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果,具体实现过程如下:
首先,根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,拟合得到人体部位标签与位置信息的对应关系。
具体地,采用预设的拟合方法,对各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息(例如位置编号)进行拟合,得到人体部位标签与位置信息的对应关系。示例性地,各目标影像层对应的人体部位标签可以为1-30区间内的任一实数值,各目标影像层对应的位置信息可以为1-100区间内的任意整数值,表示目标影像层在待识别医学影像数据中的排列顺序。可选地,上述拟合方法包括线性拟合法和非线性拟合法。可选地,预设的线性拟合方法可以为梯度下降法、最小二乘法和随机抽样一致算法中的任一种算法,也可以为其他的拟合算法,本实施例在此对线性拟合的方法不做限制。需要说明的是,拟合得到的对应关系为整个待识别医学影像数据中各影像层的人体部位标签与位置信息的对应关系。
而后,根据所述人体部位标签与位置信息的对应关系、以及所述待识别医学影像数据中各所述影像层的位置信息,获取所述待识别医学影像数据的部位识别结果。
具体地,将所述待识别医学影像数据中各所述影像层的位置信息代入所述人体部位标签与位置信息的对应关系中,即可得到所述待识别医学影像数据中每个影像层的部位识别结果。
解剖学结构识别模块15用于将所述待识别医学影像数据输入预设的解剖学结构识别模型,得到所述待识别医学影像数据的解剖学结构识别结果。
其中,解剖学结构识别模型所输出的解剖学结构识别结果可以包括:解剖学结构的类别和位置信息。
在本实施例中,所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练。
需要说明的是,上述模块能够同时对待识别医学影像数据中的人体部位和解剖学结构进行识别。当仅需对待识别医学影像数据中的人体部位进行识别,而无需对解剖学结构进行识别时,则本实施例的装置可以仅包括影像获取模块11、影像层确定模块12、部位标签获取模块13、部位识别模块14,而不包括解剖学结构识别模块15。当仅需对待识别医学影像数据中的解剖学结构进行识别,而无需对人体部位进行识别时,则本实施例的装置可以仅包括影像获取模块11、解剖学结构识别模块15,而不包括影像层确定模块12、部位标签获取模块13、部位识别模块14。
本实施例能够根据需要对医学影像数据中的人体部位和/或解剖学结构进行识别,由于所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练,因而两者在训练时能够相互约束、相互指导,使得训练后的模型准确度提高,进而提高人体部位和解剖学结构的识别准确度。
实施例4
如图8所示,本实施例的医学影像内容识别装置进一步包括:样本获取模块21、部位标签预测模块22、解剖学结构预测模块23、第一训练模块24、第二训练模块25。下面分别对各个模块进行详细描述:
样本获取模块21用于获取样本数据集,所述样本数据集包括若干样本医学影像数据、以及与所述样本医学影像数据对应的人体部位标注标签和解剖学结构标注结果。
在本实施例中,所述样本医学影像数据既包括人体完整医学影像数据又包括人体局部医学影像数据,以使训练得到的人体部位识别模型和解剖学结构识别模型对临床常见的完整影像与局部影像识别都适用,提高了模型的通用性和鲁棒性。
其中,所述人体局部医学影像数据可以从预设的临床数据库中直接获取。然而,临床中全身各个部位的局部影像较完整影像略少,为了弥补该缺陷,可以通过从所述人体完整医学影像数据中截取所述人体局部医学影像数据来实现人体局部医学影像数据扩增。
具体地,可以通过以下几种方式中的任一种或多种来截取所述人体局部医学影像数据:(1)对人体完整医学影像数据进行随机采样得到人体局部医学影像数据;(2)以人体完整医学影像数据的中心/质心向外随机采样得到人体局部医学影像数据;(3)通过滑窗法,从人体完整医学影像数据中遍历选取人体局部医学影像数据;(4)通过预设的网络模型,从人体完整医学影像数据中选取有识别力的人体局部医学影像数据。
本实施例并不对样本医学影像数据的模态进行具体限制,但应该理解,前述识别医学影像数据与样本医学影像数据的模态应保持一致。
部位标签预测模块22用于将所述样本医学影像数据中的各影像层输入预设的人体部位识别模型,得到与所述样本医学影像数据对应的人体部位预测标签。
解剖学结构预测模块23用于将所述样本医学影像数据输入预设的解剖学结构识别模型,得到与所述样本医学影像数据对应的解剖学结构预测结果。
第一训练模块24用于根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果与人体部位标注标签,获取第一模型损失,并根据所第一模型损失对所述人体部位识别模型进行迭代训练。
在本实施例中,获取第一模型损失的过程如步骤S241-S244所述。
第二训练模块25用于根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果和解剖学结构标注结果,获取第二模型损失,并根据所述第二模型损失对所述解剖学结构识别模型进行迭代训练。
在本实施例中,获取第二模型损失的过程如前述步骤S251-S254所述。
本实施例在训练过程中同时对样本医学影像数据中的人体部位和解剖学结构进行预测,而后将两者预测结果的损失函数进行融合,并基于融合的损失函数对人体部位识别模型和解剖学结构识别模型进行训练,使得两个模型在训练时互相约束、指导训练,从而能够改善模型训练优化方向,并提高模型的识别性能。
实施例5
本实施例提供一种电子设备,电子设备可以通过计算设备的形式表现(例如可以为服务器设备),包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中处理器执行计算机程序时可以实现实施例1或2提供的医学影像内容识别方法。
图9示出了本实施例的硬件结构示意图,如图9所示,电子设备9具体包括:
至少一个处理器91、至少一个存储器92以及用于连接不同系统组件(包括处理器91和存储器92)的总线93,其中:
总线93包括数据总线、地址总线和控制总线。
存储器92包括易失性存储器,例如随机存取存储器(RAM)921和/或高速缓存存储器922,还可以进一步包括只读存储器(ROM)923。
存储器92还包括具有一组(至少一个)程序模块924的程序/实用工具925,这样的程序模块924包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
处理器91通过运行存储在存储器92中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1所提供的医学影像内容识别方法。
电子设备9进一步可以与一个或多个外部设备94(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口95进行。并且,电子设备9还可以通过网络适配器96与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器96通过总线93与电子设备9的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备9使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
实施例6
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现实施例1或2所提供的医学影像内容识别方法的步骤。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行实现实施例1或2所述的医学影像内容识别方法的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,所述程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (10)

1.一种医学影像内容识别方法,其特征在于,包括:
获取待识别医学影像数据,所述待识别医学影像数据包括按照预设顺序排列的多个影像层;
从所述多个影像层中确定若干目标影像层,并将各所述目标影像层输入预先训练的人体部位识别模型,得到各所述目标影像层对应的人体部位标签,而后根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果;
和/或,将所述待识别医学影像数据输入预先训练的解剖学结构识别模型,得到所述待识别医学影像数据的解剖学结构识别结果;
其中,所述人体部位识别模型和所述解剖学结构识别模型在训练时,根据对方输出的预测结果进行共同训练。
2.根据权利要求1所述的医学影像内容识别方法,其特征在于,所述人体部位识别模型和解剖学结构识别模型的训练过程如下:
获取样本数据集,所述样本数据集包括若干样本医学影像数据、以及与所述样本医学影像数据对应的人体部位标注标签和解剖学结构标注结果;
将所述样本医学影像数据中的各影像层输入预设的人体部位识别模型,得到与所述样本医学影像数据对应的人体部位预测标签;
将所述样本医学影像数据输入预设的解剖学结构识别模型,得到与所述样本医学影像数据对应的解剖学结构预测结果;
根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果与人体部位标注标签,获取第一模型损失,并根据所述第一模型损失对所述人体部位识别模型进行迭代训练;
根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果和解剖学结构标注结果,获取第二模型损失,并根据所述第二模型损失对所述解剖学结构识别模型进行迭代训练。
3.根据权利要求2所述的医学影像内容识别方法,其特征在于,所述样本医学影像数据包括人体完整医学影像数据和人体局部医学影像数据,
所述人体局部医学影像数据通过以下两种方式中的任意一种或两种获取:
从预设的数据库中,获取所述人体局部医学影像数据;
从所述人体完整医学影像数据中,截取所述人体局部医学影像数据。
4.根据权利要求2所述的医学影像内容识别方法,其特征在于,所述根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果与人体部位标注标签,获取第一模型损失,包括:
根据所述样本医学影像数据对应的人体部位预测标签和人体部位标注标签,计算部位损失;
根据预先建立的人体部位与解剖学结构之间的映射关系,获取所述解剖学结构预测结果所对应的人体部位映射标签;
根据所述人体部位映射标签与所述人体部位标注标签,计算部位映射损失;
根据所述部位损失和所述部位映射损失,获取所述第一模型损失。
5.根据权利要求2所述的医学影像内容识别方法,其特征在于,所述根据所述样本医学影像数据对应的人体部位预测标签、解剖学结构预测结果和解剖学结构标注结果,获取第二模型损失,包括:
根据所述样本医学影像数据对应的解剖学结构预测结果和解剖学结构标注结果,计算解剖学结构损失;
根据预先建立的人体部位与解剖学结构之间的映射关系,获取所述人体部位预测标签所对应的解剖学结构映射结果;
根据所述解剖学结构映射结果与所述解剖学结构标注结果,计算解剖学结构映射损失;
根据所述解剖学结构损失和所述解剖学结构映射损失,获取所述第二模型损失。
6.根据权利要求1所述的医学影像内容识别方法,其特征在于,所述根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,获取所述待识别医学影像数据的部位识别结果,包括:
根据各所述目标影像层对应的人体部位标签、以及各所述目标影像层在所述待识别医学影像数据中的位置信息,拟合得到人体部位标签与位置信息的对应关系;
根据所述人体部位标签与位置信息的对应关系、以及所述待识别医学影像数据中各所述影像层的位置信息,获取所述待识别医学影像数据的部位识别结果。
7.根据权利要求1所述的医学影像内容识别方法,其特征在于,所述从所述多个影像层中,确定若干目标影像层,包括按照以下几种方式中的任意一种或多种确定所述目标影像层:
随机从所述多个影像层中抽取所述目标影像层;
按照预设间隔,从所述多个影像层中抽取所述目标影像层;
随机从预定位置范围内的所述影像层中抽取所述目标影像层;
按照预设间隔,从预定位置范围内的所述影像层中抽取所述目标影像层。
8.根据权利要求1所述的人体部位识别方法,其特征在于,所述解剖学结构识别结果包括:解剖学结构的类别和位置信息。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8任一项所述方法的步骤。
CN202110493643.4A 2021-05-07 医学影像内容识别方法、电子设备及存储介质 Active CN113177923B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110493643.4A CN113177923B (zh) 2021-05-07 医学影像内容识别方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110493643.4A CN113177923B (zh) 2021-05-07 医学影像内容识别方法、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113177923A true CN113177923A (zh) 2021-07-27
CN113177923B CN113177923B (zh) 2024-06-21

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705477A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 一种医疗图像识别方法、系统、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060155577A1 (en) * 2005-01-07 2006-07-13 Confirma, Inc. System and method for anatomically based processing of medical imaging information
WO2018164329A1 (ko) * 2017-03-10 2018-09-13 주식회사 모르페우스 해부학적 레이어를 이용하여 얼굴에 관한 정보를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN111325282A (zh) * 2020-03-05 2020-06-23 北京深睿博联科技有限责任公司 适应多机型的乳腺x射线影像识别方法和装置
CN112037200A (zh) * 2020-08-31 2020-12-04 上海交通大学 一种医学影像中解剖特征自动识别与模型重建方法
CN112102235A (zh) * 2020-08-07 2020-12-18 上海联影智能医疗科技有限公司 人体部位识别方法、计算机设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060155577A1 (en) * 2005-01-07 2006-07-13 Confirma, Inc. System and method for anatomically based processing of medical imaging information
WO2018164329A1 (ko) * 2017-03-10 2018-09-13 주식회사 모르페우스 해부학적 레이어를 이용하여 얼굴에 관한 정보를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
CN111325282A (zh) * 2020-03-05 2020-06-23 北京深睿博联科技有限责任公司 适应多机型的乳腺x射线影像识别方法和装置
CN112102235A (zh) * 2020-08-07 2020-12-18 上海联影智能医疗科技有限公司 人体部位识别方法、计算机设备和存储介质
CN112037200A (zh) * 2020-08-31 2020-12-04 上海交通大学 一种医学影像中解剖特征自动识别与模型重建方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705477A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 一种医疗图像识别方法、系统、设备及介质
CN113705477B (zh) * 2021-08-31 2023-08-29 平安科技(深圳)有限公司 一种医疗图像识别方法、系统、设备及介质

Similar Documents

Publication Publication Date Title
CN110148142B (zh) 图像分割模型的训练方法、装置、设备和存储介质
CN111160367B (zh) 图像分类方法、装置、计算机设备和可读存储介质
CN111274425B (zh) 医疗影像分类方法、装置、介质及电子设备
CN110766730B (zh) 图像配准及随访评估方法、存储介质及计算机设备
US8958614B2 (en) Image-based detection using hierarchical learning
CN111583199B (zh) 样本图像标注方法、装置、计算机设备和存储介质
NL2021559B1 (en) Determination of a growth rate of an object in 3D data sets using deep learning
CN111223158B (zh) 心脏冠脉图像的伪影校正方法和可读存储介质
CN114266896A (zh) 图像标注方法、模型训练方法及装置、电子设备、介质
CN112102235B (zh) 人体部位识别方法、计算机设备和存储介质
CN111863206A (zh) 一种图像预处理方法、装置、设备及存储介质
CN113177923B (zh) 医学影像内容识别方法、电子设备及存储介质
CN112766314B (zh) 解剖结构的识别方法、电子设备及存储介质
CN113177923A (zh) 医学影像内容识别方法、电子设备及存储介质
CN112530554B (zh) 一种扫描定位方法、装置、存储介质及电子设备
WO2023274599A1 (en) Methods and systems for automated follow-up reading of medical image data
US10390798B2 (en) Computer-aided tracking and motion analysis with ultrasound for measuring joint kinematics
CN114724016A (zh) 图像分类方法、计算机设备和存储介质
CN113112463A (zh) 医学图像质量评估方法、电子设备及存储介质
CN111968111A (zh) 一种ct图像的脏器或伪影辨别方法及装置
EP2798608A1 (en) Bioimaging grid
US20210090258A1 (en) Method for recognizing medical image and system of same
KR20230123247A (ko) 인공지능 기반 비대면 진료 방법
Zheng et al. PVT-COV19D: COVID-19 Detection Through Medical Image Classification Based on Pyramid Vision Transformer
JP2024054748A (ja) 言語特徴抽出モデルの生成方法、情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant