CN112541941B - 一种基于ct定位片的扫描流程决策方法及系统 - Google Patents

一种基于ct定位片的扫描流程决策方法及系统 Download PDF

Info

Publication number
CN112541941B
CN112541941B CN202011418072.XA CN202011418072A CN112541941B CN 112541941 B CN112541941 B CN 112541941B CN 202011418072 A CN202011418072 A CN 202011418072A CN 112541941 B CN112541941 B CN 112541941B
Authority
CN
China
Prior art keywords
information
predicted
organ tissue
foreign matter
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011418072.XA
Other languages
English (en)
Other versions
CN112541941A (zh
Inventor
王小状
马春晓
叶宏伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minfound Medical Systems Co Ltd
Original Assignee
Minfound Medical Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minfound Medical Systems Co Ltd filed Critical Minfound Medical Systems Co Ltd
Priority to CN202011418072.XA priority Critical patent/CN112541941B/zh
Publication of CN112541941A publication Critical patent/CN112541941A/zh
Application granted granted Critical
Publication of CN112541941B publication Critical patent/CN112541941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Epidemiology (AREA)
  • Pulmonology (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于医学影像技术领域,具体涉及一种基于CT定位片的扫描流程决策方法及系统,基于深度学习技术智能分析针对扫描定位片中的关键信息,如器官组织类别和位置,扫描异物的种类和位置,病人所躺姿势形态等,提出定量分析关键信息相互关系的关联度函数,智能评价其分析结果对后续正常扫描的影响程度,并快速智能决策后续操作;整个过程自动化、智能化,无需医生等操作人员的介入,流程操作合理客观,耗费时间少,节约资源和时间成本,为医生、患者提供便利。

Description

一种基于CT定位片的扫描流程决策方法及系统
技术领域
本发明属于医学影像技术领域,具体涉及一种基于CT定位片的扫描流程决策方法及系统。
背景技术
医学成像是现代医学极其重要的一个分支,它通过医学影像设备上的信号与患者身体组织的作用等物理机制,展示患者身体内部结构的影像,揭示有无病变以及对病变进行定性和定量分析,从而有利于辅助医师进行病情诊断。其中,计算机断层扫描成像CT,以其扫描快、成像清晰以及价格便宜等特点,成为用于医学诊断的重要设备之一,配备于大多数医疗场所。
CT在扫描流程上,首先进行定位片的扫描,以获得正式扫描检查前一些必要信息。在实际操作中,由于病人生理参数不同,如高矮胖瘦等,躺在扫描床上的起始位置难以统一,待检查扫描的部位情况不同,患者身体上非必要异物的种类多样,以及患者所躺的肢体姿势各异等;因此,CT扫描仪需要事先进行一次病患大致体位的扫描,对定位片的上述信息进行详细分类、细致判断和准确决策;通过定位片的扫描结果,医生不仅可以选择合适的定位框大小和范围,识别扫描病人是否有非必要的异物,还可以判断扫描病人肢体姿势是否合乎正常扫描要求,这些因素均影响后续的正常扫描检查流程。
目前,针对定位片扫描得到的信息进行分析处理、监督和决策均由扫描操作技师或者医生来完成,即针对定位片中的信息对扫描的流程是否合规、结果是否准确等进行主观评价,以此对后续的扫描进行人为控制和干预;这种主观评价的方式强烈依赖于患者实际状况和医护人员的经验水平,对医护人员的主观意识依赖性较强,整个过程监督点多、耗时长、成本高,在极端情况下甚至会出现误判,从而可能耽误患者的诊断和治疗。
发明内容
基于现有技术中存在的上述缺点和不足,本发明的目的之一是至少解决现有技术中存在的上述问题之一或多个,换言之,本发明的目的之一是提供满足前述需求之一或多个的一种基于CT定位片的扫描流程决策方法及系统。
为了达到上述发明目的,本发明采用以下技术方案:
一种基于CT定位片的扫描流程决策方法,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
S4、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S5;若否,则转至步骤S7;
S5、根据异物关联度评价结果分析异物是否影响待检测部位的扫描或根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描;若否,则转至步骤S6;若是,则转至步骤S7;
S6、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描或根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则对待检测部位进行扫描;若是,则转至步骤S7;
S7、异常报警,终止扫描。
作为优选方案,所述训练后的深度学习神经网络对定位片信息进行预测,包括:
S21、对定位片信息进行预处理;
S22、将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化;K2操作包括依次进行的3×3卷积和1×1卷积;K3操作包括依次进行的1×1卷积、ReLU和上采样。
作为优选方案,所述预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
所述预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
所述预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a。
作为优选方案,所述步骤S3中,采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,所述器官组织关联度评价结果为器官组织关联度评价函数值。
作为优选方案,所述步骤S3中,采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
其中,Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,所述异物关联度评价结果为异物关联度评价函数值。
作为优选方案,所述步骤S3中,采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,REF为正常姿势对应的各姿势关键点的参考值;
其中,P为预测到的所有姿势关键点组成的向量集合,v为预测到的两个不同姿势关键点组成的向量,和/>为不同的向量,m、n∈P,m≠n;
相应地,所述姿势关联度评价结果为姿势关联度评价函数值。
作为优选方案,所述步骤S3中,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
作为优选方案,所述步骤S3与步骤S4之间还包括:
判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S4;若否,则转至步骤S7。
本发明还提供一种基于CT定位片扫描的流程决策系统,应用如上方案所述的流程决策方法,所述流程决策系统包括:
定位片扫描模块,用于进行CT定位片扫描以得到定位片信息;
信息预测模块,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
信息关联度评价模块,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
信息决策模块,用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作。
作为优选方案,流程决策系统还包括信息报告模块,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息、器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
本发明与现有技术相比,有益效果是:
本发明的基于CT定位片的扫描流程决策方法及系统,基于深度学习技术智能分析针对扫描定位片中的关键信息,如器官组织类别和位置,扫描异物的种类和位置,病人所躺姿势形态等,提出定量分析关键信息相互关系的关联度函数,智能评价其分析结果对后续正常扫描的影响程度,并快速智能决策后续操作;整个过程自动化、智能化,无需医生等操作人员的介入,流程操作合理客观,耗费时间少,节约资源和时间成本,为医生、患者提供便利。
附图说明
图1是本发明实施例1的基于CT定位片的扫描流程决策方法的流程图;
图2是本发明实施例1的深度学习神经网络训练及预测识别的流程图;
图3是本发明实施例1的预处理后的定位片输入深度学习神经网络的处理流程图;
图4是本发明实施例1的各关联度评价的流程框架图;
图5是本发明实施例1的两种不同异物及姿势经过扫描流程决策过程的信息展示图;
图6是本发明实施例1的基于CT定位片的扫描流程决策系统的构架图;
图7是本发明实施例1的信息智能识别模块的构架图;
图8是本发明实施例1的信息关联度评价模块的构架图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
本发明基于人工智能深度学习的方法,提供基于CT定位片的扫描流程决策方法及系统,通过定位片扫描得出的定位片信息dicom,运用深度学习神经网络技术智能分析扫描部位、异物特征信息与肢体姿势等三个方面的基本信息,并提出自动关联度评价函数对上述三个方面信息和扫描流程是否有关联、影响程度如何进行定量估计评价,并根据评价结果进行智能化决策,反馈给Console系统,指导后续如何进行合理操作。整个操作流程细节量化,步骤明确,无需技师或医生等介入,过程准确快速,节约时间和资源成本,为医生、患者都提供了较大的便利。基于此,以下通过具体实施例对本发明的技术方案作具体说明。
实施例1:
本实施例的基于CT定位片的扫描流程决策方法,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
具体地,患者躺上扫描床之后,结合需要的基本扫描参数信息,通过指令发送给CT扫描仪,根据设定好的相关定位片扫描参数,包括但不限于球管电压电流、探测器转速、待检查的扫描区域类别、扫描床移动运行的参数以及其他必要的运行参数等;然后开始进行定位片扫描,得出定位片信息,即dicom结果。
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
具体地,如图2所示,深度学习神经网络的训练过程包括:
S2001、收集CT定位片dicom训练数据集;其中,训练数据集涵盖器官组织、异物和姿势关键点的数据集,并进行特征标注,特征标注可以参考现有技术。
S2002、预处理模块进行预处理,包括数据截断和归一化处理;
对于数据截断范围可依据处理过程的经验值CTmin、CTmax进行具体设定;
归一化过程依照以下公式进行转换:
其中,x为待处理的数据,包括训练数据集的数据以及定位片信息的数据。
S2003、智能网络模块进行网络训练,网络训练的过程可以参考现有技术,在此不赘述;
S2004、保存相应的网络结构权重文件,得到如图3所示的神经网络模型结构;
S2005、输入CT定位片信息,即输入CT定位片dicom数据,并进行预处理;
S2006、网络初始化、加载参数和权重文件对预处理后的CT定位片信息进行网络预测,具体过程如下:
如图3所示,将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,输出得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化,主要功能为特征提取和下采样(Down Sampling);K2操作包括依次进行的3×3卷积和1×1卷积,主要功能为特征变换;K3操作包括依次进行的1×1卷积、ReLU和上采样,主要功能为信息上采样。
S2007、收集网络预测的结果,即收集输出的预测信息;其中,预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息。
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
为了便于说明,对器官组织、异物和姿势,分别使用B,O,S表示,具体地,如图4所示:
(1)预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合,事先存储在正常器官组织信息参考表中;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,器官组织关联度评价结果为器官组织关联度评价函数值。
(2)预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织,i∈c;Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,异物关联度评价结果为异物关联度评价函数值。
(3)预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a;
采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,可以近似为由关键点所组成的多边形样本空间;REF为正常姿势对应的各姿势关键点的参考值,事先存储在正常姿势信息参考表中;
其中,P为预测到的所有姿势关键点组成的向量集合,具体选定可根据待检查器官组织所处的位置选取;v为预测到的两个不同姿势关键点组成的向量,和/>为不同的向量,m、n∈P,m≠n;
相应地,姿势关联度评价结果为姿势关联度评价函数值。
(4)根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
上述wb,wo,ws的大小可以根据先验数据集合的具体分布状况进行赋值。
S4、判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S5;若否,则转至步骤S9;
S5、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S6;若否,则转至步骤S9;
S6、根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则转至步骤S7;若是,则转至步骤S9。
具体地,判断异物关联度评价函数值是否大于异物关联度阈值,如果判断结果为是,则说明异物与待检测部位的关联度大,会影响待检测部位的扫描;如果判断结果为否,则说明异物与待检测部位的关联度小,不会影响待检测部位的扫描。
S7、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,若否,则转至步骤S8;若是,则转至步骤S9。
具体地,判断姿势关联度评价函数值是否小于姿势关联度阈值,如果判断结果为是,则说明是正常姿势,不影响待检测部位的扫描;如果判断结果为否,则说明书是非正常姿势,影响待检测部位的扫描;
S8、对待检测部位进行CT扫描;
S9、异常报警,终止扫描,建议重新启动CT定位片扫描过程。
另外,在流程决策过程中还输出形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息,如图5(a)所示,仅含有单一异物(中部的小框)且姿势正确的信息展示图,图5(b)是多类异物(图中5个小尺寸的黑色定位框)并且姿势不正确的信息展示图,每一黑色连线的两端点为姿势关键点;还包括器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。另外,信息展示的方式不限于影像,还可以为图、表等。
对应于本实施例的流程决策方法,如图6所示,本实施例还提供基于CT定位片扫描的流程决策系统,包括定位片扫描模块100、信息智能识别模块200(即信息预测模块)、信息关联度评价模块300、信息决策模块400及信息报告模块500。
其中,定位片扫描模块100用于进行CT定位片扫描以得到定位片信息;具体地,患者躺上扫描床之后,结合需要的基本扫描参数信息,定位片扫描模块100通过指令发送给CT扫描仪,根据设定好的相关定位片扫描参数,包括但不限于球管电压电流、探测器转速、待检查的扫描区域类别、扫描床移动运行的参数以及其他必要的运行参数等;然后开始进行定位片扫描,得出定位片信息,即dicom结果。定位片扫描模块100可以为CT扫描仪自带的数据采集硬件。
信息智能识别模块200,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息。具体地,如图7所示,信息智能识别模块200包括预处理模块210、智能神经网络模块220和输出模块230,预处理模块210用于进行数值截断211和归一化处理212。
对于数据截断的范围可依据处理过程的经验值CTmin、CTmax进行具体设定;
归一化处理的过程依照以下公式进行转换:
其中,x为待处理的数据,包括训练数据集的数据以及定位片信息的数据。
智能神经网络模块220主要功能是基于深度学习神经网络技术进行,主要包含三部分:网络结构221、网络训练222和网络预测223,网络结构221基于深度学习神经网络,网络训练222的网络训练的过程可以参考现有技术,在此不赘述;网络训练完成后保存相应的网络结构权重文件,得到如图3所示的神经网络模型结构。
网络预测223的流程具体如下:
输入CT定位片信息,即输入CT定位片dicom数据,并进行预处理;将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化,主要功能为特征提取和下采样(Down Sampling);K2操作包括依次进行的3×3卷积和1×1卷积,主要功能为特征变换;K3操作包括依次进行的1×1卷积、ReLU和上采样,主要功能为信息上采样。
输出模块230用于输出网络预测得到的预测信息,预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息,预测器官组织信息包括器官组织种类与位置231,预测异物信息包括异物种类与位置232,预测姿势关键点信息包括姿势种类与位置233。
信息关联度评价模块300,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
具体地,如图8所示,信息关联度评价模块300包括器官组织评价模块310、异物评价模块320、姿势评价模块330和综合关联度评价结果340。
具体地,对于器官组织评价模块310,器官组织种类与位置231包括预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;上述五个参数作为器官组织信息元素311;
采用器官组织关联度评价函数313,即函数Fb(B)对预测器官组织信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合,事先存储在正常器官组织信息参考表312中;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,器官组织关联度评价结果314为器官组织关联度评价函数值。
对于异物评价模块320,异物种类与位置232包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;上述五个参数作为异物信息元素322,其中,器官组织信息元素321与器官组织信息元素311相同;
采用异物关联度评价函数323,即函数Fo(O)对预测异物信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织,i∈c;Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,异物关联度评价结果324为异物关联度评价函数值。
对于姿势评价模块330,姿势种类与位置233包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a;上述三个参数作为关键点信息元素331;
采用姿势关联度评价函数333,即函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,可以近似为由关键点所组成的多边形样本空间;REF为正常姿势对应的各姿势关键点的参考值,事先存储在正常姿势信息参考表332中;
其中,P为预测到的所有姿势关键点组成的向量集合,具体选定可根据待检查器官组织所处的位置选取;v为预测到的两个不同姿势关键点组成的向量,和/>为不同的向量,m、n∈P,m≠n;
相应地,姿势关联度评价结果334为姿势关联度评价函数值;
对于综合关联度评价结果340,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
上述wb,wo,ws的大小可以根据先验数据集合的具体分布状况进行赋值;
信息决策模块400,用于判断综合关联度评价函数的函数值是否达到目标阈值,还用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作,具体流程可以参考扫描流程决策方法中的步骤S4~S9。
信息报告模块500,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息,如图5(a)所示,仅含有单一异物(中部的小框)且姿势正确的信息展示图,图5(b)是多类异物(图中5个小尺寸的黑色定位框)并且姿势不正确的信息展示图,每一黑色连线的两端点为姿势关键点;还包括器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
实施例2:
本实施例的基于CT定位片的扫描流程决策方法与实施例1的不同之处在于:
步骤S6和S7可以互换,即异物和姿势的分析判断的顺序可以调换,满足不同应用场合的需求;
具体的扫描流程决策系统可以参考实施例1。
实施例3:
本实施例的基于CT定位片的扫描流程决策方法与实施例1的不同之处在于:
可以省略综合关联度评价函数计算以及步骤S4的判断过程,即从步骤S3直接进入S5;简化扫描流程决策流程,满足不同应用场合的需求;
相应地,扫描流程决策系统中的信息关联度评价模块省略综合关联度评价结果。
其他内容可以参考实施例1。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。

Claims (6)

1.一种基于CT定位片的扫描流程决策方法,其特征在于,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;所述预测器官组织信息包括:预测器官组织的中心点的横坐标x c 和纵坐标y c 、预测器官组织的定位框的横向尺寸i w 和纵向尺寸i h 、预测器官组织的类别编号c
所述预测异物信息包括:预测异物的中心点的横坐标x b 和纵坐标y b 、预测异物的定位框的横向尺寸k w 和纵向尺寸k h 、预测异物的类别编号b
所述预测姿势关键点信息包括预测姿势关键点的横坐标x a 和纵坐标y a 、预测姿势关键点的类别编号a
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
所述步骤S3中,采用器官组织关联度评价函数对预测器官组织信息进行关联度评价:
其中,B i 是预测到的编号为i的预测器官组织信息,icI为预测到的所有器官组织的集合;L B 为所有先验器官组织的覆盖面积统计均值的集合;L(B i )是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
所述器官组织关联度评价结果为器官组织关联度评价函数值;
采用异物关联度评价函数对预测异物信息进行关联度评价:
其中,O j 是预测到的编号为j的异物信息,jb为预测器官组织B i 和预测异物O j 的重叠度函数;
其中,X为对应预测器官组织B i 的定位框信息,Y为对应预测异物O j 的定位框信息,A X 为预测器官组织B i 的覆盖面积,A Y 为预测异物O j 的覆盖面积;
所述异物关联度评价结果为异物关联度评价函数值;
采用姿势关联度评价函数对预测姿势关键点信息进行关联度评价:
其中,为姿势关键点的综合信息,REF为正常姿势对应的各姿势关键点的参考值;
其中,P为预测到的所有姿势关键点组成的向量集合,v为预测到的两个不同姿势关键点组成的向量,和/>分别为第m个和第n个向量,mnP,/>
所述姿势关联度评价结果为姿势关联度评价函数值;
S4、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S5;若否,则转至步骤S7;
S5、根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则转至步骤S6;若是,则转至步骤S7;
S6、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描;若否,则对待检测部位进行扫描;若是,则转至步骤S7;
S7、异常报警,终止扫描。
2.根据权利要求1所述的一种基于CT定位片的扫描流程决策方法,其特征在于,所述训练后的深度学习神经网络对定位片信息进行预测,包括:
S21、对定位片信息进行预处理;
S22、将预处理后的定位片信息作为训练后的深度学习神经网络的输入,在本路连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化;K2操作包括依次进行的3×3卷积和1×1卷积;K3操作包括依次进行的1×1卷积、ReLU和上采样。
3.根据权利要求1所述的一种基于CT定位片的扫描流程决策方法,其特征在于,所述步骤S3中,根据器官组织关联度评价函数、异物关联度评价函数/>及姿势关联度评价函数/>,得到综合关联度评价函数F
其中,为各关联度评价函数的权重,满足:
4.根据权利要求3所述的一种基于CT定位片的扫描流程决策方法,其特征在于,所述步骤S3还包括:
判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S4;若否,则转至步骤S7。
5.一种基于CT定位片的扫描流程决策系统,应用如权利要求1-4任一项所述的扫描流程决策方法,其特征在于,所述扫描流程决策系统包括:
定位片扫描模块,用于进行CT定位片扫描以得到定位片信息;
信息预测模块,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
信息关联度评价模块,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
信息决策模块,用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作。
6.根据权利要求5所述的一种基于CT定位片的扫描流程决策系统,其特征在于,还包括信息报告模块,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息、器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
CN202011418072.XA 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统 Active CN112541941B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011418072.XA CN112541941B (zh) 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011418072.XA CN112541941B (zh) 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统

Publications (2)

Publication Number Publication Date
CN112541941A CN112541941A (zh) 2021-03-23
CN112541941B true CN112541941B (zh) 2023-12-15

Family

ID=75016256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011418072.XA Active CN112541941B (zh) 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统

Country Status (1)

Country Link
CN (1) CN112541941B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168078A (ja) * 2015-03-11 2016-09-23 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
JP2019072259A (ja) * 2017-10-17 2019-05-16 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
CN109938764A (zh) * 2019-02-28 2019-06-28 佛山原子医疗设备有限公司 一种基于深度学习的自适应多部位扫描成像方法及其系统
CN110101401A (zh) * 2019-04-18 2019-08-09 浙江大学山东工业技术研究院 一种肝脏对比剂数字减影造影方法
CN110223352A (zh) * 2019-06-14 2019-09-10 浙江明峰智能医疗科技有限公司 一种基于深度学习的医学图像扫描自动定位方法
CN111292378A (zh) * 2020-03-12 2020-06-16 南京安科医疗科技有限公司 一种ct扫描辅助方法、装置及计算机可读存储介质
CN111709485A (zh) * 2020-06-19 2020-09-25 腾讯科技(深圳)有限公司 医学影像处理方法、装置和计算机设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020036708A (ja) * 2018-09-03 2020-03-12 株式会社日立製作所 手術支援装置及び手術ナビゲーションシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168078A (ja) * 2015-03-11 2016-09-23 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
JP2019072259A (ja) * 2017-10-17 2019-05-16 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
CN109938764A (zh) * 2019-02-28 2019-06-28 佛山原子医疗设备有限公司 一种基于深度学习的自适应多部位扫描成像方法及其系统
CN110101401A (zh) * 2019-04-18 2019-08-09 浙江大学山东工业技术研究院 一种肝脏对比剂数字减影造影方法
CN110223352A (zh) * 2019-06-14 2019-09-10 浙江明峰智能医疗科技有限公司 一种基于深度学习的医学图像扫描自动定位方法
CN111292378A (zh) * 2020-03-12 2020-06-16 南京安科医疗科技有限公司 一种ct扫描辅助方法、装置及计算机可读存储介质
CN111709485A (zh) * 2020-06-19 2020-09-25 腾讯科技(深圳)有限公司 医学影像处理方法、装置和计算机设备

Also Published As

Publication number Publication date
CN112541941A (zh) 2021-03-23

Similar Documents

Publication Publication Date Title
US11170545B2 (en) Systems and methods for diagnostic oriented image quality assessment
CN109770932B (zh) 多模态脑部神经影像特征的处理方法
CN112088394A (zh) 生物组织的计算机分类
CN111598867B (zh) 用于检测特定面部综合征的方法、装置及计算机可读存储介质
US20210090248A1 (en) Cervical cancer diagnosis method and apparatus using artificial intelligence-based medical image analysis and software program therefor
Costa et al. EyeWes: weakly supervised pre-trained convolutional neural networks for diabetic retinopathy detection
CN102665565A (zh) 医用图像处理装置
CN111862020A (zh) 一种眼前节生理年龄预测方法、装置、服务器及存储介质
US20220133215A1 (en) Method for evaluating skin lesions using artificial intelligence
KR20180045473A (ko) 이미지 분석을 이용한 흑색종 검사 시스템, 방법 및 컴퓨터 프로그램
WO2020067005A1 (ja) セファロ画像における計測点の自動認識方法
Ørting et al. Detecting emphysema with multiple instance learning
CN112561848A (zh) 区域性脑年龄预测的方法、非暂时性电脑可读介质及设备
CN112541941B (zh) 一种基于ct定位片的扫描流程决策方法及系统
Orlando et al. Learning to detect red lesions in fundus photographs: An ensemble approach based on deep learning
Lestari et al. Liver detection based on iridology using local binary pattern extraction
Jing et al. Optimization of Deep-learning network using Resnet50 based model for corona virus disease (COVID-19) histopathological image classification
CN115035086A (zh) 一种基于深度学习的结核皮试智能筛查分析方法和装置
Afzal et al. [Retracted] Prediction of Conversion from CIS to Clinically Definite Multiple Sclerosis Using Convolutional Neural Networks
Muthalagu et al. Type of Skin Disease Identification by Machine Learning Using Python
Nisha et al. SGD-DABiLSTM based MRI Segmentation for Alzheimer’s disease Detection
CN113796850A (zh) 甲状旁腺mibi图像分析系统、计算机设备及存储介质
Doğan et al. Comparison of machine learning techniques on MS lesion segmentation
Haja et al. Advancing glaucoma detection with convolutional neural networks: a paradigm shift in ophthalmology
CN112164028A (zh) 基于人工智能的垂体腺瘤磁共振图像定位诊断方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant