CN112541941A - 一种基于ct定位片的扫描流程决策方法及系统 - Google Patents

一种基于ct定位片的扫描流程决策方法及系统 Download PDF

Info

Publication number
CN112541941A
CN112541941A CN202011418072.XA CN202011418072A CN112541941A CN 112541941 A CN112541941 A CN 112541941A CN 202011418072 A CN202011418072 A CN 202011418072A CN 112541941 A CN112541941 A CN 112541941A
Authority
CN
China
Prior art keywords
information
predicted
foreign matter
posture
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011418072.XA
Other languages
English (en)
Other versions
CN112541941B (zh
Inventor
王小状
马春晓
叶宏伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mingfeng Medical System Co Ltd
Original Assignee
Mingfeng Medical System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mingfeng Medical System Co Ltd filed Critical Mingfeng Medical System Co Ltd
Priority to CN202011418072.XA priority Critical patent/CN112541941B/zh
Publication of CN112541941A publication Critical patent/CN112541941A/zh
Application granted granted Critical
Publication of CN112541941B publication Critical patent/CN112541941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Epidemiology (AREA)
  • Pulmonology (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于医学影像技术领域,具体涉及一种基于CT定位片的扫描流程决策方法及系统,基于深度学习技术智能分析针对扫描定位片中的关键信息,如器官组织类别和位置,扫描异物的种类和位置,病人所躺姿势形态等,提出定量分析关键信息相互关系的关联度函数,智能评价其分析结果对后续正常扫描的影响程度,并快速智能决策后续操作;整个过程自动化、智能化,无需医生等操作人员的介入,流程操作合理客观,耗费时间少,节约资源和时间成本,为医生、患者提供便利。

Description

一种基于CT定位片的扫描流程决策方法及系统
技术领域
本发明属于医学影像技术领域,具体涉及一种基于CT定位片的扫描流程决策方法及系统。
背景技术
医学成像是现代医学极其重要的一个分支,它通过医学影像设备上的信号与患者身体组织的作用等物理机制,展示患者身体内部结构的影像,揭示有无病变以及对病变进行定性和定量分析,从而有利于辅助医师进行病情诊断。其中,计算机断层扫描成像CT,以其扫描快、成像清晰以及价格便宜等特点,成为用于医学诊断的重要设备之一,配备于大多数医疗场所。
CT在扫描流程上,首先进行定位片的扫描,以获得正式扫描检查前一些必要信息。在实际操作中,由于病人生理参数不同,如高矮胖瘦等,躺在扫描床上的起始位置难以统一,待检查扫描的部位情况不同,患者身体上非必要异物的种类多样,以及患者所躺的肢体姿势各异等;因此,CT扫描仪需要事先进行一次病患大致体位的扫描,对定位片的上述信息进行详细分类、细致判断和准确决策;通过定位片的扫描结果,医生不仅可以选择合适的定位框大小和范围,识别扫描病人是否有非必要的异物,还可以判断扫描病人肢体姿势是否合乎正常扫描要求,这些因素均影响后续的正常扫描检查流程。
目前,针对定位片扫描得到的信息进行分析处理、监督和决策均由扫描操作技师或者医生来完成,即针对定位片中的信息对扫描的流程是否合规、结果是否准确等进行主观评价,以此对后续的扫描进行人为控制和干预;这种主观评价的方式强烈依赖于患者实际状况和医护人员的经验水平,对医护人员的主观意识依赖性较强,整个过程监督点多、耗时长、成本高,在极端情况下甚至会出现误判,从而可能耽误患者的诊断和治疗。
发明内容
基于现有技术中存在的上述缺点和不足,本发明的目的之一是至少解决现有技术中存在的上述问题之一或多个,换言之,本发明的目的之一是提供满足前述需求之一或多个的一种基于CT定位片的扫描流程决策方法及系统。
为了达到上述发明目的,本发明采用以下技术方案:
一种基于CT定位片的扫描流程决策方法,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
S4、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S5;若否,则转至步骤S7;
S5、根据异物关联度评价结果分析异物是否影响待检测部位的扫描或根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描;若否,则转至步骤S6;若是,则转至步骤S7;
S6、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描或根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则对待检测部位进行扫描;若是,则转至步骤S7;
S7、异常报警,终止扫描。
作为优选方案,所述训练后的深度学习神经网络对定位片信息进行预测,包括:
S21、对定位片信息进行预处理;
S22、将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化;K2操作包括依次进行的3×3卷积和1×1卷积;K3操作包括依次进行的1×1卷积、ReLU和上采样。
作为优选方案,所述预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
所述预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
所述预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a。
作为优选方案,所述步骤S3中,采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
Figure BDA0002820882540000031
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,所述器官组织关联度评价结果为器官组织关联度评价函数值。
作为优选方案,所述步骤S3中,采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
Figure BDA0002820882540000041
其中,Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
Figure BDA0002820882540000042
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,所述异物关联度评价结果为异物关联度评价函数值。
作为优选方案,所述步骤S3中,采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,REF为正常姿势对应的各姿势关键点的参考值;
Figure BDA0002820882540000043
其中,P为预测到的所有姿势关键点组成的向量集合,v为预测到的两个不同姿势关键点组成的向量,
Figure BDA0002820882540000044
Figure BDA0002820882540000045
为不同的向量,m、n∈P,m≠n;
相应地,所述姿势关联度评价结果为姿势关联度评价函数值。
作为优选方案,所述步骤S3中,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
Figure BDA0002820882540000051
作为优选方案,所述步骤S3与步骤S4之间还包括:
判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S4;若否,则转至步骤S7。
本发明还提供一种基于CT定位片扫描的流程决策系统,应用如上方案所述的流程决策方法,所述流程决策系统包括:
定位片扫描模块,用于进行CT定位片扫描以得到定位片信息;
信息预测模块,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
信息关联度评价模块,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
信息决策模块,用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作。
作为优选方案,流程决策系统还包括信息报告模块,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息、器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
本发明与现有技术相比,有益效果是:
本发明的基于CT定位片的扫描流程决策方法及系统,基于深度学习技术智能分析针对扫描定位片中的关键信息,如器官组织类别和位置,扫描异物的种类和位置,病人所躺姿势形态等,提出定量分析关键信息相互关系的关联度函数,智能评价其分析结果对后续正常扫描的影响程度,并快速智能决策后续操作;整个过程自动化、智能化,无需医生等操作人员的介入,流程操作合理客观,耗费时间少,节约资源和时间成本,为医生、患者提供便利。
附图说明
图1是本发明实施例1的基于CT定位片的扫描流程决策方法的流程图;
图2是本发明实施例1的深度学习神经网络训练及预测识别的流程图;
图3是本发明实施例1的预处理后的定位片输入深度学习神经网络的处理流程图;
图4是本发明实施例1的各关联度评价的流程框架图;
图5是本发明实施例1的两种不同异物及姿势经过扫描流程决策过程的信息展示图;
图6是本发明实施例1的基于CT定位片的扫描流程决策系统的构架图;
图7是本发明实施例1的信息智能识别模块的构架图;
图8是本发明实施例1的信息关联度评价模块的构架图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
本发明基于人工智能深度学习的方法,提供基于CT定位片的扫描流程决策方法及系统,通过定位片扫描得出的定位片信息dicom,运用深度学习神经网络技术智能分析扫描部位、异物特征信息与肢体姿势等三个方面的基本信息,并提出自动关联度评价函数对上述三个方面信息和扫描流程是否有关联、影响程度如何进行定量估计评价,并根据评价结果进行智能化决策,反馈给Console系统,指导后续如何进行合理操作。整个操作流程细节量化,步骤明确,无需技师或医生等介入,过程准确快速,节约时间和资源成本,为医生、患者都提供了较大的便利。基于此,以下通过具体实施例对本发明的技术方案作具体说明。
实施例1:
本实施例的基于CT定位片的扫描流程决策方法,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
具体地,患者躺上扫描床之后,结合需要的基本扫描参数信息,通过指令发送给CT扫描仪,根据设定好的相关定位片扫描参数,包括但不限于球管电压电流、探测器转速、待检查的扫描区域类别、扫描床移动运行的参数以及其他必要的运行参数等;然后开始进行定位片扫描,得出定位片信息,即dicom结果。
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
具体地,如图2所示,深度学习神经网络的训练过程包括:
S2001、收集CT定位片dicom训练数据集;其中,训练数据集涵盖器官组织、异物和姿势关键点的数据集,并进行特征标注,特征标注可以参考现有技术。
S2002、预处理模块进行预处理,包括数据截断和归一化处理;
对于数据截断范围可依据处理过程的经验值CTmin、CTmax进行具体设定;
归一化过程依照以下公式进行转换:
Figure BDA0002820882540000071
其中,x为待处理的数据,包括训练数据集的数据以及定位片信息的数据。
S2003、智能网络模块进行网络训练,网络训练的过程可以参考现有技术,在此不赘述;
S2004、保存相应的网络结构权重文件,得到如图3所示的神经网络模型结构;
S2005、输入CT定位片信息,即输入CT定位片dicom数据,并进行预处理;
S2006、网络初始化、加载参数和权重文件对预处理后的CT定位片信息进行网络预测,具体过程如下:
如图3所示,将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,输出得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化,主要功能为特征提取和下采样(Down Sampling);K2操作包括依次进行的3×3卷积和1×1卷积,主要功能为特征变换;K3操作包括依次进行的1×1卷积、ReLU和上采样,主要功能为信息上采样。
S2007、收集网络预测的结果,即收集输出的预测信息;其中,预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息。
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
为了便于说明,对器官组织、异物和姿势,分别使用B,O,S表示,具体地,如图4所示:
(1)预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
Figure BDA0002820882540000091
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合,事先存储在正常器官组织信息参考表中;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,器官组织关联度评价结果为器官组织关联度评价函数值。
(2)预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
Figure BDA0002820882540000092
其中,Bi是预测到的编号为i的预测器官组织,i∈c;Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
Figure BDA0002820882540000093
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,异物关联度评价结果为异物关联度评价函数值。
(3)预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a;
采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,可以近似为由关键点所组成的多边形样本空间;REF为正常姿势对应的各姿势关键点的参考值,事先存储在正常姿势信息参考表中;
Figure BDA0002820882540000101
其中,P为预测到的所有姿势关键点组成的向量集合,具体选定可根据待检查器官组织所处的位置选取;v为预测到的两个不同姿势关键点组成的向量,
Figure BDA0002820882540000102
Figure BDA0002820882540000103
为不同的向量,m、n∈P,m≠n;
相应地,姿势关联度评价结果为姿势关联度评价函数值。
(4)根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
Figure BDA0002820882540000104
上述wb,wo,ws的大小可以根据先验数据集合的具体分布状况进行赋值。
S4、判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S5;若否,则转至步骤S9;
S5、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S6;若否,则转至步骤S9;
S6、根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则转至步骤S7;若是,则转至步骤S9。
具体地,判断异物关联度评价函数值是否大于异物关联度阈值,如果判断结果为是,则说明异物与待检测部位的关联度大,会影响待检测部位的扫描;如果判断结果为否,则说明异物与待检测部位的关联度小,不会影响待检测部位的扫描。
S7、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,若否,则转至步骤S8;若是,则转至步骤S9。
具体地,判断姿势关联度评价函数值是否小于姿势关联度阈值,如果判断结果为是,则说明是正常姿势,不影响待检测部位的扫描;如果判断结果为否,则说明书是非正常姿势,影响待检测部位的扫描;
S8、对待检测部位进行CT扫描;
S9、异常报警,终止扫描,建议重新启动CT定位片扫描过程。
另外,在流程决策过程中还输出形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息,如图5(a)所示,仅含有单一异物(中部的小框)且姿势正确的信息展示图,图5(b)是多类异物(图中5个小尺寸的黑色定位框)并且姿势不正确的信息展示图,每一黑色连线的两端点为姿势关键点;还包括器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。另外,信息展示的方式不限于影像,还可以为图、表等。
对应于本实施例的流程决策方法,如图6所示,本实施例还提供基于CT定位片扫描的流程决策系统,包括定位片扫描模块100、信息智能识别模块200(即信息预测模块)、信息关联度评价模块300、信息决策模块400及信息报告模块500。
其中,定位片扫描模块100用于进行CT定位片扫描以得到定位片信息;具体地,患者躺上扫描床之后,结合需要的基本扫描参数信息,定位片扫描模块100通过指令发送给CT扫描仪,根据设定好的相关定位片扫描参数,包括但不限于球管电压电流、探测器转速、待检查的扫描区域类别、扫描床移动运行的参数以及其他必要的运行参数等;然后开始进行定位片扫描,得出定位片信息,即dicom结果。定位片扫描模块100可以为CT扫描仪自带的数据采集硬件。
信息智能识别模块200,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息。具体地,如图7所示,信息智能识别模块200包括预处理模块210、智能神经网络模块220和输出模块230,预处理模块210用于进行数值截断211和归一化处理212。
对于数据截断的范围可依据处理过程的经验值CTmin、CTmax进行具体设定;
归一化处理的过程依照以下公式进行转换:
Figure BDA0002820882540000121
其中,x为待处理的数据,包括训练数据集的数据以及定位片信息的数据。
智能神经网络模块220主要功能是基于深度学习神经网络技术进行,主要包含三部分:网络结构221、网络训练222和网络预测223,网络结构221基于深度学习神经网络,网络训练222的网络训练的过程可以参考现有技术,在此不赘述;网络训练完成后保存相应的网络结构权重文件,得到如图3所示的神经网络模型结构。
网络预测223的流程具体如下:
输入CT定位片信息,即输入CT定位片dicom数据,并进行预处理;将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化,主要功能为特征提取和下采样(Down Sampling);K2操作包括依次进行的3×3卷积和1×1卷积,主要功能为特征变换;K3操作包括依次进行的1×1卷积、ReLU和上采样,主要功能为信息上采样。
输出模块230用于输出网络预测得到的预测信息,预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息,预测器官组织信息包括器官组织种类与位置231,预测异物信息包括异物种类与位置232,预测姿势关键点信息包括姿势种类与位置233。
信息关联度评价模块300,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
具体地,如图8所示,信息关联度评价模块300包括器官组织评价模块310、异物评价模块320、姿势评价模块330和综合关联度评价结果340。
具体地,对于器官组织评价模块310,器官组织种类与位置231包括预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;上述五个参数作为器官组织信息元素311;
采用器官组织关联度评价函数313,即函数Fb(B)对预测器官组织信息进行关联度评价:
Figure BDA0002820882540000131
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合,事先存储在正常器官组织信息参考表312中;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,器官组织关联度评价结果314为器官组织关联度评价函数值。
对于异物评价模块320,异物种类与位置232包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;上述五个参数作为异物信息元素322,其中,器官组织信息元素321与器官组织信息元素311相同;
采用异物关联度评价函数323,即函数Fo(O)对预测异物信息进行关联度评价:
Figure BDA0002820882540000141
其中,Bi是预测到的编号为i的预测器官组织,i∈c;Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
Figure BDA0002820882540000142
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,异物关联度评价结果324为异物关联度评价函数值。
对于姿势评价模块330,姿势种类与位置233包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a;上述三个参数作为关键点信息元素331;
采用姿势关联度评价函数333,即函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,可以近似为由关键点所组成的多边形样本空间;REF为正常姿势对应的各姿势关键点的参考值,事先存储在正常姿势信息参考表332中;
Figure BDA0002820882540000151
其中,P为预测到的所有姿势关键点组成的向量集合,具体选定可根据待检查器官组织所处的位置选取;v为预测到的两个不同姿势关键点组成的向量,
Figure BDA0002820882540000152
Figure BDA0002820882540000153
为不同的向量,m、n∈P,m≠n;
相应地,姿势关联度评价结果334为姿势关联度评价函数值;
对于综合关联度评价结果340,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
Figure BDA0002820882540000154
上述wb,wo,ws的大小可以根据先验数据集合的具体分布状况进行赋值;
信息决策模块400,用于判断综合关联度评价函数的函数值是否达到目标阈值,还用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作,具体流程可以参考扫描流程决策方法中的步骤S4~S9。
信息报告模块500,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息,如图5(a)所示,仅含有单一异物(中部的小框)且姿势正确的信息展示图,图5(b)是多类异物(图中5个小尺寸的黑色定位框)并且姿势不正确的信息展示图,每一黑色连线的两端点为姿势关键点;还包括器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
实施例2:
本实施例的基于CT定位片的扫描流程决策方法与实施例1的不同之处在于:
步骤S6和S7可以互换,即异物和姿势的分析判断的顺序可以调换,满足不同应用场合的需求;
具体的扫描流程决策系统可以参考实施例1。
实施例3:
本实施例的基于CT定位片的扫描流程决策方法与实施例1的不同之处在于:
可以省略综合关联度评价函数计算以及步骤S4的判断过程,即从步骤S3直接进入S5;简化扫描流程决策流程,满足不同应用场合的需求;
相应地,扫描流程决策系统中的信息关联度评价模块省略综合关联度评价结果。
其他内容可以参考实施例1。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。

Claims (10)

1.一种基于CT定位片的扫描流程决策方法,其特征在于,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
S4、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S5;若否,则转至步骤S7;
S5、根据异物关联度评价结果分析异物是否影响待检测部位的扫描或根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描;若否,则转至步骤S6;若是,则转至步骤S7;
S6、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描或根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则对待检测部位进行扫描;若是,则转至步骤S7;
S7、异常报警,终止扫描。
2.根据权利要求1所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述训练后的深度学习神经网络对定位片信息进行预测,包括:
S21、对定位片信息进行预处理;
S22、将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化;K2操作包括依次进行的3×3卷积和1×1卷积;K3操作包括依次进行的1×1卷积、ReLU和上采样。
3.根据权利要求1或2所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
所述预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
所述预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a。
4.根据权利要求3所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述步骤S3中,采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
Figure FDA0002820882530000021
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,所述器官组织关联度评价结果为器官组织关联度评价函数值。
5.根据权利要求4所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述步骤S3中,采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
Figure FDA0002820882530000022
其中,Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
Figure FDA0002820882530000031
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,所述异物关联度评价结果为异物关联度评价函数值。
6.根据权利要求5所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述步骤S3中,采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,REF为正常姿势对应的各姿势关键点的参考值;
Figure FDA0002820882530000032
其中,P为预测到的所有姿势关键点组成的向量集合,v为预测到的两个不同姿势关键点组成的向量,
Figure FDA0002820882530000033
Figure FDA0002820882530000034
为不同的向量,m、n∈P,m≠n;
相应地,所述姿势关联度评价结果为姿势关联度评价函数值。
7.根据权利要求6所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述步骤S3中,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
Figure FDA0002820882530000035
8.根据权利要求7所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述步骤S3与步骤S4之间还包括:
判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S4;若否,则转至步骤S7。
9.一种基于CT定位片扫描的流程决策系统,应用如权利要求1-8任一项所述的流程决策方法,其特征在于,所述流程决策系统包括:
定位片扫描模块,用于进行CT定位片扫描以得到定位片信息;
信息预测模块,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
信息关联度评价模块,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
信息决策模块,用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作。
10.根据权利要求9所述的一种基于CT定位片扫描的流程决策系统,其特征在于,还包括信息报告模块,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息、器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
CN202011418072.XA 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统 Active CN112541941B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011418072.XA CN112541941B (zh) 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011418072.XA CN112541941B (zh) 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统

Publications (2)

Publication Number Publication Date
CN112541941A true CN112541941A (zh) 2021-03-23
CN112541941B CN112541941B (zh) 2023-12-15

Family

ID=75016256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011418072.XA Active CN112541941B (zh) 2020-12-07 2020-12-07 一种基于ct定位片的扫描流程决策方法及系统

Country Status (1)

Country Link
CN (1) CN112541941B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168078A (ja) * 2015-03-11 2016-09-23 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
JP2019072259A (ja) * 2017-10-17 2019-05-16 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
CN109938764A (zh) * 2019-02-28 2019-06-28 佛山原子医疗设备有限公司 一种基于深度学习的自适应多部位扫描成像方法及其系统
CN110101401A (zh) * 2019-04-18 2019-08-09 浙江大学山东工业技术研究院 一种肝脏对比剂数字减影造影方法
CN110223352A (zh) * 2019-06-14 2019-09-10 浙江明峰智能医疗科技有限公司 一种基于深度学习的医学图像扫描自动定位方法
US20200069374A1 (en) * 2018-09-03 2020-03-05 Hitachi, Ltd. Surgical support device and surgical navigation system
CN111292378A (zh) * 2020-03-12 2020-06-16 南京安科医疗科技有限公司 一种ct扫描辅助方法、装置及计算机可读存储介质
CN111709485A (zh) * 2020-06-19 2020-09-25 腾讯科技(深圳)有限公司 医学影像处理方法、装置和计算机设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168078A (ja) * 2015-03-11 2016-09-23 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
JP2019072259A (ja) * 2017-10-17 2019-05-16 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
US20200069374A1 (en) * 2018-09-03 2020-03-05 Hitachi, Ltd. Surgical support device and surgical navigation system
CN109938764A (zh) * 2019-02-28 2019-06-28 佛山原子医疗设备有限公司 一种基于深度学习的自适应多部位扫描成像方法及其系统
CN110101401A (zh) * 2019-04-18 2019-08-09 浙江大学山东工业技术研究院 一种肝脏对比剂数字减影造影方法
CN110223352A (zh) * 2019-06-14 2019-09-10 浙江明峰智能医疗科技有限公司 一种基于深度学习的医学图像扫描自动定位方法
CN111292378A (zh) * 2020-03-12 2020-06-16 南京安科医疗科技有限公司 一种ct扫描辅助方法、装置及计算机可读存储介质
CN111709485A (zh) * 2020-06-19 2020-09-25 腾讯科技(深圳)有限公司 医学影像处理方法、装置和计算机设备

Also Published As

Publication number Publication date
CN112541941B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
CN109770932B (zh) 多模态脑部神经影像特征的处理方法
Désir et al. Classification of endomicroscopic images of the lung based on random subwindows and extra-trees
Costa et al. EyeWes: weakly supervised pre-trained convolutional neural networks for diabetic retinopathy detection
CN111598867B (zh) 用于检测特定面部综合征的方法、装置及计算机可读存储介质
Melo et al. Microaneurysm detection in color eye fundus images for diabetic retinopathy screening
Abuared et al. Skin cancer classification model based on VGG 19 and transfer learning
US20210090248A1 (en) Cervical cancer diagnosis method and apparatus using artificial intelligence-based medical image analysis and software program therefor
Costa et al. Eyequal: Accurate, explainable, retinal image quality assessment
CN111079901A (zh) 基于小样本学习的急性脑卒中病变分割方法
CN111862020A (zh) 一种眼前节生理年龄预测方法、装置、服务器及存储介质
Chudzik et al. Exudates segmentation using fully convolutional neural network and auxiliary codebook
US20040014165A1 (en) System and automated and remote histological analysis and new drug assessment
CN116740426A (zh) 一种功能磁共振影像的分类预测系统
WO2020067005A1 (ja) セファロ画像における計測点の自動認識方法
Al Jannat et al. Detection of multiple sclerosis using deep learning
CN112561848A (zh) 区域性脑年龄预测的方法、非暂时性电脑可读介质及设备
CN113052800B (zh) 一种阿尔茨海默症影像分析方法与装置
Lestari et al. Liver detection based on iridology using local binary pattern extraction
CN112541941A (zh) 一种基于ct定位片的扫描流程决策方法及系统
Kurochka et al. An algorithm of segmentation of a human spine X-ray image with the help of Mask R-CNN neural network for the purpose of vertebrae localization
Jing et al. Optimization of Deep-learning network using Resnet50 based model for corona virus disease (COVID-19) histopathological image classification
Da Costa et al. Transformer-based normative modelling for anomaly detection of early schizophrenia
Muthalagu et al. Type of Skin Disease Identification by Machine Learning Using Python
CN113796850A (zh) 甲状旁腺mibi图像分析系统、计算机设备及存储介质
Srinivasan et al. Multi-Scale Attention-Based Mechanism in Gradient Boosting Convolutional Neural Network for Diabetic Retinopathy Grade Classification.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant