CN112541941A - 一种基于ct定位片的扫描流程决策方法及系统 - Google Patents
一种基于ct定位片的扫描流程决策方法及系统 Download PDFInfo
- Publication number
- CN112541941A CN112541941A CN202011418072.XA CN202011418072A CN112541941A CN 112541941 A CN112541941 A CN 112541941A CN 202011418072 A CN202011418072 A CN 202011418072A CN 112541941 A CN112541941 A CN 112541941A
- Authority
- CN
- China
- Prior art keywords
- information
- predicted
- foreign matter
- posture
- scanning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 210000000056 organ Anatomy 0.000 claims abstract description 118
- 230000008569 process Effects 0.000 claims abstract description 34
- 238000013135 deep learning Methods 0.000 claims abstract description 20
- 238000004458 analytical method Methods 0.000 claims abstract description 6
- 238000011156 evaluation Methods 0.000 claims description 135
- 230000036544 posture Effects 0.000 claims description 90
- 230000006870 function Effects 0.000 claims description 69
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 239000004576 sand Substances 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 230000008520 organization Effects 0.000 claims description 3
- 238000002591 computed tomography Methods 0.000 abstract description 38
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000005314 correlation function Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000010606 normalization Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000028752 abnormal posture Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- High Energy & Nuclear Physics (AREA)
- Epidemiology (AREA)
- Pulmonology (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Primary Health Care (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于医学影像技术领域,具体涉及一种基于CT定位片的扫描流程决策方法及系统,基于深度学习技术智能分析针对扫描定位片中的关键信息,如器官组织类别和位置,扫描异物的种类和位置,病人所躺姿势形态等,提出定量分析关键信息相互关系的关联度函数,智能评价其分析结果对后续正常扫描的影响程度,并快速智能决策后续操作;整个过程自动化、智能化,无需医生等操作人员的介入,流程操作合理客观,耗费时间少,节约资源和时间成本,为医生、患者提供便利。
Description
技术领域
本发明属于医学影像技术领域,具体涉及一种基于CT定位片的扫描流程决策方法及系统。
背景技术
医学成像是现代医学极其重要的一个分支,它通过医学影像设备上的信号与患者身体组织的作用等物理机制,展示患者身体内部结构的影像,揭示有无病变以及对病变进行定性和定量分析,从而有利于辅助医师进行病情诊断。其中,计算机断层扫描成像CT,以其扫描快、成像清晰以及价格便宜等特点,成为用于医学诊断的重要设备之一,配备于大多数医疗场所。
CT在扫描流程上,首先进行定位片的扫描,以获得正式扫描检查前一些必要信息。在实际操作中,由于病人生理参数不同,如高矮胖瘦等,躺在扫描床上的起始位置难以统一,待检查扫描的部位情况不同,患者身体上非必要异物的种类多样,以及患者所躺的肢体姿势各异等;因此,CT扫描仪需要事先进行一次病患大致体位的扫描,对定位片的上述信息进行详细分类、细致判断和准确决策;通过定位片的扫描结果,医生不仅可以选择合适的定位框大小和范围,识别扫描病人是否有非必要的异物,还可以判断扫描病人肢体姿势是否合乎正常扫描要求,这些因素均影响后续的正常扫描检查流程。
目前,针对定位片扫描得到的信息进行分析处理、监督和决策均由扫描操作技师或者医生来完成,即针对定位片中的信息对扫描的流程是否合规、结果是否准确等进行主观评价,以此对后续的扫描进行人为控制和干预;这种主观评价的方式强烈依赖于患者实际状况和医护人员的经验水平,对医护人员的主观意识依赖性较强,整个过程监督点多、耗时长、成本高,在极端情况下甚至会出现误判,从而可能耽误患者的诊断和治疗。
发明内容
基于现有技术中存在的上述缺点和不足,本发明的目的之一是至少解决现有技术中存在的上述问题之一或多个,换言之,本发明的目的之一是提供满足前述需求之一或多个的一种基于CT定位片的扫描流程决策方法及系统。
为了达到上述发明目的,本发明采用以下技术方案:
一种基于CT定位片的扫描流程决策方法,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
S4、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S5;若否,则转至步骤S7;
S5、根据异物关联度评价结果分析异物是否影响待检测部位的扫描或根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描;若否,则转至步骤S6;若是,则转至步骤S7;
S6、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描或根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则对待检测部位进行扫描;若是,则转至步骤S7;
S7、异常报警,终止扫描。
作为优选方案,所述训练后的深度学习神经网络对定位片信息进行预测,包括:
S21、对定位片信息进行预处理;
S22、将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化;K2操作包括依次进行的3×3卷积和1×1卷积;K3操作包括依次进行的1×1卷积、ReLU和上采样。
作为优选方案,所述预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
所述预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
所述预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a。
作为优选方案,所述步骤S3中,采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,所述器官组织关联度评价结果为器官组织关联度评价函数值。
作为优选方案,所述步骤S3中,采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
其中,Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,所述异物关联度评价结果为异物关联度评价函数值。
作为优选方案,所述步骤S3中,采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,REF为正常姿势对应的各姿势关键点的参考值;
相应地,所述姿势关联度评价结果为姿势关联度评价函数值。
作为优选方案,所述步骤S3中,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
作为优选方案,所述步骤S3与步骤S4之间还包括:
判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S4;若否,则转至步骤S7。
本发明还提供一种基于CT定位片扫描的流程决策系统,应用如上方案所述的流程决策方法,所述流程决策系统包括:
定位片扫描模块,用于进行CT定位片扫描以得到定位片信息;
信息预测模块,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
信息关联度评价模块,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
信息决策模块,用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作。
作为优选方案,流程决策系统还包括信息报告模块,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息、器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
本发明与现有技术相比,有益效果是:
本发明的基于CT定位片的扫描流程决策方法及系统,基于深度学习技术智能分析针对扫描定位片中的关键信息,如器官组织类别和位置,扫描异物的种类和位置,病人所躺姿势形态等,提出定量分析关键信息相互关系的关联度函数,智能评价其分析结果对后续正常扫描的影响程度,并快速智能决策后续操作;整个过程自动化、智能化,无需医生等操作人员的介入,流程操作合理客观,耗费时间少,节约资源和时间成本,为医生、患者提供便利。
附图说明
图1是本发明实施例1的基于CT定位片的扫描流程决策方法的流程图;
图2是本发明实施例1的深度学习神经网络训练及预测识别的流程图;
图3是本发明实施例1的预处理后的定位片输入深度学习神经网络的处理流程图;
图4是本发明实施例1的各关联度评价的流程框架图;
图5是本发明实施例1的两种不同异物及姿势经过扫描流程决策过程的信息展示图;
图6是本发明实施例1的基于CT定位片的扫描流程决策系统的构架图;
图7是本发明实施例1的信息智能识别模块的构架图;
图8是本发明实施例1的信息关联度评价模块的构架图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
本发明基于人工智能深度学习的方法,提供基于CT定位片的扫描流程决策方法及系统,通过定位片扫描得出的定位片信息dicom,运用深度学习神经网络技术智能分析扫描部位、异物特征信息与肢体姿势等三个方面的基本信息,并提出自动关联度评价函数对上述三个方面信息和扫描流程是否有关联、影响程度如何进行定量估计评价,并根据评价结果进行智能化决策,反馈给Console系统,指导后续如何进行合理操作。整个操作流程细节量化,步骤明确,无需技师或医生等介入,过程准确快速,节约时间和资源成本,为医生、患者都提供了较大的便利。基于此,以下通过具体实施例对本发明的技术方案作具体说明。
实施例1:
本实施例的基于CT定位片的扫描流程决策方法,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
具体地,患者躺上扫描床之后,结合需要的基本扫描参数信息,通过指令发送给CT扫描仪,根据设定好的相关定位片扫描参数,包括但不限于球管电压电流、探测器转速、待检查的扫描区域类别、扫描床移动运行的参数以及其他必要的运行参数等;然后开始进行定位片扫描,得出定位片信息,即dicom结果。
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
具体地,如图2所示,深度学习神经网络的训练过程包括:
S2001、收集CT定位片dicom训练数据集;其中,训练数据集涵盖器官组织、异物和姿势关键点的数据集,并进行特征标注,特征标注可以参考现有技术。
S2002、预处理模块进行预处理,包括数据截断和归一化处理;
对于数据截断范围可依据处理过程的经验值CTmin、CTmax进行具体设定;
归一化过程依照以下公式进行转换:
其中,x为待处理的数据,包括训练数据集的数据以及定位片信息的数据。
S2003、智能网络模块进行网络训练,网络训练的过程可以参考现有技术,在此不赘述;
S2004、保存相应的网络结构权重文件,得到如图3所示的神经网络模型结构;
S2005、输入CT定位片信息,即输入CT定位片dicom数据,并进行预处理;
S2006、网络初始化、加载参数和权重文件对预处理后的CT定位片信息进行网络预测,具体过程如下:
如图3所示,将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,输出得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化,主要功能为特征提取和下采样(Down Sampling);K2操作包括依次进行的3×3卷积和1×1卷积,主要功能为特征变换;K3操作包括依次进行的1×1卷积、ReLU和上采样,主要功能为信息上采样。
S2007、收集网络预测的结果,即收集输出的预测信息;其中,预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息。
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
为了便于说明,对器官组织、异物和姿势,分别使用B,O,S表示,具体地,如图4所示:
(1)预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
采用器官组织关联度评价函数Fb(B)对预测器官组织信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合,事先存储在正常器官组织信息参考表中;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,器官组织关联度评价结果为器官组织关联度评价函数值。
(2)预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
采用异物关联度评价函数Fo(O)对预测异物信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织,i∈c;Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,异物关联度评价结果为异物关联度评价函数值。
(3)预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a;
采用姿势关联度评价函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,可以近似为由关键点所组成的多边形样本空间;REF为正常姿势对应的各姿势关键点的参考值,事先存储在正常姿势信息参考表中;
相应地,姿势关联度评价结果为姿势关联度评价函数值。
(4)根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
上述wb,wo,ws的大小可以根据先验数据集合的具体分布状况进行赋值。
S4、判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S5;若否,则转至步骤S9;
S5、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S6;若否,则转至步骤S9;
S6、根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则转至步骤S7;若是,则转至步骤S9。
具体地,判断异物关联度评价函数值是否大于异物关联度阈值,如果判断结果为是,则说明异物与待检测部位的关联度大,会影响待检测部位的扫描;如果判断结果为否,则说明异物与待检测部位的关联度小,不会影响待检测部位的扫描。
S7、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,若否,则转至步骤S8;若是,则转至步骤S9。
具体地,判断姿势关联度评价函数值是否小于姿势关联度阈值,如果判断结果为是,则说明是正常姿势,不影响待检测部位的扫描;如果判断结果为否,则说明书是非正常姿势,影响待检测部位的扫描;
S8、对待检测部位进行CT扫描;
S9、异常报警,终止扫描,建议重新启动CT定位片扫描过程。
另外,在流程决策过程中还输出形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息,如图5(a)所示,仅含有单一异物(中部的小框)且姿势正确的信息展示图,图5(b)是多类异物(图中5个小尺寸的黑色定位框)并且姿势不正确的信息展示图,每一黑色连线的两端点为姿势关键点;还包括器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。另外,信息展示的方式不限于影像,还可以为图、表等。
对应于本实施例的流程决策方法,如图6所示,本实施例还提供基于CT定位片扫描的流程决策系统,包括定位片扫描模块100、信息智能识别模块200(即信息预测模块)、信息关联度评价模块300、信息决策模块400及信息报告模块500。
其中,定位片扫描模块100用于进行CT定位片扫描以得到定位片信息;具体地,患者躺上扫描床之后,结合需要的基本扫描参数信息,定位片扫描模块100通过指令发送给CT扫描仪,根据设定好的相关定位片扫描参数,包括但不限于球管电压电流、探测器转速、待检查的扫描区域类别、扫描床移动运行的参数以及其他必要的运行参数等;然后开始进行定位片扫描,得出定位片信息,即dicom结果。定位片扫描模块100可以为CT扫描仪自带的数据采集硬件。
信息智能识别模块200,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息。具体地,如图7所示,信息智能识别模块200包括预处理模块210、智能神经网络模块220和输出模块230,预处理模块210用于进行数值截断211和归一化处理212。
对于数据截断的范围可依据处理过程的经验值CTmin、CTmax进行具体设定;
归一化处理的过程依照以下公式进行转换:
其中,x为待处理的数据,包括训练数据集的数据以及定位片信息的数据。
智能神经网络模块220主要功能是基于深度学习神经网络技术进行,主要包含三部分:网络结构221、网络训练222和网络预测223,网络结构221基于深度学习神经网络,网络训练222的网络训练的过程可以参考现有技术,在此不赘述;网络训练完成后保存相应的网络结构权重文件,得到如图3所示的神经网络模型结构。
网络预测223的流程具体如下:
输入CT定位片信息,即输入CT定位片dicom数据,并进行预处理;将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化,主要功能为特征提取和下采样(Down Sampling);K2操作包括依次进行的3×3卷积和1×1卷积,主要功能为特征变换;K3操作包括依次进行的1×1卷积、ReLU和上采样,主要功能为信息上采样。
输出模块230用于输出网络预测得到的预测信息,预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息,预测器官组织信息包括器官组织种类与位置231,预测异物信息包括异物种类与位置232,预测姿势关键点信息包括姿势种类与位置233。
信息关联度评价模块300,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
具体地,如图8所示,信息关联度评价模块300包括器官组织评价模块310、异物评价模块320、姿势评价模块330和综合关联度评价结果340。
具体地,对于器官组织评价模块310,器官组织种类与位置231包括预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;上述五个参数作为器官组织信息元素311;
采用器官组织关联度评价函数313,即函数Fb(B)对预测器官组织信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织信息,i∈c;I为预测到的所有器官组织的集合;LB为所有先验器官组织的覆盖面积统计均值的集合,事先存储在正常器官组织信息参考表312中;L(Bi)是编号为i的预测器官组织对应的先验器官组织的覆盖面积统计均值;
相应地,器官组织关联度评价结果314为器官组织关联度评价函数值。
对于异物评价模块320,异物种类与位置232包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;上述五个参数作为异物信息元素322,其中,器官组织信息元素321与器官组织信息元素311相同;
采用异物关联度评价函数323,即函数Fo(O)对预测异物信息进行关联度评价:
其中,Bi是预测到的编号为i的预测器官组织,i∈c;Oj是预测到的编号为j的异物信息,j∈b;cov(Bi,Oj)为预测器官组织Bi和预测异物Oj的重叠度函数;
其中,X为对应预测器官组织Bi的定位框信息,Y为对应预测异物Oj的定位框信息,AX为预测器官组织Bi的覆盖面积,AY为预测异物Oj的覆盖面积;
相应地,异物关联度评价结果324为异物关联度评价函数值。
对于姿势评价模块330,姿势种类与位置233包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a;上述三个参数作为关键点信息元素331;
采用姿势关联度评价函数333,即函数Fs(S)对预测姿势关键点信息进行关联度评价:
Fs(S)=||PolyCov(S)-REF||2
其中,PolyCov(S)为姿势关键点的综合信息,可以近似为由关键点所组成的多边形样本空间;REF为正常姿势对应的各姿势关键点的参考值,事先存储在正常姿势信息参考表332中;
相应地,姿势关联度评价结果334为姿势关联度评价函数值;
对于综合关联度评价结果340,根据器官组织关联度评价函数Fb(B)、异物关联度评价函数Fo(O)及姿势关联度评价函数Fs(S),得到综合关联度评价函数F:
F=wbFb(B)+woFo(O)+wsFs(S)
其中,wb,wo,ws为各关联度评价函数的权重,满足:
上述wb,wo,ws的大小可以根据先验数据集合的具体分布状况进行赋值;
信息决策模块400,用于判断综合关联度评价函数的函数值是否达到目标阈值,还用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作,具体流程可以参考扫描流程决策方法中的步骤S4~S9。
信息报告模块500,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息,如图5(a)所示,仅含有单一异物(中部的小框)且姿势正确的信息展示图,图5(b)是多类异物(图中5个小尺寸的黑色定位框)并且姿势不正确的信息展示图,每一黑色连线的两端点为姿势关键点;还包括器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
实施例2:
本实施例的基于CT定位片的扫描流程决策方法与实施例1的不同之处在于:
步骤S6和S7可以互换,即异物和姿势的分析判断的顺序可以调换,满足不同应用场合的需求;
具体的扫描流程决策系统可以参考实施例1。
实施例3:
本实施例的基于CT定位片的扫描流程决策方法与实施例1的不同之处在于:
可以省略综合关联度评价函数计算以及步骤S4的判断过程,即从步骤S3直接进入S5;简化扫描流程决策流程,满足不同应用场合的需求;
相应地,扫描流程决策系统中的信息关联度评价模块省略综合关联度评价结果。
其他内容可以参考实施例1。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。
Claims (10)
1.一种基于CT定位片的扫描流程决策方法,其特征在于,包括以下步骤:
S1、进行CT定位片扫描,得到定位片信息;
S2、利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
S3、分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
S4、根据器官组织关联度评价结果分析预测器官组织是否为待检测部位;若是,则转至步骤S5;若否,则转至步骤S7;
S5、根据异物关联度评价结果分析异物是否影响待检测部位的扫描或根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描;若否,则转至步骤S6;若是,则转至步骤S7;
S6、根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描或根据异物关联度评价结果分析异物是否影响待检测部位的扫描;若否,则对待检测部位进行扫描;若是,则转至步骤S7;
S7、异常报警,终止扫描。
2.根据权利要求1所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述训练后的深度学习神经网络对定位片信息进行预测,包括:
S21、对定位片信息进行预处理;
S22、将预处理后的定位片信息作为训练后的深度学习神经网络的输入,连续进行4次K1操作进行特征提取,之后分出一个支路L1;本路继续进行2次K1操作和1次K2操作以进行信息上采样和维度转换,然后再分出一个支路L2,支路L2再经过K3操作与支路L1进行维度拼接,形成分路L3,分路L3进行K2操作形成分路L4;本路继续进行K2操作得到本路L0;将本路L0和分路L4统一化尺寸,得到预测信息;
其中,K1操作包括依次进行的3×3卷积、ReLU和均值池化;K2操作包括依次进行的3×3卷积和1×1卷积;K3操作包括依次进行的1×1卷积、ReLU和上采样。
3.根据权利要求1或2所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述预测器官组织信息包括:预测器官组织的中心点的横坐标xc和纵坐标yc、预测器官组织的定位框的横向尺寸iw和纵向尺寸ih、预测器官组织的类别编号c;
所述预测异物信息包括:预测异物的中心点的横坐标xb和纵坐标yb、预测异物的定位框的横向尺寸kw和纵向尺寸kh、预测异物的类别编号b;
所述预测姿势关键点信息包括预测姿势关键点的横坐标xa和纵坐标ya、预测姿势关键点的类别编号a。
8.根据权利要求7所述的一种基于CT定位片扫描的流程决策方法,其特征在于,所述步骤S3与步骤S4之间还包括:
判断综合关联度评价函数的函数值是否达到目标阈值;若是,则转至步骤S4;若否,则转至步骤S7。
9.一种基于CT定位片扫描的流程决策系统,应用如权利要求1-8任一项所述的流程决策方法,其特征在于,所述流程决策系统包括:
定位片扫描模块,用于进行CT定位片扫描以得到定位片信息;
信息预测模块,用于利用训练后的深度学习神经网络对定位片信息进行预测,得到预测信息;所述预测信息包括预测器官组织信息、预测异物信息和预测姿势关键点信息;
信息关联度评价模块,用于分别对预测器官组织信息、预测异物信息和预测姿势关键点信息进行关联度评价,得到器官组织关联度评价结果、异物关联度评价结果和姿势关联度评价结果;
信息决策模块,用于根据器官组织关联度评价结果分析预测器官组织是否为待检测部位,还用于根据异物关联度评价结果分析异物是否影响待检测部位的扫描,还用于根据姿势关联度评价结果分析姿势是否影响待检测部位的扫描,还用于根据相应的分析结果以进行相应的操作。
10.根据权利要求9所述的一种基于CT定位片扫描的流程决策系统,其特征在于,还包括信息报告模块,用于输出流程决策过程中形成的各种信息,包括定位片信息、预测器官组织信息、预测异物信息、预测姿势关键点信息、器官组织关联度评价结果、异物关联度评价结果、姿势关联度评价结果以及异常报警信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011418072.XA CN112541941B (zh) | 2020-12-07 | 2020-12-07 | 一种基于ct定位片的扫描流程决策方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011418072.XA CN112541941B (zh) | 2020-12-07 | 2020-12-07 | 一种基于ct定位片的扫描流程决策方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112541941A true CN112541941A (zh) | 2021-03-23 |
CN112541941B CN112541941B (zh) | 2023-12-15 |
Family
ID=75016256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011418072.XA Active CN112541941B (zh) | 2020-12-07 | 2020-12-07 | 一种基于ct定位片的扫描流程决策方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112541941B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168078A (ja) * | 2015-03-11 | 2016-09-23 | 国立大学法人名古屋大学 | 医用観察支援システム及び臓器の3次元模型 |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
JP2019072259A (ja) * | 2017-10-17 | 2019-05-16 | 国立大学法人千葉大学 | 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法 |
CN109938764A (zh) * | 2019-02-28 | 2019-06-28 | 佛山原子医疗设备有限公司 | 一种基于深度学习的自适应多部位扫描成像方法及其系统 |
CN110101401A (zh) * | 2019-04-18 | 2019-08-09 | 浙江大学山东工业技术研究院 | 一种肝脏对比剂数字减影造影方法 |
CN110223352A (zh) * | 2019-06-14 | 2019-09-10 | 浙江明峰智能医疗科技有限公司 | 一种基于深度学习的医学图像扫描自动定位方法 |
US20200069374A1 (en) * | 2018-09-03 | 2020-03-05 | Hitachi, Ltd. | Surgical support device and surgical navigation system |
CN111292378A (zh) * | 2020-03-12 | 2020-06-16 | 南京安科医疗科技有限公司 | 一种ct扫描辅助方法、装置及计算机可读存储介质 |
CN111709485A (zh) * | 2020-06-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 医学影像处理方法、装置和计算机设备 |
-
2020
- 2020-12-07 CN CN202011418072.XA patent/CN112541941B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168078A (ja) * | 2015-03-11 | 2016-09-23 | 国立大学法人名古屋大学 | 医用観察支援システム及び臓器の3次元模型 |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
JP2019072259A (ja) * | 2017-10-17 | 2019-05-16 | 国立大学法人千葉大学 | 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法 |
US20200069374A1 (en) * | 2018-09-03 | 2020-03-05 | Hitachi, Ltd. | Surgical support device and surgical navigation system |
CN109938764A (zh) * | 2019-02-28 | 2019-06-28 | 佛山原子医疗设备有限公司 | 一种基于深度学习的自适应多部位扫描成像方法及其系统 |
CN110101401A (zh) * | 2019-04-18 | 2019-08-09 | 浙江大学山东工业技术研究院 | 一种肝脏对比剂数字减影造影方法 |
CN110223352A (zh) * | 2019-06-14 | 2019-09-10 | 浙江明峰智能医疗科技有限公司 | 一种基于深度学习的医学图像扫描自动定位方法 |
CN111292378A (zh) * | 2020-03-12 | 2020-06-16 | 南京安科医疗科技有限公司 | 一种ct扫描辅助方法、装置及计算机可读存储介质 |
CN111709485A (zh) * | 2020-06-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 医学影像处理方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112541941B (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109770932B (zh) | 多模态脑部神经影像特征的处理方法 | |
Désir et al. | Classification of endomicroscopic images of the lung based on random subwindows and extra-trees | |
Costa et al. | EyeWes: weakly supervised pre-trained convolutional neural networks for diabetic retinopathy detection | |
CN111598867B (zh) | 用于检测特定面部综合征的方法、装置及计算机可读存储介质 | |
Melo et al. | Microaneurysm detection in color eye fundus images for diabetic retinopathy screening | |
Abuared et al. | Skin cancer classification model based on VGG 19 and transfer learning | |
US20210090248A1 (en) | Cervical cancer diagnosis method and apparatus using artificial intelligence-based medical image analysis and software program therefor | |
Costa et al. | Eyequal: Accurate, explainable, retinal image quality assessment | |
CN111079901A (zh) | 基于小样本学习的急性脑卒中病变分割方法 | |
CN111862020A (zh) | 一种眼前节生理年龄预测方法、装置、服务器及存储介质 | |
Chudzik et al. | Exudates segmentation using fully convolutional neural network and auxiliary codebook | |
US20040014165A1 (en) | System and automated and remote histological analysis and new drug assessment | |
CN116740426A (zh) | 一种功能磁共振影像的分类预测系统 | |
WO2020067005A1 (ja) | セファロ画像における計測点の自動認識方法 | |
Al Jannat et al. | Detection of multiple sclerosis using deep learning | |
CN112561848A (zh) | 区域性脑年龄预测的方法、非暂时性电脑可读介质及设备 | |
CN113052800B (zh) | 一种阿尔茨海默症影像分析方法与装置 | |
Lestari et al. | Liver detection based on iridology using local binary pattern extraction | |
CN112541941A (zh) | 一种基于ct定位片的扫描流程决策方法及系统 | |
Kurochka et al. | An algorithm of segmentation of a human spine X-ray image with the help of Mask R-CNN neural network for the purpose of vertebrae localization | |
Jing et al. | Optimization of Deep-learning network using Resnet50 based model for corona virus disease (COVID-19) histopathological image classification | |
Da Costa et al. | Transformer-based normative modelling for anomaly detection of early schizophrenia | |
Muthalagu et al. | Type of Skin Disease Identification by Machine Learning Using Python | |
CN113796850A (zh) | 甲状旁腺mibi图像分析系统、计算机设备及存储介质 | |
Srinivasan et al. | Multi-Scale Attention-Based Mechanism in Gradient Boosting Convolutional Neural Network for Diabetic Retinopathy Grade Classification. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |