CN116472550A - 用于自动检测游离腹内空气的方法和系统 - Google Patents
用于自动检测游离腹内空气的方法和系统 Download PDFInfo
- Publication number
- CN116472550A CN116472550A CN202180067846.5A CN202180067846A CN116472550A CN 116472550 A CN116472550 A CN 116472550A CN 202180067846 A CN202180067846 A CN 202180067846A CN 116472550 A CN116472550 A CN 116472550A
- Authority
- CN
- China
- Prior art keywords
- abdominal
- data
- training
- medical imaging
- air
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000001514 detection method Methods 0.000 title description 18
- 238000002059 diagnostic imaging Methods 0.000 claims abstract description 45
- 230000003187 abdominal effect Effects 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 73
- 238000003384 imaging method Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 26
- 208000005646 Pneumoperitoneum Diseases 0.000 description 20
- 238000002591 computed tomography Methods 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 125000004122 cyclic group Chemical group 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 210000001015 abdomen Anatomy 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 210000003200 peritoneal cavity Anatomy 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 230000000968 intestinal effect Effects 0.000 description 3
- 101100516913 Mus musculus Npat gene Proteins 0.000 description 2
- 101100516914 Xenopus laevis npat gene Proteins 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 210000004303 peritoneum Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000004998 Abdominal Pain Diseases 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013211 curve analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229940074869 marquis Drugs 0.000 description 1
- 210000004379 membrane Anatomy 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000010831 paired-sample T-test Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- VBUNOIXRZNJNAD-UHFFFAOYSA-N ponazuril Chemical compound CC1=CC(N2C(N(C)C(=O)NC2=O)=O)=CC=C1OC1=CC=C(S(=O)(=O)C(F)(F)F)C=C1 VBUNOIXRZNJNAD-UHFFFAOYSA-N 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 230000009278 visceral effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Quality & Reliability (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及一种用于检测游离腹内空气的方法和系统。特别地,本发明涉及一种用于检测游离腹内空气的(例如计算机实施的)方法,包括:‑例如经由第一接口接收输入数据,所述输入数据包括患者的腹部区域的医学成像数据集;应用经训练的函数,其中输出数据被生成,例如经由第二接口提供输出数据。
Description
本发明涉及一种用于检测游离腹内空气的方法和系统。
本发明属于医学成像领域,其用于创建身体内部的视觉表示以用于临床分析和医学干预。在医学成像中,通过使用诸如计算机断层摄影(CT)、磁共振成像(MR)、超声(US)等成像方式,可获取并显示表示患者或受试者内部结构的3D图像数据和2D图像数据。如今,从扫描患者或受试者获取的图像数据的数字格式可用,并且适于进行数字处理、分析和修改。
急症/创伤成像是医学成像的一个重要课题,因为相关临床路径的时间危急性要求与扫描工作流程紧密结合的解决方案。
在腹部急症成像领域,对气腹(即游离腹内空气)的标识,其是可能需要立即手术的潜在危急情况,具有很高的临床意义。如果有可能基于CT扫描自动检测这种情况,则这些患者可自动优先于其他被怀疑为不太危急的患者而被读取。此外,如果这种检测直接在采集工作场所执行,则还能使扫描仪自动通知用户这类危急的发现。这类系统将是实现智能CT扫描仪的愿景的关键组件。
腹膜是一层紧紧地包裹着大部分腹部器官的膜。腹膜的褶皱形成了腹内空间,即腹膜腔。在诊断严重腹痛的患者期间,标识腹膜腔内的空气(气腹)对于放射科医生来说是一项重要且时间危急的任务。气腹最常见的非手术原因是内脏穿孔。更准确地说,游离腹内空气指示中空器官的破裂,主要是胃肠道的破裂。这类破裂是外科急症,需要立即干预以防止腹膜腔内的污染[9,10]。由于穿孔本身通常不能用急症护理中常用的成像方式直接识别,因此空气充当了替代的放射学的标志。计算机断层扫描(CT)被认为是区分腔外和腔内气体的标准[1,5,9]。然而,取决于游离腹内空气的位置和数目(从接近肠壁的亚厘米气泡到在腹膜腔内自由移动的大量气泡),对其进行诊断是挑战性的,并且不明显的病例可能会被遗漏,特别是在最初没有怀疑气腹的情况下。此外,其他病例可占据急症读取工作列表的较高优先级位置,导致容易标识的气腹病例被忽视,直到后期才被读取扫描结果,此时患者可能已经面临严重后果。自动检测算法对这两种情况均有用[13],即对可能偶然发现的气腹病例进行标识以及优先读取(分诊)。虽然先前的工作已经解决了在胸部X射线上检测气腹的问题[7],但是还没有在CT扫描上自动检测游离腹内空气的方法。
因此,本发明的目的是提供用于检测游离腹内空气的改进方法和系统。
这个目的通过根据独立权利要求的本发明来实现。
在下文中,根据本发明的解决方案将针对系统和方法进行描述。本文中的元件、特征、优势或替代实施例可分配给其他要求保护的对象,反之亦然。换句话说,提供系统的权利要求可用在方法的上下文中描述或要求保护的特征来改进,反之亦然。在前一种情况下,该方法的功能性特征由提供系统的目标单元来体现。此外,结合特定示例性实施例描述的元件、特征、优势或替代实施例可按其最一般的术语分配给本发明。
以其最通用的术语,本发明涉及一种用于提供输出数据的方法,优选地是计算机实施的方法。本发明的方法以最通用的术语包括以下步骤
-例如经由第一接口接收输入数据,
-通过对输入数据应用算法操作来生成输出数据,
-例如经由第二接口提供输出数据。
以其最通用的术语,本发明进一步涉及一种系统,包括-第一接口,被配置用于接收输入数据,
-第二接口,被配置用于提供输出数据,
-计算单元,被配置用于将算法操作应用于输入数据,其中输出数据被生成。
所述计算单元可选地可以包括用于执行单独的算法操作的多个计算单元。所述多个计算单元可作为计算单元的独立的、连接的子单元来提供,或者备选地可作为一个集成的计算单元来提供。
以其最通用的术语,本发明进一步涉及一种包括指令的计算机程序,当该程序由计算机执行时,该指令使计算机实行本发明的方法。
以其最通用的术语,本发明进一步涉及包括指令的计算机可读介质,该指令当由计算机执行时,使计算机实行本发明的方法。
大多数前述单元可完全或部分地以软件模块的形式在合适的控制设备或处理系统的处理器中实施。很大程度上以软件的实施方式的优势在于,即使已经在使用的控制设备和/或处理系统也可通过软件更新容易地升级,以便以根据本发明至少一个实施例的方式工作。
术语“单元(unit)”可用术语“电路(circuit)”或“模块(module)”代替。术语“单元”可指执行代码的处理器硬件(共享的、专用的或成组的)和存储由处理器硬件执行的代码的存储器硬件(共享的、专用的或成组的),或者是它们的一部分或包括它们。
这些单元可在一个控制单元中实施,并且每个单元可包括一个或多个接口电路。另选地,这些单元可在非本地系统中实施,例如在网络中。在一些示例中,接口电路可包括连接到局域网(LAN)、互联网、广域网(WAN)或其组合的有线或无线接口。本公开的任何给定单元的功能性可分布在经由接口电路连接的多个模块中。例如,多个模块可允许负载平衡。在另一个示例中,服务器(也称为远程或云)模块可代表客户端模块完成一些功能性。
特别地,本发明涉及一种用于检测游离腹内空气的(例如计算机实施的)方法,包括:
-例如经由第一接口接收输入数据,所述输入数据包括患者的腹部区域的医学成像数据集
-应用经训练的函数,其中输出数据被生成,
-例如经由第二接口提供输出数据。
一般而言,经训练的函数模仿人类与其他人类思维相关联的认知功能。特别地,通过基于训练数据的训练,经训练的函数能够适应新的环境,并且能够检测和外推模式。
一般而言,经训练的函数的参数可借助于训练来调整。特别地,可使用监督训练、半监督训练、非监督训练、强化学习和/或主动学习。此外,可使用表征学习(另一个术语是“特征学习(feature learning)”)。特别地,经训练的函数的参数可通过若干个训练步骤迭代地调整。
特别地,经训练的函数可包括神经网络、支持向量机、决策树和/或贝叶斯网络,和/或经训练的函数可基于k-均值聚类、Q-学习、遗传算法和/或关联规则。特别地,神经网络可为深度神经网络、卷积神经网络或卷积深度神经网络。此外,神经网络可为对抗式网络、深度对抗式网络和/或生成对抗式网络。
输出数据可包括指示游离腹内空气的存在或不存在的医学成像数据集的标志或指示。这类标志或指示可包括视觉标记或听觉标记。输出数据可进一步包括用于在基于医学成像数据集或从医学成像数据集得到的所显示图像中突出显示包括游离腹内空气的图像区域的标记。输出数据可包括在医学成像数据集的给定子区域中、或在基于医学成像数据集或从医学成像数据集得到的所显示图像的给定子区域中针对游离腹内空气的标志或指示。输出数据可包括指示游离腹内空气的存在或不存在的分类信息。输出数据可包括指示游离腹内空气的存在或不存在的概率或可能性的得分或概率信息。这类分类信息、或得分、或概率信息可涉及医学成像数据集整体、或者涉及医学成像数据集的给定子区域,或者涉及基于医学成像数据集或从医学成像数据集得到的所显示图像的给定子区域。输出数据可被显示、存储或进一步处理。输出数据可传输到医院信息系统(HIS)或放射信息系统(RIS)。输出数据可用于触发进一步的患者检查或诊断程序。
经训练的函数例如可在包括腹部区域的多个医学成像数据集的训练数据上被训练,其中包含游离腹内空气的图像区域被标注。
对包含游离腹内空气的图像区域的标注可例如包括手动放置指示空气区域内的位置的标记。换句话说,对包含游离腹内空气的图像区域的标注可例如包括手动放置指示游离腹内空气区域内的一个位置的一个标记。
医学成像数据集可例如包括CT成像数据集。医学成像数据集可包括原始数据集、重建图像数据集和/或在重建后进一步被处理的图像数据集。医学成像数据集可包括另外的数据,诸如分割数据和从分割数据得到的数据,诸如与医学成像数据集内的分割结构相关的标识数据。图像分割是将数字图像分割成多个片段(像素集,也称为图像对象)的过程。分割的目标是简化和/或改变图像的表示,使其更有意义和更易于分析,并且允许分析解剖学结构,诸如血管。
可选地,医学成像数据集可例如被进一步处理以定义搜索空间。搜索空间是对其应用经训练的函数的成像数据的子区域。这类进一步的处理可手动或自动地例如通过分割所选解剖学结构而执行,所选解剖学结构可被包括在搜索空间中或从搜索空间中排除。将经训练的函数应用于搜索空间增加了该方法的效率和速度,因为待分析的图像的不相关区域被忽略。
医学成像数据集可例如包括3D成像数据,其中3D成像数据被细分成预选大小的多个图像分块。图像分块可为相邻的或重叠的。
经训练的函数可例如应用于多个图像分块,以确定任何给定的图像分块是否包含游离腹内空气。这是滑动窗口方法的一个示例。
换句话说,可针对每个图像分块确定分类信息或得分或概率信息。为了对患者进行总体确定(换句话说,关于整个医学成像数据集,或者至少整个搜索空间),输出数据可包括基于具有第N个最高得分或概率信息的N个图像分块的分类信息或得分或概率信息。
医学成像数据集例如可进一步细分成第一预选大小的第一多个图像分块和第二预选大小的第二多个图像分块。第一和第二多个图像分块的图像分块可例如重叠。然后可应用经训练的函数来确定第一和第二多个图像分块的任何给定图像分块是否包含游离腹内空气。这将带来对医学成像数据集整体的更健壮和改进的分类或分析。
例如,经训练的函数可基于卷积神经网络或深度神经网络。
更具体地,本发明涉及一种根据本发明的用于检测游离腹内空气的方法来检测游离腹内空气的系统或设备,包括
-第一接口,被配置用于接收输入数据,
-第二接口,被配置用于提供输出数据,
-计算单元,被配置用于应用经训练的函数,其中输出数据被生成。
该系统或装置可用作第二读取器,以帮助避免意外遗漏气腹的情况。
更具体地,本发明进一步涉及一种包括指令的计算机程序,当该程序由计算机执行时,该指令实行本发明的用于检测游离腹内空气的方法。
此外,本发明涉及一种包括指令的计算机可读介质,该指令当由计算机执行时,实行本发明的用于检测游离腹内空气的方法。
此外,本发明涉及一种用于提供用于检测游离腹内空气的经训练的函数的(例如计算机实施的)方法,包括:
-(例如,利用第一训练接口)接收包括腹部区域的第一多个医学成像数据集的第一输入训练数据,其中第一多个医学成像数据集中的医学成像数据集不包括包含游离腹内空气的图像区域
-(例如,利用第二训练接口)接收包括腹部区域的第二多个医学成像数据集的第二输入训练数据,其中第二多个医学成像数据集中的每个医学成像数据集包括包含游离腹内空气的至少一个图像区域。
-(例如,利用训练计算单元)基于输入训练数据和输出训练数据来训练函数,
-(例如,利用第三训练接口)提供经训练的函数。
第二多个医学成像数据集中的医学成像数据集可例如包括标注信息,该标注信息指示包含游离腹内空气的至少一个图像区域。
标注信息可作为是/否或1;0分类信息而被提供,该分类信息指示游离腹内空气的存在或不存在。标注信息可作为得分或概率信息而被提供,该得分或概率信息指示游离腹内空气的存在或不存在的概率或可能性
例如,经训练的函数可基于卷积神经网络或深度神经网络。
第一和第二输入训练数据的医学成像数据集可例如包括3D成像数据,其中3D成像数据被细分成预选大小的多个图像分块。图像分块可为相邻的或重叠的。
标注信息可由用户(例如放射科医师)手动提供。也可按半自动方式提供标注信息,其中用户将标记放置在游离腹内空气的区域内,并且通过进一步的自动处理步骤,包括标记的整个区域被分割。从该标注可以自动得到进一步的信息,诸如图像数据中包括游离空气的区域、或体积、或相对于患者解剖学结构的位置信息。这类进一步的信息可被包括在输出数据中。
在为训练数据集提供标注信息之后,可将训练数据集细分成多个图像分块,其中包括游离腹内空气的标注区域的部分的图像分块被标注为包括游离腹内空气。同样,这类标注信息可包括(二元)分类信息、或得分、或概率信息。
此外,本发明涉及一种用于训练用于检测游离腹内空气的函数的训练系统,包括
-第一训练接口,被配置用于接收输入训练数据,
-第二训练接口,被配置用于接收输出训练数据,其中输入训练数据与输出训练数据相关,
-训练计算单元,被配置用于基于输入训练数据和输出训练数据训练函数,
-第三训练接口,被配置用于提供经训练的函数。
此外,本发明涉及一种包括指令的计算机程序,当该程序由计算机执行时,该指令使计算机实行本发明的训练方法中的任一种。
此外,本发明涉及一种包括指令的计算机可读介质,该指令当由计算机执行时,使计算机执行本发明的训练方法中的任一种。
本发明的进一步细节和优势可从下面结合附图对示例性实施例的描述中获得,在附图中:
图1示出了本发明的示例性实施例的示意图,其具有用于滑动窗口检测的基线卷积神经网络结构,该结构将每个3-D分块映射为二元(sigmoid)输出变量,该变量表述分块是否包含游离腹内空气的概率;
图2示出了针对不同的N的值的基线模型的病例级别的AUC的图,也即,使用多少个最高的个体分块预测来确定病例级别的预测;
图3(a)至图3(c)示出了循环模型的一个示例性CV运行的病例级别的ROC曲线的图,并且图3(d)示出了基本事实标记的分布的直方图,亚组根据该基本事实标记而被确定;
图4示出了本发明的方法的一个实施例的示意图;
图5示出了本发明的系统的实施例的示意图;以及
图6示出了本发明的训练方法的实施例的示意图。
附图被认为是示意性的表示,并且附图中示出的元件不一定按比例示出。相反,各种元件被表示为促使它们的功能和一般目的对于本领域技术人员来说变得显而易见。在附图中示出或在此描述的功能性块、设备、组件或其他物理或功能性单元之间的任何连接或联接也可通过间接连接或联接来实施。组件之间的联接也可通过无线连接来建立。功能性块可用硬件、固件、软件或其组合来实施。
本发明的方法应用基于学习的方法来设计用于自动检测气腹的系统。它可在患者的CT图像以及具有指示游离腹内空气区域的专家标注的对照的数据库上被训练。之后,它能够在新患者的未见过的扫描中以高准确性标识气腹。
在本发明的方法的示例性实施例中,使用依赖于基于深度学习的3-D图像分块分类的常规滑动窗口方法来完成检测任务。公开了使用多尺度输入和循环学习来增强该方法的两个进一步的变型/实施例,以便增加输入分块的空间上下文,而不损害标签与导致该标签的发现的位置之间的关联。除了仅需要简单预处理的默认设置以外,还示出了依赖于可用的腹盆腔的先前分割的变型或示例性实施例的结果。
为了评估该方法的性能,同时考虑到病例的异质性和变化的难度,主要基于扫描中可观察到的游离腹内空气量进行亚组分析。
为此,一个特定实施例可采用滑动窗口分类方法,其中深度神经网络作为分类器模型,还潜在地使用多尺度或循环学习。
其他可想到的实施例可将该问题作为分割任务来处理,并且因此也能够输出例如找到的游离空气的量/体积以作为输出数据。
这类方法的实施方式可直接在扫描仪硬件上运行。一方面,这意指其结果的呈现可集成到扫描仪UI中,诸如以即时通知的形式。另一方面,这也带来了如下优势:可执行最适合于气腹(自动)检测的特定重建并使用该重建来运行算法。与之相反,独立于扫描仪的解决方案将需要依赖于任何碰巧可用的图像。
特别地,该算法可倾向于具有相对清晰内核的轴向薄层重建,从而确保小气泡和将腔内空气与腔外空气分开的肠壁的良好可视性。此外,从由双能量或光子计数CT扫描仪获得的多光谱数据得到的信息可进一步改进检测准确性,例如,通过允许标准化整体图像对比度(Mono+)和去除由碘化造影剂(VNC)引起的不希望的差异。这一点特别重要,因为确定一定体积的空气是否是游离的需要对周围的解剖学结构有很好的了解,而对周围的解剖学结构的了解又强烈依赖于软组织对比度。
例如,用于本发明的方法的输入数据可为任何腹部CT扫描。此外,例如可执行以下预处理步骤:首先在z轴对图像体积进行重采样,以获取3mm的标准化切片厚度。接下来,执行简单的身体分割,以获取患者所占据的图像区域的二元掩模,除非另有明确说明,否则该掩模将用作搜索空间。备选地,可通过使用对腹盆腔的分割来进一步限制搜索空间,这是从最初由Yang等人描述的用于肝脏分割的深度学习模型获得的[15]。
滑动窗口检测方法
推理工作流程。随后,作为说明性示例,该体积被细分成大小为(sx,sy,sz)=(64,64,16)像素的规则的3-D分块,并且3-D分块在所有维度上具有25%的重叠。在轴平面内将分块下采样为(sx′,sy′,sz)=(32,32,16)像素的大小,并且将像素强度归一化。然后,将每个分块分别馈送到如图1所示的卷积神经网络分类器。该模型被训练以对分块是否包含游离腹内空气进行分类。然后将针对患者的病例级别预测确定为前N个分块的输出概率得分的平均值,前N个分块即实现最高概率的N个框,其中N=4是根据经验而被一次确定并且然后保持固定的(参见图2)。仅考虑与搜索空间重叠的分块。在下文中,这个模型将被称为基线模型。
模型训练。真实事实标注包括由放射学家手动放置的标记,该标记指示空气区域内的位置。(有关所选标注模式的简短论述,请参见下文关于标注的部分。)如果图像分块包括任何标记,则将其标记为包含游离腹内空气,反之亦然。为了避免具有偏心检测的分块,同时确保对所有标记的完全覆盖,在确定标记的过程中排除重叠区域大小的一半的余量。对于训练,大小为32的迷你批次通过随机平移、小角度旋转和翻转被动态地增强,然后被馈送到Adam优化器[6],以最小化训练数据的二元交叉熵。利用频率加权来处理标签的不平衡性。使用提前停止,并且利用30个轮次的耐心以监测在验证数据上计算得到的马修斯相关系数[8]。
增强空间上下文
滑动窗口分类器的明显缺点是模型可用的空间上下文有限。然而,存在如下权衡阻止了人们通过选择越来越大的分块来克服这一限制的容易的解决方案:当上下文更多时,标签和导致该标签的发现之间的关联变得更弱。作为一个极端的示例,考虑整个体积分类的情况:尽管技术上所有信息均存在,但由于巨大的输入空间,即使深度学习常常也难以标识相关结构,除非有数以千计的病例的训练数据可用。在下文中,给出了应对这种权衡的两种示例性方法。
多尺度变型
该示例性实施例是从多尺度/分辨率分析中借用其核心思想的简单扩展[14]。对于每个分块,提取第二个以相同位置为中心、但是在轴平面内具有两倍的(物理)大小的分块。该分块被下采样到与原始分块相同的像素大小,从而具有其一半的分辨率。第二个分块作为单独的输入被馈送到模型,并且经过图1的卷积阶段的复制版本(但是参数未被绑定),所得到的两个分支的特征图在第一个全连接层之前被联接。训练程序的所有其他方面保持不变。
循环变型
受文本识别[12]中常见方法的不受其束缚的启发,该示例性实施例是模型通过使用循环单元来合并来自先前和后续分块的信息的方式。更准确地说,沿轴向具有相同位置的所有滑动窗口分块,即对应于输入体积中轴向层的3-D分块的z切片,被视为一个序列。在序列中,分块按照之字形顺序排列(第一行从左到右,第二行从右到左,等等),以便避免“跳行”。然后,设计一个模型来双向遍历这些分块序列,并且将它们映射到其标签的二元序列。为了具有固定长度的序列,搜索空间之外的分块也被包括在内,并且它们在推断之后的预测被置零。由于从零开始训练该模型被证明是具有挑战性的,因此采用了迁移学习方法,即采用第2.2节中描述的基线模型,冻结经训练的权重,并且在第一、第三和第五密集层之后添加三层门控循环单元(GRU)[2],每一层均具有与前一层相同的输出张量维度。然后对这些进行十个以上的轮次的训练,有效地将模型微调为序列表示。
数据
从总共Npat=139例患者中选择腹部CT扫描进行回顾性研究,其中Nair=110例为连续的气腹病例,而其余Nctrl=29例为对照组。对照病例是具有随后需要手术的腹部病理的其他急症的患者的、以等效方式采集的扫描,使得其与气腹患者的扫描直接可比,而且比健康个体更难以与气腹患者的扫描区分。出于训练和评估目的,所有Npat患者被汇集在一起,并且执行五次随机重复的五重交叉验证(CV),以获得可靠的性能评估。五个CV子集中的四个子集用于训练,并且留出一个子集作为验证集。
性能表征
对于如下两个分类任务,接收者操作特性(ROC)曲线分析[4]以微平均的方式实行,即将一个CV重复的所有样本外预测合并到一条曲线中:
a)对所有患者的所有3-D分块进行分块式二元分类(窗口级别评估),以及b)根据上述病例级别评估中所描述的分块预测的前4名加权程序进行患者式二元分类。虽然后者代表了一种临床上更有意义的评估,但前者由于样本数目大得多,允许对模型性能进行更细粒度的分析。在这两项评估中,在患者级别执行了相同的训练/测试划分。
亚组分析
检测任务的难度变化很大;最大的空气量即使对外行人来说也是显而易见的,而检测腹部一个微小的非生理性气泡可能是谚语所说的大海捞针。为了更好地直观了解异质性水平及其如何影响模型性能,采用了简单的亚组分析:将针对每位患者放置的标记数目视为空气量的替代物,因为大空气量在某种程度上被密集地覆盖有标记,以确保所有滑动窗口均被正确标记。因此,Nair气腹数据集关于标记的数目被分类,然后被分成两个部分:少于(至少)t个标记的P<t(以及P≥t),其中t∈{50,100}。亚组的大小为|P<50|=49,|P≥50|=61和|P<100|=76,|P≥100|=34。对于单个亚组的评估,每个亚组分别与所有对照病例合并,以进行稳健的评估。参见图3d中标记分布的直方图。
评估
表1示出了针对基线、多尺度和循环变型的ROC曲线的曲线下面积(AUC),以用于病例级别和窗口级别的评估。在窗口级别,从基线到多尺度再到循环变型,均在持续改进。虽然变化可能看起来很小,但基线和循环变型之间的差异实际上具有统计学显著性,其在CV重复的双尾配对样本t检验中p<10-4。这可通过以下事实来解释:由于分块总数较大,AUC具有很高的重现性,反映为较小的标准偏差。然而,也可看出,这种改进并没有直接转化到病例级别。在此,对于增强的变型,AUC甚至略有下降。然而,所有这些差异在统计学上均是微不足道的:可假设这三个模型在病例级别的评估中表现同样好。从本质上说,这意指被增强模型更准确地分类的分块对于病例级别的决策并不具影响力,至少在有限数目的可用病例中是如此。为了简洁起见,其余结果仅针对执行最好的循环模型示出。
表1:针对窗口级别和病例级别的评估的AUC值,以五重CV的五次随机重复的平均±标准偏差百分比表示。
在图3a至3c中,示出了一个示例性CV运行的ROC曲线。图3a和3b总结了亚组分析的结果。对于P≥50和P≥100的组,AUC达到96%和99%,尽管它们仍然分别包括所有数据集的55%和31%。换句话说,虽然有非常多的困难病例限制了系统的整体灵敏度,但是气腹病例中的许多可被几乎完美地分类。在这种情况下,应注意,尽管任何量的游离腹内空气均可指示急症,但有证据表明局部发生在临床上是不太显著的[3]。图3c示出了当使用腹盆腔分割代替身体掩模时的性能变化,这表明消除腹部之外的候选是有益的。
替代方法
除了标记被放置在游离腹内空气区域内的所呈现的标注模式以外,最初也考虑了可能更好地帮助训练检测模型的其他模式。具体而言,乍一看,获得密集的、像素式的区域标记似乎微不足道,因为CT中的空气常常甚至可通过简单的阈值分割来分割。这看起来特别有希望,因为这类真实事实掩模将促使能够使用成功的图像到图像分割架构[11],出于充分的理由,这构成了当前技术水平的大部分。这可能是有问题的,原因有二。首先,软重建内核和有限的图像分辨率会导致肠壁变得部分不可见,从而模糊从腔内到腔外空间的过渡。其次,更关键的是,即使使用复杂的分割工具,分割患者体内的所有单个气泡也是极其耗时的,这些气泡可能有几十个,并且可能夹杂着生理性气泡,这使人们无法简单地标记给定区域中的所有空气。相比之下,在目前的方法中,只需要标记一些代表性的气泡,以获取每个分块的正确标签。可用于训练区域建议网络或类似的现代检测模型的边界框标注[16]似乎也不可行。这在很大程度上是由于上述大量微小的、分布的气泡,对于这些气泡,难以决定如何以一致的方式用框来覆盖它们,而巨大的空气体积有时会占据患者腹部的大约一半。
本发明的方法遵循以深度循环神经网络分类器为核心的滑动窗口方法。当依赖于腹盆腔分割时,它在五重CV中实现了89%的ROC AUC。可在实现高特异性的同时维持合理的检测率。这类操作点适合于调节急症扫描的读取顺序,其中抢在更紧急病例之前的无根据的优先化通常被认为比遗漏早期检测的机会更有害。这一点尤其重要,因为只有不到1%的急症患者出现气腹[9]。
图4示出了本发明的方法的实施例的示意性表示,其中经由第一接口接收101输入数据。所述输入数据包括患者的腹部区域的医学成像数据集。此外,输入数据是3D成像数据,并且3D成像数据被细分103为预选大小的多个图像分块。然后,应用105经训练的函数,并且生成输出数据。例如经由第二接口提供107输出数据。输出107可经由专用接口来实现,并且所确定的输出数据因此可被提供给显示器、打印机、存储器、网络或者适于用户检查、存储或进一步处理的任何其他方式。所确定的输出数据指示游离腹内空气的存在或不存在。输出数据可包括病例级别的信息,指示作为整体的医学成像数据集的游离腹内空气的存在或不存在。备选地或附加地,输出数据可提供指示游离腹内空气的存在或不存在的可能性的概率或得分。备选地或附加地,输出数据可在各个图像分块或子区域的级别提供相同类型的信息。备选地或附加地,输出数据可提供与游离腹内空气相关的进一步信息,诸如游离腹内空气的体积、游离腹内空气区域相对于解剖学标志的位置以及类似信息。
图5示出了本发明的系统200的实施例的示意图。该示例性实施例包括控制单元210和用于扫描患者230的CT扫描仪220。控制单元包括用于接收包括医学图像数据集的输入数据的第一接口201。控制单元210进一步包括计算单元203,其可任选地包括多个不同的另外的计算单元205。此外,还提供了用于输出输出数据的第二接口207,以及用于输入命令(诸如用户选择命令、控制命令和其他命令或数据)的命令和数据输入接口209。
图6示出了本发明的训练方法的实施例的示意性表示,该训练方法具有以下步骤:接收第一输入训练数据301(例如,用第一训练接口),该第一输入训练数据301包括没有游离腹内空气的腹部区域的多个医学成像数据集;(例如,用第二训练接口)接收第二输入训练数据303,其中包含游离腹内空气的图像区域存在且已经被标注;(例如,用训练计算单元)基于第一输入训练数据和第二输入训练数据训练函数305;以及(例如,用第三训练接口)提供307经训练的函数。输出307可经由专用接口来实现,并且经训练的函数因此可被提供给显示器、打印机、存储器、网络或者适于用户检查、存储或进一步处理的任何其他方式。
通过使用本发明的方法和系统,支持气腹的早期检测,并且将有更少的患者在本能被检测出气腹之后被检测出气腹或甚至被完全遗漏检测。
该检测优选是自动的,并且可在医学成像扫描仪上执行。这意指被怀疑有气腹的患者可优先处理,而无需人工干预。通过使用最合适的图像可提高自动检测的准确性,并且可在扫描后立即通知临床医生/放射科医生。
这为急症CT成像提供了一种改进的解决方案,从而提供了一种智能的、“急症就绪(emergency-ready)”的CT扫描仪。
将现代机器学习技术应用于手头的问题,特别是利用能够得到其自身特征的深度学习是关键。因为标识游离腹内空气的任务需要相对较高程度的解剖学理解,而这用传统方法难以实现,在这种任务中这类理解通常必须用手工制作的特征来实现。
出于说明的目的,已经描述了示例性实施例。显然,所描述的特征、步骤和工作流程可按多种方式变化。这类变化不应被视为脱离本发明的范围,并且对本领域技术人员来说显而易见的所有这类修改均旨在包括在以下权利要求的范围内。
参考文献
1.Bulas,D.I.,Taylor,G.A.,Eichelberger,M.R.:The value of ct indetecting bowel perforation in children after blunt abdominal trauma.AmericanJournal of Roentgenology 153(3),561–564(1989)
2.Cho,K.,Van Merri¨enboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,Bengio,Y.:Learning phrase representations using rnn encoder-decoder for statistical machine translation.arXiv preprint arXiv:1406.1078(2014)
3.Cho,S.J.,Choi,I.J.,Kim,S.J.,Kim,M.J.,Kim,C.G.,Lee,J.Y.,Ryu,K.W.,Kim,Y.W.:Clinical significance of intraperitoneal air on computed tomographyscan after endoscopic submucosal dissection in patients with gastricneoplasms.
Surgical endoscopy 28(1),307–313(2014)
4.Fawcett,T.:An introduction to ROC analysis.Pattern recognitionletters 27(8),861–874(2006)
5.Hainaux,B.,Agneessens,E.,Bertinotti,R.,De Maertelaer,V.,Rubesova,E.,Capelluto,E.,Moschopoulos,C.:Accuracy of mdct in predicting site ofgastroin-testinal tract perforation.American Journal of Roentgenology 187(5),1179–1183(2006)
6.Kingma,D.P.,Ba,J.:Adam:A method for stochastic optimization.arXivpreprint arXiv:1412.6980(2014)
7.Luo,J.W.,Lie,J.L.,Chong,J.:Pneumoperitoneum on chest X-ray:A DCNNapproach to automated detection and localization utilizing salience and classactivation maps.In:SIIM Conference on Machine Intelligence in Medical Imaging(2018)
8.Matthews,B.W.:Comparison of the predicted and observed secondarystructure of t4 phage lysozyme.Biochimica et Biophysica Acta(BBA)-ProteinStructure 405(2),442–451(1975)
9.Nazerian,P.,Tozzetti,C.,Vanni,S.,Bartolucci,M.,Gualtieri,S.,Trausi,F.,Vittorini,M.,Catini,E.,Cibinel,G.A.,Grifoni,S.:Accuracy of abdominal ul-trasound for the diagnosis of pneumoperitoneum in patients with acute ab-dominal pain:a pilot study.Critical Ultrasound Journal 7(1),15(2015).1.Bulas,D.I.,Taylor,G.A.,Eichelberger,M.R.:The value of ct in detecting bowelperforation in children after blunt abdominal trauma.American Journal ofRoentgenology 153(3),561–564(1989)
2.Cho,K.,Van Merri¨enboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,Bengio,Y.:Learning phrase representations using rnn encoder-decoder for statistical machine translation.arXiv preprint arXiv:1406.1078(2014)
3.Cho,S.J.,Choi,I.J.,Kim,S.J.,Kim,M.J.,Kim,C.G.,Lee,J.Y.,Ryu,K.W.,Kim,Y.W.:Clinical significance of intra-peritoneal air on computed tomographyscan after endoscopic submucosal dissection in patients with gastricneoplasms.
Surgical endoscopy 28(1),307–313(2014)
4.Fawcett,T.:An introduction to ROC analysis.Pattern recognitionletters 27(8),861–874(2006)
5.Hainaux,B.,Agneessens,E.,Bertinotti,R.,De Maertelaer,V.,Rubesova,E.,Capelluto,E.,Moschopoulos,C.:Accuracy of mdct in predicting site ofgastroin-testinal tract perforation.American Journal of Roentgenology 187(5),1179–1183(2006)
6.Kingma,D.P.,Ba,J.:Adam:A method for stochastic optimization.arXivpreprint arXiv:1412.6980(2014)
7.Luo,J.W.,Lie,J.L.,Chong,J.:Pneumoperitoneum on chest X-ray:A DCNNapproach to automated detection and localization utilizing salience and classactivation maps.In:SIIM Conference on Machine Intelligence in Medical Imaging(2018)
8.Matthews,B.W.:Comparison of the predicted and observed secondarystructure of t4 phage lysozyme.Biochimica et Biophysica Acta(BBA)-ProteinStructure 405(2),442–451(1975)
9.Nazerian,P.,Toz zetti,C.,Vanni,S.,Bartolucci,M.,Gualtieri,S.,Trausi,F.,Vittorini,M.,Catini,E.,Cibinel,G.A.,Grifoni,S.:Accuracy ofabdominal ul-trasound for the diagnosis of pneumoperitoneum in patients withacute ab-dominal pain:a pilot study.Critical Ultrasound Journal 7(1),15(2015).https://doi.org/10.1186/s13089-015-0032-6
10.Paster,S.B.,Brogdon,B.G.:Roentgenographic Diagnosis ofPneumoperitoneum.JAMA 235(12),1264–1267(03 1976).https://doi.org/10.1001/jama.1976.03260380058035
11.Ronneberger,O.,Fischer,P.,Brox,T.:U-net:Convolutional networks forbiomedical image segmentation.In:International Conference on Medical imagecomputing and computer-assistedintervention.pp.234–241.Springer(2015)
12.Shi,B.,Bai,X.,Yao,C.:An end-to-end trainable neural network forimage-based sequence recognition and its application to scene textrecognition.IEEE Transac-tions on Pattern Analysis and Machine Intelligence,2016
13.Summers,R.M.:Progres s in fully automated abdominal CTinterpretation.Amer-ican Journal of Roentgenology 207(1),67–79(2016)
14.Tompson,J.J.,Jain,A.,LeCun,Y.,Bregler,C.:Joint training of aconvolutional network and a graphical model for human pose estimation.In:Advances in neural information processing systems.pp.1799–1807(2014)
15.Yang,D.,Xu,D.,Zhou,S.K.,Georgescu,B.,Chen,M.,Grbic,S.,Metaxas,D.,Comaniciu,D.:Automatic liver segmentation using an adversarial image-to-imagenetwork.In:International Conference on Medical Image Computing and Computer-Assisted Intervention.pp.507–515.Springer(2017)
10.Paster,S.B.,Brogdon,B.G.:Roentgenographic Diagnosis ofPneumoperitoneum.JAMA 235(12),1264–1267(03 1976).https://doi.org/10.1001/jama.1976.03260380058035
11.Ronneberger,O.,Fischer,P.,Brox,T.:U-net:Convolutional networks forbiomedical image segmentation.In:International Conference on Medical imagecomputing and computer-assisted intervention.pp.234–241.Springer(2015)
12.Shi,B.,Bai,X.,Yao,C.:An end-to-end trainable neural network forimage-based sequence recognition and its application to scene textrecognition.IEEE Transac-tions on Pattern Analysis and Machine Intelligence,2016
13.Summers,R.M.:Progres s in fully automated abdominal CTinterpretation.Amer-ican Journal of Roentgenology 207(1),67–79(2016)
14.Tompson,J.J.,Jain,A.,LeCun,Y.,Bregler,C.:Joint training of aconvolutional network and a graphical model for human pose estimation.In:Advances in neural information processing systems.pp.1799–1807(2014)
15.Yang,D.,Xu,D.,Zhou,S.K.,Georgescu,B.,Chen,M.,Grbic,S.,Metaxas,D.,Comaniciu,D.:Automatic liver segmentation using an adversarial image-to-imagenetwork.In:International Conference on Medical Image Computing and Computer-Assisted Intervention.pp.507–515.Springer(2017)
Claims (14)
1.一种用于检测游离腹内空气的方法,包括:
-接收输入数据,所述输入数据包括患者的腹部区域的医学成像数据集,
-应用经训练的函数,其中所述输出数据被生成,
-例如经由第二接口提供所述输出数据,其中所述经训练的函数在包括腹部区域的多个医学成像数据集的训练数据上被训练,其中包含游离腹内空气的图像区域被标注。
2.根据权利要求1所述的方法,其中对包含游离腹内空气的图像区域的所述标注包括手动放置标记,所述标记指示游离腹内空气区域内的位置。
3.根据前述权利要求中任一项所述的方法,其中所述医学成像数据集包括3D成像数据,并且其中所述3D成像数据被细分成预选大小的多个图像分块。
4.根据权利要求3所述的方法,其中所述经训练的函数用于确定所述多个图像分块中的任何给定图像分块是否包含游离腹内空气。
5.根据前述权利要求中任一项所述的方法,其中所述经训练的函数基于卷积神经网络或深度神经网络。
6.一种用于根据权利要求1至5中任一项所述的方法来检测游离腹内空气的系统或设备,包括
-第一接口,被配置用于接收输入数据,
-第二接口,被配置用于提供输出数据,
-计算单元,被配置用于应用经训练的函数,其中所述输出数据被生成。
7.一种包括指令的计算机程序,当所述程序由计算机执行时,所述指令实行根据权利要求1至5中任一项所述的方法。
8.一种计算机可读介质,包括当由计算机执行时实行根据权利要求1至6中任一项所述的方法的指令。
9.一种用于提供用于检测游离腹内空气的经训练的函数的方法,包括:
-接收包括腹部区域的第一多个医学成像数据集的第一输入训练数据,其中所述第一多个医学成像数据集中的所述医学成像数据集不包括包含游离腹内空气的图像区域
-接收包括腹部区域的第二多个医学成像数据集的第二输入训练数据,其中所述第二多个医学成像数据集中的每个医学成像数据集包括包含游离腹内空气的至少一个图像区域。
-基于所述输入训练数据和所述输出训练数据,训练函数,
-提供所述经训练的函数。
10.根据权利要求9所述的方法,其中所述经训练的函数基于卷积神经网络或深度神经网络。
11.根据权利要求9或10所述的方法,其中所述第二多个医学成像数据集中的每个医学成像数据集包括标注信息,所述标注信息指示包含游离腹内空气的所述至少一个图像区域。
12.一种用于训练用于检测游离腹内空气的函数的训练系统,包括
-第一训练接口,被配置用于接收输入训练数据,
-第二训练接口,被配置用于接收输出训练数据,其中所述输入训练数据与所述输出训练数据相关,
-训练计算单元,被配置用于基于所述输入训练数据和所述输出训练数据来训练函数,
-第三训练接口,被配置用于提供经训练的所述函数。
13.一种包括指令的计算机程序,当所述程序由计算机执行时,所述指令使所述计算机实行根据权利要求10至11中任一项所述的方法。
14.一种包括指令的计算机可读介质,所述指令当由计算机执行时,使所述计算机实行根据权利要求10至11中任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20199641.0 | 2020-01-10 | ||
EP20199641 | 2020-10-01 | ||
PCT/EP2021/076602 WO2022069448A1 (en) | 2020-10-01 | 2021-09-28 | Method and system for automatic detection of free intra-abdominal air |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116472550A true CN116472550A (zh) | 2023-07-21 |
Family
ID=72717780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180067846.5A Pending CN116472550A (zh) | 2020-10-01 | 2021-09-28 | 用于自动检测游离腹内空气的方法和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240005492A1 (zh) |
EP (1) | EP4182894A1 (zh) |
CN (1) | CN116472550A (zh) |
WO (1) | WO2022069448A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI855974B (zh) | 2024-03-19 | 2024-09-11 | 新北市立土城醫院(委託長庚醫療財團法人興建經營) | 腹腔異常游離氣體深度學習影像分割定位方法及腹腔異常游離氣體深度學習影像分割定位系統 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10311566B2 (en) * | 2015-06-12 | 2019-06-04 | International Business Machines Corporation | Methods and systems for automatically determining image characteristics serving as a basis for a diagnosis associated with an image study type |
CN111192356B (zh) * | 2019-12-30 | 2023-04-25 | 上海联影智能医疗科技有限公司 | 感兴趣区域的显示方法、装置、设备和存储介质 |
-
2021
- 2021-09-21 US US18/247,329 patent/US20240005492A1/en active Pending
- 2021-09-28 EP EP21786795.1A patent/EP4182894A1/en active Pending
- 2021-09-28 WO PCT/EP2021/076602 patent/WO2022069448A1/en active Application Filing
- 2021-09-28 CN CN202180067846.5A patent/CN116472550A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI855974B (zh) | 2024-03-19 | 2024-09-11 | 新北市立土城醫院(委託長庚醫療財團法人興建經營) | 腹腔異常游離氣體深度學習影像分割定位方法及腹腔異常游離氣體深度學習影像分割定位系統 |
Also Published As
Publication number | Publication date |
---|---|
WO2022069448A1 (en) | 2022-04-07 |
EP4182894A1 (en) | 2023-05-24 |
US20240005492A1 (en) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2967682T3 (es) | Diagnóstico asistido por ordenador mediante redes neuronales profundas | |
JP7069359B2 (ja) | 深層学習を使用して癌検出を改善するための方法およびシステム | |
CN111401398B (zh) | 用于根据人工智能检测输出确定疾病进展的系统和方法 | |
US10467495B2 (en) | Method and system for landmark detection in medical images using deep neural networks | |
EP2901419B1 (en) | Multi-bone segmentation for 3d computed tomography | |
US20220254023A1 (en) | System and Method for Interpretation of Multiple Medical Images Using Deep Learning | |
JP2018011958A (ja) | 医用画像処理装置及び医用画像処理プログラム | |
Blanc et al. | Artificial intelligence solution to classify pulmonary nodules on CT | |
CN107624192B (zh) | 通过内窥镜组织分化的外科引导和术中病理的系统和方法 | |
US20110007954A1 (en) | Method and System for Database-Guided Lesion Detection and Assessment | |
US8175348B2 (en) | Segmenting colon wall via level set techniques | |
KR102531400B1 (ko) | 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법 | |
US12039724B2 (en) | Methods of assessing lung disease in chest x-rays | |
US20100266173A1 (en) | Computer-aided detection (cad) of a disease | |
EP4115331A1 (en) | Class-disparate loss function to address missing annotations in training data | |
US12094113B2 (en) | Artificial intelligence-based gastroscopic image diagnosis assisting system and method | |
EP4002275A1 (en) | System and method for visualizing placement of a medical tube or line | |
Liu et al. | Hidden conditional random field for lung nodule detection | |
CN116472550A (zh) | 用于自动检测游离腹内空气的方法和系统 | |
Militzer et al. | Learning a prior model for automatic liver lesion segmentation in follow-up CT images | |
NAGAO et al. | Detection of abnormal shadows on temporal subtraction images based on multi-phase CNN | |
Ismaeil et al. | Deep convolutional architecture for block-based classification of small pulmonary nodules | |
Lei | Detection for Traumatic Bleeding Based on Deep Learning and Multi Thresholds | |
Wang et al. | Automated matching of supine and prone colonic polyps based on PCA and SVMs | |
Vasumathy et al. | Improved Automatic Anatomic Location Identification Approach and CBR-Based Treatment Management System for Pediatric Foreign Body Aspiration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |