CN107808379B - 图像处理系统、方法、装置和计算机可读介质 - Google Patents

图像处理系统、方法、装置和计算机可读介质 Download PDF

Info

Publication number
CN107808379B
CN107808379B CN201710944072.5A CN201710944072A CN107808379B CN 107808379 B CN107808379 B CN 107808379B CN 201710944072 A CN201710944072 A CN 201710944072A CN 107808379 B CN107808379 B CN 107808379B
Authority
CN
China
Prior art keywords
rib
ribs
image data
labeling
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710944072.5A
Other languages
English (en)
Other versions
CN107808379A (zh
Inventor
王策
于文君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai United Imaging Healthcare Co Ltd
Original Assignee
Shanghai United Imaging Healthcare Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai United Imaging Healthcare Co Ltd filed Critical Shanghai United Imaging Healthcare Co Ltd
Priority to US15/721,779 priority Critical patent/US10621724B2/en
Priority to US15/859,516 priority patent/US10789709B2/en
Publication of CN107808379A publication Critical patent/CN107808379A/zh
Priority to US17/035,612 priority patent/US11508068B2/en
Application granted granted Critical
Publication of CN107808379B publication Critical patent/CN107808379B/zh
Priority to US18/047,647 priority patent/US11715206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本申请提供了一种图像处理方法、系统、装置和计算机可读存储介质。所述方法包括:获取图像数据,所述图像数据包括至少一根肋骨;确定所述肋骨的种子点;将所述肋骨的种子点标签化,得到至少一个标签化种子点;用肋骨分割算法确定所述肋骨中至少一个目标肋骨的连通域;将所述标签化种子点与所述目标肋骨的连通域进行匹配操作;根据所述匹配操作的结果,将所述目标肋骨标签化。本申请将肋骨分割与肋骨识别独立进行,如果肋骨分割结果出现错误,肋骨识别也不会出现错误,从而降低肋骨识别的错误率。

Description

图像处理系统、方法、装置和计算机可读介质
技术领域
本披露涉及图像处理领域,特别地,涉及肋骨识别系统及方法。
背景技术
医学图像如今已得到广泛应用。医学图像中,肋骨识别可为分析肋骨解剖结构和诊断各种疾病提供基础。现有的肋骨识别方法是先在图像中分割出肋骨,然后统计肋骨连通域的个数,以计数的方式对肋骨进行标签化。这样的肋骨识别方式是完全依赖肋骨分割结果的,如果肋骨分割结果出现错误,那么肋骨标签化也会相应地出现错误。因此,希望有一种有效的肋骨识别方法和系统,来解决上述问题。
发明内容
本发明的第一方面是关于一种图像处理方法。所述图像处理方法可以包括以下操作中的一个或多个。获取图像数据,所述图像数据包括至少一根肋骨。确定所述肋骨的种子点。将所述肋骨的种子点标签化,得到至少一个标签化种子点。用肋骨分割算法确定所述肋骨中至少一个目标肋骨的连通域,将所述标签化种子点与所述目标肋骨的连通域进行匹配操作。根据所述匹配操作的结果,将所述目标肋骨标签化。
本申请的第二方面是关于一种图像处理系统。所述系统包括图像获取模块、肋骨提取模块和肋骨标签化模块。所述图像获取模块用于获取图像数据,所述图像数据包括至少一根肋骨。所述肋骨提取模块用于确定所述肋骨的种子点;并用肋骨分割算法确定所述肋骨中至少一个目标肋骨的连通域。所述肋骨标签化模块用于将所述肋骨的种子点标签化,得到至少一个标签化种子点;将所述标签化种子点与所述目标肋骨的连通域进行匹配操作;并根据所述匹配操作的结果,将所述目标肋骨标签化。
本发明的第三方面是关于一种计算机可读介质。所述计算机可读介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机可以用于实现图像处理方法对应的操作。
本发明的第四方面是关于一种图像处理装置。所述图像处理装置包括图像处理程序,所述图像处理程序执行时用于实现上述图像处理方法对应的操作。
在一些实施例中,所述确定所述肋骨的种子点包括:获得所述图像数据中处于冠状位上的定位图层;识别所述定位图层中的肋骨的种子点。
在一些实施例中,所述获得所述图像数据中冠状位上的定位图层包括:获取所述图像数据在冠状位上的肺掩模;确定所述肺掩模在第一方向的中间层为第一图像;判断所述第一图像是否包含椎骨,如果所述第一图像包含椎骨,则从所述第一图像沿第一方向获取至少一个冠状位图层,在所述冠状位图层中确定一个不包含椎骨的图层为所述定位图层;否则,确定所述第一图像为所述定位图层。
在一些实施例中,所述确定所述定位图层中的肋骨的种子点包括:获得所述定位图层中的肺掩模;对所述肺掩模进行膨胀操作,得到膨胀后的肺掩模;基于所述膨胀后的肺掩模,识别所述定位图层中的肋骨的种子点。
在一些实施例中,所述图像处理方法还包括:确定所述图像数据中横断位上的包括浮肋的图层;识别所述浮肋的种子点。
在一些实施例中,所述确定所述图像数据中横断位上的包括浮肋的图层包括:确定所述冠状位上的定位图层中在第二方向上坐标值最大的一对肋骨;确定所述第二方向上坐标值最大的一对肋骨在横断位上的肋骨所在图层为所述横断位上的包括浮肋的图层。
在一些实施例中,所述将所述肋骨的种子点标签化包括:确定所述图像数据中肺顶的位置;基于所述肺顶的位置将第一肋的种子点标签化;确定所述第一肋的种子点与第二肋的种子点之间的相对位置;基于所述相对位置将所述第二肋的种子点标签化。
在一些实施例中,所述将所述肋骨的种子点标签化包括:确定所述图像数据中肝底的位置;基于所述肝底的位置将第十二肋的种子点标签化;确定所述第十二肋的种子点与第十一肋的种子点之间的相对位置;并且基于所述相对位置将所述第十一肋骨的种子点标签化。
在一些实施例中,所述将标签化的种子点与所述目标肋骨的连通域进行匹配操作包括:在所述标签化的种子点中确定目标标签化种子点,所述目标标签化种子点的位置在所述目标肋骨的连通域的位置范围内;根据所述目标标签化的种子点,将所述目标肋骨标签化。
因为采用了以上的技术方案,本发明具备以下的技术效果:肋骨分割与肋骨识别独立进行,如果肋骨分割结果出现错误,肋骨识别也不会出现错误,从而降低肋骨识别的错误率,同时,根据解剖学结构识别各肋骨的种子点,并进行肋骨识别,也可以提高肋骨识别的成功率。此外,采用先在图像数据中获得冠状位上的定位图层进而确定种子点的方法,可以去除椎骨对获取种子点的影响。
附图说明
以示例性实施例的方式对本披露进一步描述。这些示例性实施例具体参照附图进行描述。这些实施例是非限制性实施例,其中类似参考号在附图的不同视图中代表类似结构,并且其中:
图1和2是根据本披露的一些实施例所示的一种示例性CT系统的示意图;
图3是根据本披露的一些实施例所示的一种示例性计算设备的示例性硬件和/或软件组件的示意图;
图4是根据本披露的一些实施例所示的示例性移动设备的示例性硬件和/或软件组件的示意图;
图5是根据本披露的一些实施例所示的一种示例性处理引擎的框图;
图6是根据本披露的一些实施例所示的一种示例性生成肋骨图像过程的流程图;
图7是根据本披露的一些实施例所示的一种示例性肋骨标签化模块的框图;
图8是根据本披露的一些实施例所示的一种示例性肋骨标签化过程的流程图;
图9是根据本披露的一些实施例所示的一种示例性肋骨标签化过程的流程图;
图10是根据本披露的一些实施例所示的示例性冠状位定位图层;
图11是根据本披露的一些实施例所示的示例性冠状位定位图层及膨胀后的肺掩模;
图12是根据本披露的一些实施例所示的示例性冠状位定位图层及十对肋骨;
图13是根据本披露的一些实施例所示的示例性横断位图层(如线以下)及一对浮肋;以及
图14是根据本披露的一些实施例所示的示例性标签化肋骨。
具体实施方式
在下面的详细描述中,通过示例阐述了本披露的许多具体细节,以便提供对相关披露的透彻理解。然而,对于本领域的普通技术人员来讲,本披露显而易见的可以在没有这些细节的情况下实施。在其他情况下,本披露中的公知的方法、过程、系统、组件和/或电路已经在别处以相对高的级别进行了描素,本披露中对此没有详细地描述,以避免不必要地重复。对于本领域普通人员来说,对本披露所披露的实施例的各种修正都应是显而易见的,并且,在不偏离本披露的精神和范围的前提下,本披露中所定义的基本原理也可以适用于其他实施例及应用。因此,本披露并不限于所示的实施例,而应被给予与权利要求一致的最广范围。
本披露所用术语仅为了描述特定实施例,而非限制本披露范围。如本披露说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“所述”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的特征、整体、步骤、操作、元素和/或组件,而所述类表述并不构成一个排它性的罗列,其他特征、整体、步骤、操作、元素和/或组件也可以包含在内。
应当理解的是,本披露中使用“系统”、“装置”、“单元”和/或“模块”术语,是用于区分在顺序排列中不同级别的不同部件、元件、部分或组件的一种方法。然而,如果其他表达式可以实现相同的目的,这些术语可以被其他表达式替换。
通常,如本披露所使用的“模块”、“单元”或“块”是指以硬件或固件或软件指令的集合体现的逻辑。本披露描述的模块、单元或块可以在软件和/或硬件上被执行,并且可以被存储在任何类型的非暂时性计算机可读介质或其他存储设备中。在一些实施例中,软件模块、单元、块可以被编译并连接到可执行程序中。应当理解的是,软件模块可以从其他模块、单元、块或其自身调用和/或可以响应于检测到的事件或中断而被调用。配置为用于在计算设备上执行的软件模块/单元/块(例如,如图2所示的处理器210)可以被提供在计算机可读介质上,诸如光盘、数字视频盘、闪存驱动器、磁盘或任何其他有形介质或作为数字下载(并且可以原始地以压缩或可安装的格式存储,在执行之前需要安装、解压缩或解密)。软件代码可以部分或全部存储在执行计算设备的存储设备上供计算设备执行。软件指令可以被嵌入到固件当中,例如EPROM。应当理解的是,硬件模块、单元或块可以包括在连接的逻辑组件中,例如门和触发器和/或可以包括在诸如可编程门阵列或处理器之类的可编程单元中。本披露描述的模块、单元、块或计算设备功能可以被实现为软件模块/单元/块,但是可以用硬件或固件来表示。通常,这里描述的模块、单元、块是指可以与其他模块、单元、块组合或者分成子模块、子单元、子块的逻辑模块、单元、块,尽管它们的物理组织或存储。所述描述可以适用于系统、引擎或其一部分。
应当理解的是,当单元、引擎、模块或区块被称为“在……上”、“连接到”或“耦合到”另一单元、引擎、模块或区块时,其可以直接在另一单元、引擎、模块或区块通信,或者可以存在中间单元、引擎、模块或区块,除非上下文明确提示例外情形。例如,本披露所使用的术语“和/或”包括一个或多个相关所列条目的任何一个和所有组合。
参看下面的说明以及附图,本披露的这些或其他特征和特点、操作方法、结构的相关元素的功能、部分的结合以及制造的经济性可以被更好地理解,其中说明和附图形成了说明书的一部分。然而,可以清楚地理解,附图仅用作说明和描述的目的,并不意在限定本披露的保护范围。可以理解的是,附图并非按比例绘制。
本披露提供了用于非侵入性成像的系统和组件,例如用于疾病诊断或研究目的。在一些实施例中,成像系统可以是计算机断层扫描(CT)系统、发射计算机断层扫描(ECT)系统、磁共振成像(MRI)系统、超声检查系统、正电子发射断层扫描(PET)系统等中的一种或多种的组合。
本披露披露的方法和系统可以用于其他类型的图像重建,包括,例如,CT图像、ECT图像、MRI图像、PET图像等。仅仅为了说明且不限制本披露的范围,本披露与CT图像重建相关。该系统可以基于统计图像重建算法重建CT图像。统计图像重建算法可以包括一个用于降低统计图像重建过程中的阶梯伪影的正则项。
提供以下描述以帮助更好地理解CT图像重建方法和/或系统。本披露中使用的术语“图像”可以指2D图像、3D图像、4D图像和/或任何相关图像数据(例如,CT数据、对应于CT数据的投影数据)。应当注意的是,在本披露中,术语“图像数据”和“图像”可以互换使用,这并不是为了限制本披露的范围。对于本领域的普通技术人员来说,在本披露的指导下可以进行各种修正和改变。各种修正和改变并不脱离本披露的范围。
图1和2是根据本披露的一些实施例所示的一种示例性CT系统100的示意图。如图所示,所述CT系统100可以包括CT扫描仪110、网络120、一个或多个终端130、处理引擎140和存储器150。
CT扫描仪110可以包括机架111、探测器112、探测区域113、治疗床114和放射扫描源115。机架111可以支撑探测器112和放射扫描源115。对象可以放置于治疗床114上用于扫描。放射扫描源115可以发出放射线束到对象。探测器112可以探测从探测区域113发出的放射物(例如,伽马光子)。在一些实施例中,探测器112可以包括一个或多个探测单元。探测器单元可以包括闪烁探测器(例如,碘化铯探测器)和其他探测器等。探测器单元可以是和/或包括单排探测器和/或多排探测器。
网络120可以包括有助于CT系统100交换信息和/或数据的任何适合的网络。在一些实施例中,CT系统100的一个或多个其他组件(例如,CT扫描仪110、终端130、处理引擎140、存储器150等)可以通过网络120相互交互信息和/或数据。例如,处理引擎140可以通过网络120从CT扫描仪110获取图像数据。又例如,处理引擎140可以通过网络120获取来自终端130的用户指令。网络120可以是和/或包括公共网络(例如,互联网)、专用网络(例如,局域网(LAN)、广域网(WAN)等)、有线网络(例如,以太网)、无线网络(例如,802.11网络、Wi-Fi网络等)、蜂窝网络(例如,LTE网络)、帧中继网络、虚拟专用网络(“VPN”)、卫星网络、电话网络、路由器、集线器、转换器、服务器计算机和/或其中的一种或多种的组合。例如,网络120可以包括电缆网络、有线网络、光纤网络、电信网络、局域网、无线局域网(WLAN)、城域网(MAN)、公用电话交换网(PSTN)、蓝牙TM网络、ZigBeeTM网络、近场通信网络(NFC)等中的一种或多种的组合。在一些实施例中,网络120可以包括一个或多个网络接入点。例如,网络120可以包括有线和/或无线网络接入点,如基站和/或网络交换点,CT系统100的一个或多个组件可以通过其接入到网络120以进行数据和/或信息交换。
终端130可以包括移动设备131、平板电脑132、笔记本电脑133等中的一种或多种的组合。在一些实施例中,移动设备131可以包括智能家庭设备、可穿戴设备、移动设备、虚拟现实设备、增强现实设备等中的一种或多种的组合。在一些实施例中,智能家用设备可以包括智能照明装置、智能电器控制装置、智能监控装置、智能电视、智能摄像机、对讲机等中的一种或多种的组合。在一些实施例中,可穿戴设备可能包括手镯、鞋袜、眼镜、头盔、手表、服装、背包、智能配件等一种或多种的组合。在一些实施例中,移动设备可以包括移动电话、个人数字助理(PDA)、游戏设备、导航设备、销售点(POS)设备、笔记本电脑、平板电脑、台式机等中的一种或多种的组合。在一些实施例中,虚拟现实设备和/或增强现实装置可以包括虚拟现实头盔、虚拟现实眼镜、虚拟现实眼罩、增强现实头盔、增强现实眼镜、增强现实眼罩等中的一种或多种的组合。例如,虚拟现实设备和/或增强现实设备可以包括GoogleGlassTM、Oculus RiftTM、HololensTM、Gear VRTM等。在一些实施例中,终端130可以是处理引擎140的一部分。
处理引擎140可以处理从CT扫描仪110、终端130和/或存储器150中获得的数据和/或信息。例如,处理引擎140可以处理投影数据产生图像。在一些实施例中,处理引擎140可以是一个服务器或一个服务器群组。服务器群组可以是集中式的或者分布式的。在一些实施例中,处理引擎140可以是本地的或远程的。例如,处理引擎140可以通过网络120访问存储在CT扫描仪110、终端130和/或存储器150的信息和/或数据。例如,处理引擎140可以直接与CT扫描仪110、终端130和/或存储器150连接从而访问其存储的信息和/或数据。在一些实施例中,处理引擎140可以在云平台上被执行。例如,云平台可以包括私有云、公有云、混合云、社区云、分布式云、互联云、多重云等种的一种或多种的组合。在一些实施例中,处理引擎140可以由具有一个或多个组件的计算设备200(如图2所述)执行。
存储器150可以存储数据、指令和/或其他信息。在一些实施例中,存储器150可以存储从终端130和/或处理引擎140中获得的数据。在一些实施例中,存储器150可以存储处理引擎140为执行本披露中描述的示例性方法所执行或使用的数据和/或指令。在一些实施例中,存储器150可以包括大容量存储器、可移动存储器、易失读写存储器、只读存储器(ROM)等中的一种或多种的组合。示例性的大容量存储器可包括磁盘、光盘、固态驱动器等。示例性的可移动存储器可以包括闪存驱动器、软盘、光盘、存储卡、拉链盘、磁带等。示例性的易失读写存储器可以包括随机存取存储器(RAM)。示例性的随机存取存储器RAM可以包括动态随机存储器(DRAM)、双数据率同步动态随机存取存储器(DDR SDRAM)、静态随机存取存储器(SRAM)、晶闸管随机存取存储器(T-RAM)和零电容随机存取存储器(Z-RAM)等。示例性的只读存储器(ROM)可以包括掩模只读存储器(MROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM),光盘只读存储器(CD-ROM)和数字多用途光盘等。在一些实施例中,存储器150可以在云平台上被执行。例如,云平台可以包括私有云、公共云、混合云、社区云、分布式云、互联云、多重云等种的一种或多种的组合。
在一些实施例中,存储器150可以连接到网络120以与CT系统100中的一个或多个其他组件(例如,处理引擎140、终端130等)进行通信。CT系统100中的一个或多个组件可以通过网络120访问存储在存储器150中的数据或指令。在一些实施例中,存储器150可以直接与CT系统中的一种或多个其他组件(例如,处理引擎140、终端130等)连接或通信。在一些实施例中,存储器150可以是处理引擎140的一部分。
图3是根据本披露的一些实施例所示的示例性计算设备300的示例性硬件和/或软件组件的示意图,处理引擎140可以在计算设备300上实现。如图3所示,计算设备300可以包括处理器310、存储器320、输入/输出(I/O)330和通信端口340。
处理器310可以根据本披露所描述的技术执行计算机指令(例如,程序代码)和处理引擎140的功能。计算机指令可以包括例如执行本披露描述的特定功能的例程、程序、对象、组件、数据结构、过程和模块。例如,处理器310可以处理从CT扫描仪110、终端130、存储器150和/或CT系统100的任何其他组件中获得的图像数据。在一些实施例中,处理器310可以包括一个或多个硬件处理器,诸如微控制器、微处理器、精简指令集计算机(RISC)、专用集成电路(ASIC)、应用特定指令集成处理器(ASIP)、中央处理单元(CPU)、图形处理单元(GPU)、物理处理单元(PPU)、微控制器单元、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、高级RISC机(ARM)、可编程逻辑器件(PLD)、能够执行一个或多个功能的任何电路或处理器等中的一种或多种的组合。
仅仅为了说明,在计算设备300中仅描述了一个处理器。然而,应当注意的是,本披露中的计算设备300还可以包括多个处理器,因此本披露中描述的处理器执行的操作和/或方法步骤也可以由多个处理器联合或单独执行。例如,如果在本披露中,计算设备300的处理器执行步骤A和步骤B,则应当理解,步骤A和步骤B也可以由计算设备300的两个或多个不同的处理器共同或分开执行(例如,第一处理器执行步骤A、第二处理器执行步骤B或者第一和第二处理器共同执行步骤A和B)。
存储器320可以存储从CT扫描仪110、终端130、存储器150和/或CT系统100的任何其他组件中获得的数据/信息。在一些实施例中,存储器320可以包括大容量存储器、易失性读写存储器、只读存储器(ROM)等中的一种或多种的组合。例如,大容量存储器可以包括磁盘、光盘、固态驱动器等。所述可移除存储器可以包括闪存驱动器、软盘、光盘、存储卡、压缩盘、磁带等。易失性读写存储器可以包括随机存取存储器(RAM)。随机存取存储器可以包括动态随机存取存储器(DRAM),双倍数据率同步动态随机存取存储器(DDR SDRAM)、静态随机存取存储器(SRAM)、晶闸管随机存取存储器(T-RAM)和零电容随机存取存储器(Z-RAM)等。只读存储器可以包括掩模只读存储器(MROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、光盘只读存储器(CD-ROM)和数字通用盘只读存储器等。在一些实施例中,存储器220可以存储一个或多个程序和/或指令以执行在本披露中描述的示例性方法。例如,存储器320可以存储用于处理投影数据或图像数据的处理引擎140的程序。
输入/输出330可以输入和/或输出信号、数据、信息等。在一些实施例中,输入/输出330可以使用户能够与处理引擎140进行交互。在一些实施例中,输入/输出330可以包括输入装置和输出装置。示例性的输入设备可以包括键盘、鼠标、触摸屏、麦克风等中的一种或多种的组合。示例性的输出设备可以包括显示设备、扬声器、打印机、投影仪等中的一种或多种的组合。示例性的显示装置可以包括液晶显示器(LCD)、基于发光二极管(LED)的显示器、平板显示器、弯曲屏幕、电视设备、阴极射线管(CRT)、触摸屏幕等中的一种或多种的组合。
通信端口340可以连接到网络(例如,网络120)以便于数据通信。通信端口340可以建立处理引擎140与CT扫描仪110、终端130和/或存储器150之间的连接。连接可以是有线连接、无线连接、任何其他可以实现数据传输和/或接收的通信连接等中的一种或多种的组合。有线连接可以包括例如电缆、光缆、电话线等中的一种或多种的组合。无线连接可以包括例如蓝牙TM连接、Wi-FiTM连接、WiMaxTM连接、无线局域网连接、ZigBee连接、移动网络连接(例如,3G、4G、5G等)等中的一种或多种的组合。在一些实施例中,通信端口340可以是和/或包括标准化通信端口,诸如RS232、RS485等。在一些实施例中,通信端口340可以是专门设计的通信端口。例如,通信端口240可以根据医学数字成像和通信(DICOM)协议进行设计。
图4是根据本披露的一些实施例所示的示例性移动设备400的示例性硬件和/或软件组件的示意图,终端130可以在移动设备400上实现。如图4所示,移动设备400可以包括天线410、显示器420、图形处理单元(GPU)430、中央处理单元(CPU)440、输入/输出(I/O)450、内存460和存储器490。在一些实施例中,任何其它合适的组件包括但不限于系统总线或控制器(未示出),也可以包括在移动设备400中。在一些实施例中,移动操作系统470(例如,iOSTM、AndroidTM、Windows PhoneTM等)和一个或多个应用480可以从存储490加载到存储器460中,以便由CPU 440执行。应用480可以包括浏览器或任何其他合适的移动应用,用于接收和呈现与处理引擎140有关的图像处理信息或其他信息。信息流的用户交互可以通过输入/输出450获得,也可以通过网络120提供给处理引擎140和/或CT系统100的其他组件。
为了实现在本披露中描述的各种模块、单元及其功能,计算机硬件平台可以用作本披露所描述的一个或多个元件的硬件平台。具有用户界面元件的计算机可以用于执行个人计算机(PC)或任何其他类型的工作站或终端设备。如果经过适当的编程处理,计算机也可以充当服务器使用。
图5为根据本披露的一些实施例所示的一种示例性处理引擎140的框图。处理引擎140可以包括图像获取模块502,肋骨提取模块504和肋骨标签化模块506。
图像获取模块502可获取图像数据。图像获取模块502可以从扫描仪110或存储器150获取图像数据。在一些实施例中,图像获取模块502可以通过网络120从一个外部数据源获取图像数据。在一些实施例中,图像数据可对应穿过一研究对象的X射线。在一些实施例中,放射性扫描源115可向研究对象发射X射线。X射线可穿过研究对象并在穿越过程中衰减。X射线衰减程度可取决于多个因素,例如X射线穿过的一个或多个组织的特性,射线穿过的组织的厚度等。衰减的X射线可通过探测器112探测,传送到图像获取模块502。图像获取模块502可在不同时间通过各种设备和/或在各种条件下(如各种天气、照明度、扫描位置和角度等)获取图像数据。
图像数据可以涉及研究对象的一个或多个部分。在一些实施例中,使用扫描仪110全面扫描研究对象可生成图像数据,图像数据可以包括关于整体研究对象的信息。在一些实施例中,使用扫描仪110扫描研究对象的一部分可生成图像数据,图像数据可以包括关于部分研究对象的信息,例如胸部、躯干、上肢、下肢、头部、器官、组织等。研究对象的图像数据可以是2D图像数据,也可以是3D图像数据。3D图像数据可以包括多个体素。2D图像数据可以包括多个像素。研究对象的图像数据可以是MRI图像数据、CT图像数据和/或PET图像数据或类似图像数据,或者可以是这些图像数据的组合。图像数据可以包括通过扫描仪110生成的原始数据、根据原始数据处理的数据、图像处理参数或类似数据,或者是这些数据的组合。在一些实施例中,图像数据可以包括一根或多根肋骨的相关数据、一根或多根其他骨骼的相关数据(如椎骨、胸骨、肩胛骨、锁骨等)和/或一个或多个其他器官/组织的相关数据(如肺、血管等)。在一些实施例中,图像数据中一个或多个体素/像素代表的一根肋骨可能粘连一个或多个体素/像素代表的其他骨骼(如椎骨)。
肋骨提取模块504可提取一根或多根肋骨。肋骨提取模块504可包括一个或多个子模块,如图7所示。为方便起见,一根肋骨可以指图像数据中代表肋骨结构的一组像素/体素。人体有12对肋骨(即24根肋骨)。在一些实施例中,肋骨的一端可连接到椎骨。在一些实施例中,肋骨的另一端也可连接到胸骨。研究对象的肝和两个肺在由12对肋骨形成的胸腔内。在12对肋骨中,最靠近研究对象头部的一对肋骨可称为第一对肋骨,离头部最远的肋骨可称为第十二对肋骨。从第一对到第十二对,另外10对肋骨依次称为第二对肋骨、第三对肋骨至第十一对肋骨。第十一对肋骨和第十二对肋骨通常也被称为“浮肋”。一对肋骨中靠近右手的一根肋骨可称为右肋,靠近左手的一根肋骨可称为左肋。例如,第一对肋骨中,靠近右手的一根肋骨可称为右一肋,靠近左手的一根肋骨可称为左一肋。其他肋骨也按此方法命名。左一肋靠近左肺肺顶,右一肋靠近右肺肺顶。右十一肋和/或右十二肋靠近肝脏下缘。
肋骨提取模块504可根据图像数据提取肋骨。提取的肋骨可以包括图像数据中代表肋骨结构的像素/体素组。在一些实施例中,提取的肋骨可以包括肋骨边界的像素/体素和/或边界内的像素/体素。在一些实施例中,提取的肋骨可以包括一个或多个不属于肋骨的像素/体素。例如,提取的肋骨可以包括代表其他骨骼(如椎骨、胸骨、肩胛骨、锁骨等)、其他组织(如肺、血管等)等的一个或多个像素/体素。在一些实施例中,肋骨提取模块504可以确定肋骨的连通域。肋骨提取模块504可根据本披露中提到的一种或多种分割算法提取肋骨。
肋骨标签化模块506可将图像数据中的一根或多根肋骨标签化。标签化可以指在图像数据中识别和/或命名肋骨。在一些实施例中,肋骨标签化模块506可根据标签化的种子点将提取出的肋骨标签化。例如,若标签化为“左一肋”的一个种子点在某根肋骨空间范围中,则可将该肋骨标签化为“左一肋”。
图6是根据本披露的一些实施例所示的一种示例性生成肋骨图像过程的流程图600。在一些实施例中,可通过处理引擎140执行过程600。过程600可包括获取图像数据601,根据图像数据603提取一根或多根肋骨,以及将提取的肋骨605可视化。过程600至少有一部分可以在图3所示的计算装置上执行,或在图4所示的移动设备上执行。
在601中,可获取研究对象的图像数据。研究对象可以是人体、动物或人体或动物的任何部分。例如,研究对象可以是整个人体、人体上部或人体胸部等。在一些实施例中,可以通过图像获取模块502获取图像数据。图像数据可通过扫描仪110、存储器150和/或终端130获取。在一些实施例中,图像数据可通过通讯端口340从计算装置300的输入/输出330获取。在一些实施例中,可以通过网络120从一个外部数据源获取图像数据。在一些实施例中,可以预处理图像数据,使其适合分割。预处理可以包括图像归一化、图像重建、图像平滑、压制、虚化和/或移除一个细节、突变(如灰度突变)、噪声或类似操作,或者是以上操作的组合。
在603中,可根据图像数据提取一根或多根肋骨,确定肋骨连通域。在一些实施例中,可通过肋骨提取模块504执行603。在603中,可确认和/或提取对应肋骨的图像数据中的一个或多个像素/体素。在一些实施例中,可以确定肋骨的连通域。可根据一种或多种分割算法从而提取肋骨。在一些实施例中,分割算法可以包括阈值分割算法、区域生长分割算法、能量型3D重建分割算法、根据水平集的分割算法、区域分裂和/或合并分割算法、边缘追踪分割算法、统计模式识别算法、C均值聚类分割算法、可变形模型分割算法、图搜索分割算法、神经网络分割算法、测地线最短路径分割算法、目标追踪分割算法、根据图谱的分割算法、根据规则的分割算法、耦合面分割算法、根据模型的分割算法、可变形有机体分割算法、模型匹配算法、机器学习算法或类似算法,或者上述算法的组合。在一些实施例中,一种或多种分割算法可存储在存储器150、存储器320、存储单元490或另外的移动存储设备中(如移动硬盘、USB闪存盘或类似设备,或者是上述设备的组合)。在一些实施例中,可以通过网络120从一个或多个其他外部来源调用分割算法。在一些实施例中,可以先确定肋骨的种子点,再根据肋骨种子点用一种或多种分割算法提取肋骨。在一些实施例中,可以确定在空间上位置相近的多个种子点,通过膨胀操作将这些肋骨种子点融合为一个肋骨连通域。
在605中,可以将提取的肋骨标签化。在一些实施例中,可以根据标签化的种子点将提取出的肋骨标签化。例如,若标签化为“左一肋”的一个种子点在某根肋骨空间范围中,则可将该肋骨标签化为“左一肋”。在一些实施例中,可以将用户(如医生或类似人员)手动分割的肋骨标签化。例如,在患者的左五肋中出现一处损伤,并且肋骨提取模块504没有提取出该肋骨。但是,肋骨标签化模块506可确定左五肋的一个种子点。这种情况下,用户可手动提取肋骨,如果“左五肋”的种子点在手动提取肋骨的连通域内,肋骨标签化模块406可将肋骨标为“左五肋”。
图7是根据本披露的一些实施例所示的一种示例性肋骨标签化模块506的框图。肋骨标签化模块506可包括种子点确定单元702,种子点标签化单元704和肋骨标签化单元706。肋骨标签化模块506至少有一部分可以在如图3所示的计算装置上执行,或在如图4所示的移动设备上执行。
种子点确定单元702可确定肋骨的一个或多个种子点。在一些实施例中,种子点可包括确定肋骨提取初始位置的一个像素/体素。在一些实施例中,种子点可包括确定肋骨提取初始区域的一组像素/体素。种子点可以是属于肋骨的像素/体素。在一些实施例中,种子点可以是肋骨区域中的一个或多个随机像素/体素。在一些实施例中,种子点可以是肋骨区域中的一个或多个特征像素/体素。特征像素/体素可以指具有一个特征值(如灰度、亮度等)或特征位置的像素/体素。在一些实施例中,种子点确定单元702可根据研究对象解剖结构确定种子点。属于同一物种的研究对象具有相似的解剖结构,因此可根据解剖结构确定种子点。在一些实施例中,种子点确定单元702可根据肋骨相对于某器官(如肺脏、肝脏等)的位置确定种子点。例如,左一肋和/或右一肋的种子点可根据左肺和/或右肺肺顶的位置确定,然后其他肋骨的种子点可根据左一肋和/或右一肋的种子点确定。在一些实施例中,种子点确定单元702可根据有关图像相关值的第一阈值(如灰度)来确定种子点。例如,可指定像素值(如CT值、灰度等)在阈值范围内的像素/体素为种子点。
种子点标签化单元704可以将种子点标签化。在一些实施例中,种子点标签化单元704可以根据肺顶或肝底的位置将初始肋骨的种子点标签化。在一些实施例中,可以将毗邻肺顶的种子点标签化为第一肋种子点。例如,可以将与左肺顶之间的距离在一定阈值范围内的种子点标签化为“左一肋”。又例如,可以将与右肺顶之间的距离在一定阈值范围内的种子点标签化为“右一肋”。在一些实施例中,可以根据图像数据的灰度曲线确定肺顶位置。可以根据肺部像素/体素的曲率值确定肺顶的位置。例如,可以肺部曲率值最大的一点确定为肺顶。在一些实施例中,可以通过机器学习的方法确定肺顶的位置。种子点标签化单元704可以根据初始肋骨的种子点将另一根肋骨的种子点标签化。在一些实施例中,如果初始肋骨是第一肋,则沿着人体从上至下的顺序依次将其他肋骨的种子点标签化“左二肋”、“右二肋”、“左三肋”、“右三肋”,直至最下方的肋骨。在一些实施例中,可以将毗邻肝底的种子点标签化为第十二肋种子点。可以确定第十二肋的种子点与第十一肋的种子点之间的相对位置,并且基于该相对位置将第十一肋的种子点标签化。再沿着人体从下至上的顺序依次将其他肋骨的种子点标签化。在一些实施例中,图像数据含有完整的12对肋骨,可以实现上述通过肺顶或肝底的位置依次将种子点标签化的方法。在一些实施例中,图像数据中胸腔视野不全,但包含第一对肋骨,则可以实现上述通过肺顶的位置依次将种子点标签化的方法。在一些实施例中,图像数据中胸腔视野不全,但包含第十二对肋骨,则可以实现上述通过肝底的位置依次将种子点标签化的方法。
肋骨标签化单元706可以将肋骨标签化。在一些实施例中,肋骨标签化单元706可以根据标签化种子点和肋骨连通域的位置将肋骨标签化。在一些实施例中,肋骨标签化单元706可以进行击中击不中操作。击中击不中操作是指对标签化种子点与肋骨连通域进行匹配的操作。如果一个标签化种子点的位置落入一根肋骨的连通域的位置范围内,则为“击中”;如果一个标签化种子点的位置没有落入一根肋骨连通域的位置范围内,则为“击不中”。例如,如果一个被标签化为“左一肋”的种子点的位置落入一根肋骨的连通域范围内,则将该肋骨标签化为“左一肋”。
图8是根据本披露的一些实施例所示的一种示例性肋骨标签化过程的流程图500。在一些实施例中,可通过肋骨标签化模块506执行过程800。过程800至少有一部分可以在图3所示的计算装置上执行,或在图4所示的移动设备上执行。
在801中,可以在图像数据中确定肋骨连通域。连通域的确定可以参见603中的描述,在此不再重复。
在803中,可以在图像中确定肋骨种子点。在一些实施例中,可通过种子点确定单元702执行操作803。在一些实施例中,种子点可包括确定肋骨提取初始位置的一个像素/体素。在一些实施例中,种子点可包括确定肋骨提取初始区域的一组像素/体素。种子点可以是属于肋骨的像素/体素。在一些实施例中,种子点可以是肋骨区域中的一个或多个随机像素/体素。在一些实施例中,种子点可以是肋骨区域中的一个或多个特征像素/体素。特征像素/体素可以指具有一个特征值(如灰度、亮度等)或特征位置的像素/体素。在一些实施例中,可以根据研究对象解剖结构确定种子点。属于同一物种的研究对象具有相似的解剖结构,因此可根据解剖结构确定种子点。在一些实施例中,可以根据肋骨相对于某器官(如肺脏、肝脏等)的位置确定种子点。例如,左一肋和/或右一肋的种子点可根据左肺和/或右肺肺顶的位置确定,然后其他肋骨的种子点可根据左一肋和/或右一肋的种子点确定。在一些实施例中,可以根据有关图像相关值的第一阈值(如灰度)来确定种子点。例如,可指定像素值(如CT值、灰度等)在阈值范围内的像素/体素为种子点。
在805中,可以将肋骨种子点标签化。在一些实施例中,可以通过种子点标签化单元704执行操作805。在一些实施例中,可以根据肺顶或肝底的位置将初始肋骨的种子点标签化。在一些实施例中,可以将毗邻肺顶的种子点标签化为第一肋种子点。例如,可以将与左肺顶之间的距离在一定阈值范围内的种子点标签化为“左一肋”。又例如,可以将与右肺顶之间的距离在一定阈值范围内的种子点标签化为“右一肋”。在一些实施例中,可以根据图像数据的灰度曲线确定肺顶位置。可以根据肺部像素/体素的曲率值确定肺顶的位置。例如,可以肺部曲率值最大的一点确定为肺顶。在一些实施例中,可以通过机器学习的方法确定肺顶的位置。可以根据初始肋骨的种子点将另一根肋骨的种子点标签化。在一些实施例中,如果初始肋骨是第一肋,则沿着人体从上至下的顺序依次将其他肋骨的种子点标签化“左二肋”、“右二肋”、“左三肋”、“右三肋”,直至“左十二肋”、“右十二肋”。在一些实施例中,可以将毗邻肝底的种子点标签化为第十二肋种子点。可以确定第十二肋的种子点与第十一肋的种子点之间的相对位置,并且基于该相对位置将第十一肋的种子点标签化。再沿着人体从下至上的顺序依次将其他肋骨的种子点标签化。在一些实施例中,图像数据含有完整的12对肋骨,可以实现上述通过肺顶或肝底的位置依次将种子点标签化的方法。在一些实施例中,图像数据中胸腔视野不全,但包含第一对肋骨,则可以实现上述通过肺顶的位置依次将种子点标签化的方法。在一些实施例中,图像数据中胸腔视野不全,但包含第十二对肋骨,则可以实现上述通过肝底的位置依次将种子点标签化的方法。在807中,可以将标签化的种子与肋骨连通域进行匹配操作,将肋骨标签化。在一些实施例中,可以通过肋骨标签化单元706执行操作807。在一些实施例中,可以根据标签化种子点和肋骨连通域的位置将肋骨标签化。在一些实施例中,可以进行击中击不中操作。击中击不中操作是指对标签化种子点与肋骨连通域进行匹配的操作。如果一个标签化种子点的位置落入一根肋骨的连通域的位置范围内,则为“击中”;如果一个标签化种子点的位置没有落入一根肋骨连通域的位置范围内,则为“击不中”。例如,如果一个被标签化为“左一肋”的种子点的位置落入一根肋骨的连通域范围内,则将该肋骨标签化为“左一肋”。
图9是根据本披露的一些实施例所示的示例性将肋骨标签化过程的流程图900。过程900至少有一部分可以在图3所示的计算装置上执行,或在图4所示的移动设备上执行。
在901中,可以获取图像数据。图像数据可以包括对应于左肺和/或右肺的多个肺部像素/体素。在一些实施例中,可以称多个肺部体素为肺部体数据。
在903中,可以在图像数据中提取出一个或多个肋骨,并且确定肋骨的连通域。可以如603中描述的那样提取肋骨,在此不再重复。在一些实施例中,一个肋骨可以包含一个或多个连通域。
在905中,可以获得图像数据中冠状位上的定位图层。在一些实施例中,可以将冠状位上可以看到肋骨数量最多的图层作为定位图层。在一些实施例中,可以将冠状位上左肺和/或右肺投影面积最大的图层作为定位图层。在一些实施例中,可以获取图像数据在冠状位上的肺掩模,将肺掩模沿人体前胸至后背方向上的中间层确定为定位图层,中间层可以指肺掩模沿人体前胸至后背方向上坐标中点所在的图层。例如,在横断位分辨率为512×512的CT图像数据中,将冠状位上的第256个图层选为定位图层。在一些实施例中,可以根据肋骨和其他骨骼的解剖结构对定位图层进行调整。例如,如果上述中间层包含部分椎骨,则可以沿人体前胸至后背方向以一定距离搜索(以肺区域为限),定位第一个不含椎骨的图层为所述定位图层,如搜索不到,则后向一定距离进行搜索,定位第一个不包含椎骨的图层作为定位图层。
在907中,可以获得定位图层中的肺掩模。在解剖结构中,肋骨呈桶装围绕左肺和/或右肺。在一些实施例中,可以根据定位图层和一种或多种分割算法获得肺掩模。图10示出了示例性冠状位上的定位图层。1000为左肺掩模,1004为右肺掩模。
在909中,可以对肺掩模进行膨胀操作。在一些实施例中,可以确定定位图层对应的原始图层,将肺掩模二值化后进行膨胀,将肋骨区域囊括进去,识别膨胀后的肺掩模。膨胀操作可以根据结构元素将肺掩模的形状变大。可以将肋骨包含进膨胀后的肺掩模中。可以根据一个或多个参数进行膨胀操作。例如,结构元素的大小。可以根据经验值确定参数。在一些实施例中,可以根据图像数据的特征确定膨胀程度。例如,图像数据的特征可以为分辨率、图像所包含的人体的特征(例如,人体肺部的大小)。图11示出了示例性冠状位上肺掩模膨胀后的定位图层。1102为左肺的膨胀后的肺掩模,1104为右肺的膨胀后的肺掩模。
在911中,可以根据膨胀后的肺掩模和与灰度有关的阈值识别肋骨种子点。可以根据膨胀后的肺掩模用阈值分割法确定种子点。在一些实施例中,可以基于灰度阈值识别肋骨种子点。例如,由于骨头灰度值较大(120以上,在图像中高亮显示),肺的灰度值较小(约-800,在图像中基本与背景相近),因此可以将高于一定灰度阈值的点识别为肋骨种子点。在一些实施例中,可以在冠状位上膨胀后的肺掩模中确定第1对至第9对(或第10对)肋骨的种子点,在横断位上确定第10对(或第11对)至第12对肋骨(也成为“浮肋”)的种子点。采用如905至911中所描述的先在图像数据中获得冠状位上的定位图层进而确定种子点的方法,可以去除椎骨对获取种子点的影响。因为根据人体解剖结构,在膨胀操作中,椎骨和肋骨会被一起并入肺掩模中,由于椎骨和肋骨的图像灰度值相近,将在基于阈值分割获取种子点步骤中引入椎骨噪音,导致种子点误判,从而影响肋骨标签的准确性。
在913中,可以确定横断位上包含浮肋的图层。在一些实施例中,可以确定冠状位上的定位图层中在沿人体从头至脚方向上坐标值最大的一对肋骨(也成为最低的一对肋骨)的位置。例如,可以参见图12中的直线1202。可以确定所述沿人体从头至脚方向上坐标值最大的一对肋骨在横断位上的肋骨所在图层为横断位上包含浮肋的图层。如图12所示,可以在直线1202下方的横断位图层中看到浮肋。
在915中,可以在横断位上识别浮肋的种子点。在一些实施例中,可以用阈值分割算法确定浮肋的种子点。
在917中,可以根据肺顶或肝底的位置将初始肋骨的种子点标签化。在一些实施例中,可以将毗邻肺顶的种子点标签化为第一肋种子点。例如,可以将与左肺顶之间的距离在一定阈值范围内的种子点标签化为“左一肋”。又例如,可以将与右肺顶之间的距离在一定阈值范围内的种子点标签化为右一肋种子点。在一些实施例中,可以根据图像数据的灰度曲线确定肺顶位置。可以根据肺部像素/体素的曲率值确定肺顶的位置。例如,可以肺部曲率值最大的一点确定为肺顶。在一些实施例中,可以通过机器学习的方法确定肺顶的位置。在一些实施例中,可以将毗邻肝底的种子点标签化为第十二肋种子点。可以确定第十二肋的种子点与第十一肋的种子点之间的相对位置,并且基于该相对位置将第十一肋的种子点标签化。再沿着人体从下至上的顺序依次将其他肋骨的种子点标签化。
在919中,可以根据初始肋骨的种子点将另一根肋骨的种子点标签化。在一些实施例中,如果917中标签化的是第一肋的种子点,则沿着人体从上至下的顺序依次将其他肋骨的种子点标签化“左二肋”、“右二肋”、“左三肋”、“右三肋”。
应注意的是,917至919可以与911至915同时进行。也就是说,可以在识别出种子点的同时将其标签化。在一些实施例中,可以在识别出所有种子点之后再进行标签化。
在921中,可以根据标签化种子点和肋骨连通域的位置将肋骨标签化。在一些实施例中,可以进行击中击不中操作。击中击不中操作是指对标签化种子点与肋骨连通域进行匹配的操作。如果一个标签化种子点的位置落入一根肋骨的连通域的位置范围内,则为“击中”;如果一个标签化种子点的位置没有落入一根肋骨连通域的位置范围内,则为“击不中”。例如,如果一个被标签化为“左一肋”的种子点的位置落入一根肋骨的连通域范围内,则将该肋骨标签化为“左一肋”。可以用这种方法将903中提取出的肋骨都标签化,如图14所示。
图10是根据本披露的一些实施例所示的示例性冠状位上的定位图层。
图11是根据本披露的一些实施例所示的示例性冠状位上肺掩模膨胀后的定位图层。
图12是根据本披露的一些实施例所示的示例性冠状位上可以看到十对肋骨的定位图层。
图13是根据本披露的一些实施例所示的示例性横断位上包含浮肋的图层。
图14是根据本披露的一些实施例所示的示例性标签化肋骨。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述发明披露仅仅作为示例,而并不构成对本披露的限定。虽然此处并没有明确说明,本领域技术人员可能会对本披露进行各种修改、改进和修正。所述类修改、改进和修正在本披露中被建议,所以所述类修改、改进、修正仍属于本披露示范实施例的精神和范围。
同时,本披露使用了特定词语来描述本披露的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本披露至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一替代性实施例”并不一定是指同一实施例。此外,本披露的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本披露的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本披露的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“子模块”、“引擎”、“单元”、“子单元”、“组件”或“系统”。此外,本披露的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,所述产品包括计算机可读程序编码。
计算机可读信号介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。所述传播信号可能有多种表现形式,包括电磁形式、光形式等等、或合适的组合形式。计算机可读信号介质可以是除计算机可读存储介质之外的任何计算机可读介质,所述介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机可读信号介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、射频信号、或类似介质、或任何上述介质的组合。
本披露各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、Visual Basic、Fortran 2003、Perl、COBOL 2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。所述程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本披露所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本披露流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,所述类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本披露实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本披露披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本披露实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本披露对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,所述近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本披露一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本披露引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本披露作为参考。与本披露内容不一致或产生冲突的申请历史文件除外,对本披露权利要求最广范围有限制的文件(当前或之后附加于本披露中的)也除外。需要说明的是,如果本披露附属材料中的描述、定义、和/或术语的使用与本披露所述内容有不一致或冲突的地方,以本披露的描述、定义和/或术语的使用为准。
最后,应当理解的是,本披露中所述实施例仅用以说明本披露实施例的原则。其他的变形也可能属于本披露的范围。因此,作为示例而非限制,本披露实施例的替代配置可视为与本披露的教导一致。相应地,本披露的实施例不仅限于本披露明确介绍和描述的实施例。

Claims (10)

1.一种图像处理方法,包括:
获取图像数据,所述图像数据包括至少一根肋骨;
获得所述图像数据中冠状位上的定位图层,获得所述定位图层中的肺掩模,对所述肺掩模进行膨胀操作,得到膨胀后的肺掩模,根据膨胀后的肺掩模和与灰度有关的阈值识别肋骨种子点;
将所述肋骨的种子点标签化,得到至少一个标签化种子点;
用肋骨分割算法确定所述肋骨中至少一个目标肋骨的连通域;
将所述标签化种子点与所述目标肋骨的连通域进行匹配操作;
根据所述匹配操作的结果,将所述目标肋骨标签化。
2.根据权利要求1所述的图像处理方法,其中获得所述图像数据中冠状位上的定位图层包括:
获取所述图像数据在冠状位上的肺掩模;
确定所述肺掩模在第一方向的中间层为第一图像;
判断所述第一图像是否包含椎骨,
如果所述第一图像包含椎骨,则从所述第一图像沿第一方向获取至少一个冠状位图层,在所述冠状位图层中确定一个不包含椎骨的图层为所述定位图层;
否则,确定所述第一图像为所述定位图层。
3.根据权利要求1所述的图像处理方法,其特征在于,还包括:
确定所述图像数据中横断位上的包括浮肋的图层;
识别所述浮肋的种子点。
4.根据权利要求3所述的图像处理方法,其中确定所述图像数据中横断位上的包括浮肋的图层包括:
确定所述冠状位上的定位图层中在第二方向上坐标值最大的一对肋骨;并且
确定所述第二方向上坐标值最大的一对肋骨在横断位上的肋骨所在图层为所述横断位上的包括浮肋的图层。
5.根据权利要求1所述的图像处理方法,其中将所述肋骨的种子点标签化包括:
确定所述图像数据中肺顶的位置;
基于所述肺顶的位置将第一肋的种子点标签化;
确定所述第一肋的种子点与第二肋的种子点之间的相对位置;并且
基于所述相对位置将所述第二肋的种子点标签化。
6.根据权利要求1所述的图像处理方法,其中将所述肋骨的种子点标签化包括:
确定所述图像数据中肝底的位置;
基于所述肝底的位置将第十二肋的种子点标签化;
确定所述第十二肋的种子点与第十一肋的种子点之间的相对位置;并且
基于所述相对位置将所述第十一肋骨的种子点标签化。
7.根据权利要求1所述的图像处理方法,其中将标签化的种子点与所述目标肋骨的连通域进行匹配操作包括:
在所述标签化的种子点中确定目标标签化种子点,所述目标标签化种子点的位置在所述目标肋骨的连通域的位置范围内;并且
根据所述目标标签化的种子点,将所述目标肋骨标签化。
8.一种图像处理系统,其特征在于所述系统包括图像获取模块、肋骨提取模块和肋骨标签化模块;
所述图像获取模块用于获取图像数据,所述图像数据包括至少一根肋骨;
所述肋骨提取模块用于获得所述图像数据中冠状位上的定位图层,获得所述定位图层中的肺掩模,对所述肺掩模进行膨胀操作,得到膨胀后的肺掩模,根据膨胀后的肺掩模和与灰度有关的阈值识别肋骨种子点;并用肋骨分割算法确定所述肋骨中至少一个目标肋骨的连通域;
所述肋骨标签化模块用于将所述肋骨的种子点标签化,得到至少一个标签化种子点;将所述标签化种子点与所述目标肋骨的连通域进行匹配操作;并根据所述匹配操作的结果,将所述目标肋骨标签化。
9.一种计算机可读存储介质,其特征在于所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机可以用于实现如权利要求1至7中任一项所述图像处理方法对应的操作。
10.一种图像处理装置,其特征在于,所述装置包括图像处理程序,所述图像处理程序执行时用于实现如权利要求1至7中任一项所述图像处理方法对应的操作。
CN201710944072.5A 2017-08-31 2017-09-30 图像处理系统、方法、装置和计算机可读介质 Active CN107808379B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/721,779 US10621724B2 (en) 2017-08-31 2017-09-30 System and method for image segmentation
US15/859,516 US10789709B2 (en) 2017-08-31 2017-12-30 System and method for image segmentation
US17/035,612 US11508068B2 (en) 2017-08-31 2020-09-28 System and method for image segmentation
US18/047,647 US11715206B2 (en) 2017-08-31 2022-10-18 System and method for image segmentation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CNPCT/CN2017/100024 2017-08-31
PCT/CN2017/100024 WO2019041262A1 (en) 2017-08-31 2017-08-31 SYSTEM AND METHOD FOR IMAGE SEGMENTATION

Publications (2)

Publication Number Publication Date
CN107808379A CN107808379A (zh) 2018-03-16
CN107808379B true CN107808379B (zh) 2021-02-05

Family

ID=61534058

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201710939388.5A Active CN107798682B (zh) 2017-08-31 2017-09-30 图像分割系统、方法、装置和计算机可读存储介质
CN201710944072.5A Active CN107808379B (zh) 2017-08-31 2017-09-30 图像处理系统、方法、装置和计算机可读介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201710939388.5A Active CN107798682B (zh) 2017-08-31 2017-09-30 图像分割系统、方法、装置和计算机可读存储介质

Country Status (3)

Country Link
US (4) US10621724B2 (zh)
CN (2) CN107798682B (zh)
WO (1) WO2019041262A1 (zh)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961281B (zh) * 2018-03-28 2020-10-20 研境信息科技(上海)有限公司 一种基于3d体素数据图像的图像分割方法及设备
CN108765399B (zh) * 2018-05-23 2022-01-28 平安科技(深圳)有限公司 病变部位识别装置、计算机装置及可读存储介质
CN110619621B (zh) * 2018-06-04 2023-10-27 青岛海信医疗设备股份有限公司 识别图像中肋骨区域的方法、装置、电子设备和存储介质
CN110555850B (zh) * 2018-06-04 2023-11-03 青岛海信医疗设备股份有限公司 识别图像中肋骨区域的方法、装置、电子设备和存储介质
CN110555860B (zh) * 2018-06-04 2023-11-14 青岛海信医疗设备股份有限公司 医学图像中肋骨区域标注的方法、电子设备和存储介质
CN110599494B (zh) * 2018-06-12 2021-11-02 中国科学院深圳先进技术研究院 肋骨图像重建系统及方法、终端及可读存储介质
CN109124662B (zh) * 2018-07-13 2021-12-03 上海皓桦科技股份有限公司 肋骨中心线检测装置及方法
CN108986891A (zh) * 2018-07-24 2018-12-11 北京市商汤科技开发有限公司 医疗影像处理方法及装置、电子设备及存储介质
EP3644275A1 (en) * 2018-10-22 2020-04-29 Koninklijke Philips N.V. Predicting correctness of algorithmic segmentation
US11475565B2 (en) * 2018-12-21 2022-10-18 GE Precision Healthcare LLC Systems and methods for whole-body spine labeling
CN111369635A (zh) * 2018-12-25 2020-07-03 通用电气公司 预测截断图像的系统和方法、准备数据的方法及其介质
CN109785303B (zh) * 2018-12-28 2020-12-11 上海联影智能医疗科技有限公司 肋骨标记方法、装置、设备以及图像分割模型的训练方法
CN109730704B (zh) * 2018-12-29 2022-11-01 上海联影智能医疗科技有限公司 一种控制医用诊疗设备曝光的方法及系统
US11501548B2 (en) * 2019-04-02 2022-11-15 Edgeverve Systems Limited Method and system for determining one or more target objects in an image
CN111968728B (zh) * 2019-05-20 2024-03-08 杭州依图医疗技术有限公司 一种图像的处理方法和处理设备
JP7334900B2 (ja) * 2019-05-20 2023-08-29 国立研究開発法人理化学研究所 判別装置、学習装置、方法、プログラム、学習済みモデルおよび記憶媒体
CN111985512B (zh) * 2019-05-22 2024-02-02 杭州依图医疗技术有限公司 一种建立人体肋骨模型的方法和装置
US11790524B2 (en) * 2019-06-20 2023-10-17 Ohio State Innovation Foundation System and method for quantitative volumetric assessment and modeling of tumor lesions
CN110276316B (zh) * 2019-06-26 2022-05-24 电子科技大学 一种基于深度学习的人体关键点检测方法
CN110599508B (zh) * 2019-08-01 2023-10-27 平安科技(深圳)有限公司 基于人工智能的脊柱影像处理方法及相关设备
CN110866905B (zh) * 2019-11-12 2024-07-02 苏州大学 一种肋骨识别与标注方法
CN111080573B (zh) * 2019-11-19 2024-02-27 上海联影智能医疗科技有限公司 肋骨图像检测方法、计算机设备和存储介质
CN110992376A (zh) * 2019-11-28 2020-04-10 北京推想科技有限公司 基于ct图像的肋骨分割方法、装置、介质及电子设备
CN111476777B (zh) * 2020-04-07 2023-08-22 上海联影智能医疗科技有限公司 胸片图像处理方法、系统、可读存储介质和设备
CN112132848B (zh) * 2020-09-01 2023-06-06 成都运达科技股份有限公司 一种基于图像图层分割抽取的预处理方法
US20220101518A1 (en) * 2020-09-25 2022-03-31 GE Precision Healthcare LLC System and method for stylizing a medical image
CN112529849B (zh) * 2020-11-27 2024-01-19 北京深睿博联科技有限责任公司 一种ct肋骨自动计数方法及装置
CN112699869A (zh) * 2020-12-17 2021-04-23 深圳视见医疗科技有限公司 基于深度学习的肋骨骨折辅助检测方法及图像识别方法
CN112767333B (zh) * 2021-01-08 2024-07-16 心医国际数字医疗系统(大连)有限公司 一种基于cta影像的双下肢血管区域判断方法及系统
CN112884792B (zh) * 2021-02-02 2022-10-25 青岛海信医疗设备股份有限公司 肺部图像分割的方法、装置、电子设备及存储介质
CN113255762B (zh) * 2021-05-20 2022-01-11 推想医疗科技股份有限公司 图像处理的方法及装置
CN113077021A (zh) * 2021-06-07 2021-07-06 广州天鹏计算机科技有限公司 基于机器学习的电子病历多维挖掘方法
CN113763324B (zh) * 2021-08-02 2024-07-26 阿里巴巴达摩院(杭州)科技有限公司 图像处理方法、计算机可读存储介质、处理器和系统
CN114049358A (zh) * 2021-11-17 2022-02-15 苏州体素信息科技有限公司 肋骨实例分割、计数与定位的方法及系统
CN114419342A (zh) * 2022-01-29 2022-04-29 中国科学院国家空间科学中心 一种基于fpga的高分辨率图像多目标多特征实时提取方法
CN115456990B (zh) * 2022-09-13 2023-05-23 北京医准智能科技有限公司 一种基于ct图像的肋骨计数方法、装置、设备及存储介质
CN115937163B (zh) * 2022-12-19 2023-07-28 西北民族大学 一种spect肺灌注成像的目标区域提取方法与系统
CN116523938A (zh) * 2023-05-16 2023-08-01 北京长木谷医疗科技股份有限公司 骨骼分割后的数据处理方法、装置、设备及可读存储介质
TWI844438B (zh) * 2023-07-31 2024-06-01 高雄榮民總醫院 應用於促進心肺適能訓練的介入方法及系統
CN117455925B (zh) * 2023-12-26 2024-05-17 杭州健培科技有限公司 一种胸部多器官和肋骨分割方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7949171B2 (en) * 2005-10-19 2011-05-24 Siemens Corporation System and method for tracing rib posterior in chest CT volumes
US8165376B2 (en) * 2006-12-11 2012-04-24 Siemens Corporation System and method for automatic detection of rib metastasis in computed tomography volume
US8411952B2 (en) 2007-04-04 2013-04-02 Siemens Aktiengesellschaft Method for segmenting an image using constrained graph partitioning of watershed adjacency graphs
US8081811B2 (en) * 2007-04-12 2011-12-20 Fujifilm Corporation Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
US8150135B2 (en) * 2007-06-04 2012-04-03 Siemens Computer Aided Diagnosis Ltd. Identifying ribs in lung X-rays
JP4545807B2 (ja) * 2008-03-31 2010-09-15 富士フイルム株式会社 骨番号認識装置およびそのプログラム
CN101452577B (zh) * 2008-11-26 2010-12-29 沈阳东软医疗系统有限公司 一种肋骨自动标定的方法及装置
US8649577B1 (en) * 2008-11-30 2014-02-11 Image Analysis, Inc. Automatic method and system for measurements of bone density and structure of the hip from 3-D X-ray imaging devices
US9020233B2 (en) * 2011-09-19 2015-04-28 Siemens Aktiengesellschaft Method and system for up-vector detection for ribs in computed tomography volumes
US8989471B2 (en) * 2011-09-27 2015-03-24 Siemens Aktiengesellschaft Method and system for automatic rib centerline extraction using learning based deformable template matching
US8913817B2 (en) * 2011-10-28 2014-12-16 Carestream Health, Inc. Rib suppression in radiographic images
US9659390B2 (en) * 2011-10-28 2017-05-23 Carestream Health, Inc. Tomosynthesis reconstruction with rib suppression
US10449395B2 (en) * 2011-12-12 2019-10-22 Insightec, Ltd. Rib identification for transcostal focused ultrasound surgery
CN102968783B (zh) * 2012-10-15 2016-09-14 深圳市旭东数字医学影像技术有限公司 从腹部图像数据中自动分割骨骼的方法及系统
WO2015021327A2 (en) * 2013-08-09 2015-02-12 Broncus Medical Inc. Registration of fluoroscopic images of the chest and corresponding 3d image data based on the ribs and spine
US9547906B2 (en) * 2013-09-19 2017-01-17 Siemens Healthcare Gmbh System and method for data driven editing of rib unfolding
US10181191B2 (en) * 2014-12-02 2019-01-15 Shanghai United Imaging Healthcare Co., Ltd. Methods and systems for identifying spine or bone regions in computed tomography image sequence
CN104408734B (zh) * 2014-12-11 2017-10-27 山东师范大学 联合图像分割与形变配准技术的自适应目标区域转换方法
CN105678746B (zh) * 2015-12-30 2018-04-03 上海联影医疗科技有限公司 一种医学图像中肝脏范围的定位方法及装置
US10417759B2 (en) * 2016-03-14 2019-09-17 Canon Medical Systems Corporation Medical image data processing system and method
CN105894517B (zh) * 2016-04-22 2019-05-07 北京理工大学 基于特征学习的ct图像肝脏分割方法及系统

Also Published As

Publication number Publication date
US11508068B2 (en) 2022-11-22
WO2019041262A1 (en) 2019-03-07
US20210042923A1 (en) 2021-02-11
US10789709B2 (en) 2020-09-29
US20190066294A1 (en) 2019-02-28
US20190066293A1 (en) 2019-02-28
CN107798682A (zh) 2018-03-13
US11715206B2 (en) 2023-08-01
CN107808379A (zh) 2018-03-16
US10621724B2 (en) 2020-04-14
CN107798682B (zh) 2021-01-29
US20230108036A1 (en) 2023-04-06

Similar Documents

Publication Publication Date Title
CN107808379B (zh) 图像处理系统、方法、装置和计算机可读介质
US11935654B2 (en) Systems and methods for image processing
US10839567B2 (en) Systems and methods for correcting mismatch induced by respiratory motion in positron emission tomography image reconstruction
US10482602B2 (en) System and method for image segmentation
CN107633521B (zh) 一种脊椎识别和命名系统、方法及装置
US10690782B2 (en) Systems and methods for positron emission tomography image reconstruction
WO2021136304A1 (en) Systems and methods for image processing
US20230074296A1 (en) Systems and methods for object recognition
US11842465B2 (en) Systems and methods for motion correction in medical imaging
US11995745B2 (en) Systems and methods for correcting mismatch induced by respiratory motion in positron emission tomography image reconstruction
US11911201B2 (en) Systems and methods for determining position of region of interest
US20230237665A1 (en) Systems and methods for image segmentation
US11308610B2 (en) Systems and methods for machine learning based automatic bullseye plot generation
CN111243082A (zh) 获得数字影像重建图像的方法、系统、装置及存储介质
US20240221953A1 (en) Systems and methods for image processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200603

Address after: 201807 Shanghai City, north of the city of Jiading District Road No. 2258

Applicant after: SHANGHAI UNITED IMAGING HEALTHCARE Co.,Ltd.

Address before: 518067 room C, building 202-207, No.1 building, No. six Nanshan District Road, Shenzhen, Guangdong, China

Applicant before: SHENZHEN UNITED IMAGING HEALTHCARE Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 201807 Shanghai City, north of the city of Jiading District Road No. 2258

Applicant after: Shanghai Lianying Medical Technology Co., Ltd

Address before: 201807 Shanghai City, north of the city of Jiading District Road No. 2258

Applicant before: SHANGHAI UNITED IMAGING HEALTHCARE Co.,Ltd.

GR01 Patent grant
GR01 Patent grant