CN110458830A - 图像处理方法、装置、服务器及存储介质 - Google Patents
图像处理方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN110458830A CN110458830A CN201910746265.9A CN201910746265A CN110458830A CN 110458830 A CN110458830 A CN 110458830A CN 201910746265 A CN201910746265 A CN 201910746265A CN 110458830 A CN110458830 A CN 110458830A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- background dot
- foreground point
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/43—Detecting, measuring or recording for evaluating the reproductive systems
- A61B5/4306—Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
- A61B5/4312—Breast evaluation or disorder diagnosis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像处理方法、装置、服务器及存储介质,属于计算机视觉技术领域。所述方法包括:基于待标注的乳腺MRI图像、前景点及背景点,生成前景点距离图像和背景点距离图像,图像距离根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定;将待标注的乳腺MRI图像、前景点距离图像及背景点距离图像输入到第二分割模型中,输出肿瘤区域。本发明根据前景点和背景点,获取前景点距离图像和背景点距离图像,由于距离图像可直接根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定,无需遍历探索所有可能路径的路径距离,因而减小了图像处理过程中的计算量,降低了资源消耗,缩短了处理时间。
Description
本申请为2019年03月08日提交的申请号为201910176668.4、发明名称为“图像处理方法、装置、服务器及存储介质”的中国专利申请的分案申请,其全部内容通过引用结合在本申请中。
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种图像处理方法、装置、服务器及存储介质。
背景技术
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
在医学领域,应用计算机视觉技术可对医学影像进行处理,从而识别出医学影像中是否存在肿瘤区域。以乳腺MRI(Magnetic Resonance Imaging,核磁共振成像)图像为例,乳腺MRI图像是乳腺癌诊断中最常用的评估手段,用于确定出乳腺癌的分期。乳腺MRI图像包括肿瘤区域和正常组织区域,为了更好地进行诊断,在基于乳腺MRI图像进行评估之前,需要基于计算机视觉技术,对乳腺MRI图像进行处理,以从乳腺MRI图像中标注出肿瘤图像。
目前,图像处理过程为:将原始图像(即乳腺MRI图像)输入到第一分割模型中,输出第一图像,该第一分割模型用于从原始图像中预测出肿瘤区域;从第一分割图像上获取前景点和背景点,该前景点为属于肿瘤区域而未被预测在区域内的像素点,背景点为不属于肿瘤区域而被预测在区域内的像素点;通过计算原始图像中每个像素点到前景点之间的测地线距离,获取前景图像;通过计算原始图像中每个像素点到背景点之间的测地线距离,获取背景图像,该测地线距离是指在乳腺结构中像素点到前景点或背景点之间的最短距离;将原始图像、前景图像及背景图像输入到第二分割模型中,输出标注有肿瘤区域的第二分割图像,该第二分割模型用于基于原始图像、前景图像及背景图像确定出肿瘤区域。
然而,相关技术在进行图像处理的过程中,需要计算每个像素点到前景点或背景点所有可能路径的路径距离,以获取每个像素点到前景点或背景点之间的测地线距离,导致图像处理过程资源消耗大、处理时间较长。
发明内容
为了解决相关技术的问题,本发明实施例提供了一种图像处理方法、装置、服务及存储介质。所述技术方案如下:
一方面,提供了一种图像处理方法,所述方法包括:
将原始图像输入到第一分割模型中,输出标注有初始目标区域的第一分割图像,所述第一分割模型用于从原始图像中预测出初始目标区域;
根据所述第一分割图像的初始目标区域,确定前景点和背景点;
通过计算所述原始图像中每个像素点分别与所述前景点和所述背景点之间的图像距离,获取前景点距离图像和背景点距离图像,所述图像距离根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定;
将所述原始图像、所述前景点距离图像及所述背景点距离图像输入到第二分割模型中,输出标注有目标区域的第二分割图像,所述第二分割模型用于基于前景点距离图像及背景点距离图像,从原始图像中预测出目标区域。
另一方面,提供了一种图像处理装置,所述装置包括:
处理模块,用于将原始图像输入到第一分割模型中,输出标注有初始目标区域的第一分割图像,所述第一分割模型用于从原始图像中预测出初始目标区域;
确定模块,用于根据所述第一分割图像的初始目标区域,确定前景点和背景点;
获取模块,用于通过计算所述原始图像中每个像素点分别与所述前景点和所述背景点之间的图像距离,获取前景点距离图像和背景点距离图像,所述图像距离根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定;
所述处理模块,用于将所述原始图像、所述前景点距离图像及所述背景点距离图像输入到第二分割模型中,输出标注有目标区域的第二分割图像,所述第二分割模型用于基于前景点距离图像及背景点距离图像,从原始图像中预测出目标区域。
另一方面,提供了一种用于图像处理的服务器,其特征在于,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由所述处理器加载并执行以实现图像处理方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由处理器加载并执行以实现图像处理方法。
另一方面,提供了一种用于医学图像处理的系统,所述系统包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述处理器加载并执行所述至少一条指令、至少一段程序、代码集或指令集,以实现医学图像识别及处理能力。
本发明实施例提供的技术方案带来的有益效果是:
通过计算原始图像中每个像素点分别与前景点和背景点之间的图像距离,获取前景点距离图像和背景点距离图像,由于距离图像可直接根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定,无需遍历探索所有可能路径的路径距离,因而减小了图像处理过程中的计算量,降低了资源消耗,缩短了处理时间。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种构建第一分割模型的方法流程图;
图2是本发明实施例提供的一种构建第二分割模型的方法流程图;
图3是本发明实施例提供的一种图像处理方法流程图;
图4是本发明实施例提供的一种乳腺MRI图的三视图;
图5是本发明实施例提供的一种第一分割图像的示意图;
图6是本发明实施例提供的一种人工选取ROI区域的示意图;
图7是本发明实施例提供的一种前景点和背景点的示意图;
图8是本发明实施提供的一种前景点距离图像的示意图;
图9是本发明实施例提供的一种背景点距离图像的示意图;
图10是本发明实施例提供的图像处理方法在进行分割时所输入的各种图像示意图;
图11是本发明实施例提供的人工对第二分割图像进行修正得到的第三分割图像的示意图;
图12是本发明实施例提供的另一种第一分割图像的示意图;
图13是本发明实施例提供的模型训练过程及图像处理过程的整体流程图;
图14是本发明实施例提供的图像处理装置的结构示意图;
图15是根据一示例性实施例示出的一种用于图像处理的服务器。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在执行本发明实施例之前,首先对本发明实施例涉及的重要名词进行解释。
前景点是指3D(3-Dimension,三维)图像上属于肿瘤区域而未被预测在区域内的像素点,可以用fg表示。
背景点是指3D图像上不属于肿瘤区域而被预测在区域内的像素点,可以用bg表示。
ROI(Region Of Interest,感兴趣区域)是指机器视觉、图像处理中,从被处理图像中以方框、圆、椭圆、不规则多边形等方式勾勒出的需要处理的区域,或者广义上是指读者需要关注的区域。ROI区域为原始数据上的局部区域,在本发明实施例中一般指2D(2-Dimension,二维)或3D的矩形区域。
本发明实施例提供了一种构建第一分割模型的方法流程图,参见图1,本发明实施例提供的方法流程包括:
101、服务器获取多个训练样本图像和多个标注有目标区域的标注图像。
其中,目标区域是指在图像分割过程中需要预测的区域,在本发明实施例中为乳腺MRI图像上的肿瘤区域。训练样本图像为未经标注的乳腺MRI图像,用于训练分割模型。标注图像与训练样本图像对应,为标注有目标区域的图像,与训练样本图像相同,标注图像也用于训练分割模型。
服务器在获取多个训练样本图像和多个分割图像时,可采用如下方式:在联网上获取多个病人的乳腺MRI图像,并将所获取的乳腺MRI图像作为训练样本图像。将所获取的训练样本图像提供给医生,由医生采用人工方式标注出每个训练样本图像上的肿瘤区域,得到多个标注图像。
102、服务器根据多个训练样本图像和多个标注图像,对初始第一分割模型进行训练,得到第一分割模型。
其中,初始第一分割模型可以为用于物体分割的深度学习神经网络,例如3D u-net、3D v-net等。具体训练时,服务器可为每个模型参数设置一个初始值,并为初始第一分割模型构建第一目标损失函数,将多个训练样本图像输入到初始第一分割模型中,输出分割结果,根据每个训练样本图像的分割结果与对应的标注图像,计算第一目标损失函数的函数值。如果第一目标损失函数的函数值不满足第一阈值条件,服务器对初始第一分割模型的模型参数进行调整,并继续计算第一目标损失函数的函数值,直至得到的函数值满足第一阈值条件。其中,第一阈值条件可由服务器根据处理精度进行设置。
进一步地,当得到的第一目标损失函数的函数值不满足第一阈值条件,服务器采用BP(Back Propagation,反向传播)算法对初始第一分割模型的模型参数进行调整,基于调整后的各个模型参数的参数值继续计算第一目标损失函数的函数值,直至计算后的函数值满足第一阈值条件。其中,BP算法主要由信号的正向传播和误差的反向传播两个过程组成,经过信号正向传播和误差反向传播,权重和阈值的调整反复进行,一直进行到预先设定的学习训练次数,或者输出误差减小到允许的程度。
服务器获取满足第一阈值条件时各个模型参数的参数值,并将满足第一阈值条件时各个模型参数的参数值所对应的初始第一分割模型,作为训练得到的第一分割模型。其中,第一分割模型用于从原始图像中预测出初始目标区域,该原始图像也即是未经标注的乳腺MRI图像。
本发明实施例提供了一种构建第二分割模型的方法流程图,参见图2,本发明实施例提供的方法流程包括:
201、服务器获取多个训练样本图像和多个标注有目标区域的标注图像。
本步骤的实现过程与上述步骤101相同,具体参见上述步骤101,此处不再赘述。
202、服务器根据每个训练样本图像和对应的标注图像,获取训练样本前景点距离图像和训练样本背景点距离图像。
服务器将每个训练样本图像输入到第一分割模型中,输出第一分割训练图像,并通过对比每个训练样本图像对应的第一分割训练图像和标注图像,自动从每个训练样本图像中选取前景点和背景点,进而基于所选取的前景点,获取训练样本前景点距离图像,并基于所选取的背景点,获取训练样本背景点距离图像。
对于任一训练样本图像,服务器基于所选取的前景点,获取训练样本前景点距离图像时,步骤如下:
a1、服务器获取训练样本图像中每个像素点与前景点之间的图像距离。
a11、服务器获取每个像素点和前景点在三维坐标系中的坐标。
乳腺MRI数据为3D数据,服务器针对3D数据,建立三维坐标系,并获取训练样本图像中每个像素点在三维坐标系中的坐标,以及前景点在三维坐标系中的坐标。
a12、服务器根据每个像素点的坐标和前景点的坐标,获取每个像素点与前景点之间的坐标距离。
设定前景点的坐标为P0=(x0,y0,z0),像素点的坐标为P=(x,y,z),则像素点与前景点之间的坐标距离为
a13、服务器获取每个像素点和前景点的灰度值。
其中,灰度值也称为亮度值,强度值。
a14、服务器根据每个像素点的灰度值和前景点的灰度值,获取每个像素点与前景点之间的灰度距离。
设定前景点的灰度值为I(x0,y0,z0),像素点的灰度值为I(x,y,z),则像素点与前景点之间的灰度距离为I(x,y,z)-I(x0,y0,z0)。
a15、服务器根据每个像素点与前景点之间的坐标距离和灰度距离,获取训练样本图像中每个像素点与前景点之间的图像距离。
服务器根据每个像素点与前景点之间的坐标距离和灰度距离,应用以下公式可以获取训练样本图像中每个像素点与前景点之间的图像距离D_P0:
其中,a为权重参数,取值范围为(0,1)。优选地,a的值可以为0.6。
a2、服务器根据每个像素点与前景点之间的图像距离,获取训练样本前景点距离图像。
服务器通过将每个像素点与前景点之间的图像距离作为每个像素点的像素值,获取训练样本前景距离图像。
对于任一训练样本图像,服务器基于所选取的背景点,获取训练样本背景点距离图像时,步骤如下:
b1、服务器获取训练样本图像中每个像素点与背景点之间的图像距离。
b11、服务器获取每个像素点和背景点在三维坐标系中的坐标。
乳腺MRI数据为3D数据,服务器针对3D数据,建立三维坐标系,并获取训练样本图像中每个像素点在三维坐标系中的坐标,以及背景点在三维坐标系中的坐标。
b12、服务器根据每个像素点的坐标和背景点的坐标,获取每个像素点与背景点之间的坐标距离。
设定背景点的坐标为P0′=(x0′,y0′,z0′),像素点的坐标为P′=(x′,y′,z′),则像素点与背景点之间的坐标距离为
b13、服务器获取每个像素点和背景点的灰度值。
b14、服务器根据每个像素点的灰度值和背景点的灰度值,获取每个像素点与背景点之间的灰度距离。
设定背景点的灰度值为I(x0′,y0′,z0′),像素点的灰度值为I(x′,y′,z′),则像素点与背景点之间的灰度距离为I(x′,y′,z′)-I(x0′,y0′,z0′)。
b15、服务器根据每个像素点与背景点之间的坐标距离和灰度距离,获取训练样本图像中每个像素点与背景点之间的图像距离。
服务器根据每个像素点与背景点之间的坐标距离和灰度距离,应用以下公式可以获取训练样本图像中每个像素点与背景点之间的图像距离D_P0′:
其中,a为权重参数,取值范围为(0,1)。优选地,a的值可以为0.6。
b2、服务器根据每个像素点与背景点之间的图像距离,获取训练样本背景点距离图像。
服务器通过将每个像素点与背景点之间的图像距离作为每个像素点的像素值,获取训练样本背景距离图像。
203、服务器根据多个训练样本图像、多个标注图像、多个训练样本前景点距离图像及多个训练样本背景点距离图像,对初始第二分割模型进行训练,得到第二分割模型。
其中,初始第二分割模型可以为用于物体分割的深度学习神经网络,例如3D u-net、3D v-net等。具体训练时,服务器为每个模型参数设置一个初始值,并为初始第二分割模型构建第二目标损失函数,将多个训练样本图像、多个训练样本前景点距离图像及多个训练样本背景点距离图像输入到初始第二分割模型中,输出分割结果,根据每个训练样本图像的分割结果与对应的标注图像,计算第二目标损失函数的函数值。如果第二目标损失函数的函数值不满足第二阈值条件,服务器对初始第二分割模型的模型参数进行调整,并继续计算第二目标损失函数的函数值,直至得到的函数值满足第二阈值条件。其中,第二阈值条件可由服务器根据处理精度进行设置。
进一步地,当得到的第二目标损失函数的函数值不满足第二阈值条件,服务器采用BP算法对初始第二分割模型的模型参数进行调整,基于调整后的各个模型参数的参数值继续计算第二目标损失函数的函数值,直至计算后的函数值满足第二阈值条件。
服务器获取满足第二阈值条件时各个模型参数的参数值,并将满足第二阈值条件时各个模型参数的参数值所对应的初始第二分割模型,作为训练得到的第二分割模型。其中,第二分割模型用于基于前景点距离图像及背景点距离图像,从原始图像(即未经标注的乳腺MRI图像)中预测出目标区域。
本发明实施例提供了一种图像分割方法的流程图,参见图3,本发明实施例提供的方法流程包括:
301、服务器将原始图像输入到第一分割模型中,输出标注有初始目标区域的第一分割图像。
其中,第一分割模型用于从原始图像中预测出初始目标区域。当获取到待分割的原始图像时,服务器将该原始图像输入到第一分割模型中,通过第一分割模型进行处理,输出标注初始目标区域的第一分割图像,该初始目标区域为可能的目标区域,需要进行后续步骤进一步确定。该初始目标区域可以为乳腺MRI图像中的肿瘤区域。为了更好地区分初始目标区域与正常组织区域,服务器可在第一分割图像上将初始目标区域标注不同于正常组织区域的颜色,例如,红色、绿色等。由于第一分割模型预测的初始目标区域中包括预测出的所有可能的区域,预测结果存在较大的误差,需要经过后续过程进行再次分割。
另外,在采用第一分割模型进行预测时,对于预测出为肿瘤的像素点可以标记为1,对于预测出为非肿瘤的像素点可以标记为0,因而第一分割图像实际上为二值化图像。
图4为乳腺MRI图像的三视图,其中,图4的左图为乳腺MRI图像的横断面图,图4的右上图为乳腺MRI图像的矢状面图,图4中的右下图为乳腺MRI图像的冠状面图,图4中虚线交叉位置的圆形区域为肿瘤区域。
图5为采用第一分割模型对图4中的乳腺MRI图像进行处理,得到的第一分割图像。其中,图5的左上图为标注有肿瘤区域的横断面图,图5中的左下图为标注图像的3D效果图,图5的右上图为标注有肿瘤区域的矢状面图,图5中的右下图为标注有肿瘤区域的冠状面图,图5中虚线交叉位置的圆形区域为肿瘤区域。通过对图5进行分析发现,图5中预测出来的最大区域实际上是心脏区域,并不是肿瘤区域。由于图5中的预测结果存在较大的误差,因而需要经过后续步骤进行再次分割。
302、服务器根据第一分割图像的初始目标区域,确定前景点和背景点。
由于第一分割模型输出的第一分割图像存在较大的误差,包括很多误差区域,而如果对于这些误差区域一一进行处理,会浪费大量的资源,因此,本发明实施例还将采用人工方式,结合第一分割图像的初始目标区域,从原始图像上选取ROI区域,将其确定为指定区域,将指定区域外的肿瘤预测结果视为无效。其中,指定区域也即是进行图像分割的ROI区域,是指进行肿瘤预测的有效区域。
采用人工方式确定指定区域时,可在原始图像的三视图上,选择多个像素点,并将所选取的多个像素点围成的区域确定为指定区域。参见图6,图6中左上图为原始图像的横断面图,图6中的左下图为原始图像的3D图,图6中的右上图为原始图像的矢状面图,图6中的右下图为原始图像的冠状面图。医生在横断面图上选择坐标分别为P1(x1,y1,z′)和P2(x2,y2,z″)的两个像素点,并在矢状面图上选择坐标分别为P3(x′,y′,z1)和P4(x″,y″,z2)的两个像素点,基于所选择的四个像素点,可以确定ROI区域的坐标范围为([x1,x2],[y1,y2],[z1,z2])。对于图6,P1中x的取值为x1,y的取值为y1,z的取值为任意值;,P2中x的取值为x2,y的取值为y2,z的取值为任意值;P3中x的取值为任意值,y的取值为任意值,z的取值为z1;P4中x的取值为任意值,y的取值为任意值,z的取值为z2。医生选取多个像素点之后,将所选取的像素点输入到服务器中,服务器通过检测医生的输入操作从原始图像上确定指定区域,该指定区域为图6中的左下图中虚线交叉的区域,或图6中右下图中虚线交叉的区域。
当确定的指定区域后,医生可采用人工方式从指定区域中获取前景点和背景点,并将所选取的前景点和背景点输入到服务器中,服务器通过检测医生的操作,获取前景点和背景点。其中,前景点可以采用p_fg(x,y,z)表示,fg即front ground前景,背景点可以采用p_bg(x,y,z)表示,bg即back ground背景。例如对图6中左上图的区域进行放大,得到图7,图7中白色高亮区域实际上是肿瘤区域,医生在未被预测到的区域内选取一个像素点作为前景点,并在预测错误的区域内选取一个像素点作为背景点。
303、服务器通过计算原始图像中每个像素点与前景点之间的图像距离,获取前景点距离图像。
服务器基于第一分割图像所确定的前景点,通过计算原始图像中每个像素点与前景点之间的图像距离,可获取前景点距离图像。具体可采用如下步骤:
3031、服务器获取原始图像中每个像素点与前景点之间的图像距离。
服务器获取原始图像中每个像素点与前景点之间的图像距离时,可采用如下步骤:
30311、服务器获取每个像素点和前景点在三维坐标系中的坐标。
30312、服务器根据每个像素点的坐标和前景点的坐标,获取每个像素点与前景点之间的坐标距离。
30313、服务器获取每个像素点和前景点的灰度值。
30314、服务器根据每个像素点的灰度值和前景点的灰度值,获取每个像素点与前景点之间的灰度距离。
30315、服务器根据每个像素点与前景点之间的坐标距离和灰度距离,获取原始图像中每个像素点与前景点之间的图像距离。
3032、服务器根据每个像素点与前景点之间的图像距离,获取前景点距离图像。
服务器通过将每个像素点与前景点之间的图像距离作为每个像素点的像素值,获取前景距离图像。对于原始图像中的任一像素点,如果该像素点与前景点之间的距离越接近,则该像素点与前景点之间的图像距离越小,该像素点在前景点距离图像上的亮度越暗,反之,如果该像素点与前景点之间的距离越远,则该像素点与前景点之间的图像距离越大,该像素点在前景点距离图像上的亮度越亮。
图8为前景点距离图像,图8中的左图为横断面前景点距离图像,图8中的右上图为矢状面前景点距离图像,图8中的右下图为冠状面前景点距离图像,图8中虚线交叉位置为前景点的位置。参见图8,对于前景点周围的点,由于与前景点之间的图像距离较小,因而亮度较暗,导致整个肿瘤区域整体的亮度较暗,在前景点距离图像上表现为明显的暗区域,由于亮度不同,能够跟其他区域明显区分开来,因而更适合在后续步骤中采用第二分割模型进行分割。
304、服务器通过计算原始图像中每个像素点与背景点之间的图像距离,获取背景点距离图像。
服务器基于第一分割图像所确定的背景点,通过计算原始图像中每个像素点与背景点之间的图像距离,可获取背景点距离图像。具体可采用如下步骤:
3041、服务器获取原始图像中每个像素点与背景点之间的图像距离。
服务器在获取原始图像中每个像素点与背景点之间的图像距离时,可采用如下步骤:
30411、服务器获取每个像素点和背景点在三维坐标系中的坐标。
30412、服务器根据每个像素点的坐标和背景点的坐标,获取每个像素点与背景点之间的坐标距离。
30413、服务器获取每个像素点和背景点的灰度值。
30414、服务器根据每个像素点的灰度值和背景点的灰度值,获取每个像素点与背景点之间的灰度距离。
30415、服务器根据每个像素点与背景点之间的坐标距离和灰度距离,获取原始图像中每个像素点与背景点之间的图像距离。
3042、服务器根据每个像素点与背景点之间的图像距离,获取背景点距离图像。
服务器通过将每个像素点与背景点之间的图像距离作为每个像素点的像素值,可以获取背景距离图像。对于原始图像中的任一像素点,如果该像素点与背景点之间的距离越接近,则该像素点与背景点之间的图像距离越小,该像素点在背景点距离图像上的亮度越暗,反之,如果该像素点与背景点之间的距离越远,则该像素点与背景点之间的图像距离越大,该像素点在背景点距离图像上的亮度越亮。
图9为背景点距离图像,图9中的左图为横断面背景点距离图像,图9中的右上图为矢状面背景点距离图像,图9中的右下图为冠状面背景点距离图像,图9中虚线交叉位置为背景点的位置。参见图9,对于背景点周围的点,由于与背景点之间的图像距离较小,因而亮度较暗,从而印证了之前错误预测为肿瘤区域的心脏区域。由于心脏区域在背景点距离图像上为突出的暗区域,能够跟其他区域明显区分开来,因而在后续步骤中采用第二分割模型进行分割时,可以对预测的错误结果进行纠正。
305、服务器将原始图像、前景点距离图像及背景点距离图像输入到第二分割模型中,输出标注有目标区域的第二分割图像。
其中,第二分割模型用于基于前景点距离图像及背景点距离图像,从原始图像中预测出目标区域。第二分割模型的输入为三个通道的3D数据,分别为原始图像(即乳房MRI图像)、前景点距离图像及背景点距离图像。图10为采用第二分割模型进行图像分割时输入和输出的图像,其中,图10中的左上图为乳房MRI图像中的横断面图像,图10中的右上图为前景点距离图像中的横断面图像,图10中的左下图为背景点距离图像,图10中的右下图为标注图像(ground truth图像),标注图像为对原始图像进行肿瘤像素位置标注过程中对像素进行二值化处理时,将位于肿瘤区域中各个像素点标记为1、将位于其他区域的各个像素点标记为0所得到的图像。
虽然采用第二分割模型对原始图像进行分割时,因参照了前景点距离图像和背景点距离图像所得到的第二分割图像更精确,但是所得到的第二分割图像还可能存在一些误差,不能100%满足医生的分割要求,因此,在本发明的另一个实施例中,医生还将采用人工方式对第二分割图像进行修正,得到更为精确的第三分割图像。在人工修正时医生可以手动修正,还可以借助3D标注软件,例如,ITK-SNAP等。图11为人工修正得到的第三分割图像,其中,图11中的左上图为第三分割图像的横断面图像,图11中的右上图为第三分割图像的失状面图像,图11中的左下图为标注图像的3D图像,图11中的右下图为第三分割图像的冠状面图像。
一般来说,人工修正的过程相对全部人工标注的过程工作量大大降低了,所得到的第三分割图像的精度较高,可以处理为标注图像用于训练第一分割模型和第二分割模型,从而提高第一分割模型和第二分割模型的精度。随着获取到的第三分割图像的数据量的增多,所训练的第一分割模型和第二分割模型的准确度越来越高,所输出的分割结果也更加准确,无需人工大量的修改,通过少量的修正即可获得最终的分割结果,在保证分割精度的前提下,大大降低了人工的工作量。图12为采用再训练的第一分割模型所输出的第一分割图像,由图12可以看出,第一分割模型只在左右两个乳房上预测出两个肿瘤区域,并未将心脏区域预测为肿瘤区域,相比于再训练前的分割结果更准确。对于图12中的分割结果人工经过少量的修正即可用于影像诊断。
图13为本发明实施例中的构建第一分割模型、第二分割模型及图像处理方法的整体流程图。
其中,使用标注数据训练阶段,包括以下步骤:
步骤一、获取多个病人图像,并对多个病人图像进行标注,得到多个标注图像,基于多个病人图像和多个标注图像,采用深度学习分割算法A训练模型,得到算法A预测模型,即本发明实施例中的第一分割模型。
步骤三、根据多个病人图像和多个标注图像,自动生成多个前景点距离图像和多个背景点距离图像。
步骤四、基于多个病人图像、多个标注图像、多个前景点距离图像及多个背景点距离图像,采用深度学习分割算法B训练模型,得到算法B预测模型,即本发明实施例中的第二分割模型。
其中,使用模型预测阶段,包括以下步骤:
步骤一、对于一个新的病人图像,将其输入到算法A预测模型中,输出对新的病人图像的初步分割预测结果,即本发明实施例中的第一分割图像。
步骤二、根据初步分割预测结果,采用人工方式从新的病人图像中选取ROI区域,对于ROI区域外的肿瘤预测结果则视为无效,会将其删除。
步骤三、采用人工方式在ROI区域上选择前景点和背景点,并生成前景点距离图像和背景点距离图像。
步骤五、将新的病人图像、前景点距离图像及背景点距离图像输入到算法B预测模型中,输出算法B分割结果,即本发明实施例中的第二分割图像。
步骤六、人工对算法B分割结果进行修正,获得最终肿瘤分割结果,即本发明实施例中的第三分割图像。采用对第三分割图像处理得到的标注图像(ground truth数据)训练算法预测模型A和算法预测模型B。
本发明实施提供的图像分割方法,可应用于医学图像处理场景,包括医学图像标注场景、病理图像分析场景及医学肿瘤处理场景等。例如,
场景一:医生在作MRI乳腺肿瘤影像诊断时,可采用本发明实施例提供的方法对肿瘤区域进行标注,从而获得肿瘤区域的大小、形态等信息,并基于此信息撰写病人的影像诊断报告。
场景二:在图像处理领域,对海量肿瘤数据进行标注时,可以采用本发明实施例提供的方法进行标注,降低手动标注的工作量,提高标注效率。
本发明实施例提供的方法,通过计算原始图像中每个像素点分别与前景点和背景点之间的图像距离,获取前景点距离图像和背景点距离图像,由于距离图像可直接根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定,无需遍历探索所有可能路径的路径距离,因而减小了图像处理过程中的计算量,降低了资源消耗,缩短了处理时间。
另外,在训练样本图像的数据量较小时,所训练的第一分割模型的准确率较低,预测出现错误的目标区域较多,而本发明实施例采用人工方式确定指定区域,并将指定区域外的预测结果视为无效,不仅能够提高图像处理的精度,而且减少了后续处理过程的计算量。
另外,本发明实施例采用迭代计算方式,基于人工标注的分割结果对第一分割模型和第二分割模型进行再训练,大大提高了模型精度,尤其使得基于第一分割模型的分割结果更准确,减小了后续人工修正的工作量。
参见图14,本发明实施例提供了一种图像处理装置,该装置包括:
处理模块1401,用于将原始图像输入到第一分割模型中,输出标注有初始目标区域的第一分割图像,第一分割模型用于从原始图像中预测出初始目标区域;
确定模块1402,用于根据所述第一分割图像的初始目标区域,确定前景点和背景点;
获取模块1403,用于通过计算原始图像中每个像素点分别与前景点和背景点之间的图像距离,获取前景点距离图像和背景点距离图像,图像距离根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定;
处理模块1401,用于将原始图像、前景点距离图像及背景点距离图像输入到第二分割模型中,输出标注有目标区域的第二分割图像,第二分割模型用于基于前景点距离图像及背景点距离图像,从原始图像中预测出目标区域。
在本发明的另一个实施例中,获取模块1403,用于获取原始图像中每个像素点与前景点之间的图像距离;根据每个像素点与前景点之间的图像距离,获取前景点距离图像;获取原始图像中每个像素点与背景点之间的图像距离;根据每个像素点与背景点之间的图像距离,获取背景点距离图像。
在本发明的另一个实施例中,获取模块1403,用于获取每个像素点和前景点在三维坐标系中的坐标;根据每个像素点的坐标和前景点的坐标,获取每个像素点与前景点之间的坐标距离;获取每个像素点和前景点的灰度值;根据每个像素点的灰度值和前景点的灰度值,获取每个像素点与前景点之间的灰度距离;根据每个像素点与前景点之间的坐标距离和灰度距离,获取原始图像中每个像素点与前景点之间的图像距离。
在本发明的另一个实施例中,获取模块1403,用于通过将每个像素点与前景点之间的图像距离作为每个像素点的像素值,获取前景距离图像。
在本发明的另一个实施例中,获取模块1403,用于获取每个像素点和背景点在三维坐标系中的坐标;根据每个像素点的坐标和背景点的坐标,获取每个像素点与背景点之间的坐标距离;获取每个像素点和背景点的灰度值;根据每个像素点的灰度值和背景点的灰度值,获取每个像素点与背景点之间的灰度距离;根据每个像素点与背景点之间的坐标距离和灰度距离,获取原始图像中每个像素点与背景点之间的图像距离。
在本发明的另一个实施例中,获取模块1403,用于通过将每个像素点与背景点之间的图像距离作为每个像素点的像素值,获取背景距离图像。
在本发明的另一个实施例中,确定模块1402,用于从原始图像上确定指定区域;通过对比第一分割图像的初始目标区域和原始图像,从指定区域中获取前景点和背景点。
在本发明的另一个实施例中,该装置还包括:
获取模块1403,用于获取多个训练样本图像和多个标注有目标区域的标注图像,训练样本图像与标注图像一一对应;
训练模块,用于根据多个训练样本图像和多个标注图像,对初始第一分割模型进行训练,得到第一分割模型。
在本发明的另一个实施例中,该装置还包括:
获取模块1403,用于获取多个训练样本图像和多个标注有目标区域的标注图像,训练样本图像与标注图像一一对应;
获取模块1403,用于根据每个训练样本图像和对应的标注图像,获取训练样本前景点距离图像和训练样本背景点距离图像;
训练模块,用于根据多个训练样本图像、多个标注图像、多个训练样本前景点距离图像及多个训练样本背景点距离图像,对初始第二分割模型进行训练,得到第二分割模型。
在本发明的另一个实施例中,该装置还包括:
获取模块1403,用于获取第三分割图像,第三分割图像为人工对第二分割图像进行修正得到的图像;
训练模块,用于根据第三分割图像,对第一分割模型和第二分割模型进行训练。
在本发明的另一个实施例中,该装置应用于医学图像处理场景,医学图像处理场景至少包括医学图像标注场景、病理图像分析场景及医学肿瘤处理场景。
综上,本发明实施例提供的装置,通过计算原始图像中每个像素点分别与前景点和背景点之间的图像距离,获取前景点距离图像和背景点距离图像,由于距离图像可直接根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定,无需遍历探索所有可能路径的路径距离,因而减小了图像处理过程中的计算量,降低了资源消耗,缩短了处理时间。
图15是根据一示例性实施例示出的一种用于图像处理的服务器。参照图15,服务器1500包括处理组件1522,其进一步包括一个或多个处理器,以及由存储器1532所代表的存储器资源,用于存储可由处理组件1522的执行的指令,例如应用程序。存储器1532中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1522被配置为执行指令,以执行上述图像分割方法中服务器所执行的功能。
服务器1500还可以包括一个电源组件1526被配置为执行服务器1500的电源管理,一个有线或无线网络接口1550被配置为将服务器1500连接到网络,和一个输入输出(I/O)接口1558。服务器1500可以操作基于存储在存储器1532的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本发明实施例提供的服务器,通过计算原始图像中每个像素点分别与前景点和背景点之间的图像距离,获取前景点距离图像和背景点距离图像,由于距离图像可直接根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定,无需遍历探索所有可能路径的路径距离,因而减小了图像处理过程中的计算量,降低了资源消耗,缩短了处理时间。
本发明实施例提供了一种计算机可读存储介质,存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现图3所示的图像处理方法。
本发明实施例提供的计算机可读存储介质,通过计算原始图像中每个像素点分别与前景点和背景点之间的图像距离,获取前景点距离图像和背景点距离图像,由于距离图像可直接根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定,无需遍历探索所有可能路径的路径距离,因而减小了图像处理过程中的计算量,降低了资源消耗,缩短了处理时间。
本发明实施例提供了一种用于医学图像处理的系统,该系统包括处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,处理器加载并执行至少一条指令、至少一段程序、代码集或指令集,以实现医学图像识别及处理能力。
需要说明的是:上述实施例提供的图像处理装置在处理图像时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将图像处理装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的图像处理装置与图像处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (14)
1.一种图像处理方法,其特征在于,所述方法用于对乳腺核磁共振成像MRI图像进行处理,所述方法包括:
将待标注的乳腺MRI图像输入到第一分割模型中,输出初始肿瘤区域,所述第一分割模型用于从乳腺MRI图像中标注出初始肿瘤区域;
根据所述初始肿瘤区域,从所述待标注的乳腺MRI图像中确定感兴趣区域ROI区域,所述ROI区域为对所述待标注的乳腺MRI图像进行标注的有效区域,对于所述ROI区域以外的标注结果被视为无效;
在所述ROI区域上选取前景点和背景点,并基于所述待标注的乳腺MRI图像、所述前景点及所述背景点,获取前景点距离图像和背景点距离图像,所述图像距离根据像素点与前景点或背景点之间的坐标距离和灰度值距离确定;
将所述待标注的乳腺MRI图像、所述前景点距离图像及所述背景点距离图像输入到第二分割模型中,输出肿瘤区域,所述第二分割模型用于基于乳腺MRI图像、前景点距离图像及背景点距离图像,从乳腺MRI图像中标注出肿瘤区域。
2.根据权利要求1所述的方法,其特征在于,所述基于所述待标注的乳腺MRI图像、所述前景点及所述背景点,获取前景点距离图像和背景点距离图像,包括:
获取所述待标注的乳腺MRI图像中每个像素点与所述前景点之间的图像距离;
根据每个像素点与所述前景点之间的图像距离,获取所述前景点距离图像;
获取所述待标注的乳腺MRI图像中每个像素点与所述背景点之间的图像距离;
根据每个像素点与所述背景点之间的图像距离,获取所述背景点距离图像。
3.根据权利要求2所述的方法,其特征在于,所述获取所述待标注的乳腺MRI图像中每个像素点与所述前景点之间的图像距离,包括:
获取每个像素点和所述前景点在三维坐标系中的坐标;
根据每个像素点的坐标和所述前景点的坐标,获取每个像素点与所述前景点之间的坐标距离;
获取每个像素点和所述前景点的灰度值;
根据每个像素点的灰度值和所述前景点的灰度值,获取每个像素点与所述前景点之间的灰度距离;
根据每个像素点与所述前景点之间的坐标距离和灰度距离,获取所述待标注的乳腺MRI图像中每个像素点与所述前景点之间的图像距离。
4.根据权利要求2所述的方法,其特征在于,所述根据每个像素点与所述前景点之间的图像距离,获取所述前景点距离图像,包括:
通过将每个像素点与所述前景点之间的图像距离作为每个像素点的像素值,获取所述前景距离图像。
5.根据权利要求2所述的方法,其特征在于,所述获取所述待标注的乳腺MRI图像中每个像素点与所述背景点之间的图像距离,包括:
获取每个像素点和所述背景点在三维坐标系中的坐标;
根据每个像素点的坐标和所述背景点的坐标,获取每个像素点与所述背景点之间的坐标距离;
获取每个像素点和所述背景点的灰度值;
根据每个像素点的灰度值和所述背景点的灰度值,获取每个像素点与所述背景点之间的灰度距离;
根据每个像素点与所述背景点之间的坐标距离和灰度距离,获取所述待标注的乳腺MRI图像中每个像素点与所述背景点之间的图像距离。
6.根据权利要求2所述的方法,其特征在于,所述根据每个像素点与所述背景点之间的图像距离,获取所述背景点距离图像,包括:
通过将每个像素点与所述背景点之间的图像距离作为每个像素点的像素值,获取所述背景距离图像。
7.根据权利要求1所述的方法,其特征在于,所述将待标注的乳腺MRI图像输入到第一分割模型中,输出初始肿瘤区域之前,还包括:
获取多个病人图像和多个标注有肿瘤区域的标注图像,所述标注图像为对病人图像进行标注得到的图像,每个病人图像与每个标注图像一一对应;
根据所述多个病人图像和多个标注图像,对初始第一分割模型进行训练,得到所述第一分割模型。
8.根据权利要求1所述的方法,其特征在于,所述将所述待标注的乳腺MRI图像、所述前景点距离图像及所述背景点距离图像输入到第二分割模型中,输出肿瘤区域之前,还包括:
获取多个病人图像和多个标注有肿瘤区域的标注图像,所述标注图像为对病人图像进行标注得到的图像,每个病人图像与每个标注图像一一对应;
根据每个病人图像和对应的标注图像,获取训练样本前景点距离图像和训练样本背景点距离图像;
根据所述多个病人图像、多个标注图像、多个训练样本前景点距离图像及多个训练样本背景点距离图像,对初始第二分割模型进行训练,得到所述第二分割模型。
9.根据权利要求1所述的方法,其特征在于,所述将所述待标注的乳腺MRI图像、所述前景点距离图像及所述背景点距离图像输入到第二分割模型中,输出肿瘤区域之后,还包括:
获取修正后的肿瘤图像,所述修正后的肿瘤图像为人工对所述肿瘤区域进行修正得到的图像;
根据所述修正后的肿瘤图像,对所述第一分割模型和所述第二分割模型进行训练。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述方法应用于医学图像处理场景,所述医学图像处理场景至少包括医学图像标注场景、病理图像分析场景及医学肿瘤处理场景。
11.一种图像处理装置,其特征在于,所述装置用于对乳腺核磁共振成像MRI图像进行处理,所述装置包括:
处理模块,用于将待标注的乳腺MRI图像输入到第一分割模型中,输出初始肿瘤区域,所述第一分割模型用于从乳腺MRI图像中标注出初始肿瘤区域;
确定模块,用于根据所述初始肿瘤区域,从所述待标注的乳腺MRI图像中确定感兴趣区域ROI区域,所述ROI区域为对所述待标注的乳腺MRI图像进行标注的有效区域,对于所述ROI区域以外的标注结果被视为无效;
选取模块,用于在所述ROI区域上选取前景点和背景点;
获取模块,用于基于所述待标注的乳腺MRI图像、所述前景点及所述背景点,获取前景点距离图像和背景点距离图像;
所述处理模块,用于将所述待标注的乳腺MRI图像、所述前景点距离图像及所述背景点距离图像输入到第二分割模型中,输出肿瘤区域,所述第二分割模型用于基于乳腺MRI图像、前景点距离图像及背景点距离图像,从乳腺MRI图像中标注出肿瘤区域。
12.一种用于图像处理的服务器,其特征在于,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由所述处理器加载并执行以实现如权利要求1至10中任一项所述的图像处理方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由处理器加载并执行以实现如权利要求1至10中任一项所述的图像处理方法。
14.一种用于医学图像处理的系统,其特征在于,所述系统包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述处理器加载并执行所述至少一条指令、至少一段程序、代码集或指令集,以实现医学图像识别及处理能力。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910746265.9A CN110458830B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
PCT/CN2020/077772 WO2020182036A1 (zh) | 2019-03-08 | 2020-03-04 | 图像处理方法、装置、服务器及存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910746265.9A CN110458830B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
CN201910176668.4A CN109934812B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910176668.4A Division CN109934812B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110458830A true CN110458830A (zh) | 2019-11-15 |
CN110458830B CN110458830B (zh) | 2021-02-09 |
Family
ID=66986586
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910176668.4A Active CN109934812B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
CN201910746265.9A Active CN110458830B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910176668.4A Active CN109934812B (zh) | 2019-03-08 | 2019-03-08 | 图像处理方法、装置、服务器及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11715203B2 (zh) |
CN (2) | CN109934812B (zh) |
WO (1) | WO2020182036A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008655A (zh) * | 2019-11-28 | 2020-04-14 | 上海识装信息科技有限公司 | 辅助鉴定实物商品品牌真伪的方法、装置和电子设备 |
WO2020182036A1 (zh) * | 2019-03-08 | 2020-09-17 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、服务器及存储介质 |
WO2021164417A1 (zh) * | 2020-02-18 | 2021-08-26 | 广州柏视医疗科技有限公司 | 基于深度学习网络的三维影像的管状结构分割图断裂修复方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111768425B (zh) * | 2020-07-23 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及设备 |
CN112085696B (zh) * | 2020-07-24 | 2024-02-23 | 中国科学院深圳先进技术研究院 | 医学图像分割网络模型的训练方法、分割方法及相关设备 |
CN112003999A (zh) * | 2020-09-15 | 2020-11-27 | 东北大学 | 基于Unity 3D的三维虚拟现实合成算法 |
CN112766338B (zh) * | 2021-01-11 | 2023-06-16 | 明峰医疗系统股份有限公司 | 一种计算距离图像的方法、系统及计算机可读存储介质 |
CN114052704B (zh) * | 2021-11-25 | 2023-04-18 | 电子科技大学 | 一种基于功能网络图能量的帕金森病识别系统 |
CN114396911B (zh) * | 2021-12-21 | 2023-10-31 | 中汽创智科技有限公司 | 一种障碍物测距方法、装置、设备及存储介质 |
WO2023187623A1 (en) * | 2022-03-28 | 2023-10-05 | Shenzhen Escope Tech Co., Ltd. | A pre-processing method to generate a model for fluid-structure interaction simulation based on image data |
CN115170568B (zh) * | 2022-09-06 | 2022-12-02 | 北京肿瘤医院(北京大学肿瘤医院) | 直肠癌图像自动分割方法和系统及放化疗反应预测系统 |
CN117934855A (zh) * | 2024-03-22 | 2024-04-26 | 北京壹点灵动科技有限公司 | 医学图像分割方法和装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090226058A1 (en) * | 2008-03-05 | 2009-09-10 | Shenzhen Mindray Bio-Medical Electronics Co., Ltd. | Method and apparatus for tissue border detection using ultrasonic diagnostic images |
CN107292890A (zh) * | 2017-06-19 | 2017-10-24 | 北京理工大学 | 一种医学图像分割方法和装置 |
CN107464250A (zh) * | 2017-07-03 | 2017-12-12 | 深圳市第二人民医院 | 基于三维mri图像的乳腺肿瘤自动分割方法 |
CN108596935A (zh) * | 2018-04-24 | 2018-09-28 | 安徽锐捷信息科技有限公司 | 一种磁共振图像的分割方法及装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7426290B1 (en) * | 2003-07-02 | 2008-09-16 | The United States Of America As Represented By The Secretary Of The Navy | Nonparametric method for detection and identification of regions of concern in multidimensional intensity images |
US20090069666A1 (en) * | 2007-09-11 | 2009-03-12 | Siemens Medical Solutions Usa, Inc. | Correction of Intensity Inhomogeneity in Breast MRI |
JP5024962B2 (ja) * | 2008-07-11 | 2012-09-12 | 日本電信電話株式会社 | 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP4963492B2 (ja) * | 2008-08-08 | 2012-06-27 | トヨタ自動車株式会社 | 画像セグメンテーション方法、プログラムおよび装置 |
US8625897B2 (en) * | 2010-05-28 | 2014-01-07 | Microsoft Corporation | Foreground and background image segmentation |
PT2779089T (pt) * | 2010-07-30 | 2019-02-19 | Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud | Sistemas e métodos para segmentação e processamento de imagens de tecidos e extração de características dos mesmos para tratar, diagnosticar ou prever condições médicas |
CN103632361B (zh) * | 2012-08-20 | 2017-01-18 | 阿里巴巴集团控股有限公司 | 一种图像分割方法和系统 |
CN103544505B (zh) * | 2013-07-31 | 2016-12-28 | 天津大学 | 面向无人机航拍图像的船只识别系统及方法 |
CN105654458A (zh) * | 2014-11-14 | 2016-06-08 | 华为技术有限公司 | 图像处理的方法及装置 |
CN105005980B (zh) * | 2015-07-21 | 2019-02-01 | 深圳Tcl数字技术有限公司 | 图像处理方法及装置 |
CN106446896B (zh) * | 2015-08-04 | 2020-02-18 | 阿里巴巴集团控股有限公司 | 一种字符分割方法、装置及电子设备 |
CN105719294B (zh) * | 2016-01-21 | 2018-09-25 | 中南大学 | 一种乳腺癌病理学图像有丝分裂核自动分割方法 |
US10869644B2 (en) * | 2016-07-30 | 2020-12-22 | Shanghai United Imaging Healthcare Co., Ltd. | Method and system for extracting lower limb vasculature |
CN106504264B (zh) * | 2016-10-27 | 2019-09-20 | 锐捷网络股份有限公司 | 视频前景图像提取方法和装置 |
CN106651885B (zh) * | 2016-12-31 | 2019-09-24 | 中国农业大学 | 一种图像分割方法及装置 |
CN106874906B (zh) * | 2017-01-17 | 2023-02-28 | 腾讯科技(上海)有限公司 | 一种图片的二值化方法、装置及终端 |
CN106875444B (zh) * | 2017-01-19 | 2019-11-19 | 浙江大华技术股份有限公司 | 一种目标物定位方法及装置 |
CN108694719B (zh) * | 2017-04-05 | 2020-11-03 | 北京京东尚科信息技术有限公司 | 图像输出方法和装置 |
JP6955303B2 (ja) * | 2017-04-12 | 2021-10-27 | 富士フイルム株式会社 | 医用画像処理装置および方法並びにプログラム |
CN109360210B (zh) * | 2018-10-16 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、计算机设备及存储介质 |
CN109934812B (zh) * | 2019-03-08 | 2022-12-09 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、服务器及存储介质 |
US20220309610A1 (en) * | 2020-02-14 | 2022-09-29 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, smart microscope, readable storage medium and device |
CN111311578B (zh) * | 2020-02-17 | 2024-05-03 | 腾讯科技(深圳)有限公司 | 基于人工智能的对象分类方法以及装置、医学影像设备 |
CN111899252B (zh) * | 2020-08-06 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 基于人工智能的病理图像处理方法和装置 |
CN112330624A (zh) * | 2020-11-02 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 医学图像处理方法和装置 |
CN112330688A (zh) * | 2020-11-02 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置和计算机设备 |
CN113781387A (zh) * | 2021-05-26 | 2021-12-10 | 腾讯科技(深圳)有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
-
2019
- 2019-03-08 CN CN201910176668.4A patent/CN109934812B/zh active Active
- 2019-03-08 CN CN201910746265.9A patent/CN110458830B/zh active Active
-
2020
- 2020-03-04 WO PCT/CN2020/077772 patent/WO2020182036A1/zh active Application Filing
-
2021
- 2021-04-02 US US17/221,595 patent/US11715203B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090226058A1 (en) * | 2008-03-05 | 2009-09-10 | Shenzhen Mindray Bio-Medical Electronics Co., Ltd. | Method and apparatus for tissue border detection using ultrasonic diagnostic images |
CN107292890A (zh) * | 2017-06-19 | 2017-10-24 | 北京理工大学 | 一种医学图像分割方法和装置 |
CN107464250A (zh) * | 2017-07-03 | 2017-12-12 | 深圳市第二人民医院 | 基于三维mri图像的乳腺肿瘤自动分割方法 |
CN108596935A (zh) * | 2018-04-24 | 2018-09-28 | 安徽锐捷信息科技有限公司 | 一种磁共振图像的分割方法及装置 |
Non-Patent Citations (2)
Title |
---|
ROSAS-ROMERO R: "Segmentation of endocardium in ultrasound images based on sparse representation over learned redundant dictionaries", 《ENG APPL ARTIF INTEL》 * |
张绿川 等: "基于稀疏表示超像素分类的肿瘤超声图像分割算法", 《中国医学物理学杂志》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020182036A1 (zh) * | 2019-03-08 | 2020-09-17 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、服务器及存储介质 |
US11715203B2 (en) | 2019-03-08 | 2023-08-01 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, server, and storage medium |
CN111008655A (zh) * | 2019-11-28 | 2020-04-14 | 上海识装信息科技有限公司 | 辅助鉴定实物商品品牌真伪的方法、装置和电子设备 |
WO2021164417A1 (zh) * | 2020-02-18 | 2021-08-26 | 广州柏视医疗科技有限公司 | 基于深度学习网络的三维影像的管状结构分割图断裂修复方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110458830B (zh) | 2021-02-09 |
WO2020182036A1 (zh) | 2020-09-17 |
US20210225003A1 (en) | 2021-07-22 |
US11715203B2 (en) | 2023-08-01 |
CN109934812B (zh) | 2022-12-09 |
CN109934812A (zh) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458830A (zh) | 图像处理方法、装置、服务器及存储介质 | |
CN107622492A (zh) | 肺裂分割方法及系统 | |
WO2018119766A1 (zh) | 多模态图像处理系统及方法 | |
CN109712163B (zh) | 冠脉提取方法、装置、图像处理工作站和可读存储介质 | |
US10311585B2 (en) | Mechanism for advanced structure generation and editing | |
CN112861961B (zh) | 肺血管分类方法及装置、存储介质及电子设备 | |
JP6824845B2 (ja) | 画像処理システム、装置、方法およびプログラム | |
KR20180022607A (ko) | 다양한 측정으로부터의 의료 측정 데이터에 기초한 결과 데이터의 결정 | |
CN112529834A (zh) | 病理图像模式在3d图像数据中的空间分布 | |
CN109498046A (zh) | 基于核素图像与ct冠脉造影融合的心肌梗死定量评估方法 | |
KR102537214B1 (ko) | 자기 공명 이미지들에서 정중시상 평면을 결정하기 위한 방법 및 장치 | |
CN113889238B (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
CN109658425B (zh) | 一种肺叶分割方法、装置、计算机设备及存储介质 | |
CN116091466A (zh) | 图像分析方法、计算机设备和存储介质 | |
CN112802036A (zh) | 一种三维医学图像靶区分割的方法、系统和装置 | |
CN111899273A (zh) | 图像分割方法、计算机设备和存储介质 | |
CN109410170B (zh) | 图像数据处理方法、装置及设备 | |
Dickson et al. | A Dual Channel Multiscale Convolution U-Net Methodfor Liver Tumor Segmentation from Abdomen CT Images | |
JP2017189394A (ja) | 情報処理装置および情報処理システム | |
US20240087133A1 (en) | Method of refining tissue specimen image, and computing system performing same | |
JP2012085833A (ja) | 3次元医用画像データの画像処理システム、その画像処理方法及びプログラム | |
CN113393445B (zh) | 乳腺癌影像确定方法及系统 | |
EP3989172A1 (en) | Method for use in generating a computer-based visualization of 3d medical image data | |
CN109461143A (zh) | 图像显示方法、装置、计算机设备和存储介质 | |
CN114419032A (zh) | 心脏左心室的心肌内膜和/或心肌外膜的分割方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |