CN107464230B - 图像处理方法及装置 - Google Patents
图像处理方法及装置 Download PDFInfo
- Publication number
- CN107464230B CN107464230B CN201710730705.2A CN201710730705A CN107464230B CN 107464230 B CN107464230 B CN 107464230B CN 201710730705 A CN201710730705 A CN 201710730705A CN 107464230 B CN107464230 B CN 107464230B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- pixel value
- matrix
- lesion area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 22
- 230000003902 lesion Effects 0.000 claims abstract description 147
- 238000013136 deep learning model Methods 0.000 claims abstract description 47
- 238000003745 diagnosis Methods 0.000 claims abstract description 45
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 20
- 238000003708 edge detection Methods 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 101
- 238000012545 processing Methods 0.000 claims description 32
- 230000004927 fusion Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 15
- 210000004209 hair Anatomy 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 5
- 239000013589 supplement Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 19
- 230000006870 function Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009469 supplementation Effects 0.000 description 2
- 241000270295 Serpentes Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 208000017520 skin disease Diseases 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本发明提出一种图像处理方法及装置,其中,方法包括:对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像;将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息;根据位置信息和图像边缘检测算法,从第一图像中获取包括最小病变区域的原始图和掩码图;将掩码图和原始图进行融合,得到最小病变区域对应的目标图像;其中,目标图像为用于对最小病变区域进行诊断的图像,目标图像中的像素点与原始图和掩码图中的像素点一一对应。该方法实现了从拍摄图像中准确地定位出最小病变区域,并提取出最小病变区域的图像,降低了人工成本,解决了现有的人工定位患病区域的方法,存在人工成本高的问题。
Description
技术领域
本发明涉及医学图像处理领域,尤其涉及一种图像处理方法及装置。
背景技术
随着医疗技术的发展,医院对患者的病症确诊率越来越高。目前,对于皮肤病患者,主要是通过对待诊断患者的疑似患病区域及周围区域进行拍摄,然后由经验丰富的医生对拍摄图像中的疑似患病区域进行人工定位,最后基于人工定位结果输入到机器学习对疑似患病区域进行确诊。
但是,传统的定位疑似患病区域的方法,人工定位人工成本较高。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种图像处理方法,以实现精确地对皮肤最小病变区域进行定位,并提取最小病变区域对应的图像的目的,用于解决现有的人工定位患病区域的方法,存在人工成本高的问题。
本发明的第二个目的在于提出一种图像处理装置。
本发明的第三个目的在于提出一种计算机设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本发明第一方面实施例提出了一种图像处理方法,包括:
对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像;
将所述第一图像输入到深度学习模型中进行学习,获取最小病变区域在所述第一图像中的位置信息;
根据所述位置信息和图像边缘检测算法,从所述第一图像中获取包括所述最小病变区域的原始图和掩码图;
将所述掩码图和所述原始图进行融合,得到所述最小病变区域对应的目标图像;其中,所述目标图像为用于对所述最小病变区域进行诊断的图像,所述目标图像中的像素点与所述原始图和所述掩码图中的像素点一一对应。
作为第一方面实施例一种可选的实现方式,所述将所述掩码图和所述原始图进行融合,得到所述最小病变区域对应的目标图像,包括:
获取所述掩码图的每个像素点的第一像素值和所述原始图中每个像素点的第二像素值;
将所述掩码图中的像素点的所述第一像素值,与所述原始图中对应像素点的所述第二像素值进行融合,获取到所述像素点的目标像素值;
根据所有像素点的所述目标像素值,形成所述最小病变区域的所述目标图像。
作为第一方面实施例一种可选的实现方式,所述将所述掩码图中的像素点的所述第一像素值,与所述原始图中对应像素点的所述第二像素值进行融合,获取到所述像素点的目标像素值,包括:
针对每个像素点,利用所述第一像素值与最大像素值做比值,将所述比值与所述第二像素值相乘,得到第一数据;
获取所述最大像素值与所述第一像素值的差值;
将所述第一数据与所述差值相加,得到所述像素点的所述目标像素值。
所述获取所述掩码图的每个像素点的第一像素值和所述原始图中每个像素点的第二像素值,包括:
作为第一方面实施例一种可选的实现方式,提取所述掩码图中每个像素点的所述第一像素值 ,利用每个像素点的所述第一像素值,构成所述掩码图的第一矩阵;其中,每个像素点的所述第一像素值在所述第一矩阵中的位置是由所述像素点在所述掩码图中的位置确定的;
提取所述原始图中每个像素点的第二像素值,利用每个像素点的所述第二像素值,构成所述原始图的第二矩阵;其中,每个像素点的所述第二像素值在所述第二矩阵中的位置是由所述像素点在所述原始图中的位置确定的;
所述将所述掩码图中的像素点的所述第一像素值,与所述原始图中对应像素点的所述第二像素值进行融合,获取到所述像素点的目标像素值,包括:
将所述第一矩阵与最大像素值相除,得到第三矩阵;
将所述第三矩阵中每个像素点的像素值与所述第二矩阵中对应像素点的所述第二像素值相乘,得到第四矩阵;
利用所述最大像素值分别与所述第一矩阵中每个像素点的所述第一像素值相减,得到第五矩阵;
将所述第四矩阵和所述第五矩阵相加,得到第六矩阵,其中,所述第六矩阵中每个像素点的像素值为所述像素点的所述目标像素值。
作为第一方面实施例一种可选的实现方式,所述将所述掩码图和所述原始图进行融合,得到所述最小病变区域对应的目标图像之后,还包括:
将所述目标图像输入到诊断模型中进行学习,对所述目标图像中的所述最小病变区域进行诊断以获取诊断结果。
作为第一方面实施例一种可选的实现方式,所述对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像之前,还包括:
获取已往诊断过患者的图像作为对构建的初始深度学习模型进行训练的样本图像;
获取所述样本图像的标注数据,所述标注数据包括所述最小病变区域在所述样本图像中的中心坐标和半径值,所述样本图像的中心坐标和半径值;
将所述样本图像和所述标注数据输入到所述初始深度学习模型中进行训练,形成用于学习的所述深度学习模型。
作为第一方面实施例一种可选的实现方式,所述将所述样本图像和所述标注数据输入到所述初始深度学习模型中进行训练,形成用于学习的所述深度学习模型之前,还包括:
随机抽出预设比例的样本图像进行毛发补充处理;和或,
随意抽出预设比例的样本图像进行颜色增强处理。
本发明实施例的图像处理方法,通过对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息,根据位置信息和图像边缘检测算法,从第一图像中获取从包括最小病变区域的原始图和掩码图,将掩码图和原始图进行融合,得到最小病变区域对应的目标图像,其中,目标图像为用于对最小病变区域进行诊断的图像,目标图像中的像素点与原始图和所述掩码图中的像素点一一对应。本实施例中,通过深度学习模型获得最小病变区域在拍摄图像中的位置信息,根据位置信息,可以确定最小病变区域的位置,结合最小病变区域的位置,通过图像边缘检测算法确定最小病变区域的边界,获取包括最小病变区域的原始图和掩码图,将原始图和掩码图进行融合,可将原始图像中的最小病变区域与非最小病变区域区分开,获得仅包含最小病变区域的图像,实现了从拍摄图像中准确地定位出最小病变区域,并提取出最小病变区域的图像,降低了人工成本,解决了现有的人工定位患病区域的方法,存在人工成本高的问题。
为达上述目的,本发明第二方面实施例提出了一种图像处理装置,包括:
第一获取模块,用于对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像;
机器学习模块,用于将所述第一图像输入到深度学习模型中进行学习,获取最小病变区域在所述第一图像中的位置信息;
提取模块,用于根据所述位置信息和图像边缘检测算法,从所述第一图像中获取包括所述最小病变区域的原始图和掩码图;
融合模块,用于将所述掩码图和所述原始图进行融合,得到所述最小病变区域对应的目标图像;其中,所述目标图像为用于对所述最小病变区域进行诊断的图像,所述目标图像中的像素点与所述原始图和所述掩码图中的像素点一一对应。
作为第二方面实施例一种可选的实现方式,所述融合模块包括:
获取单元,用于获取所述掩码图的每个像素点的第一像素值和所述原始图中每个像素点的第二像素值;
融合单元,用于将所述掩码图中的像素点的所述第一像素值,与所述原始图中对应像素点的所述第二像素值进行融合,获取到所述像素点的目标像素值;
形成单元,用于根据所有像素点的所述目标像素值,形成所述最小病变区域的所述目标图像。
作为第二方面实施例一种可选的实现方式,所述融合单元还用于:
针对每个像素点,利用所述第一像素值与最大像素值做比值,将所述比值与所述第二像素值相乘,得到第一数据;
获取所述最大像素值与所述第一像素值的差值;
将所述第一数据与所述差值相加,得到所述像素点的所述目标像素值。
作为第二方面实施例一种可选的实现方式,所述获取单元,还用于:
提取所述掩码图中每个像素点的所述第一像素值,利用每个像素点的所述第一像素值,构成所述掩码图的第一矩阵;其中,每个像素点的所述第一像素值在所述第一矩阵中的位置是由所述像素点在所述掩码图中的位置确定的;
提取所述原始图中每个像素点的第二像素值,利用每个像素点的所述第二像素值,构成所述原始图的第二矩阵;其中,每个像素点的所述第二像素值在所述第二矩阵中的位置是由所述像素点在所述原始图中的位置确定的;
所述融合单元,还用于:
将所述第一矩阵与最大像素值相除,得到第三矩阵;
将所述第三矩阵中每个像素点的像素值与所述第二矩阵中对应像素点的所述第二像素值相乘,得到第四矩阵;
利用所述最大像素值分别与所述第一矩阵中每个像素点的所述第一像素值相减,得到第五矩阵;
将所述第四矩阵和所述第五矩阵相加,得到第六矩阵,其中,所述第六矩阵中每个像素点的像素值为所述像素点的所述目标像素值。
作为第二方面实施例一种可选的实现方式,所述图像处理装置还包括:
诊断模块,用于将所述目标图像输入到诊断模型中进行学习,对所述目标图像中的所述最小病变区域进行诊断以获取诊断结果。
作为第二方面实施例一种可选的实现方式,所述图像处理装置还包括:
第二获取模块,用于获取已往诊断过患者的图像作为对构建的初始深度学习模型进行训练的样本图像;
第三获取模块,用于获取所述样本图像的标注数据,所述标注数据包括所述最小病变区域在所述样本图像中的中心坐标和半径值,所述样本图像的中心坐标和半径值;
训练模块,用于将所述样本图像和所述标注数据输入到所述初始深度学习模型中进行训练,形成用于学习的所述深度学习模型。
作为第二方面实施例一种可选的实现方式,图像处理装置还包括:
处理模块,用于随机抽出预设比例的样本图像进行毛发补充处理;和或,
随意抽出预设比例的样本图像进行颜色增强处理。
本发明实施例的图像处理装置,通过对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息,根据位置信息和图像边缘检测算法,从第一图像中获取从包括最小病变区域的原始图和掩码图,将掩码图和原始图进行融合,得到最小病变区域对应的目标图像,其中,目标图像为用于对最小病变区域进行诊断的图像,目标图像中的像素点与原始图和掩码图中的像素点一一对应。本实施例中,通过深度学习模型获得最小病变区域在拍摄图像中的位置信息,根据位置信息,可以确定最小病变区域的位置,结合最小病变区域的位置,通过图像边缘检测算法确定最小病变区域的边界,并获取包括最小病变区域的原始图和掩码图,将原始图和掩码图进行融合,可将原始图像中的最小病变区域与非最小病变区域区分开,获得仅包含最小病变区域的图像,实现了从拍摄图像中准确地定位出最小病变区域,并提取出最小病变区域的图像,降低了人工成本,解决了现有的人工定位患病区域的方法,存在人工成本高的问题。
为达上述目的,本发明第三方面实施例提出了一种计算机设备,包括处理器和存储器;其中,所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如第一方面实施例所述的图像处理方法。
为达上述目的,本发明第四方面实施例提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面实施例所述的图像处理方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例提供的一种图像处理方法的流程示意图;
图2为本发明实施例提供的一个包括最小病变区域的掩码图;
图3为本发明实施例提供的一个最小病变区域的图像;
图4为本发明实施例提供的另一种图像处理方法的流程示意图;
图5为本发明实施例提供的又一种图像处理方法的流程示意图;
图6为本发明实施例提供的一个样本图像的标注示意图;
图7为本发明实施例提供的一种图像处理装置的结构示意图;
图8为本发明实施例提供的另一种图像处理装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的图像处理方法及装置。
图1为本发明实施例提供的一种图像处理方法的流程示意图。
如图1所示,该图像处理方法包括以下步骤:
S101,对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像。
本实施例中,可将待诊断患者需要诊断的皮肤部位放置在皮肤镜的拍摄区域,通过皮肤镜进行拍摄,获得用于诊断的第一图像。
当然,也可以利用手机、掌上电脑等终端上的摄像头,拍摄需要诊断的皮肤部位,本发明对此不作限制。
S102,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息。
本实施例中,将获得的第一图像输入到深度学习模型中进行学习。具体地,首先,获取第一图像的尺寸,如图像的长度和宽度,将第一图像的尺寸与深度学习模型中的标准尺寸进行对比。当第一图像的尺寸大于标准尺寸时,根据标准尺寸对第一图像进行裁剪或者缩小。当第一图像的尺寸小于标准尺寸时,将第一图像进行放大。
在对第一图像的尺寸进行处理后,对最小病变区域的位置进行学习,并输出最小病变区域在第一图像中的位置信息。其中,位置信息可包括最小病变区域的中心坐标、半径值等。从而,根据中心坐标和半径值,可以得到包括最小病变区域的圆形区域。
本实施例中,通过深度学习模型,从第一图像中获取包括最小病变区域的圆形区域,实现了缩小定位最小病变区域的范围的目的。并且,由于经验丰富的医生资源有限,可以通过深度学习模型提高整体定位最小病变区域的精度。
S103,根据位置信息和图像边缘检测算法,从第一图像中获取包括最小病变区域的原始图和掩码图。
本实施例中,根据位置信息中的中心坐标和半径值,可以获得包括最小病变区域的圆形区域。然后,根据图像边缘检测算法,如snake算法、gac算法、level set算法等,从圆形区域中寻找最小病变区域的边界,并从第一图像中获取包括最小病变区域的圆形区域的原始图和掩码图。例如,图2是某一包括最小病变区域的掩码图,其中,图2中的白色部分是最小病变区域对应的掩码图。
S104,将掩码图和原始图进行融合,得到最小病变区域对应的目标图像。
在获取包括最小病变区域的原始图和掩码图后,将掩码图和原始图进行位与操作融合处理,可以从圆形区域中获取仅包含最小病变区域的目标图像。
其中,目标图像中仅包括最小病变区域的图像,不包括非最小病变区域的图像,目标图像为用于对最小病变区域进行诊断的图像,并且目标图像中的像素点与原始图和掩码图中的像素点一一对应。如图3是根据图2所示的掩码图,得到的最小病变区域的图像。
下面通过一个实施例,介绍如何通过掩码图中像素点的像素值与原始图中的像素点的像素值,得到最小病变区域的目标图像。
如图4所示,该图像处理方法包括以下步骤:
S401,对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像。
S402,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息。
S403,根据位置信息和图像边缘检测算法,从第一图像中获取包括最小病变区域的原始图和掩码图。
步骤S401-S403与前述实施例中的步骤S101-S103类似,在此不再赘述。
S404,获取掩码图的每个像素点的第一像素值和原始图中每个像素点的第二像素值。
在获取掩码图和原始图后,分别获取掩码图中的每个像素点的第一像素值,和原始图中每个像素点的第二像素值。
需要说明的是,本实施例中,掩码图和原始图中像素点的个数相同,且像素点位置对应。
S405,将掩码图中的像素点的第一像素值,与原始图中对应像素点的第二像素值进行融合,获取到像素点的目标像素值。
本实施例中,针对每个像素点,将第一像素值与最大像素值做比值,并将比值与原始图中对应像素点的第二像素值相乘,得到第一数据。然后,将最大像素值与第一像素值做差值。最后,将第一数据与差值相加得到的值为像素点的目标像素值。如公式(1)所示。
其中,dpixel为像素点的目标像素值,amask为掩码图中像素点的第一像素值,max为最大像素值255,borg为原始图中对应像素点的第二像素值。由此,为第一数据,max-amask表示最大像素值与第一像素值做差值。
S406,根据所有像素点的目标像素值,形成最小病变区域的目标图像。
在根据公式(1)获取每个像素点的目标像素值后,将所有像素点的目标像素值,放在与原始图或者掩码图中的像素点对应的位置,可得到仅包含最小病变区域的目标图像。可见,目标图像中的像素点与原始图和掩码图中的像素点一一对应。
本实施例中,将掩码图中每个像素点的像素值与原始图中对应像素点的像素值进行融合,得到像素点的目标像素值,从而可以提取到最小病变区域的图像。
在对待诊断患者需要诊断的皮肤部位进行扫描,获取用于诊断的第一图像之前,可先对深度学习模型进行训练,下面通过另一个实施例进行说明。
如图5所示,该图像处理方法包括以下步骤:
S501,获取已往诊断过患者的图像作为对构建的初始深度学习模型进行训练的样本图像。
本实施例中,可从医院获取已往诊断过的患者的皮肤部位的图像作为样本图像,来训练初始深度学习模型。其中深度模型可以是CNN(Convolutional Neural Network,卷积神经网络)模型。
S502,获取样本图像的标注数据。
在获取样本图像后,可通过人工标注的方式,标注出最小病变区域在样本图像中的中心坐标和半径值,以及样本图像的中心坐标和半径值,从而获得样本图像的标注数据。其中,标注数据包括最小病变区域在样本图像中的中心坐标和半径值,样本图像的中心坐标和半径值。
如图6所示,人工标注某一个样本图像的中心坐标为(x1,y1)、半径值为r1,最小病变区域在样本图像中的中心坐标为(x2,y2),半径值为r2。
S503,将样本图像和标注数据输入到初始深度学习模型中进行训练,形成用于学习的深度学习模型。
本实施例中,将样本图像和标注数据输入到初始深度学习模型中进行训练,不断优化深度学习模型中的学习参数,形成用于学习的深度学习模型。其中,深度学习模型的输入为图像,输出为最小病变区域的中心坐标和半径值。
S504,对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像。
S505,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息。
S506,根据位置信息和图像边缘检测算法,从第一图像中获取包括最小病变区域的原始图和掩码图。
步骤S504-S506与前述实施例中的步骤S101-S103类似,故在此不再赘述。
S507,获取掩码图的第一矩阵和原始图的第二矩阵。
本实施例中,获取掩码图中每个像素点的第一像素值,并利用每个像素点的第一像素值,构成掩码图的第一矩阵。其中,每个像素点的第一像素值在第一矩阵中的位置是由像素点在掩码图中的位置确定的。
作为一个示例,可将掩码图中第一行像素点的第一像素值作为第一矩阵的第一行元素,掩码图中第二行像素点的第一像素值作为第一矩阵的第二行元素,也就是掩码图中像素点的行数与列数,与第一矩阵的行数与列数相同。
作为另一个示例,可将掩码图中第一行像素点的第一像素值作为第一矩阵的第一列元素,掩码图中第二行像素点的第一像素值作为第一矩阵的第二列元素。从而,掩码图中像素点的行数与列数,与第一矩阵的列数与行数对应。
同理,提取原始图中每个像素点的第二像素值,利用每个像素点的第二像素值,构成原始图的第二矩阵。其中,每个像素点的第二像素值在第二矩阵中的位置是由像素点在原始图中的位置确定的。
S508,根据第一矩阵和第二矩阵获得像素点的目标像素值。
本实施例中,可将第一矩阵与最大像素值相除,也就是第一矩阵中的每个第一像素值与最大像素值相除,得到第三矩阵。然后,将第三矩阵中每个像素点的像素值与第二矩阵中对应像素点的第二像素值相乘,得到第四矩阵。再利用最大像素值分别与第一矩阵中每个像素点的第一像素值相减,得到第五矩阵。最后,将第四矩阵与第五矩阵相加,得到第六矩阵。其中,第六矩阵中每个像素点的像素值为像素点的目标像素值。如公式(2)和(3)所示。
Dpixel=D+(MAX-Amask) (3)
其中,C为第三矩阵,Amask为掩码图的第一矩阵,max为最大像素值255。D为第四矩阵,是由第三矩阵C中每个像素点的像素值与第二矩阵Borg中对应像素点的第二像素值相乘得到的;矩阵MAX中每个元素的值均为最大像素值,且矩阵的行数与列数,与第一矩阵Amask的行数与列数相同;MAX-Amask得到第五矩阵;Dpixel表示第六矩阵。
需要注意的是,上述实施例中第四矩阵的行数与列数与第一矩阵的行数与列数相同。
本实施例中,通过由掩码图和原始图的像素值形成的矩阵,来计算像素点的目标像素值,提高了计算速度。
S509,根据所有像素点的目标像素值,形成最小病变区域的目标图像。
在根据步骤S508计算得到第六矩阵后,将第六矩阵中每个像素点的目标像素值,放在与原始图或者掩码图中像素点对应的位置,可形成最小病变区域的目标图像。
S510,将目标图像输入到诊断模型中进行学习,对目标图像中的最小病变区域进行诊断以获取诊断结果。
本实施例中,首先可以采集已经诊断过的最小病变区域的图像作为样本图像,以及基于对该图像的诊断结果,然后利用样本图像和对应的诊断结果,对构建的诊断模型进行训练,使得诊断模型收敛或者误差稳定在允许的误差范围内,得到一个训练后的诊断模型。在得到训练好的诊断模型后,就可以利用训练好的诊断模型对患者进行诊断。
在获得最小病变区域的目标图像后,将目标图像输入到预先训练好的诊断模型中,诊断模型对目标图像中的最小病变区域进行诊断,并输出诊断结果。
本实施例中,将最小病变区域的图像作为用于诊断的图像输入到诊断模型中进行诊断,提高了诊断结果的准确性。
进一步地,为了提高深度学习模型输出结果的准确性,还可以在样本图像和标注数据输入到深度学习模型之前,对样本图像进行处理。
本实施例中,可随机抽取预设比例的样本图像进行毛发补充处理。例如,可从样本图像中抽取四分之一数量的样本图像进行毛发补充处理。具体地,可以使用图像处理方法模拟毛发的绘制,并以一定概率随机补充至样本图像中的皮肤区域。
另外,也可随机抽取预设比例的样本图像进行颜色增强处理。其中,颜色增强包括色彩的饱和度、亮度和对比度等方面。
本实施例中,对预设比例的样本图像采取毛发补充处理或者颜色增强处理,或者两种处理方式都采取,以增加样本图像的多样性,提高训练出的深度学习模型输出结果的准确性。
本实施例中,通过深度学习模型获得最小病变区域在拍摄图像中的中心坐标和半径值,根据中心坐标和半径值,可以得到最小病变区域所在的圆形区域,然后通过图像边缘检测算法确定最小病变区域的边界,并得到圆形区域的原始图和掩码图,将原始图和掩码图进行融合,即可从圆形区域的原始图中获得仅包含最小病变区域的图像,实现了从拍摄图像中准确地定位出最小病变区域,并提取出最小病变区域的图像,降低了人工成本。
本发明实施例的图像处理方法,通过对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息,根据位置信息和图像边缘检测算法,从第一图像中获取从包括最小病变区域的原始图和掩码图,将掩码图和原始图进行融合,得到最小病变区域对应的目标图像,其中,目标图像为用于对最小病变区域进行诊断的图像,目标图像中的像素点与原始图和掩码图中的像素点一一对应。本实施例中,通过深度学习模型获得最小病变区域在拍摄图像中的位置信息,根据位置信息,可以确定最小病变区域的位置,结合最小病变区域的位置,通过图像边缘检测算法确定最小病变区域的边界,获取包括最小病变区域的原始图和掩码图,将原始图和掩码图进行融合,可将原始图像中的最小病变区域与非最小病变区域区分开,获得仅包含最小病变区域的图像,实现了从拍摄图像中准确地定位出最小病变区域,并提取出最小病变区域的图像,降低了人工成本,解决了现有的人工定位患病区域的方法,存在人工成本高的问题。
为了实现上述实施例,本发明实施例还提出一种图像处理装置。
如图7所示,该图像处理装置包括:第一获取模块710、机器学习模块720、提取模块730、融合模块740。
第一获取模块710用于对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像。
机器学习模块720用于将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息。
提取模块730用于根据位置信息和图像边缘检测算法,从第一图像中获取包括最小病变区域的原始图和掩码图。
融合模块740用于将掩码图和原始图进行融合,得到最小病变区域对应的目标图像,其中,目标图像为用于对最小病变区域进行诊断的图像,目标图像中的像素点与原始图和所述掩码图中的像素点一一对应。
在本实施例一种可能的实现方式中,如图8所示,融合模块740包括:获取单元741、融合单元742、形成单元743。
获取单元741用于获取掩码图的每个像素点的第一像素值和原始图中每个像素点的第二像素值。
融合单元742用于将掩码图中的像素点的第一像素值,与原始图中对应像素点的第二像素值进行融合,获取到像素点的目标像素值。
形成单元743用于根据所有像素点的目标像素值,形成最小病变区域的目标图像。
在本实施例一种可能的实现方式中,融合单元742还用于:
针对每个像素点,利用第一像素值与最大像素值做比值,将比值与第二像素值相乘,得到第一数据;
获取最大像素值与第一像素值的差值;
将第一数据与差值相加,得到像素点的目标像素值。
在本实施例一种可能的实现方式中,获取单元741还用于:
提取掩码图中每个像素点的第一像素值,利用每个像素点的第一像素值,构成掩码图的第一矩阵;其中,每个像素点的第一像素值在第一矩阵中的位置是由像素点在掩码图中的位置确定的;
提取原始图中每个像素点的第二像素值,利用每个像素点的第二像素值,构成原始图的第二矩阵;其中,每个像素点的第二像素值在第二矩阵中的位置是由像素点在原始图中的位置确定的;
融合单元742还用于:
将第一矩阵与最大像素值相除,得到第三矩阵;
将第三矩阵中每个像素点的像素值与第二矩阵中对应像素点的第二像素值相乘,得到第四矩阵;
利用最大像素值分别与第一矩阵中每个像素点的第一像素值相减,得到第五矩阵;
将第四矩阵和第五矩阵相加,得到第六矩阵,其中,第六矩阵中每个像素点的像素值为像素点的目标像素值。
在本实施例一种可能的实现方式中,图像处理装置还包括:
诊断模块,用于将目标图像输入到诊断模型中进行学习,对目标图像中的最小病变区域进行诊断以获取诊断结果。
在本实施例一种可能的实现方式中,图像处理装置还包括:
第二获取模块,用于获取已往诊断过患者的图像作为对构建的初始深度学习模型进行训练的样本图像;
第三获取模块,用于获取样本图像的标注数据,标注数据包括最小病变区域在样本图像中的中心坐标和半径值,样本图像的中心坐标和半径值;
训练模块,用于将样本图像和标注数据输入到初始深度学习模型中进行训练,形成用于学习的深度学习模型。
在本实施例一种可能的实现方式中,图像处理装置还包括:
处理模块,用于随机抽出预设比例的样本图像进行毛发补充处理;和或,
随意抽出预设比例的样本图像进行颜色增强处理。
需要说明的是,前述对图像处理方法实施例的解释说明,也适用于本实施例的图像处理装置,在此不再赘述。
本发明实施例的图像处理装置,通过对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像,将第一图像输入到深度学习模型中进行学习,获取最小病变区域在第一图像中的位置信息,从第一图像中获取从包括最小病变区域的原始图和掩码图,将掩码图和原始图进行融合,得到最小病变区域对应的目标图像,其中,目标图像为用于对最小病变区域进行诊断的图像,目标图像中的像素点与原始图和掩码图中的像素点一一对应。本实施例中,通过深度学习模型获得最小病变区域在拍摄图像中的位置信息,根据位置信息,可以确定最小病变区域的位置,结合最小病变区域的位置,通过图像边缘检测算法确定最小病变区域的边界,并获取包括最小病变区域的原始图和掩码图,将原始图和掩码图进行融合,可将原始图像中的最小病变区域与非最小病变区域区分开,获得仅包含最小病变区域的图像,实现了从拍摄图像中准确地定位出最小病变区域,并提取出最小病变区域的图像,降低了人工成本,解决了现有的人工定位患病区域的方法,存在人工成本高的问题。
为了实现上述实施例,本发明实施例还提出了一种计算机设备,包括处理器和存储器;其中,处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于实现如前述实施例所述的图像处理方法。
为了实现上述实施例,本发明实施例还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如前述实施例所述的图像处理方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (4)
1.一种图像处理装置,其特征在于,包括:
第一获取模块,用于对待诊断患者需要诊断的皮肤部位进行扫描,形成用于诊断的第一图像;
机器学习模块,用于将所述第一图像输入到深度学习模型中进行学习,获取最小病变区域在所述第一图像中的位置信息;
提取模块,用于根据所述位置信息和图像边缘检测算法,从所述第一图像中获取包括所述最小病变区域的原始图和掩码图;
融合模块,用于将所述掩码图和所述原始图进行融合,得到所述最小病变区域对应的目标图像;其中,所述目标图像为用于对所述最小病变区域进行诊断的图像,所述目标图像中的像素点与所述原始图和所述掩码图中的像素点一一对应;
所述融合模块,包括:获取单元用于获取所述掩码图的每个像素点的第一像素值和所述原始图中每个像素点的第二像素值;融合单元用于将所述掩码图中的像素点的所述第一像素值,与所述原始图中对应像素点的所述第二像素值进行融合,获取到所述像素点的目标像素值;形成单元用于根据所有像素点的所述目标像素值,形成所述最小病变区域的所述目标图像;
所述融合单元具体用于:针对每个像素点,利用所述第一像素值与最大像素值做比值,将所述比值与所述第二像素值相乘,得到第一数据;获取所述最大像素值与所述第一像素值的差值;将所述第一数据与所述差值相加,得到所述像素点的所述目标像素值;或者,
所述获取单元具体用于:提取所述掩码图中每个像素点的所述第一像素值,利用每个像素点的所述第一像素值,构成所述掩码图的第一矩阵;其中,每个像素点的所述第一像素值在所述第一矩阵中的位置是由所述像素点在所述掩码图中的位置确定的;提取所述原始图中每个像素点的第二像素值,利用每个像素点的所述第二像素值,构成所述原始图的第二矩阵;其中,每个像素点的所述第二像素值在所述第二矩阵中的位置是由所述像素点在所述原始图中的位置确定的;所述融合单元具体用于:将所述第一矩阵与最大像素值相除,得到第三矩阵;将所述第三矩阵中每个像素点的像素值与所述第二矩阵中对应像素点的所述第二像素值相乘,得到第四矩阵;利用所述最大像素值分别与所述第一矩阵中每个像素点的所述第一像素值相减,得到第五矩阵;将所述第四矩阵和所述第五矩阵相加,得到第六矩阵,其中,所述第六矩阵中每个像素点的像素值为所述像素点的所述目标像素值。
2.根据权利要求1所述的装置,其特征在于,还包括:
诊断模块,用于将所述目标图像输入到诊断模型中进行学习,对所述目标图像中的所述最小病变区域进行诊断以获取诊断结果。
3.根据权利要求1所述的装置,其特征在于,还包括:
第二获取模块,用于获取已往诊断过患者的图像作为对构建的初始深度学习模型进行训练的样本图像;
第三获取模块,用于获取所述样本图像的标注数据,所述标注数据包括所述最小病变区域在所述样本图像中的中心坐标和半径值,所述样本图像的中心坐标和半径值;
训练模块,用于将所述样本图像和所述标注数据输入到所述初始深度学习模型中进行训练,形成用于学习的所述深度学习模型。
4.根据权利要求3所述的装置,其特征在于,还包括:
处理模块,用于随机抽出预设比例的样本图像进行毛发补充处理;和或,随意抽出预设比例的样本图像进行颜色增强处理。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710730705.2A CN107464230B (zh) | 2017-08-23 | 2017-08-23 | 图像处理方法及装置 |
US16/619,771 US11170482B2 (en) | 2017-08-23 | 2018-08-20 | Image processing method and device |
PCT/CN2018/101242 WO2019037676A1 (zh) | 2017-08-23 | 2018-08-20 | 图像处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710730705.2A CN107464230B (zh) | 2017-08-23 | 2017-08-23 | 图像处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107464230A CN107464230A (zh) | 2017-12-12 |
CN107464230B true CN107464230B (zh) | 2020-05-08 |
Family
ID=60550333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710730705.2A Active CN107464230B (zh) | 2017-08-23 | 2017-08-23 | 图像处理方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11170482B2 (zh) |
CN (1) | CN107464230B (zh) |
WO (1) | WO2019037676A1 (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464230B (zh) * | 2017-08-23 | 2020-05-08 | 京东方科技集团股份有限公司 | 图像处理方法及装置 |
CN109754402B (zh) | 2018-03-15 | 2021-11-19 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置以及存储介质 |
CN108389172B (zh) * | 2018-03-21 | 2020-12-18 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN109064397B (zh) * | 2018-07-04 | 2023-08-01 | 广州希脉创新科技有限公司 | 一种基于摄像耳机的图像拼接方法及系统 |
CN108985302A (zh) * | 2018-07-13 | 2018-12-11 | 东软集团股份有限公司 | 一种皮肤镜图像处理方法、装置及设备 |
CN109247914A (zh) * | 2018-08-29 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 病症数据获取方法和装置 |
CN110338835B (zh) * | 2019-07-02 | 2023-04-18 | 深圳安科高技术股份有限公司 | 一种智能扫描立体监测方法及系统 |
CN110660011B (zh) * | 2019-09-29 | 2022-11-01 | 厦门美图之家科技有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN110764090A (zh) * | 2019-10-22 | 2020-02-07 | 上海眼控科技股份有限公司 | 图像处理方法、装置、计算机设备及可读存储介质 |
CN110942456B (zh) * | 2019-11-25 | 2024-01-23 | 深圳前海微众银行股份有限公司 | 篡改图像检测方法、装置、设备及存储介质 |
US20230210451A1 (en) * | 2020-06-11 | 2023-07-06 | Pst Inc. | Information processing device, information processing method, information processing system and information processing program |
CN111753847B (zh) * | 2020-06-28 | 2023-04-18 | 浙江大华技术股份有限公司 | 图像预处理方法及装置、存储介质、电子装置 |
CN112365515B (zh) * | 2020-10-30 | 2024-10-08 | 深圳点猫科技有限公司 | 一种基于密集感知网络的边缘检测方法、装置及设备 |
CN112288723B (zh) * | 2020-10-30 | 2023-05-23 | 北京市商汤科技开发有限公司 | 缺陷检测方法、装置、计算机设备及存储介质 |
CN112668573B (zh) * | 2020-12-25 | 2022-05-10 | 平安科技(深圳)有限公司 | 目标检测定位置信度确定方法、装置、电子设备及存储介质 |
CN112862685B (zh) * | 2021-02-09 | 2024-02-23 | 北京迈格威科技有限公司 | 图像拼接的处理方法、装置和电子系统 |
CN113222874B (zh) * | 2021-06-01 | 2024-02-02 | 平安科技(深圳)有限公司 | 应用于目标检测的数据增强方法、装置、设备及存储介质 |
CN113920041B (zh) * | 2021-09-24 | 2024-09-27 | 深圳市资福医疗技术有限公司 | 图像处理系统及胶囊内窥镜 |
CN114298937B (zh) * | 2021-12-29 | 2024-05-17 | 深圳软牛科技集团股份有限公司 | 一种jpeg照片的修复方法、装置及相关组件 |
CN114549570B (zh) * | 2022-03-10 | 2022-10-18 | 中国科学院空天信息创新研究院 | 光学影像与sar影像的融合方法及装置 |
CN114722925B (zh) * | 2022-03-22 | 2022-11-15 | 北京安德医智科技有限公司 | 病灶分类装置与非易失性计算机可读存储介质 |
CN117036878B (zh) * | 2023-07-19 | 2024-03-26 | 北京透彻未来科技有限公司 | 一种人工智能预测图像与数字病理图像融合的方法及系统 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217437A (zh) | 2014-09-19 | 2014-12-17 | 西安电子科技大学 | 前列腺kvct图像的病变区域分割方法 |
WO2016069463A2 (en) * | 2014-10-29 | 2016-05-06 | Tissue Analystics, Inc. | A system and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions |
CN104992430B (zh) | 2015-04-14 | 2017-12-22 | 杭州奥视图像技术有限公司 | 基于卷积神经网络的全自动的三维肝脏分割方法 |
US20170017841A1 (en) * | 2015-07-17 | 2017-01-19 | Nokia Technologies Oy | Method and apparatus for facilitating improved biometric recognition using iris segmentation |
CN106611402B (zh) * | 2015-10-23 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
US9684967B2 (en) * | 2015-10-23 | 2017-06-20 | International Business Machines Corporation | Imaging segmentation using multi-scale machine learning approach |
CN106056596B (zh) | 2015-11-30 | 2019-02-26 | 浙江德尚韵兴图像科技有限公司 | 基于局部先验信息和凸优化的全自动三维肝脏分割方法 |
CN105894470A (zh) * | 2016-03-31 | 2016-08-24 | 北京奇艺世纪科技有限公司 | 一种图像处理方法及装置 |
CN106203432B (zh) | 2016-07-14 | 2020-01-17 | 杭州健培科技有限公司 | 一种基于卷积神经网显著性图谱的感兴趣区域的定位系统 |
CN106447721B (zh) * | 2016-09-12 | 2021-08-10 | 北京旷视科技有限公司 | 图像阴影检测方法和装置 |
US10531825B2 (en) * | 2016-10-14 | 2020-01-14 | Stoecker & Associates, LLC | Thresholding methods for lesion segmentation in dermoscopy images |
CN107464230B (zh) * | 2017-08-23 | 2020-05-08 | 京东方科技集团股份有限公司 | 图像处理方法及装置 |
-
2017
- 2017-08-23 CN CN201710730705.2A patent/CN107464230B/zh active Active
-
2018
- 2018-08-20 WO PCT/CN2018/101242 patent/WO2019037676A1/zh active Application Filing
- 2018-08-20 US US16/619,771 patent/US11170482B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11170482B2 (en) | 2021-11-09 |
WO2019037676A1 (zh) | 2019-02-28 |
US20200143526A1 (en) | 2020-05-07 |
CN107464230A (zh) | 2017-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107464230B (zh) | 图像处理方法及装置 | |
CN110232383B (zh) | 一种基于深度学习模型的病灶图像识别方法及病灶图像识别系统 | |
CN107909622B (zh) | 模型生成方法、医学成像的扫描规划方法及医学成像系统 | |
WO2020182036A1 (zh) | 图像处理方法、装置、服务器及存储介质 | |
US20200093460A1 (en) | Method, device, ultrasonic probe and terminal for adjusting detection position | |
JP6478136B1 (ja) | 内視鏡システム、内視鏡システムの作動方法 | |
CN107730507A (zh) | 一种基于深度学习的病变区域自动分割方法 | |
CN111325714B (zh) | 感兴趣区域的处理方法、计算机设备和可读存储介质 | |
CN110310280B (zh) | 肝胆管及结石的图像识别方法、系统、设备及存储介质 | |
CN105303550A (zh) | 图像处理装置及图像处理方法 | |
WO2021240656A1 (ja) | 画像処理装置、制御方法及び記憶媒体 | |
CN111383259A (zh) | 图像分析方法、计算机设备和存储介质 | |
CN113610887A (zh) | 胶囊内窥镜运动拍摄路径的确定方法、存储介质和设备 | |
CN113436173A (zh) | 基于边缘感知的腹部多器官分割建模、分割方法及系统 | |
JP2020151450A (ja) | 画像識別方法及び画像識別装置 | |
WO2019102844A1 (ja) | 分類装置、分類方法、プログラム、ならびに、情報記録媒体 | |
WO2021097595A1 (zh) | 图像的病变区域分割方法、装置及服务器 | |
WO2017221412A1 (ja) | 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム | |
CN110111382B (zh) | 不规则区域面积计算方法、装置、计算机设备和存储介质 | |
CN108765379B (zh) | 眼底病变区域面积的计算方法、装置、医疗设备和存储介质 | |
CN114519401A (zh) | 一种图像分类方法及装置、电子设备、存储介质 | |
CN110858398A (zh) | 基于深度学习的舌体分割装置、方法及存储介质 | |
CN110110750B (zh) | 一种原始图片的分类方法及装置 | |
CN113096132A (zh) | 图像处理的方法、装置、存储介质和电子设备 | |
KR102279160B1 (ko) | 이미지의 특이 영역 분석 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |