CN108510504B - 图像分割方法和装置 - Google Patents

图像分割方法和装置 Download PDF

Info

Publication number
CN108510504B
CN108510504B CN201810240210.6A CN201810240210A CN108510504B CN 108510504 B CN108510504 B CN 108510504B CN 201810240210 A CN201810240210 A CN 201810240210A CN 108510504 B CN108510504 B CN 108510504B
Authority
CN
China
Prior art keywords
processed
photo
points
feature map
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810240210.6A
Other languages
English (en)
Other versions
CN108510504A (zh
Inventor
曹先彬
甄先通
李岩
孔祥东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201810240210.6A priority Critical patent/CN108510504B/zh
Publication of CN108510504A publication Critical patent/CN108510504A/zh
Application granted granted Critical
Publication of CN108510504B publication Critical patent/CN108510504B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像分割方法和装置,通过根据待处理照片得到纹理特征图;又根据预设的卷积神经网络模型对所述待处理照片进行特征提取;然后根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征,从而得到具体的纹理特征与抽象的深度特征的结合,对待处理照片进行了更好的描述;最后对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域,提高了分割的精度和准确率。

Description

图像分割方法和装置
技术领域
本发明涉及图像处理技术,尤其涉及一种图像分割方法和装置。
背景技术
一条铁轨往往会穿越不同的地形地貌,保障铁路线和周边设施的安全就成为重中之重。例如,一条铁路线往往会跨过多条河流,部分铁路线旁边也存在的大量的湖泊。降雨后,河流和湖泊的水位暴涨,过高的水位会对铁路的安全运营产生威胁。因此,有必要对河流和湖泊的水位进行实时监测。
现有的一种安全监测系统是定时、定高对河流和湖泊等监测区域进行拍照,然后利用水域与地面在颜色上的区别,进行基于颜色的图像分割,从实拍的照片中分割出水域图像,在水域图像的面积超过预设阈值时,自动进行水位报警。
然而,对水域进行拍摄时,照片的像素通常很大,基于颜色的图像分割无法对细节进行描述,而且照片中水域与陆地的颜色区别也不是很明显,基于颜色的图像分割精度和准确率较低。
发明内容
本发明提供一种图像分割方法和装置,通过纹理特征与深度特征组合得到的高维特征,得到具体的纹理特征与抽象的深度特征的结合,对待处理照片进行了更好的描述;最后对所述高维特征图进行分割,得到目标分割图,提高了图像分割的精度和准确率。
根据本发明的第一方面,提供一种图像分割方法,包括:
根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征;
根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征;
对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域。
可选地,所述根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征,包括:
对待处理照片进行离散小波帧分解,得到第一子图和第二子图,其中,所述第一子图为将所述待处理照片先对行做低通滤波再对列做高通滤波后的子图,所述第二子图为将所述待处理照片先对行做高通滤波再对列做低通滤波后的子图;
对所述第一子图的各像素点进行中值滤波,将中值滤波后第一子图的各像素点的小波系数的平方确定为第一子图的各像素点的能量值,并根据所述第一子图的各像素点的能量值将所述第一子图的像素点分为高能点和低能点;
对所述第二子图的各像素点进行中值滤波,将中值滤波后第二子图的各像素点的小波系数的平方确定为第二子图的各像素点的能量值,并根据所述第二子图的各像素点的能量值将所述第二子图的像素点分为高能点和低能点;
根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征;
根据所述待处理照片中所有像素点的纹理特征,得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征。
可选地,所述根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征,包括:
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第一类纹理;
若所述待处理照片中的像素点在所述第一子图中对应为低能点,且在所述第二子图中对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第二类纹理;
若所述待处理照片中的像素点在所述第一子图中对应为高能点,且在所述第二子图中对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第三类纹理;
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第四类纹理。
可选地,所述第一类纹理为平滑,所述第二类纹理为垂直,所述第三类纹理为水平,所述第四类纹理为复杂。
可选地,所述预设的卷积神经网络模型为已训练好的19层卷积神经网络VGGNet-19模型,其中,所述VGGNet-19模型包括依次连接的5个卷积段,且每2段卷积段之间都通过1个最大池化层相连,最后1个卷积段后依次连接1个最大池化层、3个全连接层和1个输出层;
所述根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征,包括:
以预设的VGGNet-19模型对所述待处理照片进行处理,并从所述5个卷积段分别获得的5个用于指示所述待处理照片的深度特征的中间输出结果,所述中间输出结果为具有多个通道的图;
对每个所述中间输出结果分别进行像素点的所有通道值平均降维处理,得到仅具有一个通道的5个平均结果图;
将所述5个平均结果图的尺寸都转换至与所述待处理照片的尺寸一致,得到5个深度子图,所述深度子图中像素点的值为所述待处理照片中对应像素点的深度分量;
将所述5个深度子图作为5个通道进行组合,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征,每个所述深度特征包含所述深度子图中对应像素点的所述深度分量。
可选地,所述根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征,包括:
对所述待处理照片中各像素点获取像素位置和颜色信息;
从所述纹理特征图中,获得所述待处理照片中各像素点的所述纹理特征;
从所述深度特征图中,获得所述待处理照片中各像素点的所述深度特征;
将所述待处理照片中各像素点的所述像素位置、所述颜色信息、所述纹理特征以及所述深度特征分别进行高维组合,得到所述待处理照片中各像素点的高维特征;
根据所述待处理照片中所有像素点对应的高维特征,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征。
可选地,所述对所述高维特征图进行分割,得到目标分割图,包括:
根据预设聚类个数N对所述高维特征图中各像素点的值进行聚类,得到N个分类以及与所述N个分类对应的图像区域;
在所述N个分类对应的图像区域中,将表示所述待处理照片的拍摄目标的图像区域确定为目标分割区域;
获得指示所述目标分割区域的目标分割图。
可选地,所述待处理照片至少在预设像素位置显示有拍摄目标的图像;
相应地,所述在所述N个分类对应的图像区域中,将表示所述待处理照片的拍摄目标的图像区域确定为目标分割区域,包括:
在所述N个分类对应的图像区域中,将包含所述预设像素位置的图像区域对应的分类,确定为指示所述拍摄目标的目标分类;
将所述目标分类对应的所有图像区域,都确定为目标分割区域。
可选地,在所述对所述高维特征图进行分割,得到目标分割图之前,还包括对所述高维特征图进行边缘保留的低通滤波,得到滤波后的高维特征图;
相应地,所述对所述高维特征图进行分割,得到目标分割图,包括:
对所述滤波后的高维特征图进行分割,得到目标分割图。
根据本发明的第二方面,提供一种图像分割装置,包括:
纹理特征图获得模块,用于根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
深度特征图获得模块,用于根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征;
高维特征图获得模块,用于根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征;
目标分割图获得模块,用于对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域。
根据本发明的第三方面,提供一种图像分割装置,包括:存储器、处理器以及计算机程序,其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行,以实现本发明第一方面及第一方面各种可能设计的所述方法。
根据本发明的第四方面,提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被执行时用于实现本发明第一方面及第一方面各种可能设计的所述方法。
本发明提供的一种图像分割方法和装置,通过根据待处理照片得到纹理特征图;又根据预设的卷积神经网络模型对所述待处理照片进行特征提取;然后根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征,从而得到具体的纹理特征与抽象的深度特征的结合,对待处理照片进行了更好的描述;最后对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域,提高了分割的精度和准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种图像分割方法的流程示意图;
图2为本发明实施例提供的另一种图像分割方法的流程示意图;
图3为本发明实施例提供的再一种图像分割方法的流程示意图;
图4为本发明采用的VGGNet-19模型的结构组成示意图;
图5为本发明实施例提供的又一种图像分割方法的流程示意图;
图6为本发明实施例提供的又一种图像分割方法的流程示意图;
图7为本发明实施例提供的一种图像分割装置;
图8为本发明提供的一种图像分割装置的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
应当理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
应当理解,在本申请中,“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“多个”是指两个或两个以上。
应当理解,在本申请中,“与A对应的B”表示B与A相关联,根据A可以确定B。根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。A与B的匹配,是A与B的相似度大于或等于预设的阈值。
取决于语境,如在此所使用的“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
在对江河湖泊等水域进行水位监测场景中,无人机或监控站的摄像头定时、定点对监控水域进行拍摄,将拍摄得到的照片实时发给服务器进行处理和分析,确定当前水域的水位升降情况。在服务器对照片进行处理的过程中,需要对照片进行图像分割,将陆地、植物、建筑等干扰部分减除,将水域部分的图像分割出来以便进行进一歩的图像分析。本发明提取出具有旋转不变性的纹理特征,与经过融合的VGG网络提取到的深度特征构建高维特征,提高了对待处理照片的描述程度,进而提高了分割图的精度准确性。
图1为本发明实施例提供的一种图像分割方法的流程示意图,该方法的执行主体可以是上述水位监测场景中的服务器,也可以是客户终端等具有图像处理功能的电子设备,本发明不限于此。如图1所示的方法,具体可以包括:
S101,根据待处理照片得到纹理特征图。
具体地,纹理特征图中像素点的值为待处理照片中对应像素点的纹理特征。纹理特征图可以理解为由纹理特征构成的图、图谱,也可以理解为由纹理特征构成的矩阵。例如,若纹理特征图中的像素点是以不同颜色代表待处理照片中对应像素点的纹理特征,则纹理特征图是以不同颜色的像素点构成的图;若纹理特征图中的像素点是以不同数字、符号代表待处理照片中对应像素点的纹理特征,则纹理特征图是数字或符号的阵列。而其中数字或符号也可以用灰度或颜色来表征。纹理特征图与待处理照片的尺寸应当是相同的,纹理特征图中的像素点与待处理照片中的像素点是一一对应的。
S102,根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图。
具体地,深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征。预设的卷积神经网络模型可以理解为已经训练好的卷积神经网络模型。在预先的模型训练过程中,可以先用标准数据库中的训练样本训练一个简化模型,然后再用简化模型训练好的参数作为卷积神经网络模型的初始化参数,这样可以大大加快卷积神经网络模型收敛的速度。深度特征图可以理解为由深度特征构成的图、图谱,也可以理解为由深度特征构成的矩阵。深度特征图与待处理照片的尺寸相同,深度特征图中的像素点与待处理照片中的像素点一一对应。深度特征图中每一个像素点的值都是待处理照片中对应像素点的深度特征。
本实施例中步骤S101与步骤S102,并不受所描述的动作顺序的限制,步骤S101与步骤S102可以采用其他顺序或者同时进行。
S103,根据所述纹理特征图和所述深度特征图,得到高维特征图。
具体地,高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征。高维特征可以理解为多个特征构成的向量,则在高维特征图中每一个像素点的值都是一个高维向量。纹理特征与深度特征都是高维向量在多个维度上的值,例如,对于纹理特征t,深度特征(j,k,l,m,n),得到的高维特征则为(t,j,k,l,m,n)。在RGB图像中,每个像素点具有三个通道R通道、G通道和B通道,而高维向量中多个维度也可以理解为是高维特征图中像素点的多个通道。高维特征除了包括所述纹理特征与所述深度特征之外,还可以包括其他特征,本发明不在此做限制。纹理特征的提取过程是人工设计参数进行提取的,而深度特征是模型中的卷积核自动提取的,本实施例把纹理特征与从卷积神经网络模型提取出来的深度特征结合起来,得到的高维特征既包括手动设计提取的特征,又包括神经网络自动提取的特征,可以对图像进行更好描述。
S104,对所述高维特征图进行分割,得到目标分割图。
具体地,分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域。在一种实现方式中,通过使用聚类算法对所述高维特征图进行分割,具体可以是:
首先,根据预设聚类个数N对所述高维特征图中各像素点的值进行聚类,得到N个分类以及与所述N个分类对应的图像区域。由于待处理照片是对包含拍摄目标的区域进行定点拍摄,因此每次的拍摄高度、角度、方向都是相同或相近的,得到的待处理照片也是内容相近的。用户可以根据经验预设聚类个数N。例如:待处理的照片中包含湖泊、河岸、植被;但这两个湖泊之间没有任何河流相连,此时的N可以预设为4。如果地势地貌错综复杂,则N的数值更大。所以N的预设置需要结合场景和具体的地形地貌决定,但由于待处理照片是长期对同一区域定点拍摄,因此N可以是预设的一个固定值。
然后,在所述N个分类对应的图像区域中,将表示所述待处理照片的拍摄目标的图像区域确定为目标分割区域。具体实施方式可以是用户在N个分类对应的图像区域中进行手动选择,也可以是根据预设的选择条件自动在N个分类对应的图像区域中进行条件匹配的自动选择。例如,预设选择条件为面积最大的图像区域为目标分割区域,则在N个分类对应的图像区域中将面积最大的区域确定为目标分割区域。又例如,待处理照片至少在预设像素位置显示有拍摄目标的图像,选择条件为包含预设像素位置的图像区域为目标分割区域。那么,在所述N个分类对应的图像区域中,将包含所述预设像素位置的图像区域对应的分类,确定为指示所述拍摄目标的目标分类,并将所述目标分类对应的所有图像区域,都确定为目标分割区域。目标分割区域可以是水域图像区域,例如湖泊图像区域、河流图像区域。
最后,获得指示所述目标分割区域的目标分割图。在一种实现方式中,目标分割图可以是包含其他分类的图,例如以不同颜色标记不同分类,例如以红色、绿色等亮色标记目标分割区域,以灰色、褐色、黑色等暗色标记除目标分割区域以外的其他区域。在另一种实现方式中,目标分割图可以是仅包含目标分割区域的图,例如以白色显示和标记目标分割区域,其他分类的区域均以黑色显示和标记,或是以黑色显示和标记目标分割区域,其他分类的区域均以白色显示和标记。
本发明实施例提供的一种图像分割方法,通过根据待处理照片得到纹理特征图;又根据预设的卷积神经网络模型对所述待处理照片进行特征提取;然后根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征,从而得到具体的纹理特征与抽象的深度特征的结合,对待处理照片进行了更好的描述;最后对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域,提高了分割的精度和准确率。
图2为本发明实施例提供的另一种图像分割方法的流程示意图,在上述实施例的基础上,为了获得更加丰富的纹理特征,下述实施例在获取纹理特征图的过程中引入了离散小波帧分解(Disccrete Wavelet Frame Transform),下面结合图2和具体实施例进行详细说明。图2所示实施例具体可以包括:
S201,对待处理照片进行离散小波帧分解,得到第一子图和第二子图。
其中,第一子图为将所述待处理照片先对行做低通滤波再对列做高通滤波后的子图,所述第二子图为将所述待处理照片先对行做高通滤波再对列做低通滤波后的子图。
具体地,将待处理照片进行离散小波帧分解,可以得到LL,LH,HL,HH四部分。LL代表先对行做低通滤波,再对列做低通滤波;LH代表先对行做低通滤波,再对列做高通滤波;HL代表先对行做高通滤波,再对列做低通滤波;LH代表先对行做低通滤波,再对列做高通滤波。
进行上述高通滤波和低通滤波的高通滤波器和低通滤波器经过z变换,在z域中的表达式分别为H(z),G(z)。
Figure BDA0001605099500000101
G(z)=zH(-z-1)
在时域中的表达式为:
h(n)=Z-1{H(z)}
g(n)=(-1)1-nh(1-n)
这种滤波器可以用正交小波基函数的形式来表示:
φi,k(k)=2i/2hi(k-2it)
ψi,k(k)=2i/2gi(k-2it)
φ和ψ是小波基函数,i代表尺度,t代表平移量,k代表自变量。
待处理照片是二维的,为了能对二维离散的待处理照片使用一维分解的方法,可以先把图像的每一行当做一维信号做行滤波,然后把行滤波的结果以列为单位做列滤波,这样就可以把一个原本只能用于一维信号的滤波器用于对于二维图像的分解,对待处理照片进行离散小波帧分解的表达式为:
Φ(x,y)=φ(x)φ(y)
Ψ1(x,y)=φ(x)ψ(y)
Ψ2(x,y)=ψ(x)φ(y)
Ψ3(x,y)=ψ(x)ψ(y)
其中:x,y分别代表在x和y方向像素点的分解处理,即沿着行像素点的分解和沿着列像素点的分解;
φ(x)表示沿着x方向做低通滤波;
φ(y)表示沿着y方向做低通滤波;
ψ(x)表示沿着x方向做高通滤波;
ψ(y)表示沿着y方向做高通滤波。
与传统的离散小波变换不同,离散小波帧分解并不涉及图像的降采样过程,因而含有更为丰富的纹理特征。离散小波帧分解保持了图像的平移不变性。因为取消了降采样过程,离散小波帧分解之后得到的第一子图和第二子图都与原来的待处理照片大小一样,即尺寸不变。
上述LH是本实施例中的第一子图,上述HL是本实施例中第二子图。在图像的纹理识别中,可以认为纹理的特征能够从图像频域的能量分布中反映出来,而且图像的纹理信息主要体现在LH和HL两个子图中,因此本实施例用这两部分的系数描述纹理特征。下一步中需要提取第一子图和第二子图中的能量值,并根据像素点在这两子图中的能量值得到像素点的纹理特征。
S202,对所述第一子图的各像素点进行中值滤波,将中值滤波后第一子图的各像素点的小波系数得到的平方确定为第一子图的各像素点的能量值,并根据所述第一子图的各像素点的能量值将所述第一子图的像素点分为高能点和低能点。
S203,对所述第二子图的各像素点进行中值滤波,将中值滤波后第二子图的各像素点的小波系数的平方确定为第二子图的各像素点的能量值,并根据所述第二子图的各像素点的能量值将所述第二子图的像素点分为高能点和低能点。
本实施例中步骤S202与步骤S203,并不受所描述的动作顺序的限制,步骤S202与步骤S203可以采用其他顺序或者同时进行。
其中,第一子图可以理解为是待处理照片经过滤波器Ψ1(x,y)处理后得到的。第一子图的各像素点的小波系数可以理解为第一子图中的像素点的值。中值滤波后第一子图的各像素点的小波系数,可以理解为是第一子图的各像素点的小波系数经过中值滤波后的值。对所述第一子图的各像素点进行中值滤波,具体是对所述第一子图的各像素点的值进行中值滤波。
第二子图可以理解为是待处理照片经过滤波器Ψ2(x,y)处理后得到的。第二子图的各像素点的小波系数可以理解为第二子图中的像素点的值。中值滤波后第二子图的各像素点的小波系数,可以理解为是第二子图的各像素点的小波系数经过中值滤波后的值。对所述第二子图的各像素点进行中值滤波,具体是对所述第二子图的各像素点的值进行中值滤波。
一个像素点具体属于哪一种纹理取决于该像素点在第一子图和第二子图中的能量分类。在一种具体的实现方式中,首先对第一子图和第二子图进行中值滤波,用滤波后的小波系数的平方分别作为第一子图和第二子图的能量值。然后使用K-Means聚类算法将LH和HL中的像素点按能量值分为两类(0和1)。K-Means聚类首先随机选取K个聚类质心点(本实施例为二分类问题,因此K=2),对每个像素点计算其应该属于的类,然后对于每个类,重新计算其质心,由此重复聚类和选取质心点的过程,直至收敛。最终得到的两个类中,将属于能量高的类的像素点确定为高能点,将属于能量低的类的像素点确定为低能点。对第一子图和第二子图进行同样的聚类操作,分别确定高能点和低能点。
S204,根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征。
具体地,若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第一类纹理。
若所述待处理照片中的像素点在所述第一子图中对应为低能点,且在所述第二子图中对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第二类纹理。
若所述待处理照片中的像素点在所述第一子图中对应为高能点,且在所述第二子图中对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第三类纹理。
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第四类纹理。
在一种实现方式中,所述第一类纹理为平滑,所述第二类纹理为垂直,所述第三类纹理为水平,所述第四类纹理为复杂。高能点用1代表,低能点用0代表,则分类的方式具体可以理解为:待处理照片中的像素点,在LH和HL的类别都是0则被分为平滑,这种像素点在任何方向上的能量都不高;在LH为0,在HL为1则被分为垂直,这种像素点的能量主要分布在垂直方向;在LH为1,HL为0则被分为水平,这种像素的能量主要分布在水平方向;在LH和HL都为1则被分为复杂,这种像素点无显著的能量分布。
S205,根据所述待处理照片中所有像素点的纹理特征,得到纹理特征图。
其中,纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征。纹理特征图中像素点与待处理照片中的像素点一一对应,纹理特征图可以理解为由纹理特征构成的图、图谱,也可以理解为由纹理特征构成的矩阵。
本发明实施例通过对待处理照片进行离散小波帧分解,得到具有丰富纹理特征描述的第一子图和第二子图,并根据第一子图和第二子图的能量分布来确定待处理照片中各像素点的纹理特征,从而得到纹理特征图,增加了纹理特征的丰富程度,提高了对待处理照片的描述能力。
图3为本发明实施例提供的再一种图像分割方法的流程示意图,在上述实施例的基础上,为了得到更充分的深度特征,可以在获得深度特征图的过程中利用了VGGNet-19模型进行深度特征的提取,下面结合图3和具体实施例进行详细说明。
深度特征与传统图像特征的一个显著区别就是深度特征不需要人为设计,而是卷积核自动提取的。对同一个网络而言,越浅层的网络提取的特征越具体,越深层的网络提取的特征越抽象。将不同层网络提取的特征融合起来,可以更加充分的利用深度特征。VGG网络是牛津大学计算机视觉组(Visual Geometry Group)和Google Deepmind公司研究员一起看法研究的深度卷积网络。VGG网络探索了卷积神经网络的深度与性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2最大池化层,VGG网络成功构筑了6种不同级别的卷积神经网络。同时为了增加数据量,防止过拟合,VGG网络使用Multi-Scale方法进行数据增强,将原始图像缩放到不同的尺寸,然后再随机裁剪成224*224的图片。
为增强网络的性能,本实施例采用的预设的卷积神经网络模型为已训练好的19层卷积神经网络VGGNet-19模型。VGGNet-19模型在训练过程中是采用MIT Scene ParsingBenchmark数据库进行的训练。该数据库是一种专门用于图像分割的公开数据库,含有大量已标注过的图片。在训练的时候,先训练最简单的VGG网络,然后再用VGG网络中训练好的参数作为VGGNet-19模型的初始化参数,由此大大加快VGGNet-19模型收敛的速度。
图4为本发明采用的VGGNet-19模型的结构组成示意图。预设的VGGNet-19模型包括依次连接的5个卷积段,图4中序列1至4为第一个卷积段,序列6至9为第二个卷积段,序列11至18为第三个卷积段,序列20至27为第四个卷积段,序列29至36为第五个卷积段。每2段卷积段之间都通过1个最大池化层(序列5、10、19、28)相连,最后1个卷积段后依次连接1个最大池化层(序列37)、3个全连接层(序列38至42)和1个输出层(序列43),输出层中设置有softmax函数,具体结构可以参见图4。
图3所示的方法具体包括:
S301,以预设的VGGNet-19模型对所述待处理照片进行处理,并从所述5个卷积段分别获得的5个用于指示所述待处理照片的深度特征的中间输出结果,所述中间输出结果为具有多个通道的图。
具体地,区别于简单地使用VGGNet-19模型直接进行图像分割的方法,本实施例只使用VGGNet-19模型提深度特征。也就是说,只使用每个卷积段最后一个卷积层的输出结果,这五段输出的尺寸分别为224*224*64,112*112*128,56*56*256,28*28*512,14*14*512。
S302,对每个所述中间输出结果分别进行像素点的所有通道值平均降维处理,得到仅具有一个通道的5个平均结果图。
例如,把不同通道的结果相加,求平均,输出分别为224*224,112*112,56*56,28*28,14*14。
S303,将所述5个平均结果图的尺寸都转换至与所述待处理照片的尺寸一致,得到5个深度子图。
其中,所述深度子图中像素点的值为所述待处理照片中对应像素点的深度分量。在一种实现方式中,可以是把上述平均结果图224*224,112*112,56*56,28*28,14*14通过双线性插值处理,还原到待处理照片的尺寸。
双线性插值处理的具体实施方式可以理解为:假设待处理照片的尺寸为m*n(例如224*224),待转换的平均结果图的尺寸为a*b(可以是112*112、56*56、28*28或者14*14)。那么待处理照片与平均结果图的边长比分别为:m/a和n/b。通常这个比例不是整数。平均结果图的第(i,j)个像素点(i行j列)可以通过边长比对应回所述待处理照片,且这个对应坐标为(i*m/a,j*n/b)。显然,这个对应坐标一般来说不是整数,而非整数的坐标是无法在图像这种离散数据上使用的。双线性插值处理通过在平均结果图上寻找距离这个对应坐标最近的四个像素点,来计算该插值点的值。具体地,设需要插值的平均结果图中像素点点的坐标为(X,Y),像素值为P。距离(X,Y)最近的四个点,按照从下到上,从左到右的顺序,分别表示为:(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2),像素值分别表示为:Q11,Q12,Q21,Q22。则
Figure BDA0001605099500000151
由此得到5个深度子图中各像素点的像素值,深度子图中各像素点的像素值具体是待处理照片对应像素点的深度分量。
S304,将所述5个深度子图作为5个通道进行组合,得到深度特征图。
具体地,深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征,每个所述深度特征包含所述深度子图中对应像素点的所述深度分量。可以理解为,将得到的5个深度子图按像素组合,得到的深度特征图中每个像素都是一个5*1的向量。
本实施例通过将将不同层网络提取的特征融合起来得到深度特征图,可以更加充分的利用深度特征,进而提高图像分割的精度。
图5为本发明实施例提供的又一种图像分割方法的流程示意图,图6为本发明实施例提供的又一种图像分割方法的流程示意图,在上述实施例的基础上,为了更加清楚地描述上述实施例,下面结合图5和具体实施例对根据纹理特征图和深度特征图,得到高维特征图的过程进行说明。图5所示的方法具体可以包括:
S501,对所述待处理照片中各像素点获取像素位置和颜色信息。
具体地,像素位置可以理解为是像素点的空间位置(X,Y)。颜色信息可以理解为是像素点的灰度直方图或者彩色直方图等信息。
S502,从所述纹理特征图中,获得所述待处理照片中各像素点的所述纹理特征。
S503,从所述深度特征图中,获得所述待处理照片中各像素点的所述深度特征。
本实施例中步骤S501、步骤S502、步骤S503,并不受所描述的动作顺序的限制,步骤S501、步骤S502、步骤S503可以采用其他顺序或者同时进行。
S504,将所述待处理照片中各像素点的所述像素位置、所述颜色信息、所述纹理特征以及所述深度特征分别进行高维组合,得到所述待处理照片中各像素点的高维特征。
例如,像素位置(x,y),颜色信息(r,g,b),纹理特征t,深度特征(j,k,l,m,n),高维组合后得到的高维特征为(x,y,r,g,b,t,j,k,l,m,n)。
S505,根据所述待处理照片中所有像素点对应的高维特征,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征。
在对所述高维特征图进行分割之前,还可以对所述高维特征图进行边缘保留的低通滤波,得到滤波后的高维特征图。
相应地,对所述高维特征图进行分割,得到目标分割图,可以是:对所述滤波后的高维特征图进行分割,得到目标分割图。
在上述实施例中,边缘保留的低通滤波可以是Mean Shift滤波。Mean Shift滤波是一种边缘保留的低通滤波,可以使得滤波后图像的边缘更明显,有助于后续的图像分割。Mean Shift滤波的基础是Mean Shift算法。Mean Shift是一个迭代的步骤,即先算出当前像素点的偏移均值,将该像素点移动到此偏移均值,然后以此为新的起始点,继续移动,直到满足最终的条件。以像素点作为样本,给定空间中的n个样本ai,i=1,2,…,n,对于样本a,其Mean Shift向量的基本形式为:
Figure BDA0001605099500000161
其中,Sh是指一个半径为h的高维球区域。k为高维球区域内样本的个数。在该高维球区域内,根据上述公式计算偏移的均值。随后把高维球的中心移到偏移均值处,重复上述过程(计算新的偏移均值,移动),直到满足最终的条件。在以上过程,与中心点距离不同样本对计算Mh的贡献是相同的,而时间上,距离中心点越近的样本对估计中心点周围的统计特性越有效,因此本发明对每一个样本进行加权,以评估距离对偏移量的影响。其中,权重满足以中心点为均值的高斯分布。最终使用的公式为:
Figure BDA0001605099500000171
其中,
Figure BDA0001605099500000172
G(x)是一个单位核矩阵。H是一个正定对称的矩阵。非负值w(ai)是每一个样本的权重,且越靠近中心点,权重越大;n是像素的数量;Mh是最终的偏移量。
针对每一个点的Mean Shift滤波平滑可以表示为:针对图像中某个点A的特征a,按照a的概率密度梯度方向进行搜索,最终收敛于某个点B。将A点除了横纵坐标(x,y)的其他特征替换为B对应的特征,替换后的特征表示为a′。或者说,收敛中心即为Mean Shift滤波的输出结果,表明该点的概率密度最高。
图7为本发明实施例提供的一种图像分割装置,包括:
纹理特征图获得模块71,用于根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
深度特征图获得模块72,用于根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征;
高维特征图获得模块73,用于根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征;
目标分割图获得模块74,用于对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域。
图7所示实施例的图像分割装置对应地可用于执行图1所示方法实施例中的步骤,其实现原理和技术效果类似,此处不再赘述。
图8为本发明提供的一种图像分割装置的硬件结构示意图。如图8所示,该终端包括:处理器81、存储器82和计算机程序;其中
存储器82,用于存储所述计算机程序,该存储器还可以是闪存(flash)。
处理器81,用于执行所述存储器存储的计算机程序,以实现上述方法中的各个步骤。具体可以参见前面方法实施例中的相关描述。
可选地,存储器82既可以是独立的,也可以跟处理器81集成在一起。
当所述存储器82是独立于处理器81之外的器件时,所述图像分割装置还可以包括:
总线83,用于连接所述存储器82和处理器81。
本发明还提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被执行时用于实现上述的各种实施方式提供的方法。
其中,可读存储介质可以是计算机存储介质,也可以是通信介质。通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。计算机存储介质可以是通用或专用计算机能够存取的任何可用介质。例如,可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(ApplicationSpecific Integrated Circuits,简称:ASIC)中。另外,该ASIC可以位于用户设备中。当然,处理器和可读存储介质也可以作为分立组件存在于通信设备中。
本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在可读存储介质中。设备的至少一个处理器可以从可读存储介质读取该执行指令,至少一个处理器执行该执行指令使得设备实施上述的各种实施方式提供的方法。
在上述图像分割装置的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (7)

1.一种图像分割方法,其特征在于,包括:
根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征;
根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征;
对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域;
所述根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征,包括:
对待处理照片进行离散小波帧分解,得到第一子图和第二子图,其中,所述第一子图为将所述待处理照片先对行做低通滤波再对列做高通滤波后的子图,所述第二子图为将所述待处理照片先对行做高通滤波再对列做低通滤波后的子图;
对所述第一子图的各像素点进行中值滤波,将中值滤波后第一子图的各像素点的小波系数的平方确定为第一子图的各像素点的能量值,并根据所述第一子图的各像素点的能量值将所述第一子图的像素点分为高能点和低能点;
对所述第二子图的各像素点进行中值滤波,将中值滤波后第二子图的各像素点的小波系数的平方确定为第二子图的各像素点的能量值,并根据所述第二子图的各像素点的能量值将所述第二子图的像素点分为高能点和低能点;
根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征;
根据所述待处理照片中所有像素点的纹理特征,得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
所述根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征,包括:
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第一类纹理;
若所述待处理照片中的像素点在所述第一子图中对应为低能点,且在所述第二子图中对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第二类纹理;
若所述待处理照片中的像素点在所述第一子图中对应为高能点,且在所述第二子图中对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第三类纹理;
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第四类纹理;
所述第一类纹理为平滑,所述第二类纹理为垂直,所述第三类纹理为水平,所述第四类纹理为复杂。
2.根据权利要求1所述的方法,其特征在于,所述预设的卷积神经网络模型为已训练好的19层卷积神经网络VGGNet-19模型,其中,所述VGGNet-19模型包括依次连接的5个卷积段,且每2段卷积段之间都通过1个最大池化层相连,最后1个卷积段后依次连接1个最大池化层、3个全连接层和1个输出层;
所述根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征,包括:
以预设的VGGNet-19模型对所述待处理照片进行处理,并从所述5个卷积段分别获得的5个用于指示所述待处理照片的深度特征的中间输出结果,所述中间输出结果为具有多个通道的图;
对每个所述中间输出结果分别进行像素点的所有通道值平均降维处理,得到仅具有一个通道的5个平均结果图;
将所述5个平均结果图的尺寸都转换至与所述待处理照片的尺寸一致,得到5个深度子图,所述深度子图中像素点的值为所述待处理照片中对应像素点的深度分量;
将所述5个深度子图作为5个通道进行组合,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征,每个所述深度特征包含所述深度子图中对应像素点的所述深度分量。
3.根据权利要求1至2任一所述的方法,其特征在于,所述根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征,包括:
对所述待处理照片中各像素点获取像素位置和颜色信息;
从所述纹理特征图中,获得所述待处理照片中各像素点的所述纹理特征;
从所述深度特征图中,获得所述待处理照片中各像素点的所述深度特征;
将所述待处理照片中各像素点的所述像素位置、所述颜色信息、所述纹理特征以及所述深度特征分别进行高维组合,得到所述待处理照片中各像素点的高维特征;
根据所述待处理照片中所有像素点对应的高维特征,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征。
4.根据权利要求1所述的方法,其特征在于,所述对所述高维特征图进行分割,得到目标分割图,包括:
根据预设聚类个数N对所述高维特征图中各像素点的值进行聚类,得到N个分类以及与所述N个分类对应的图像区域;
在所述N个分类对应的图像区域中,将表示所述待处理照片的拍摄目标的图像区域确定为目标分割区域;
获得指示所述目标分割区域的目标分割图。
5.根据权利要求4所述的方法,其特征在于,所述待处理照片至少在预设像素位置显示有拍摄目标的图像;
相应地,所述在所述N个分类对应的图像区域中,将表示所述待处理照片的拍摄目标的图像区域确定为目标分割区域,包括:
在所述N个分类对应的图像区域中,将包含所述预设像素位置的图像区域对应的分类,确定为指示所述拍摄目标的目标分类;
将所述目标分类对应的所有图像区域,都确定为目标分割区域。
6.根据权利要求1所述的方法,其特征在于,在所述对所述高维特征图进行分割,得到目标分割图之前,还包括对所述高维特征图进行边缘保留的低通滤波,得到滤波后的高维特征图;
相应地,所述对所述高维特征图进行分割,得到目标分割图,包括:
对所述滤波后的高维特征图进行分割,得到目标分割图。
7.一种图像分割装置,其特征在于,包括:
纹理特征图获得模块,用于根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
深度特征图获得模块,用于根据预设的卷积神经网络模型对所述待处理照片进行特征提取,得到深度特征图,所述深度特征图中像素点的值为所述待处理照片中对应像素点的深度特征;
高维特征图获得模块,用于根据所述纹理特征图和所述深度特征图,得到高维特征图,所述高维特征图中像素点的值为所述待处理照片中对应像素点的高维特征,所述高维特征包括所述纹理特征与所述深度特征;
目标分割图获得模块,用于对所述高维特征图进行分割,得到目标分割图,所述分割图至少包括用于指示所述待处理照片的拍摄目标的目标分割区域;
所述根据待处理照片得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征,包括:
对待处理照片进行离散小波帧分解,得到第一子图和第二子图,其中,所述第一子图为将所述待处理照片先对行做低通滤波再对列做高通滤波后的子图,所述第二子图为将所述待处理照片先对行做高通滤波再对列做低通滤波后的子图;
对所述第一子图的各像素点进行中值滤波,将中值滤波后第一子图的各像素点的小波系数的平方确定为第一子图的各像素点的能量值,并根据所述第一子图的各像素点的能量值将所述第一子图的像素点分为高能点和低能点;
对所述第二子图的各像素点进行中值滤波,将中值滤波后第二子图的各像素点的小波系数的平方确定为第二子图的各像素点的能量值,并根据所述第二子图的各像素点的能量值将所述第二子图的像素点分为高能点和低能点;
根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征;
根据所述待处理照片中所有像素点的纹理特征,得到纹理特征图,所述纹理特征图中像素点的值为所述待处理照片中对应像素点的纹理特征;
所述根据所述待处理照片中像素点在所述第一子图中对应为高能点或低能点,以及在所述第二子图中对应为高能点或低能点,确定所述待处理照片中所述像素点的纹理特征,包括:
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第一类纹理;
若所述待处理照片中的像素点在所述第一子图中对应为低能点,且在所述第二子图中对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第二类纹理;
若所述待处理照片中的像素点在所述第一子图中对应为高能点,且在所述第二子图中对应为低能点,则确定所述待处理照片中所述像素点的纹理特征是第三类纹理;
若所述待处理照片中的像素点在所述第一子图和所述第二子图中都对应为高能点,则确定所述待处理照片中所述像素点的纹理特征是第四类纹理;
所述第一类纹理为平滑,所述第二类纹理为垂直,所述第三类纹理为水平,所述第四类纹理为复杂。
CN201810240210.6A 2018-03-22 2018-03-22 图像分割方法和装置 Active CN108510504B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810240210.6A CN108510504B (zh) 2018-03-22 2018-03-22 图像分割方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810240210.6A CN108510504B (zh) 2018-03-22 2018-03-22 图像分割方法和装置

Publications (2)

Publication Number Publication Date
CN108510504A CN108510504A (zh) 2018-09-07
CN108510504B true CN108510504B (zh) 2020-09-22

Family

ID=63378025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810240210.6A Active CN108510504B (zh) 2018-03-22 2018-03-22 图像分割方法和装置

Country Status (1)

Country Link
CN (1) CN108510504B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019346843B2 (en) * 2018-09-28 2022-08-18 The Brigham And Women's Hospital, Inc. Automated evaluation of sperm morphology
CN109544554B (zh) * 2018-10-18 2020-01-31 中国科学院空间应用工程与技术中心 一种植物图像分割及叶片骨架提取方法及系统
CN109685801B (zh) * 2018-12-10 2021-03-26 杭州帝视科技有限公司 结合纹理特征和深度神经网络信息的皮肤镜图像处理方法
CN109792951B (zh) * 2019-02-21 2020-07-31 华南农业大学 用于杂交水稻授粉的无人机航线校正系统及其校正方法
CN109949314B (zh) * 2019-02-23 2022-10-14 西安邮电大学 一种基于半监督学习和直方图统计的多目标快速模糊聚类彩色图像分割方法
CN109840914B (zh) * 2019-02-28 2022-12-16 华南理工大学 一种基于用户交互式的纹理分割方法
CN109948553B (zh) * 2019-03-20 2020-07-24 北京航空航天大学 一种多尺度密集人群计数方法
CN109877496A (zh) * 2019-03-30 2019-06-14 哈尔滨理工大学 一种基于图像传感技术的焊缝定位检测系统
CN111684488A (zh) * 2019-05-22 2020-09-18 深圳市大疆创新科技有限公司 图像裁剪方法、装置和拍摄装置
CN110619624B (zh) * 2019-08-22 2022-03-01 深圳大学 一种图像分解方法及装置
CN111860330B (zh) * 2020-07-21 2023-08-11 陕西工业职业技术学院 基于多特征融合和卷积神经网络的苹果叶部病害识别方法
US20220156922A1 (en) * 2020-11-17 2022-05-19 Alejandro Chávez Badiola System for real-time automatic quantitative evaluation, assessment and/or ranking of individual sperm, aimed for intracytoplasmic sperm injection (icsi), and other fertilization procedures, allowing the selection of a single sperm

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100557626C (zh) * 2008-06-27 2009-11-04 西安电子科技大学 基于免疫谱聚类的图像分割方法
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
CN101923715B (zh) * 2010-09-02 2012-07-04 西安电子科技大学 基于粒子群优化空间纹理信息约束聚类的图像分割方法
US8467599B2 (en) * 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
CN104408483B (zh) * 2014-12-08 2017-08-25 西安电子科技大学 基于深度神经网络的sar纹理图像分类方法
CN106780448B (zh) * 2016-12-05 2018-07-17 清华大学 一种基于迁移学习与特征融合的超声甲状腺结节良恶性分类系统

Also Published As

Publication number Publication date
CN108510504A (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
CN108510504B (zh) 图像分割方法和装置
CN110232394B (zh) 一种多尺度图像语义分割方法
CN111415316B (zh) 基于生成对抗网络的缺陷数据合成方法
Isikdogan et al. Seeing through the clouds with deepwatermap
EP3101594A1 (en) Saliency information acquisition device and saliency information acquisition method
CN111797712B (zh) 基于多尺度特征融合网络的遥感影像云与云阴影检测方法
CN112614136B (zh) 一种红外小目标实时实例分割方法及装置
CN109214403B (zh) 图像识别方法、装置及设备、可读介质
CN112766083B (zh) 基于多尺度特征融合的遥感场景分类方法及系统
US11615612B2 (en) Systems and methods for image feature extraction
CN110838125A (zh) 医学图像的目标检测方法、装置、设备、存储介质
CN113111878B (zh) 一种复杂背景下的红外弱小目标检测方法
CN112288026B (zh) 一种基于类激活图的红外弱小目标检测方法
CN109064402B (zh) 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN111179270A (zh) 基于注意力机制的图像共分割方法和装置
CN113887472A (zh) 基于级联颜色及纹理特征注意力的遥感图像云检测方法
CN110516731B (zh) 一种基于深度学习的视觉里程计特征点检测方法及系统
CN112329808A (zh) 一种Deeplab语义分割算法的优化方法及系统
CN112149526A (zh) 一种基于长距离信息融合的车道线检测方法及系统
CN112329818B (zh) 基于图卷积网络嵌入表征的高光谱图像非监督分类方法
CN107358625B (zh) 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法
Bull et al. Perceptual improvements for super-resolution of satellite imagery
CN110766708A (zh) 基于轮廓相似度的图像比较方法
CN113160146B (zh) 一种基于图神经网络的变化检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant