CN112070689A - 一种基于深度图像的数据增强方法 - Google Patents

一种基于深度图像的数据增强方法 Download PDF

Info

Publication number
CN112070689A
CN112070689A CN202010858444.4A CN202010858444A CN112070689A CN 112070689 A CN112070689 A CN 112070689A CN 202010858444 A CN202010858444 A CN 202010858444A CN 112070689 A CN112070689 A CN 112070689A
Authority
CN
China
Prior art keywords
image
depth image
convolution
layer
convolution unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010858444.4A
Other languages
English (en)
Inventor
田相轩
石志强
赵萌
王璇
陈波
白向华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Academy of Armored Forces of PLA
Original Assignee
Academy of Armored Forces of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Academy of Armored Forces of PLA filed Critical Academy of Armored Forces of PLA
Priority to CN202010858444.4A priority Critical patent/CN112070689A/zh
Publication of CN112070689A publication Critical patent/CN112070689A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种基于深度图像的数据增强方法,涉及深度图像数据增强技术领域,包括以下步骤:获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,其中,包括SAR图像;获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜。本发明实现去除质量不好的深度图像的噪声,提高深度图像的质量,得到的增强深度图可以作为后续图像处理的标准图像,使得深度图质量得到改善,解决了目前网络泛化能力低,增强效果不佳的问题,具体很好的实时性和应用范围广。

Description

一种基于深度图像的数据增强方法
技术领域
本发明涉及深度图像数据增强技术领域,具体来说,涉及一种基于深度图像的数据增强方法。
背景技术
深度模型是一种多层的神经网络,在多个领域得到了非常多的应用,比如:目标识别、目标检测、语义分割等。对于目标识别,深度模型主要分为两个部分,第一个阶段充当一个特征提取器,相比传统的分类器需要手动设计特征提取器,在这一步中深度模型通过卷积层能够自动提取丰富的层级特征,从而减少了手动设计特征的代价。第二阶段充当一个分类器。
Gabor滤波器的频率和方向表示接近人类视觉系统对于频率和方向的表示。它对目标边缘敏感,可以提供良好的方向选择特性。利用Gabor滤波器很容易提取目标的多尺度多方向信息。
SAR-ATR的性能往往和所能够获取的训练样本的完备程度相关。训练一个好的分类器往往需要多的训练数据,但是SAR图像数据的稀少性质会对所训练的分类器的效果造成影响,使识别正确率降低。所以在SAR-ATR领域,训练数据的稀少性是一个比较严重的问题。对于深度模型,训练一个好的网络需要大量的训练数据。如果仅仅用现有的SAR图像数据进行训练,稀少的数据训练将造成网络严重过拟合,使识别效果非常差。SAR图像数据的稀少性与深度模型对数据的极大需求两者是很难达到统一,在以往传统的目标识别方法中,如:KNN、SVM、Adaboost等方法虽然对数据的需求相比深度模型来说要少,但是整体的识别效果不是很好。且有的研究基于深度模型的SAR-ATR,训练数据比较少,所以设计的网络比较浅,达不到提取更深特征的目的,识别效果会大打折扣。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于深度图像的数据增强方法,以克服现有相关技术所存在的上述技术问题。
本发明的技术方案是这样实现的:
一种基于深度图像的数据增强方法,包括以下步骤:
步骤S1,获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,其中,包括SAR图像;
步骤S2,获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜;
步骤S3,将待修复区域的掩膜结合快速行进算法对多方向多尺度的深度图像的待修复区域进行空洞填补得到修复后的深度图像;
步骤S4,对空洞修复后的深度图像进行中值滤波,去除图像边缘噪声,得到图像增强处理后的深度图像,其中包括对空洞修复后的深度图像依次进行直方图均衡化、双边滤波器滤波、Sobel算子提取边界、基于分水岭算法的分割、分割块平均值填充和像素量化处理。
进一步的,包括构建深度图像模型,包括
输入分别输入第一卷积层和第二卷积层,第一卷积层、第二卷积层分别为9*9的卷积层和3*3的卷积层;
第一卷积层连接第三卷积单元,所述第三卷积单元为3*3的卷积层后连接一个ReLU层;
第三卷积单元连接第四卷积单元,第四卷积单元连接第五卷积单元,第五卷积单元连接第六卷积单元,第四卷积单元、第五卷积单元、第六卷积单元均为3*3的卷积层后连接一个ReLU层;
第六卷积单元的输出与第三卷积单元的输出进行Concat操作后输入第七卷积单元,第七卷积单元为3*3的卷积层后连接一个ReLU层;
第七卷积单元的输出与第二卷积单元的输出进行Concat操作后输入第八卷积层,第八卷积层连接第九卷积层,第八卷积层、第九卷积层均为3*3的卷积层;
第九卷积层连接一个Sigmoid激活函数层;
Sigmoid激活函数层连接输出层,输出为反射图像R和照度图像I。
进一步的,包括获取训练网络的图像数据样本,包括以下步骤:
视觉图像灰度化为灰度图像;
对灰度图像进行图像预处理后,以干净的深度图像及其对应的灰度图像和带噪的深度图像为一组,对每一组图像进行切割,从而得到由图像块组成的训练集;
丢弃训练集中的干扰图像块组;
对训练集中的每组图像块随机旋转设定角度并对其像素值进行翻转,扩充训练集;
丢弃冗余的噪深度图像块;
进一步的,包括将图像分割成9*4*6*4个128*128的失真图像块,并分别将图像块在失真图中向四周扩选64个像素点,生成256*256的失真图像块,最终得到9*4*6*4个256*256的失真图像块。
进一步的,包括对每一组图像进行切割,其对每张带噪的深度图像,以设定的间隔进行分割间隔,取出大小固定的图像块;再从灰度图像中的相同区域上取出同样大小图像块和前面的图像块一起组成了训练集的输入部分;再从深度图像的相同区域中以图像块中心为对称点取出缩小的图像块作为训练集的输出。
本发明的有益效果:
本发明基于深度图像的数据增强方法,通过获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,对获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜;将待修复区域的掩膜结合快速行进算法对多方向多尺度的深度图像的待修复区域进行空洞填补得到修复后的深度图像;对空洞修复后的深度图像进行中值滤波,去除图像边缘噪声,得到图像增强处理后的深度图像,实现去除质量不好的深度图像的噪声,提高深度图像的质量,得到的增强深度图可以作为后续图像处理的标准图像,使得深度图质量得到改善,解决了目前网络泛化能力低,增强效果不佳的问题,具体很好的实时性和应用范围广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于深度图像的数据增强方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了一种基于深度图像的数据增强方法。
如图1所示,根据本发明实施例的基于深度图像的数据增强方法,包括以下步骤:
步骤S1,获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,其中,包括SAR图像;
步骤S2,获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜;
步骤S3,将待修复区域的掩膜结合快速行进算法对多方向多尺度的深度图像的待修复区域进行空洞填补得到修复后的深度图像;
步骤S4,对空洞修复后的深度图像进行中值滤波,去除图像边缘噪声,得到图像增强处理后的深度图像,其中包括对空洞修复后的深度图像依次进行直方图均衡化、双边滤波器滤波、Sobel算子提取边界、基于分水岭算法的分割、分割块平均值填充和像素量化处理。
借助于上述方案,通过获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,对获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜;将待修复区域的掩膜结合快速行进算法对多方向多尺度的深度图像的待修复区域进行空洞填补得到修复后的深度图像;对空洞修复后的深度图像进行中值滤波,去除图像边缘噪声,得到图像增强处理后的深度图像,实现去除质量不好的深度图像的噪声,提高深度图像的质量,得到的增强深度图可以作为后续图像处理的标准图像,使得深度图质量得到改善,解决了目前网络泛化能力低,增强效果不佳的问题,具体很好的实时性和应用范围广。
其中,进一步包括构建深度图像模型,包括
输入分别输入第一卷积层和第二卷积层,第一卷积层、第二卷积层分别为9*9的卷积层和3*3的卷积层;
第一卷积层连接第三卷积单元,所述第三卷积单元为3*3的卷积层后连接一个ReLU层;
第三卷积单元连接第四卷积单元,第四卷积单元连接第五卷积单元,第五卷积单元连接第六卷积单元,第四卷积单元、第五卷积单元、第六卷积单元均为3*3的卷积层后连接一个ReLU层;
第六卷积单元的输出与第三卷积单元的输出进行Concat操作后输入第七卷积单元,第七卷积单元为3*3的卷积层后连接一个ReLU层;
第七卷积单元的输出与第二卷积单元的输出进行Concat操作后输入第八卷积层,第八卷积层连接第九卷积层,第八卷积层、第九卷积层均为3*3的卷积层;
第九卷积层连接一个Sigmoid激活函数层;
Sigmoid激活函数层连接输出层,输出为反射图像R和照度图像I。
其中,进一步包括,获取训练网络的图像数据样本,包括以下步骤:
视觉图像灰度化为灰度图像;
对灰度图像进行图像预处理后,以干净的深度图像及其对应的灰度图像和带噪的深度图像为一组,对每一组图像进行切割,从而得到由图像块组成的训练集;
丢弃训练集中的干扰图像块组;
对训练集中的每组图像块随机旋转设定角度并对其像素值进行翻转,扩充训练集;
丢弃冗余的噪深度图像块;
其中,进一步包括将图像分割成9*4*6*4个128*128的失真图像块,并分别将图像块在失真图中向四周扩选64个像素点,生成256*256的失真图像块,最终得到9*4*6*4个256*256的失真图像块。
其中,进一步包括对每一组图像进行切割,其对每张带噪的深度图像,以设定的间隔进行分割间隔,取出大小固定的图像块;再从灰度图像中的相同区域上取出同样大小图像块和前面的图像块一起组成了训练集的输入部分;再从深度图像的相同区域中以图像块中心为对称点取出缩小的图像块作为训练集的输出。
另外,具体的,特征提取可分为多个子块,不同子块中的卷积层的卷积核尺寸都是相同的,只是卷积核的数量不同,每个子块内部的卷积层卷积核的尺寸不同,主要目的是为了降低参数数量以及降低计算消耗,每个子块之间级联一个池化层,目的是为了对数据降维。第一个子块的输入来自训练样本,其他子块的第一层的的输入都是来自池化层降维后的输出,子块之间的最大值池化层的核尺寸和步长都是预设值,每个子块内部的卷积层的数量和核的尺寸的大小可以根据实际需求进行设定,这种子块级联的构建方式,随着模型的深度加深,能够提取更丰富的层级特征。
综上所述,借助于本发明的上述技术方案,通过获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,对获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜;将待修复区域的掩膜结合快速行进算法对多方向多尺度的深度图像的待修复区域进行空洞填补得到修复后的深度图像;对空洞修复后的深度图像进行中值滤波,去除图像边缘噪声,得到图像增强处理后的深度图像,实现去除质量不好的深度图像的噪声,提高深度图像的质量,得到的增强深度图可以作为后续图像处理的标准图像,使得深度图质量得到改善,解决了目前网络泛化能力低,增强效果不佳的问题,具体很好的实时性和应用范围广。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于深度图像的数据增强方法,其特征在于,包括以下步骤:
获取原始深度图像,对所述原始深度图像进行Gabor滤波变换,得到多方向多尺度的深度图像,其中,包括SAR图像;
获取多方向多尺度的深度图像中的待修复区域是否位于图像的边缘位置确定目标掩膜生成方式,基于目标掩膜生成方式确定多方向多尺度的深度图像中待修复区域的掩膜;
将待修复区域的掩膜结合快速行进算法对多方向多尺度的深度图像的待修复区域进行空洞填补得到修复后的深度图像;
对空洞修复后的深度图像进行中值滤波,去除图像边缘噪声,得到图像增强处理后的深度图像,其中包括对空洞修复后的深度图像依次进行直方图均衡化、双边滤波器滤波、Sobel算子提取边界、基于分水岭算法的分割、分割块平均值填充和像素量化处理。
2.根据权利要求1所述的基于深度图像的数据增强方法,其特征在于,进一步包括构建深度图像模型,包括
输入分别输入第一卷积层和第二卷积层,第一卷积层、第二卷积层分别为9*9的卷积层和3*3的卷积层;
第一卷积层连接第三卷积单元,所述第三卷积单元为3*3的卷积层后连接一个ReLU层;
第三卷积单元连接第四卷积单元,第四卷积单元连接第五卷积单元,第五卷积单元连接第六卷积单元,第四卷积单元、第五卷积单元、第六卷积单元均为3*3的卷积层后连接一个ReLU层;
第六卷积单元的输出与第三卷积单元的输出进行Concat操作后输入第七卷积单元,第七卷积单元为3*3的卷积层后连接一个ReLU层;
第七卷积单元的输出与第二卷积单元的输出进行Concat操作后输入第八卷积层,第八卷积层连接第九卷积层,第八卷积层、第九卷积层均为3*3的卷积层;
第九卷积层连接一个Sigmoid激活函数层;
Sigmoid激活函数层连接输出层,输出为反射图像R和照度图像I。
3.根据权利要求2所述的基于深度图像的数据增强方法,其特征在于,
进一步包括,获取训练网络的图像数据样本,包括以下步骤:
视觉图像灰度化为灰度图像;
对灰度图像进行图像预处理后,以干净的深度图像及其对应的灰度图像和带噪的深度图像为一组,对每一组图像进行切割,从而得到由图像块组成的训练集;
丢弃训练集中的干扰图像块组;
对训练集中的每组图像块随机旋转设定角度并对其像素值进行翻转,扩充训练集;
丢弃冗余的噪深度图像块。
4.根据权利要求3所述的基于深度图像的数据增强方法,其特征在于,进一步包括将图像分割成9*4*6*4个128*128的失真图像块,并分别将图像块在失真图中向四周扩选64个像素点,生成256*256的失真图像块,最终得到9*4*6*4个256*256的失真图像块。
5.根据权利要求4所述的基于深度图像的数据增强方法,其特征在于,进一步包括对每一组图像进行切割,其对每张带噪的深度图像,以设定的间隔进行分割间隔,取出大小固定的图像块;再从灰度图像中的相同区域上取出同样大小图像块和前面的图像块一起组成了训练集的输入部分;再从深度图像的相同区域中以图像块中心为对称点取出缩小的图像块作为训练集的输出。
CN202010858444.4A 2020-08-24 2020-08-24 一种基于深度图像的数据增强方法 Pending CN112070689A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010858444.4A CN112070689A (zh) 2020-08-24 2020-08-24 一种基于深度图像的数据增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010858444.4A CN112070689A (zh) 2020-08-24 2020-08-24 一种基于深度图像的数据增强方法

Publications (1)

Publication Number Publication Date
CN112070689A true CN112070689A (zh) 2020-12-11

Family

ID=73659924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010858444.4A Pending CN112070689A (zh) 2020-08-24 2020-08-24 一种基于深度图像的数据增强方法

Country Status (1)

Country Link
CN (1) CN112070689A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950508A (zh) * 2021-03-12 2021-06-11 中国矿业大学(北京) 一种基于计算机视觉的排水管道视频数据修复方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825484A (zh) * 2016-03-23 2016-08-03 华南理工大学 一种基于深度学习的深度图像去噪及增强方法
CN110084757A (zh) * 2019-04-15 2019-08-02 南京信息工程大学 一种基于生成对抗网络的红外深度图像增强方法
CN110675346A (zh) * 2019-09-26 2020-01-10 武汉科技大学 适用于Kinect的图像采集与深度图增强方法及装置
WO2020056791A1 (zh) * 2018-09-21 2020-03-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
CN111402145A (zh) * 2020-02-17 2020-07-10 哈尔滨工业大学 一种基于深度学习的自监督低照度图像增强方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825484A (zh) * 2016-03-23 2016-08-03 华南理工大学 一种基于深度学习的深度图像去噪及增强方法
WO2020056791A1 (zh) * 2018-09-21 2020-03-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
CN110084757A (zh) * 2019-04-15 2019-08-02 南京信息工程大学 一种基于生成对抗网络的红外深度图像增强方法
CN110675346A (zh) * 2019-09-26 2020-01-10 武汉科技大学 适用于Kinect的图像采集与深度图增强方法及装置
CN111402145A (zh) * 2020-02-17 2020-07-10 哈尔滨工业大学 一种基于深度学习的自监督低照度图像增强方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950508A (zh) * 2021-03-12 2021-06-11 中国矿业大学(北京) 一种基于计算机视觉的排水管道视频数据修复方法
CN112950508B (zh) * 2021-03-12 2022-02-11 中国矿业大学(北京) 一种基于计算机视觉的排水管道视频数据修复方法

Similar Documents

Publication Publication Date Title
CN110322495B (zh) 一种基于弱监督深度学习的场景文本分割方法
CN108053417B (zh) 一种基于混合粗分割特征的3D U-Net网络的肺分割装置
CN108154519A (zh) 眼底图像中血管的分割方法、装置及存储介质
CN107358258B (zh) 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
Zhang et al. A dense u-net with cross-layer intersection for detection and localization of image forgery
CN110399840B (zh) 一种快速的草坪语义分割及边界检测方法
CN111145209A (zh) 一种医学图像分割方法、装置、设备及存储介质
Sharma et al. Edge detection using Moore neighborhood
Valliammal et al. Hybrid image segmentation algorithm for leaf recognition and characterization
CN110570440A (zh) 一种基于深度学习边缘检测的图像自动分割方法及装置
CN113449784B (zh) 基于先验属性图谱的图像多分类方法、装置、设备及介质
CN115471682A (zh) 一种基于SIFT融合ResNet50的图像匹配方法
CN111369623A (zh) 一种基于深度学习3d目标检测的肺部ct图像识别方法
CN113077419A (zh) 用于髋关节ct影像识别的信息处理方法及装置
Zhang et al. Using image processing technology to create a novel fry counting algorithm
CN112085017A (zh) 基于显著性检测和Grabcut算法的茶叶嫩芽图像分割方法
CN112070689A (zh) 一种基于深度图像的数据增强方法
CN112101323B (zh) 标题列表的识别方法、系统、电子设备及存储介质
CN111666813B (zh) 基于非局部信息的三维卷积神经网络的皮下汗腺提取方法
CN113139544A (zh) 一种基于多尺度特征动态融合的显著性目标检测方法
Mustaghfirin et al. The comparison of iris detection using histogram equalization and adaptive histogram equalization methods
CN113160146B (zh) 一种基于图神经网络的变化检测方法
JPH04275685A (ja) 画像領域識別処理方法
CN111461259B (zh) 基于红黑形态小波池化网络的图像分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination