CN110674884A - 一种基于特征融合的图像识别方法 - Google Patents
一种基于特征融合的图像识别方法 Download PDFInfo
- Publication number
- CN110674884A CN110674884A CN201910938732.8A CN201910938732A CN110674884A CN 110674884 A CN110674884 A CN 110674884A CN 201910938732 A CN201910938732 A CN 201910938732A CN 110674884 A CN110674884 A CN 110674884A
- Authority
- CN
- China
- Prior art keywords
- image
- information
- feature
- features
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Abstract
本发明特别涉及一种基于特征融合的图像识别方法。该基于特征融合的图像识别方法,将深度特征提取提取到的特征和人工设计特征提取到的特征进行特征融合,兼顾高层次的结构化信息以及底层细节信息,从而使特征语义性更高,分类能力更强。该基于特征融合的图像识别方法,基于小规模数据集在直接利用深度学习进行分类时训练不足的问题,利用深度学习自主学习训练的优势,提取网络中间层特征对图像进行表示,同时数据较少的前提下选取深层次网络造成的信息丢失问题,融合底层人工设计网络进行信息弥补,完善了图像的特征表达,有效提高了传统分类方法中特征的表达能力和小规模数据集的识别分类能力。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种基于特征融合的图像识别方法。
背景技术
图像识别是机器学习领域的热点问题。基于传统的机器学习方法的图像识别技术多利用人工设计特征对图像信息进行表示,这种特征的特点是特征针对性强,特征分辨率高,包含更多的位置和细节等信息,但是信息表达不够全面,语义性低,泛化性弱,如何设计更为有效的特征一直是传统图像识别问题中急需解决的问题。
深度学习的出现改变了传统机器学习中需要人工设计特征的弊端。深度学习网络通过训练过程自主学习图像特征,包含更为丰富的语义信息。
但深度学习并非没有缺点。深度网络的表现多与网络层次的深度以及数据集的规模成正比,数据越多,层次越深,得到的效果越好,这导致深度学习在小规模数据集中表现并不理想。
为了有效利用深度学习自主学习特征的优势,本发明提出了一种基于特征融合的图像识别方法。利用特征融合方法,将深度学习与传统机器学习两种不同的特征进行有效结合,对图像进行表示,证明其可以有效提高特征的表达能力及分类能力。
发明内容
本发明为了弥补现有技术的缺陷,提供了一种简单高效的基于特征融合的图像识别方法。
本发明是通过如下技术方案实现的:
一种基于特征融合的图像识别方法,其特征在于,包括以下步骤:
第一步,深度特征提取
合理划分数据集,利用训练集训练深度网络,优化网络参数,利用验证集防止训练模型过拟合,得到训练后的深度特征提取模型;利用深度学习的优势,在小规模数据集中提取网络中间层特征对图像进行表示;
第二步,人工设计特征提取
为避免选取深层次网络造成的信息丢失问题,利用深度网络模型提取的图像深度特征,提取图像的人工设计特征,即颜色和边缘方向特征描述符CEDD(Color and EdgeDirectivity Descriptor)特征;
第三步,特征融合
将深度特征提取提取到的特征和人工设计特征提取到的特征进行特征融合,兼顾高层次的结构化信息以及底层细节信息,从而使特征语义性更高,分类能力更强。
第四步,完成预测分类工作。
所述第一步中,深度学习通过大量,数据训练将相对不独立的特征经过多层学习后形成更加结构化的特征,包括像素pixels->边缘edges->对象objects。
所述深度特征提取中,CNN编码过程包括以下步骤:
(1)输入图像x,将图像x分割成多个卷积层;
(2)分别提取各个卷积层图像的宽度w,高度h和通道的个数c;
(3)对卷积层图像进行全连接层处理,得到神经网络分类特征;
(4)对卷积层图像进行最大池化处理,得到机器学习分类特征;
(5)将原始深度神经网络的全连接层替换为池化层输出特征信息,作为图像的深度特征表达用于分类。
所述步骤(1)中,采用sparse autoencoder,即自动稀疏编码的方式,自动提取图像特征,将输入图像的激活度用隐层激活度表示,在输出层还原,得到压缩后的特征,且信息熵减小,适用于图像分类。
所述第二步中,颜色和边缘方向特征描述符CEDD特征的提取过程分为24维颜色特征提取和6维纹理特征提取两部分。
所述24维颜色特征提取采用HSV模型,H表示色调,S表示饱和度,V表示亮度;其提取过程为:首先提取图像的RGB颜色信息,即红、绿、蓝三基色的亮度,然后进行RGB-HSV的模型转换,得到像素点的HSV值进行过滤,先经过10-bins模糊过滤,再经过24-bins过滤,最后得到颜色特征信息的直方图。
所述6维纹理特征包括一维无边缘信息和五个边缘方向,分别为垂直方向(v)、水平方向(h)、45度方向(d-45)、135度方向(d-135)和无方向(nd);通过判断每个区域纹理信息所属于的直方图区域,即可得出一个6维直方图作为纹理特征。
所述6维纹理特征提取过程中运用到YIQ色彩空间的Y值,即亮度信息;将图片分成若干区域,在每个区域内,再依次分为四个子区域,根据YIQ公式计算出小区域内像素的灰度值的平均值,然后经过5个数字滤波器过滤后,由纹理特征的计算规则判断每个小区域的纹理类别即可。
所述纹理特征的计算规则为:
首先设定4个阈值,T0=14,检测是否含有边缘信息;T1=0.68,检测是否含有方向信息;T2=T3=0.98,检测是否含有其他四个方向的信息;
如果mmax≧T0,则认为该区域包含纹理信息,此时可以计算其他各个方向的值,否则,则认为该区域不含有纹理信息,纹理直方图第一维的值增加1;
本发明的有益效果是:该基于特征融合的图像识别方法,基于小规模数据集在直接利用深度学习进行分类时训练不足的问题,利用深度学习自主学习训练的优势,提取网络中间层特征对图像进行表示,同时数据较少的前提下选取深层次网络造成的信息丢失问题,融合底层人工设计网络进行信息弥补,完善了图像的特征表达,有效提高了传统分类方法中特征的表达能力和小规模数据集的识别分类能力。
附图说明
附图1为本发明基于特征融合的图像识别方法示意图。
附图2为本发明深度特征提取方法示意图。
具体实施方式
为了使本技术领域的人员更好的理解本发明中的技术方案,下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚,完整的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
该基于特征融合的图像识别方法,包括以下步骤:
第一步,深度特征提取
合理划分数据集,利用训练集训练深度网络,优化网络参数,利用验证集防止训练模型过拟合,得到训练后的深度特征提取模型;利用深度学习的优势,在小规模数据集中提取网络中间层特征对图像进行表示;
第二步,人工设计特征提取
为避免选取深层次网络造成的信息丢失问题,利用深度网络模型提取的图像深度特征,提取图像的人工设计特征,即颜色和边缘方向特征描述符CEDD(Color and EdgeDirectivity Descriptor)特征;
第三步,特征融合
将深度特征提取提取到的特征和人工设计特征提取到的特征进行特征融合,兼顾高层次的结构化信息以及底层细节信息,从而使特征语义性更高,分类能力更强。
第四步,完成预测分类工作。
所述第一步中,深度学习通过大量,数据训练将相对不独立的特征经过多层学习后形成更加结构化的特征,包括像素pixels->边缘edges->对象objects。深度学习是一个从局部到整体的过程,更多的考虑到图像的相关性,可以得到比传统方法更有效的表达。
所述深度特征提取中,CNN编码过程包括以下步骤:
(1)输入图像x,将图像x分割成多个卷积层;
(2)分别提取各个卷积层图像的宽度w,高度h和通道的个数c;
(3)对卷积层图像进行全连接层处理,得到神经网络分类特征;
(4)对卷积层图像进行最大池化处理,得到机器学习分类特征;
(5)将原始深度神经网络的全连接层替换为池化层输出特征信息,作为图像的深度特征表达用于分类。得到的特征信息具有旋转不变性和平移不变性特点。
所述步骤(1)中,采用sparse autoencoder,即自动稀疏编码的方式,自动提取图像特征,将输入图像的激活度用隐层激活度表示,在输出层还原,得到压缩后的特征,且信息熵减小,适用于图像分类。
所述Sparse autoencoder的损失函数表达式为:
其中,K-L距离表达式为:
便是两个向量之间的差异值,差异越大,则“惩罚”越大。
隐层节点输出平均值:
颜色和边缘方向特征描述符CEDD(Color and Edge Directivity Descriptor)是图像识别方法中常用的一种特征,不同于单一特征,它属于一种复合特征,结合了图像的颜色和纹理信息,从理论上来说,可以较好地应用到多种图像分类应用中。CEDD提取了6维的边缘特征,以及每个边缘特征对应的24维颜色特征,6×24归一化后得到144维的特征。特征描述符占用空间更小,计算更快,更适合于实时性的特征提取。
所述第二步中,颜色和边缘方向特征描述符CEDD特征的提取过程分为24维颜色特征提取和6维纹理特征提取两部分。
所述24维颜色特征提取采用HSV模型,H表示色调,S表示饱和度,V表示亮度;相比RGB颜色模型,HSV模型能够更好地反应人类的视觉对颜色的感知能力和鉴别能力。其提取过程为:首先提取图像的RGB颜色信息,即红、绿、蓝三基色的亮度,然后进行RGB-HSV的模型转换,得到像素点的HSV值进行过滤,先经过10-bins模糊过滤,再经过24-bins过滤,最后得到颜色特征信息的直方图。
RGB-HSV的转换公式如下:
V=max(R,G,B),
若R=max(R,G,B),
若G=max(R,G,B),
若B=max(R,G,B),
以上计算均取整数。
所述6维纹理特征包括一维无边缘信息和五个边缘方向,分别为垂直方向(v)、水平方向(h)、45度方向(d-45)、135度方向(d-135)和无方向(nd);通过判断每个区域纹理信息所属于的直方图区域,即可得出一个6维直方图作为纹理特征。
所述6维纹理特征提取过程中运用到YIQ色彩空间的Y值,即亮度信息;将图片分成若干区域,在每个区域内,再依次分为四个子区域,根据YIQ公式计算出小区域内像素的灰度值的平均值,然后经过5个数字滤波器过滤后,由纹理特征的计算规则判断每个小区域的纹理类别即可。
Y=0.29R+0.587G+0.114B
I=0.596R+0.275G+0.321B
Q=0.212R+0.523G+0.311B
在YIQ色彩空间中,Y值代表图像的亮度信息,I、Q两个值则携带颜色信息,I值代表从橙色到青色的颜色变化,而Q值则代表从紫色到黄绿色的颜色变化。
所述纹理特征的计算规则为:
首先设定4个阈值,T0=14,检测是否含有边缘信息;T1=0.68,检测是否含有方向信息;T2=T3=0.98,检测是否含有其他四个方向的信息;
如果mmax≧T0,则认为该区域包含纹理信息,此时可以计算其他各个方向的值,否则,则认为该区域不含有纹理信息,纹理直方图第一维的值增加1;
各个子区域内所判定的各个方向上的取值ni,公式计算如下:
其中,nv(i,j),nh(i,j),nd-45(i,j),nd-135(i,j),nnd(i,j)分别为各个子区域内所判定的各个方向上的取值;gk(i,j)为在第(i,j)内四个子区域的平均值,k值范围是0-3;av(k),ah(k),ad-45(k),ad-135(k),and(k)分贝表示四个子区域内的平均灰度值经过过滤器时的参数值。
复合特征以更为简便的计算方式提取图像的颜色与纹理特征,相比于直接融合颜色与纹理特征,特征维数大幅降低,减少了计算机的运算量和存储空间,在实时性上表现更为突出。
所述第三步中,高度聚合的深度特征语义丰富,结构化层次更高,对图像表达更为全面,同时,丢失的底层信息使其失去细节性和位置信息等重要信息,这些可以通过人工设计特征来弥补。两者的互补性促使我们利用特征融合方式,完善特征表达,尤其是在训练数据规模不足时,取得高于单独的深度学习方式或者传统的机器学习方式。
以上对本发明实例中的一种基于特征融合的图像识别方法进行了详细的介绍。本部分采用具体实例对发明的原理及实施方式进行了阐述,以上实例仅用于帮助理解本发明的核心思想,在不脱离本发明原理的情况下,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
Claims (9)
1.一种基于特征融合的图像识别方法,其特征在于,包括以下步骤:
第一步,深度特征提取
合理划分数据集,利用训练集训练深度网络,优化网络参数,利用验证集防止训练模型过拟合,得到训练后的深度特征提取模型;利用深度学习的优势,在小规模数据集中提取网络中间层特征对图像进行表示;
第二步,人工设计特征提取
为避免选取深层次网络造成的信息丢失问题,利用深度网络模型提取的图像深度特征,提取图像的人工设计特征,即颜色和边缘方向特征描述符CEDD特征;
第三步,特征融合
将深度特征提取提取到的特征和人工设计特征提取到的特征进行特征融合,兼顾高层次的结构化信息以及底层细节信息,从而使特征语义性更高,分类能力更强。
第四步,完成预测分类工作。
2.根据权利要求1所述的基于特征融合的图像识别方法,其特征在于:所述第一步中,深度学习通过大量,数据训练将相对不独立的特征经过多层学习后形成更加结构化的特征,包括像素pixels,边缘edges和对象objects。
3.根据权利要求2所述的基于特征融合的图像识别方法,其特征在于:所述深度特征提取中,CNN编码过程包括以下步骤:
(1)输入图像x,将图像x分割成多个卷积层;
(2)分别提取各个卷积层图像的宽度w,高度h和通道的个数c;
(3)对卷积层图像进行全连接层处理,得到神经网络分类特征;
(4)对卷积层图像进行最大池化处理,得到机器学习分类特征;
(5)将原始深度神经网络的全连接层替换为池化层输出特征信息,作为图像的深度特征表达用于分类。
4.根据权利要求3所述的基于特征融合的图像识别方法,其特征在于:
所述步骤(1)中,采用sparse autoencoder,即自动稀疏编码的方式,自动提取图像特征,将输入图像的激活度用隐层激活度表示,在输出层还原,得到压缩后的特征,且信息熵减小,适用于图像分类。
5.根据权利要求1所述的基于特征融合的图像识别方法,其特征在于:所述第二步中,颜色和边缘方向特征描述符CEDD特征的提取过程分为24维颜色特征提取和6维纹理特征提取两部分。
6.根据权利要求5所述的基于特征融合的图像识别方法,其特征在于:所述24维颜色特征提取采用HSV模型,H表示色调,S表示饱和度,V表示亮度;其提取过程为:首先提取图像的RGB颜色信息,即红、绿、蓝三基色的亮度,然后进行RGB-HSV的模型转换,得到像素点的HSV值进行过滤,先经过10-bins模糊过滤,再经过24-bins过滤,最后得到颜色特征信息的直方图。
7.根据权利要求5所述的基于特征融合的图像识别方法,其特征在于:所述6维纹理特征包括一维无边缘信息和五个边缘方向,分别为垂直方向v、水平方向h、45度方向d-45、135度方向d-135和无方向nd;通过判断每个区域纹理信息所属于的直方图区域,即可得出一个6维直方图作为纹理特征。
8.根据权利要求7所述的基于特征融合的图像识别方法,其特征在于:所述6维纹理特征提取过程中运用到YIQ色彩空间的Y值,即亮度信息;将图片分成若干区域,在每个区域内,再依次分为四个子区域,根据YIQ公式计算出小区域内像素的灰度值的平均值,然后经过5个数字滤波器过滤后,由纹理特征的计算规则判断每个小区域的纹理类别即可。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910938732.8A CN110674884A (zh) | 2019-09-30 | 2019-09-30 | 一种基于特征融合的图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910938732.8A CN110674884A (zh) | 2019-09-30 | 2019-09-30 | 一种基于特征融合的图像识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110674884A true CN110674884A (zh) | 2020-01-10 |
Family
ID=69080361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910938732.8A Pending CN110674884A (zh) | 2019-09-30 | 2019-09-30 | 一种基于特征融合的图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674884A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583320A (zh) * | 2020-03-17 | 2020-08-25 | 哈尔滨医科大学 | 融合深度卷积网络和影像组学特征的乳腺癌超声图分型方法、系统及存储介质 |
CN112116000A (zh) * | 2020-09-16 | 2020-12-22 | 深圳印像数据科技有限公司 | 针对服装类型的图像识别方法 |
CN112819007A (zh) * | 2021-01-07 | 2021-05-18 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN114611569A (zh) * | 2022-01-19 | 2022-06-10 | 北京理工大学 | 一种基于知识辅助的雷达目标深度学习分类方法、系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679863A (zh) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | 一种基于深度学习的以图搜图方法和系统 |
CN105787458A (zh) * | 2016-03-11 | 2016-07-20 | 重庆邮电大学 | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 |
WO2019169816A1 (zh) * | 2018-03-09 | 2019-09-12 | 中山大学 | 一种用于精细化识别车辆属性的深度神经网络及训练方法 |
-
2019
- 2019-09-30 CN CN201910938732.8A patent/CN110674884A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679863A (zh) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | 一种基于深度学习的以图搜图方法和系统 |
CN105787458A (zh) * | 2016-03-11 | 2016-07-20 | 重庆邮电大学 | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 |
WO2019169816A1 (zh) * | 2018-03-09 | 2019-09-12 | 中山大学 | 一种用于精细化识别车辆属性的深度神经网络及训练方法 |
Non-Patent Citations (1)
Title |
---|
李雪: "基于特征融合和语义分割的地形识别算法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583320A (zh) * | 2020-03-17 | 2020-08-25 | 哈尔滨医科大学 | 融合深度卷积网络和影像组学特征的乳腺癌超声图分型方法、系统及存储介质 |
CN112116000A (zh) * | 2020-09-16 | 2020-12-22 | 深圳印像数据科技有限公司 | 针对服装类型的图像识别方法 |
CN112819007A (zh) * | 2021-01-07 | 2021-05-18 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN112819007B (zh) * | 2021-01-07 | 2023-08-01 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN114611569A (zh) * | 2022-01-19 | 2022-06-10 | 北京理工大学 | 一种基于知识辅助的雷达目标深度学习分类方法、系统 |
CN114611569B (zh) * | 2022-01-19 | 2022-11-29 | 北京理工大学 | 一种基于知识辅助的雷达目标深度学习分类方法、系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674884A (zh) | 一种基于特征融合的图像识别方法 | |
CN112653899B (zh) | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 | |
CN103065153B (zh) | 一种基于色彩量化和聚类的视频关键帧提取方法 | |
CN108921942B (zh) | 对图像进行2d转制3d的方法及装置 | |
US20120301019A1 (en) | Method for color feature extraction | |
Hwang et al. | Image colorization with deep convolutional neural networks | |
CN106846339A (zh) | 一种图像检测方法和装置 | |
CN105184808B (zh) | 一种光场图像前后景自动分割方法 | |
CN103327220B (zh) | 低照度Bayer图像上以绿色通道为导向的去噪方法 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN110070489A (zh) | 一种基于视差注意力机制的双目图像超分辨方法 | |
CN111476849B (zh) | 对象颜色识别方法、装置、电子设备以及存储介质 | |
CN108108670A (zh) | 一种层次化筛选的遥感图像提取港口仓库的方法 | |
CN107578451A (zh) | 一种面向自然图像的自适应主色提取方法 | |
CN108320274A (zh) | 一种基于双通道循环生成对抗网络的红外视频彩色化方法 | |
CN115565035A (zh) | 一种用于夜间目标增强的红外与可见光图像融合方法 | |
CN105374010A (zh) | 全景图像的生成方法 | |
CN109377499A (zh) | 一种像素级物体分割方法及装置 | |
Boutarfass et al. | Improving cnn-based colorization of b&w photographs | |
CN108711160A (zh) | 一种基于hsi增强性模型的目标分割方法 | |
CN115019340A (zh) | 一种基于深度学习的夜间行人检测算法 | |
CN104299234B (zh) | 视频数据中雨场去除的方法和系统 | |
CN112070686A (zh) | 一种基于深度学习的逆光图像协同增强方法 | |
Wang et al. | A color-texture segmentation method to extract tree image in complex scene | |
CN106780402A (zh) | 基于Bayer格式的图像动态范围扩展方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200110 |