CN110516687A - 一种基于图像融合和改进ResNet的图像识别方法 - Google Patents

一种基于图像融合和改进ResNet的图像识别方法 Download PDF

Info

Publication number
CN110516687A
CN110516687A CN201910724082.7A CN201910724082A CN110516687A CN 110516687 A CN110516687 A CN 110516687A CN 201910724082 A CN201910724082 A CN 201910724082A CN 110516687 A CN110516687 A CN 110516687A
Authority
CN
China
Prior art keywords
image
mol
matrix
principal component
denoted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910724082.7A
Other languages
English (en)
Other versions
CN110516687B (zh
Inventor
李建强
李鹏智
谢海华
王延安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongkehuiyun Technology Co ltd
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201910724082.7A priority Critical patent/CN110516687B/zh
Publication of CN110516687A publication Critical patent/CN110516687A/zh
Application granted granted Critical
Publication of CN110516687B publication Critical patent/CN110516687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于图像融合和改进ResNet的图像识别方法。本发明设计提取图像的多种特征,对大尺寸原图像进行主成分分析,分成从大到小的三个主成分向量,保留第一主成成分,即保留原图像的最大特征;然后对于两个较小的主成分分别用提取的两个特征进行替换,生成新的大尺寸图像。用新的大尺寸图像去训练改进的ResNet模型,从而提升模型对于尺寸比较大、光线强弱以及背景的干扰比较突出的图像识别分类的准确性和敏感度。

Description

一种基于图像融合和改进ResNet的图像识别方法
技术领域
本发明设计提取图像的多种特征,对大尺寸原图像进行主成分分析,分成从大到小的三个主成分向量,保留第一主成成分,即保留原图像的最大特征;然后对于两个较小的主成分分别用提取的两个特征进行替换,生成新的大尺寸图像。用新的大尺寸图像去训练改进的ResNet模型,从而提升模型对于尺寸比较大、光线强弱以及背景的干扰比较突出的图像识别分类的准确性和敏感度。
背景技术
图像识别是人工智能的一个重要领域,根据各自在图像信息中所反映的不同特征,对目标区识别分类的图像处理方法。图像识别的传统方法是特征描述及检测,但由于实际情况非常复杂,传统的分类方法不堪重负。现在比较流行的是某种CNN模型来进行图像的识别分类,如ResNet。ResNet的结构可以极快的加速深层神经网络的训练,模型的准确率也有比较大的提升。但是在用ResNet训练较大尺寸的图像时,一般都要将图像进行缩放,以此保证最后的feature maps大小尺寸合适,如512X512尺寸的图像缩放成224X224尺寸的图像,这样过大的放缩就会导致图像损失一些细节影响识别精度。其次,由于拍摄图像的背景和光线强弱的变化,准确的识别分类还是很困难的。目前,对于尺寸比较大的图像、光线强弱以及背景的干扰比较突出的图像识别分类的准确性和敏感性有待于提高优化。
发明内容
本发明设计对于原始图像数据进行白化处理和提取LBP纹理特征,然后利用PCA对原始RGB图像进行主成分分析,依次从小到大得到三个主成分向量,然后保留第一大主成分,用白化处理特征的和LBP特征分别进行直方图配准后替换较小的两个主成分形成新的图像。这样就可以保留原图像的主要信息,替换掉图像中的一些噪音信息。其次,对于ResNet模型,去掉模型自带的平均池化层和全连接层,然后依次加入Relu层、3*3卷积层、Batch Normalization层、平均池化层、全连接层,以此来改进现有模型,提高对大尺寸图像的适应能力。最后用形成的新的训练样本集合去训练改进后的ResNet模型,得到最终的识别分类结果,从而提升对于尺寸比较大、光线强弱以及背景的干扰比较突出的图像识别分类的准确性和敏感度。
本发明采用了如下的技术方案及实现步骤:
1.一种基于图像融合和改进ResNet的图像识别方法,其特征在于,
具体包括以下步骤:
(1)制作图像训练样本:
(1)-1对训练图像数据集合进行相关专家标记,形成图像训练样本集合,原图像是r*c尺寸的RGB图像;
(2)白化处理以及提取LBP特征:
(2)-1对于原图像利用现有的数字图像处理方法分别进行提取白化特征和LBP特征,
(3)主成分分析替换处理:
(3)-1读取原RGB图像获得相应的矩阵,记做mol0,即mol0的形式为r*c*3;读取白化图像矩阵为r*c,记做ban0;读取LBP矩阵为r*c,记做ban010;然后进行矩阵数据归一化预处理在0-1之间:公式(1)如下:
mol=mol0/255;ban=ban0/255;ban01=ban010/255 (1)
(3)-2把mol的矩阵变换成一个(r*c)*3的矩阵,即把mol的每个通道矩阵变换成一行例,记为mols,然后求出mol的相关矩阵,记做correlation,公式(2)如下,其中mol’为mol的转置矩阵;然后求出特征值value与特征向量vector得到主主成分矩阵,记做pa,公式(3)如下;然后把得到的主成分矩阵变换成一个r*c*3的矩阵,记做pas;
correlation=(mol’*mol)/(r*c) (2)
pa=mols*vector (3)
(3)-3因为第二步骤得到的特征值value是从小到达排列的,所以pas的第三通道就是第一主成分,保留第一主成分,把剩余的两个较小的通道进行归一化处理,即每个通道的元素处于0-1之间,然后把白化处理的特征和LBP特征分别和剩余两个较小的通道主成分进行直方图匹配处理,即使ban、ban01的直方图与第二主成分、第三主成分的直方图一致;
(3)-4直方图匹配完成后,ban、ban01分别去替换第二、三主成成分的矩阵,然后通过PCA逆变换重构融合图像形成新的RGB图像;
(4)改进ResNet:
(4)-1保留模型的卷积不动,去掉模型最后的平均池化层和全连接层得到r个特征图,即feature maps,然后依次加入Relu层、卷积层,其中卷积核大小为3*3,步长为2,卷积层得到下采样后的r个特征图,再加入批处理规范化层,即Batch Normalization,平均池化层得到r个1*1的特征图,然后变换成r*1的向量,最后经过全连接层得到分类结果;
(5)训练改进的ResNet模型:
(5)-1直接用新生成的大图像训练样本集合去训练改进的ResNet模型,得到最终的图像识别分类结果。
本发明的创造性主要体现在:
现实生活中大量的样本图像都会受到拍照光线强弱以及背景的干扰,对于图像识别分类的准确性和敏感性产生了较大的影响。图像的白化处理可以获得不受环境照明强度、物体反射、拍摄相机等多因素的影响的那些不受外界影响的恒定信息;图像LBP特征来描述图像局部纹理特征的算子,它具有旋转不变性和灰度不变性等显著的优点。利用PCA把原图像的较小的主成分进行替换,形成新的RGB图像来增加复杂环境下的图像识别特征显现。对于新的RGB图像不进行放缩处理,直接用大尺寸图像去训练改进的ResNet,减少图像精度损失,提高图像识别分类的准确性和敏感性。
本发明设计提取图像的多种特征,对大尺寸原图像进行主成分分析,分成从大到小的三个主成分向量,保留第一主成成分,即保留原图像的最大特征;然后对于两个较小的主成分分别用提取的两个特征先进行直方图匹配然后进行替换,生成新的大尺寸图像。用新的大尺寸图像不进行放缩处理直接去训练改进的ResNet模型,从而提升模型对于尺寸比较大、光线强弱以及背景的干扰比较突出的图像识别分类的准确性和敏感度。
附图说明
图1是本发明总体流程框图。
图2是本发明是主成分分析替换处理过程子图
图3是本发明是ResNet模型改进过程子图
具体实施方式
1.本发明设计结合图像融合方法与改进ResNet模型提升对于尺寸比较大、光线强弱以及背景的干扰比较突出的图像的分类结果,其特征在于:包括制作图像训练本、白化处理以及提取LBP特征、主成分分析替换处理,改进ResNet,训练改进的ResNet模型
具体包括以下步骤:
(1)制作图像训练样本:
(1)-1对训练图像数据集合进行相关专家标记,形成图像训练样本集合,比如原图像是512*512的RGB图像。
(2)白化处理以及提取LBP特征:
(2)-1对于原图像利用现有的数字图像处理方法分别进行提取白化特征和LBP特征
(3)主成分分析替换处理:
(3)-1读取原图像获得相应的矩阵(512*512*3)记录做mol,即mol的size为r*c*band;读取白化图像矩阵(512*512)记做ban;读取LBP矩阵(512*512)记做ban01;然后进行矩阵数据归一化预处理在0-1之间:
(3)-2把mol的矩阵reshape一个262144*3的矩阵(其中262144就是r*c的结果),记为mols;即把mol的每个通道reshape成一行;然后求出mol的相关矩阵,记做correlation,公式(2)如下(其中mol’为mol的转置矩阵);然后求出特征值value与特征向量vector得到主主成分矩阵,记做pa,公式(3)如下;然后把得到的主成分矩阵reshape成一个512*512*3的矩阵,记做pas
correlation=(mol’*mol)/262144 (2)
pa=mols*vector (3)
(3)-3因为第二步骤得到的特征值value是从小到达排列的,所以pas的第三通道就是第一主成分,保留第一主成分,把剩余的两个较小的通道进行归一化处理,即每个通道的元素处于0-1之间,然后把白化处理的特征和LBP特征分别和剩余两个较小的通道主成分进行直方图匹配处理,即使ban、ban01的直方图与第二主成分、第三主成分的直方图一致
(3)-4直方图匹配完成后,ban、ban01分别去替换第二、三主成成分的矩阵,然后通过PCA逆变换重构融合图像形成新的RGB图像。
(4)改进ResNet:
(4)-1保留模型的卷积等操作不动,去掉模型最后的平均池化层和全连接层得到feature maps(512*16*16)然后依次加入Relu层、3*3卷积层(kerner size=(3,3)stride=(2,2)padding=1)得到feature maps(512*8*8),再加入Batch Normalization层、平均池化层得到feature maps(512*1*1),然后resize成512*1的向量,最后经过全连接层得到分类结果。
(5)训练改进的ResNet模型:
(5)-1直接用新的图像训练样本集合(512*512尺寸)去训练改进的ResNet模型,得到最终的图像识别分类结果。
更具体的是:
(1)制作图像训练样本:
(1)-1对训练图像数据集合进行相关专家标记,形成图像训练样本集合,比如原图像是512*512的RGB图像。
(2)白化处理以及提取LBP特征:
(2)-1对于原图像利用现有的数字图像处理方法分别进行提取白化特征和LBP特征
(3)主成分分析替换处理:
(3)-1读取原图像获得相应的矩阵(512*512*3)记录做mol,即mol的size为r*c*band;读取白化图像矩阵(512*512)记做ban;读取LBP矩阵(512*512)记做ban01;然后进行矩阵数据归一化预处理在0-1之间:
(3)-2把mol的矩阵reshape一个262144*3的矩阵(其中262144就是r*c的结果),记为mols;即把mol的每个通道reshape成一行;然后求出mol的相关矩阵,记做correlation,公式(2)如下(其中mol’为mol的转置矩阵);然后求出特征值value与特征向量vector得到主主成分矩阵,记做pa,公式(3)如下;然后把得到的主成分矩阵reshape成一个512*512*3的矩阵,记做pas
correlation=(mol’*mol)/262144 (2)
pa=mols*vector (3)
(3)-3因为第二步骤得到的特征值value是从小到达排列的,所以pas的第三通道就是第一主成分,保留第一主成分,把剩余的两个较小的通道进行归一化处理,即每个通道的元素处于0-1之间,然后把白化处理的特征和LBP特征分别和剩余两个较小的通道主成分进行直方图匹配处理,即使ban、ban01的直方图与第二主成分、第三主成分的直方图一致
(3)-4直方图匹配完成后,ban、ban01分别去替换第二、三主成成分的矩阵,然后通过PCA逆变换重构融合图像形成新的RGB图像。
(4)改进ResNet:
(4)-1保留模型的卷积等操作不动,去掉模型最后的平均池化层和全连接层得到feature maps(512*16*16)然后依次加入Relu层、3*3卷积层(kerner size=(3,3)stride=(2,2)padding=1)得到feature maps(512*8*8),再加入Batch Normalization层、平均池化层得到feature maps(512*1*1),然后resize成512*1的向量,最后经过全连接层得到分类结果。
(5)训练改进的ResNet模型:
(5)-1直接用新的图像训练样本集合(512*512尺寸)去训练改进的ResNet模型,得到最终的图像识别分类结果。

Claims (1)

1.一种基于图像融合和改进ResNet的图像识别方法,其特征在于,
具体包括以下步骤:
(1)制作图像训练样本:
(1)-1对训练图像数据集合进行相关专家标记,形成图像训练样本集合,原图像是r*c尺寸的RGB图像;
(2)白化处理以及提取LBP特征:
(2)-1对于原图像利用现有的数字图像处理方法分别进行提取白化特征和LBP特征,
(3)主成分分析替换处理:
(3)-1读取原RGB图像获得相应的矩阵,记做mol0,即mol0的形式为r*c*3;读取白化图像矩阵为r*c,记做ban0;读取LBP矩阵为r*c,记做ban010;然后进行矩阵数据归一化预处理在0-1之间:公式(1)如下:
mol=mol0/255;ban=ban0/255;ban01=ban010/255 (1)
(3)-2把mol的矩阵变换成一个(r*c)*3的矩阵,即把mol的每个通道矩阵变换成一行例,记为mols,然后求出mol的相关矩阵,记做correlation,公式(2)如下,其中mol’为mol的转置矩阵;然后求出特征值value与特征向量vector得到主主成分矩阵,记做pa,公式(3)如下;然后把得到的主成分矩阵变换成一个r*c*3的矩阵,记做pas;
correlation=(mol’*mol)/(r*c) (2)
pa=mols*vector (3)
(3)-3因为第二步骤得到的特征值value是从小到达排列的,所以pas的第三通道就是第一主成分,保留第一主成分,把剩余的两个较小的通道进行归一化处理,即每个通道的元素处于0-1之间,然后把白化处理的特征和LBP特征分别和剩余两个较小的通道主成分进行直方图匹配处理,即使ban、ban01的直方图与第二主成分、第三主成分的直方图一致;
(3)-4直方图匹配完成后,ban、ban01分别去替换第二、三主成成分的矩阵,然后通过PCA逆变换重构融合图像形成新的RGB图像;
(4)改进ResNet:
(4)-1保留模型的卷积不动,去掉模型最后的平均池化层和全连接层得到r个特征图,即feature maps,然后依次加入Relu层、卷积层,其中卷积核大小为3*3,步长为2,卷积层得到下采样后的r个特征图,再加入批处理规范化层,即Batch Normalization,平均池化层得到r个1*1的特征图,然后变换成r*1的向量,最后经过全连接层得到分类结果;
(5)训练改进的ResNet模型:
(5)-1直接用新生成的大图像训练样本集合去训练改进的ResNet模型,得到最终的图像识别分类结果。
CN201910724082.7A 2019-08-07 2019-08-07 一种基于图像融合和改进ResNet的图像识别方法 Active CN110516687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910724082.7A CN110516687B (zh) 2019-08-07 2019-08-07 一种基于图像融合和改进ResNet的图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910724082.7A CN110516687B (zh) 2019-08-07 2019-08-07 一种基于图像融合和改进ResNet的图像识别方法

Publications (2)

Publication Number Publication Date
CN110516687A true CN110516687A (zh) 2019-11-29
CN110516687B CN110516687B (zh) 2022-02-08

Family

ID=68625256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910724082.7A Active CN110516687B (zh) 2019-08-07 2019-08-07 一种基于图像融合和改进ResNet的图像识别方法

Country Status (1)

Country Link
CN (1) CN110516687B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102667810A (zh) * 2009-10-09 2012-09-12 维斯顿有限公司 数字图像中的面部识别
CN107844795A (zh) * 2017-11-18 2018-03-27 中国人民解放军陆军工程大学 基于主成分分析的卷积神经网络特征提取方法
CN108256588A (zh) * 2018-02-12 2018-07-06 兰州工业学院 一种几何图像识别特征提取方法及系统
CN108830296A (zh) * 2018-05-18 2018-11-16 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
WO2019013711A1 (en) * 2017-07-12 2019-01-17 Mastercard Asia/Pacific Pte. Ltd. MOBILE DEVICE PLATFORM FOR AUTOMATED VISUAL RECOGNITION OF RETAIL PRODUCTS
CN109308692A (zh) * 2018-07-30 2019-02-05 西北大学 基于改进Resnet与SVR混合模型的OCT图像质量评价方法
CN109740657A (zh) * 2018-12-27 2019-05-10 郑州云海信息技术有限公司 一种用于图像数据分类的神经网络模型的训练方法与设备
CN109740652A (zh) * 2018-12-24 2019-05-10 深圳大学 一种病理图像分类方法和计算机设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102667810A (zh) * 2009-10-09 2012-09-12 维斯顿有限公司 数字图像中的面部识别
WO2019013711A1 (en) * 2017-07-12 2019-01-17 Mastercard Asia/Pacific Pte. Ltd. MOBILE DEVICE PLATFORM FOR AUTOMATED VISUAL RECOGNITION OF RETAIL PRODUCTS
CN107844795A (zh) * 2017-11-18 2018-03-27 中国人民解放军陆军工程大学 基于主成分分析的卷积神经网络特征提取方法
CN108256588A (zh) * 2018-02-12 2018-07-06 兰州工业学院 一种几何图像识别特征提取方法及系统
CN108830296A (zh) * 2018-05-18 2018-11-16 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
CN109308692A (zh) * 2018-07-30 2019-02-05 西北大学 基于改进Resnet与SVR混合模型的OCT图像质量评价方法
CN109740652A (zh) * 2018-12-24 2019-05-10 深圳大学 一种病理图像分类方法和计算机设备
CN109740657A (zh) * 2018-12-27 2019-05-10 郑州云海信息技术有限公司 一种用于图像数据分类的神经网络模型的训练方法与设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANQIANG LI 等: "Automatic Cataract Diagnosis by Image-Based Interpretability", 《2018 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS (SMC)》 *
郑远攀 等: "深度学习在图像识别中的应用研究综述", 《计算机工程与应用》 *

Also Published As

Publication number Publication date
CN110516687B (zh) 2022-02-08

Similar Documents

Publication Publication Date Title
CN111414906B (zh) 纸质票据图片的数据合成与文本识别方法
Deng et al. Image aesthetic assessment: An experimental survey
CN111401384B (zh) 一种变电设备缺陷图像匹配方法
CN107967484B (zh) 一种基于多分辨率的图像分类方法
CN109344701A (zh) 一种基于Kinect的动态手势识别方法
CN109684922B (zh) 一种基于卷积神经网络的多模型对成品菜的识别方法
Kadam et al. Detection and localization of multiple image splicing using MobileNet V1
CN110717907A (zh) 一种基于深度学习的手部肿瘤智能检测方法
CN111008639B (zh) 一种基于注意力机制的车牌字符识别方法
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
CN111339975A (zh) 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
CN113177612B (zh) 一种基于cnn少样本的农业病虫害图像识别方法
CN111126240A (zh) 一种三通道特征融合人脸识别方法
CN109977834B (zh) 从深度图像中分割人手与交互物体的方法和装置
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN112017162B (zh) 病理图像处理方法、装置、存储介质和处理器
CN110458132A (zh) 一种基于端到端的不定长文本识别方法
CN111126401A (zh) 一种基于上下文信息的车牌字符识别方法
CN114663371A (zh) 基于模态独有和共有特征提取的图像显著目标检测方法
CN111209873A (zh) 一种基于深度学习的高精度人脸关键点定位方法及系统
Zhou et al. Attention transfer network for nature image matting
CN115546553A (zh) 一种基于动态特征抽取和属性修正的零样本分类方法
CN107729863B (zh) 人体指静脉识别方法
CN109886325B (zh) 一种非线性颜色空间分类的模板选择与加速匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230615

Address after: B18S, Block C, Chengming Building, Xizhimen South Street, Xicheng District, Beijing 100035

Patentee after: Beijing zhongkehuiyun Technology Co.,Ltd.

Address before: 100124 No. 100 Chaoyang District Ping Tian Park, Beijing

Patentee before: Beijing University of Technology

TR01 Transfer of patent right
CP02 Change in the address of a patent holder

Address after: Room 4051, Floor 4, Building 1, Yard 35, West Fourth Ring South Road, Marco Polo Bridge Township, Fengtai District, Beijing 100070

Patentee after: Beijing zhongkehuiyun Technology Co.,Ltd.

Address before: B18S, Block C, Chengming Building, Xizhimen South Street, Xicheng District, Beijing 100035

Patentee before: Beijing zhongkehuiyun Technology Co.,Ltd.

CP02 Change in the address of a patent holder