CN111695470A - 一种基于深度特征正交分解的可见光-近红外行人再识别方法 - Google Patents

一种基于深度特征正交分解的可见光-近红外行人再识别方法 Download PDF

Info

Publication number
CN111695470A
CN111695470A CN202010489943.0A CN202010489943A CN111695470A CN 111695470 A CN111695470 A CN 111695470A CN 202010489943 A CN202010489943 A CN 202010489943A CN 111695470 A CN111695470 A CN 111695470A
Authority
CN
China
Prior art keywords
features
characteristic
modal
pedestrian
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010489943.0A
Other languages
English (en)
Other versions
CN111695470B (zh
Inventor
赖剑煌
张权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202010489943.0A priority Critical patent/CN111695470B/zh
Publication of CN111695470A publication Critical patent/CN111695470A/zh
Application granted granted Critical
Publication of CN111695470B publication Critical patent/CN111695470B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度特征正交分解的可见光‑近红外行人再识别方法,包括:获取训练图像集并提取图像特征,得到全局特征和模态特征;根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征;对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型;基于训练模型对输入图像进行识别。通过使用本发明,可解决现实应用场景中常见的识别率下降的问题,提高行人再识别方法模型的抗干扰和自适应的能力。本发明作为一种基于训练模型对输入图像进行识别方法,可广泛应用于计算机视觉领域。

Description

一种基于深度特征正交分解的可见光-近红外行人再识别 方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于深度特征正交分解的可见光-近红外行人再识别方法。
背景技术
近年来,社会对于公共安全领域越来越重视,计算机视觉技术为社会安防提供了大量的技术支持,而其中的行人再识别技术有效的提高目标地点的安防,但是当前的行人再识别算法更多的是基于理想监控环境,应用到真实监控场景下回存在识别率下降等问题,由于光照的剧烈昼夜变化,会对行人的外观特征产生强烈的干扰,从而导致模型的性能下降,这对于行人再识别模型的应用造成了限制。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于深度特征正交分解的可见光-近红外行人再识别方法,具备抗干扰和自适应的能力,能够在复杂的环境下提高行人再识别的能力。
本发明所采用技术方案是:一种基于深度特征正交分解的可见光-近红外行人再识别方法,包括以下步骤:
获取训练图像集并提取图像特征,得到全局特征和模态特征;
根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征;
对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型;
基于训练模型对输入图像进行识别。
进一步,所述双支路网络包括特征提取网络和模态提取网络。
进一步,所述获取训练图像集并提取图像特征,得到全局特征和模态特征这一步骤,其具体包括:
获取图像集并通过双支路网络对图像集中的输入图像进行特征提取,得到卷积特征;
对卷积特征进行池化操作,得到固定大小的一维特征向量;
通过一维特征向量对特征进行表达,得到全局特征和模态特征。
进一步,以ResNet预训练的模型作为双支路网络的主体框架,所述双支路网络的支路网络结构一致,参数独立。
进一步,所述根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征这一步骤,其具体包括:
将全局特征和模态特征经过自适应层变换,得到变换后的全局特征和模态特征;
将变换后的全局特征减去变换后的模态特征,得到差向量;
对差向量求二范数和归一化,得到视角特征和行人身份特征。
进一步,所述根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征这一步骤,其具体包括:
对行人身份特征计算余弦交叉熵损失函数;
对视角特征计算回归损失函数;
对模态特征计算交叉熵损失函数;
对行人身份特征、视角特征和模态特征计算正则化损失函数;
将行人身份特征的余弦交叉熵损失函数、视角特征的回归损失函数、模态特征的交叉熵损失函数和正则化损失函数之和的最小值作为目标优化训练模型。
进一步,所述对行人身份特征计算余弦交叉熵损失函数,其表达式如下:
Figure BDA0002520697520000021
所述N表示输入图像数量,所述x表示需要计算损失的图片特征,所述y表示对应的真值标签,所述θ表示图片特征x与分类器权重归一化相乘后的角度特征,所述s和m是可以手动优化调节的超参数,所述i和j代表输入图像中的第i和j张图片。
进一步,所述对视角特征计算回归损失函数这一步骤,其表达式如下:
Figure BDA0002520697520000031
所述xi表示当前需要计算损失的图片特征,所述yi表示对应的真值标签。
进一步,所述对模态特征计算交叉熵损失函数这一步骤,其表达式如下:
Figure BDA0002520697520000032
进一步,所述对行人身份特征、视角特征和模态特征计算正则化损失函数,其表达式如下:
Lo=(f-f3)Tf3
所述f-f3表示为差向量分量,所述f3表示为模态特征分量,(·)T代表了对于括号内向量的转置操作。
本发明方法的有益效果是:本发明通过特征分解将行人身份特征从其他干扰特征中解耦出来,得到与干扰因素无关、鲁棒性较高的行人身份特征,解决现实应用场景中常见的识别率下降的问题,提高行人再识别方法模型的抗干扰和自适应的能力。
附图说明
图1是本发明一种基于深度特征正交分解的可见光-近红外行人再识别方法的步骤流程图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
传统的行人再识别方法是一个单域下的图像检索任务,而本发明近红外光的行人再识别是一个跨域检索任务,通过将输入图片的全局特征解耦成为三个互不冗余的特征子向量,使网络更加直接的对身份信息进行指导训练,从而提高行人特征表达力和行人匹配精确度。
如图1所示,本发明提供了一种基于深度特征正交分解的可见光-近红外行人再识别方法,该方法包括以下步骤:
S101、获取训练图像集并提取图像特征,得到全局特征和模态特征。
具体地,所述训练图像集中每种模态的图片数量比设置为1:1,对于输入照片的视角不设限制。
S102、根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征;
具体地,使用两个参数不共享的“全连接层-激活层”的自适应结构对得到的两种特征进行一个自适应变换,在经过自适应层之后,我们将两种特征执行向量化的逐元素相减,得到新构造的差向量,对差向量求取其二范数,并将其作为输入图片的视角特征,其次对差向量进行归一化操作,并将其作为输入图片的行人身份特征。至此得到了输入图片中的三种特征:行人身份特征、视角特征和模态特征。
S103、对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型。
具体地,对三种特征计算特征损失函数,以余弦交叉熵损失函数、回归损失函数、以及标准交叉熵之和达到最小化为目标去优化训练模型。
S104、基于训练模型对输入图像进行识别。
进一步作为本方法的优选实施例,所述双支路网络包括特征提取网络和模态提取网络。
进一步作为本方法的优选实施例,所述获取训练图像集并提取图像特征,得到全局特征和模态特征这一步骤,其具体包括:
获取图像集并通过双支路网络对图像集中的输入图像进行特征提取,得到卷积特征;
对卷积特征进行池化操作,得到固定大小的一维特征向量;
通过一维特征向量对特征进行表达,得到全局特征和模态特征。
具体地,双支路网络中每个支路对于输入的图片进行特征提取,遵循ResNet50的网络结构前向传播特征,每个支路将最后一层得到的卷积特征进行池化操作,得到固定大小的一维特征向量,利用一维特征向量对全局特征和模态特征进行表达。
进一步作为本方法的优选实施例,以ResNet预训练的模型作为双支路网络的主体框架,所述双支路网络的支路网络结构一致,参数独立。
进一步作为本方法的优选实施例,所述根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征这一步骤,其具体包括:
将全局特征和模态特征经过自适应层变换,得到变换后的全局特征和模态特征;
将变换后的全局特征减去变换后的模态特征,得到差向量;
对差向量求二范数和归一化,得到视角特征和行人身份特征。
具体地,将得到的两种深度特征即全局特征和模态特征分别经过结构相同且参数不共享自适应层,使得特征能够在两个阶段之间的变化更加平缓,所述自适应主要是由一个全连接层和一个归一化层组成,经过自适应层之后,我们变换后的全局特征减去变换后的模态特征,即执行向量化的逐元素相减,得到新构造的差向量特征,对于差向量特征进行正交分解,对差向量求取其二范数,并将其作为输入图片的视角特征对差向量进行归一化操作,将其作为输入图片的行人身份特征。
进一步作为本方法的优选实施例,所述对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型这一步骤,其具体包括:
对行人身份特征计算余弦交叉熵损失函数;
对视角特征计算回归损失函数;
对模态特征计算交叉熵损失函数;
对行人身份特征、视角特征和模态特征计算正则化损失函数;
将行人身份特征的余弦交叉熵损失函数、视角特征的回归损失函数、模态特征的交叉熵损失函数和正则化损失函数之和的最小值作为目标优化训练模型。
具体地,对分解得到的三个特征子向量进行优化训练,将得到的三种子向量进行损失函数约束和学习。
进一步作为本方法的优选实施例,所述对行人身份特征计算余弦交叉熵损失函数,其表达式如下:
Figure BDA0002520697520000061
所述N表示输入图像数量,所述x表示需要计算损失的图片特征,所述y表示对应的真值标签,所述θ表示图片特征x与分类器权重归一化相乘后的角度特征,所述s和m是可以手动优化调节的超参数,所述i和j代表输入图像中的第i和j张图片,其他同类型的参数不继续作说明。
具体地,该损失函数用于判别行人身份特征是否对输入图片的行人身份进行正确的表达,在这个损失函数中,分类器的权重在计算前也要进行相应的归一化处理。
进一步作为本方法的优选实施例,所述对视角特征计算回归损失函数这一步骤,其表达式如下:
Figure BDA0002520697520000062
所述xi表示当前需要计算损失的图片特征,所述yi表示对应的真值标签,该损失函数用于判别视角特征是否对输入图片的图片视角进行正确的表达。
进一步作为本方法的优选实施例,所述对模态特征计算交叉熵损失函数这一步骤,其表达式如下:
Figure BDA0002520697520000063
具体地,该损失函数用于判别模态特征是否对输入图片的图片模态属性进行正确的表达。
进一步作为本方法的优选实施例,所述对行人身份特征、视角特征和模态特征计算正则化损失函数,其表达式如下:
Lo=(f-f3)Tf3
所述f-f3表示为差向量分量,所述f3表示为模态特征分量,当Lo趋向于0时,说明差向量与模态特征分量趋于正交,这也说明了整个柱坐标系的正交性得到满足,(·)T代表了对于括号内向量的转置操作。
具体地,该损失函数用于确保差向量与模态分量特征保持正交。
最后,将上述四种损失函数之后的最小值作为整个网路模型的优化目标,具体形式为:
L=L1+L2+L3+λLo
所述λ为超参数。
本发明的具体实施例如下:
本实施例一种基于深度特征正交分解的可见光-近红外行人再识别方法,整个网络分为四个阶段:准备输入数据、双路特征提取网络、基于柱坐标系的特征分解和多任务学习,所述准备输入数据阶段将N个输入图像构建成训练图像集,所述双路特征提取网络阶段以ResNet50作为主体框架设计一个双支路网络提取图像特征,所述基于柱坐标系的特征分解先将两个深度特征进行自适应变化,求出差向量并对差向量求二范数和归一化,至此得到行人身份特征、视角特征和模态特征,所述多任务学习对三种特征的正确训练,以及对整个柱坐标系的正交化约束。
本发明提供另一种具体实施例:一种基于深度特征正交分解的可见光-近红外行人再识别系统:
特征提取模块,用于获取训练图像集并提取图像特征,得到全局特征和模态特征;
特征分解模块,用于根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征;
特征损失函数模块,用于对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型;
识别模块,用于基于训练模型对输入图像进行识别。
本发明提供另一种具体实施例:一种基于深度特征正交分解的可见光-近红外行人再识别装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得至少一个处理器实现如上所述一种基于深度特征正交分解的可见光-近红外行人再识别方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
本发明还提供另一种具体实施例,一种存储介质,其中存储有处理器可执行的指令,其特征在于:所述处理器可执行的指令在由处理器执行时用于实现如上所述一种基于深度特征正交分解的可见光-近红外行人再识别方法。
上述方法实施例中的内容均适用于本存储介质实施例中,本存储介质实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,包括以下步骤:
获取训练图像集并提取图像特征,得到全局特征和模态特征;
根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征;
对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型;
基于训练模型对输入图像进行识别。
2.根据权利要求1所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述双支路网络包括特征提取网络和模态提取网络。
3.根据权利要求2所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述获取训练图像集并提取图像特征,得到全局特征和模态特征这一步骤,其具体包括:
获取训练图像集并通过双支路网络对图像集中的输入图像进行特征提取,得到卷积特征;
对卷积特征进行池化操作,得到固定大小的一维特征向量;
通过一维特征向量对特征进行表达,得到全局特征和模态特征。
4.根据权利要求3所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,以ResNet预训练的模型作为双支路网络的主体框架,所述双支路网络的支路网络结构一致,参数独立。
5.根据权利要求4所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述根据全局特征和模态特征进行柱坐标系的特征分解,得到行人身份特征和视角特征这一步骤,其具体包括:
将全局特征和模态特征经过自适应层变换,得到变换后的全局特征和模态特征;
将变换后的全局特征减去变换后的模态特征,得到差向量;
对差向量求二范数和归一化,得到视角特征和行人身份特征。
6.根据权利要求5所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述对行人身份特征、视角特征和模态特征计算特征损失函数并根据特征损失函数优化训练模型这一步骤,其具体包括:
对行人身份特征计算余弦交叉熵损失函数;
对视角特征计算回归损失函数;
对模态特征计算交叉熵损失函数;
对行人身份特征、视角特征和模态特征计算正则化损失函数;
将行人身份特征的余弦交叉熵损失函数、视角特征的回归损失函数、模态特征的交叉熵损失函数和正则化损失函数之和的最小值作为目标优化训练模型。
7.根据权利要求6所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述对行人身份特征计算余弦交叉熵损失函数,其表达式如下:
Figure FDA0002520697510000021
所述N表示输入图像数量,所述x表示需要计算损失的图片特征,所述y表示对应的真值标签,所述θ表示图片特征x与分类器权重归一化相乘后的角度特征,所述s和m是可以手动优化调节的超参数,所述i和j代表输入图像中的第i和j张图片。
8.根据权利要求7所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述对视角特征计算回归损失函数这一步骤,其表达式如下:
Figure FDA0002520697510000022
所述xi表示当前需要计算损失的图片特征,所述yi表示对应的真值标签。
9.根据权利要求8所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述对模态特征计算交叉熵损失函数这一步骤,其表达式如下:
Figure FDA0002520697510000031
10.根据权利要求9所述一种基于深度特征正交分解的可见光-近红外行人再识别方法,其特征在于,所述对行人身份特征、视角特征和模态特征计算正则化损失函数,其表达式如下:
Lo=(f-f3)Tf3
所述f-f3表示为差向量分量,所述f3表示为模态特征分量。
CN202010489943.0A 2020-06-02 2020-06-02 一种基于深度特征正交分解的可见光-近红外行人再识别方法 Active CN111695470B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010489943.0A CN111695470B (zh) 2020-06-02 2020-06-02 一种基于深度特征正交分解的可见光-近红外行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010489943.0A CN111695470B (zh) 2020-06-02 2020-06-02 一种基于深度特征正交分解的可见光-近红外行人再识别方法

Publications (2)

Publication Number Publication Date
CN111695470A true CN111695470A (zh) 2020-09-22
CN111695470B CN111695470B (zh) 2023-05-12

Family

ID=72479255

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010489943.0A Active CN111695470B (zh) 2020-06-02 2020-06-02 一种基于深度特征正交分解的可见光-近红外行人再识别方法

Country Status (1)

Country Link
CN (1) CN111695470B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610071A (zh) * 2021-10-11 2021-11-05 深圳市一心视觉科技有限公司 人脸活体检测方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948425A (zh) * 2019-01-22 2019-06-28 中国矿业大学 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置
CN109993070A (zh) * 2019-03-13 2019-07-09 华南理工大学 一种基于全局距离尺度损失函数的行人再识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948425A (zh) * 2019-01-22 2019-06-28 中国矿业大学 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置
CN109993070A (zh) * 2019-03-13 2019-07-09 华南理工大学 一种基于全局距离尺度损失函数的行人再识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈首兵;王洪元;金翠;张玮;: "基于孪生网络和重排序的行人重识别" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610071A (zh) * 2021-10-11 2021-11-05 深圳市一心视觉科技有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN113610071B (zh) * 2021-10-11 2021-12-24 深圳市一心视觉科技有限公司 人脸活体检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111695470B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN110473141B (zh) 图像处理方法、装置、存储介质及电子设备
CN109902548B (zh) 一种对象属性识别方法、装置、计算设备及系统
CN110222718B (zh) 图像处理的方法及装置
CN111444826B (zh) 视频检测方法、装置、存储介质及计算机设备
CN108197669B (zh) 卷积神经网络的特征训练方法及装置
CN112598597A (zh) 一种降噪模型的训练方法及相关装置
CN113065645B (zh) 孪生注意力网络、图像处理方法和装置
CN110825900A (zh) 特征重构层的训练方法、图像特征的重构方法及相关装置
CN114936979B (zh) 一种模型训练方法、图像去噪方法、装置、设备及存储介质
CN113724379B (zh) 融合图像与激光点云的三维重建方法及装置
CN113837942A (zh) 基于srgan的超分辨率图像生成方法、装置、设备及存储介质
CN113627163A (zh) 一种注意力模型、特征提取方法及相关装置
CN111899203A (zh) 基于标注图在无监督训练下的真实图像生成方法及存储介质
CN111611925A (zh) 一种建筑物检测与识别方法及装置
CN110706256A (zh) 一种基于多核异构平台的检测跟踪算法优化方法
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
CN111695470B (zh) 一种基于深度特征正交分解的可见光-近红外行人再识别方法
CN112434576A (zh) 一种基于深度相机的人脸识别方法及系统
CN116977876A (zh) 一种无人机图像处理方法、系统及介质
CN114820755B (zh) 一种深度图估计方法及系统
CN116311451A (zh) 一种多模态融合人脸活体检测模型生成方法和装置、电子设备
CN116977359A (zh) 图像处理方法、装置、设备、可读存储介质及程序产品
CN110826726B (zh) 目标处理方法、目标处理装置、目标处理设备及介质
CN111597896B (zh) 异常人脸的识别方法、识别装置、识别设备和存储介质
CN112101330B (zh) 图像处理方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant