CN110490053B - 一种基于三目摄像头深度估计的人脸属性识别方法 - Google Patents

一种基于三目摄像头深度估计的人脸属性识别方法 Download PDF

Info

Publication number
CN110490053B
CN110490053B CN201910608988.2A CN201910608988A CN110490053B CN 110490053 B CN110490053 B CN 110490053B CN 201910608988 A CN201910608988 A CN 201910608988A CN 110490053 B CN110490053 B CN 110490053B
Authority
CN
China
Prior art keywords
face attribute
face
training
attribute
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910608988.2A
Other languages
English (en)
Other versions
CN110490053A (zh
Inventor
骆冰清
成曦
李腾
杨士猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nupt Institute Of Big Data Research At Yancheng
Original Assignee
Nupt Institute Of Big Data Research At Yancheng
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nupt Institute Of Big Data Research At Yancheng filed Critical Nupt Institute Of Big Data Research At Yancheng
Priority to CN201910608988.2A priority Critical patent/CN110490053B/zh
Publication of CN110490053A publication Critical patent/CN110490053A/zh
Application granted granted Critical
Publication of CN110490053B publication Critical patent/CN110490053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于三目摄像头估计人脸深度信息的人脸属性识别方法,利用三目摄像头获取原始RGB图像并估计深度感知图像,对原始RGB图像和深度图像数据做预处理和数据增强,并做属性标签且分成训练集、验证集和测试集三部分;通过设计多尺度投影卷积神经网络以及属性关系计算长短期记忆网络进行人脸属性特征提取模型训练;选取在验证集上准确率最高的模型作为最佳候选模型,长短期记忆网络的输出即为对应的人脸属性;本发明结合三目摄像头计算的深度图像恰好弥补了深度信息的缺失,提升对复杂人脸属性预测准确率。长短期记忆单元计算各种不同属性之间的关系,达到相互补充、强化的目的,从而进一步提升所有属性预测准确率。

Description

一种基于三目摄像头深度估计的人脸属性识别方法
技术领域
本发明涉及人脸属性识别领域,尤其涉及一种基于三目摄像头获取深度感知图像、卷积神经网络和长短期记忆网络(Long Short-Term Memory,LSTM)相结合的人脸属性识别方法。
背景技术
随着监控技术的发展,各种监控设备遍布大街小巷,警方可以获得大量监控视频或者图像。利用人脸识别技术,提取监控视频或者图像中的人脸特征与在逃嫌犯人脸特征进行比对能够快速追踪确定逃犯轨迹、位置。然而,在获取的监控图像中,大部分分辨率比较低,人脸识别技术在这种情况下实际效果较差。而且,目击者描述犯罪嫌疑人时,着重强调人脸部特征属性,如:大鼻子,大嘴唇等,对于细节部分往往容易忽略,这对人脸识别技术带说是非常具有挑战性的。人脸属性作为人类面部显著性特征,在低分辨率的图像中依然保持高辨识度。同时,人脸属性识别往往有着比人脸识别更快的速度,从而极大程度地降低处理时间。
人脸属性识别还经常用于大规模人脸图像搜索、性别判断等。因此,人脸属性识别技术具有一定研究意义。
人脸属性识别技术主要包含两个难点:
1)人脸属性识别的准确率。
2)人脸属性识别的效率。
下面介绍与本发明相关的现有技术:
(1)现有技术一——基于手工设计特征的人脸属性识别方法
现有技术一的技术方案:
对于不同人脸部位设计不同人脸属性特征,将人的面部分成对应不同属性的多个区域,分别提取一种特征并训练分类器,通过多特征模式、多分类器实现人脸多种属性识别。
现有技术一的缺点:
1)需要手工设计多种复杂特征,难度比较大,准确率低;
2)需要设计多分类器,复杂度高,计算效率低。
(2)现有技术二——基于卷积神经网络的人脸属性识别方法
现有技术二的技术方案:
设计深度人脸属性特征提取网络在大量带有人脸属性标签的数据上训练模型,用来对整个人面部区域提取特征,设计多个独立属性分类器或者几组分类器(每组分类器负责具有相互联系的属性分类)。
现有技术二的缺点:
1)对整张人脸图像提取特征用于不同属性分类,缺少对不同属性的区别;
2)仅对2D图像分析,缺少对深度信息的利用。
(3)现有技术三——结合生成对抗神经网络的人脸属性识别方法
现有技术三的技术方案
设计生成对抗神经网络处理原始图像,通过生成网络获得原始人脸图像的变体来达到数据增强的目的。设计人脸属性识别神经网络,用原始图像和生成网络生成的图像作为训练数据,训练人脸属性识别模型。
现有技术三的缺点
1)额外设计并训练对抗生成神经网络,结构复杂度高;
2)缺少对人脸属性之间的分析,或者人为指定属性之间的相互关系。
发明内容
本发明所要解决的技术问题是:针对现有技术中的缺点,本发明旨在提出一种基于三目摄像头获取深度感知图像、卷积神经网络和长短期记忆网络相结合的人脸属性识别方法,使其能够结合人脸图像深度信息并考虑到不同人脸属性之间的相互关系,从而提升人脸属性识别准确率。
本发明为解决上述技术问题采用以下技术方案:
一种基于三目摄像头深度估计的人脸属性识别方法,包括步骤:
1)设计平行且间距相等的三目摄像头元组,使用该三目摄像头元组采集人脸图像数据并计算对应的深度图像,对获得的RGB图像和深度图像进行矫正并做好人脸属性标签,对做好标签的RGB图像和深度图像数据做预处理和数据增强,分成训练集、验证集和测试集三部分;
2)设计人脸属性特征提取卷积神经网络网络以及属性关系计算长短期记忆网络;
3)将1)中获得的训练集数据送入2)中设计好的卷积神经网络和长短期记忆网络进行训练;
4)重复步骤3)选取在验证集上准确率最高的模型作为候选最佳候选模型;
5)用步骤4)中获取的最佳候选模型在测试集上进行测试;
6)根据步骤5)中测试结果,调整训练参数和网络参数重复步骤3)、4)、5),直至获得理想模型;
7)由6)中获得的理想模型即为目标训练模型,其中长短期记忆网络的输出即为对应的人脸属性。
进一步的,本发明的人脸属性识别方法,在步骤1)中,使用三目摄像头元组采集人脸图像数据计算对应的深度图像,根据公式(1)对采集到的RGB图和深度图像进行矫正并做人脸属性标签,对训练集做水平镜像翻转、高斯模糊、添加随机椒盐噪声操作,以此增强数据;
Figure BDA0002121607870000031
其中,f表示摄像头焦距;b表示摄像头之间的距离;l表示左摄像头;m表示中间摄像头;r表示右摄像头。
进一步的,本发明的人脸属性识别方法,步骤2)所述设计人脸属性特征提取卷积神经网络网络以及属性关系计算长短期记忆网络,具体为卷积神经网络模块、长短期记忆单元模块:
卷积神经网络模块包含一个普通3×3卷积层,十四个反残差模块,一个多尺度分离投影模块以及回归损失函数层;其中反残差模块由一个1×1点卷积、一个3×3分离卷积和一个1×1普通卷积组成,并且最后的普通1×1卷积层后不加任何激活函数;整个网络中所有的激活函数均为非线性修正单元ReLU;最后的多尺度分离投影模块的输出维度等于人脸属性类别数,该层输出即为初步人脸属性识别结果;
长短期记忆单元模块的输入为卷积神经网络模块输出的初步人脸属性识别结果,首先经过两层隐藏层粗略计算各种人脸属性之间的相互关系,再利用LSTM的门控单元学习各种人脸属性之间的相互关系。
进一步的,本发明的人脸属性识别方法,采用Adam训练方法,在步骤3)中,在caffe平台上用步骤1)中收集的人脸属性训练数据集训练模型;其中参数更新公式由公式(2)计算,损失函数采用Sigmoid交叉熵损失函数,计算公式如公式(3);经过30000次迭代后,结束训练;
Figure BDA0002121607870000032
其中,W为模型权重,
Figure BDA0002121607870000033
为学习率,实验中设为0.0001,β1,β2为两个动量分别设为0.9和0.999,ε是为了防止除零的辅助参数,这里设为10e-8
Figure BDA0002121607870000034
其中,y为属性标签,x为卷积网络提取的特征,σ为Sigmoid函数。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1)三目摄像头提取人脸图像深度信息:
由于缺少对3D信息的分析,基于2D图像的人脸属性方法一般准确率不会太高,尤其是对比较复杂的属性预测。结合三目摄像头获得的深度图像恰好弥补了深度信息的缺失,提升对复杂人脸属性预测准确率。
2)长短期记忆单元优化预测结果:
卷积神经网络对属性的预测是基于多独立分类器,每个分类器只负责一种属性,缺少属性之间的相互关系分析。长短期记忆单元计算各种不同属性之间的关系,达到相互补充、强化的目的,从而进一步提升所有属性预测准确率。
3)资源占用少、运行速度快:
基于MobileNetV2优化后的轻量网络,参数量少,可以在CPU上达到实时的人脸属性预测,且资源占用率低。且结合多尺度、区域分离投影模块,提升模型特征表达能力。
附图说明
图1是本发明的总体实施流程图。
图2是深度图像计算示意图。
图3是整体模型结构设计示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
如图1所示,是本发明的总体实施流程,包括以下步骤:
1)设计三目摄像头元组收集数据并进行预处理:
采集200,000RGB人脸图像数据并根据图2计算对应的深度图像,计算公式如公式(1)所示,对采集到的RGB图和深度图像进行矫正并做人脸属性标签,按8:1:1的比例将处理结果数据分成三部分:训练集(160,00张)、验证集(20,000张)、测试集(20,000张);经过多次实验,我们选择将人脸图像调整到178×218大小;为了使模型得到充分训练,对训练集做水平镜像翻转、高斯模糊、添加随机椒盐噪声操作,以此增强数据。
Figure BDA0002121607870000051
图2是深度图像计算示意图,其中f表示摄像头焦距;b表示摄像头之间的距离;L表示左摄像头;M表示中间摄像头;R表示右摄像头;P为图像中的一点。
2)特征提取卷积网络与关系计算LSTM结构设计
整个网络结构包括两部分:初步卷积神经网络回归模块和属性关系计算的长短期记忆单元模块。
卷积神经网络模块的设计是由MobileNetV2的结构改进而来,包含一个普通3×3卷积层,十四个反残差模块,一个多尺度分离投影模块以及回归损失函数层;其中反残差模块由一个1×1点卷积、一个3×3分离卷积和一个1×1普通卷积组成,并且最后的普通1×1卷积层后不加任何激活函数;整个网络中所有的激活函数均为非线性修正单元(ReLU);最后的多尺度分离投影模块的输出维度等于人脸属性类别数,该层输出即为初步人脸属性识别结果。长短期记忆单元模块的输入为卷积神经网络模块输出的初步人脸属性识别结果,首先经过两层隐藏层粗略计算各种人脸属性之间的相互关系,再利用LSTM的门控单元学习各种人脸属性之间的相互关系。整体模型结构设计如图3所示。
3)模型训练
采用Adam训练方法,在caffe平台上用1)中收集的人脸属性训练数据集(包括RBG图像和计算得到的深度图像)训练模型。其中参数更新公式由公式(2)计算,损失函数采用Sigmoid交叉熵损失函数,计算公式如公式(3)。经过30000次迭代后,结束训练。
Figure BDA0002121607870000052
其中,W为模型权重,
Figure BDA0002121607870000053
为学习率,实验中设为0.0001,β1,β2为两个动量分别设为0.9和0.999,ε是为了防止除零的辅助参数,这里设为10e-8
Figure BDA0002121607870000054
起中,y为属性标签,x为卷积网络提取的特征,σ为Sigmoid函数。
4)选取3)中在验证集上表现最好的模型作为最佳模型在测试数据集上进行测试,根据测试结果调整2)中的网络参数和3)中的训练参数重复训练直到训练的模型在测试数据集上获得理想的结果。
5)步骤4)中获得的最佳模型即为最终模型,该模型直接由属性关系计算的长短期记忆单元模块输出对应人脸属性。
本发明提出一种基于三目摄像头获取深度图像实现人脸属性识别的技术方案,利用三目摄像头获取深度感知图像与原始RGB图像共同作为模型训练的输入图像,为模型输入增加人脸深度信息;
同时,本发明提出一种基于由卷积神经网络与长短期记忆单元网络相结合的网络结构。其中,两层隐藏层能够由粗略到精细地分析不同人脸属性之间的相互关系,提升人脸属性识别准确率;
最后,本发明提出利用多尺度、区域分离投影模块加强人脸属性特征提取过程中对局部信息获取的能力。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种基于三目摄像头深度估计的人脸属性识别方法,其特征在于,包括步骤:
1)、设计平行且间距相等的三目摄像头元组,使用该三目摄像头元组采集人脸图像数据并计算对应的深度图像,对获得的RGB图像和深度图像进行矫正并做好人脸属性标签,对做好标签的RGB图像和深度图像数据做预处理和数据增强,分成训练集、验证集和测试集三部分;
2)、设计人脸属性特征提取卷积神经网络以及属性关系计算长短期记忆网络,具体为卷积神经网络模块、长短期记忆单元模块:
卷积神经网络模块包含一个普通3×3卷积层,十四个反残差模块,一个多尺度分离投影模块以及回归损失函数层;其中反残差模块由一个1×1点卷积、一个3×3分离卷积和一个1×1普通卷积组成,并且最后的普通1×1卷积层后不加任何激活函数;整个网络中所有的激活函数均为非线性修正单元ReLU;最后的多尺度分离投影模块的输出维度等于人脸属性类别数,该层输出即为初步人脸属性识别结果;
长短期记忆单元模块的输入为卷积神经网络模块输出的初步人脸属性识别结果,首先经过两层隐藏层粗略计算各种人脸属性之间的相互关系,再利用LSTM的门控单元学习各种人脸属性之间的相互关系;
3)、将步骤1)中获得的训练集数据送入步骤2)中设计好的卷积神经网络和长短期记忆网络进行训练;
4)、重复步骤3)选取在验证集上准确率最高的模型作为最佳候选模型;
5)、用步骤4)中获取的最佳候选模型在测试集上进行测试;
6)、根据步骤5)中测试结果,调整训练参数和网络参数重复步骤3)、步骤4)、步骤5),直至获得理想模型;
7)、由步骤6)中获得的理想模型即为目标训练模型,其中长短期记忆网络的输出即为对应的人脸属性。
2.根据权利要求1所述的人脸属性识别方法,其特征在于:在步骤1)中,使用三目摄像头元组采集人脸图像数据计算对应的深度图像,根据公式(1)对采集到的RGB图和深度图像进行矫正并做人脸属性标签,对训练集做水平镜像翻转、高斯模糊、添加随机椒盐噪声操作,以此增强数据;
Figure FDA0003990349250000011
其中,f表示摄像头焦距;b表示摄像头之间的距离;l表示左摄像头;m表示中间摄像头;r表示右摄像头。
3.根据权利要求1所述的人脸属性识别方法,其特征在于:在步骤3)中,采用Adam训练方法,在caffe平台上用1)中收集的人脸属性训练数据集训练模型;其中参数更新公式由公式(2)计算,损失函数采用Sigmoid交叉熵损失函数,计算公式如公式(3);
Figure FDA0003990349250000021
其中,W为模型权重,
Figure FDA0003990349250000022
为学习率,β1,β2为两个动量,ε是为了防止除零的辅助参数;
Figure FDA0003990349250000023
其中,y为属性标签,x为卷积网络提取的特征,σ为Sigmoid函数。
4.根据权利要求3所述的人脸属性识别方法,其特征在于:所述采用Adam训练方法,经过30000次迭代后,结束训练。
5.根据权利要求3所述的人脸属性识别方法,其特征在于:
Figure FDA0003990349250000024
设为0.0001,β1,β2分别设为0.9和0.999,ε设为10e-8
CN201910608988.2A 2019-07-08 2019-07-08 一种基于三目摄像头深度估计的人脸属性识别方法 Active CN110490053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910608988.2A CN110490053B (zh) 2019-07-08 2019-07-08 一种基于三目摄像头深度估计的人脸属性识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910608988.2A CN110490053B (zh) 2019-07-08 2019-07-08 一种基于三目摄像头深度估计的人脸属性识别方法

Publications (2)

Publication Number Publication Date
CN110490053A CN110490053A (zh) 2019-11-22
CN110490053B true CN110490053B (zh) 2023-03-14

Family

ID=68545941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910608988.2A Active CN110490053B (zh) 2019-07-08 2019-07-08 一种基于三目摄像头深度估计的人脸属性识别方法

Country Status (1)

Country Link
CN (1) CN110490053B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368977B (zh) * 2020-02-28 2023-05-02 交叉信息核心技术研究院(西安)有限公司 一种提高卷积神经网络精确性和鲁棒性的增强数据增强方法
CN111695421B (zh) * 2020-04-30 2023-09-22 北京迈格威科技有限公司 图像识别方法、装置及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9301372B2 (en) * 2011-11-11 2016-03-29 Osram Sylvania Inc. Light control method and lighting device using the same
CN107688821B (zh) * 2017-07-11 2021-08-06 西安电子科技大学 基于视觉显著性与语义属性跨模态图像自然语言描述方法
CN109190514B (zh) * 2018-08-14 2021-10-01 电子科技大学 基于双向长短期记忆网络的人脸属性识别方法及系统

Also Published As

Publication number Publication date
CN110490053A (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
CN110458844B (zh) 一种低光照场景的语义分割方法
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN106157307B (zh) 一种基于多尺度cnn和连续crf的单目图像深度估计方法
WO2018023734A1 (zh) 一种3d图像的显著性检测方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
CN108256426A (zh) 一种基于卷积神经网络的人脸表情识别方法
CN108009493B (zh) 基于动作增强的人脸防欺骗识别方法
CN106096535A (zh) 一种基于双线性联合cnn的人脸验证方法
CN103080979B (zh) 从照片合成肖像素描的系统和方法
CN103258332B (zh) 一种抗光照变化的运动目标的检测方法
CN104866829A (zh) 一种基于特征学习的跨年龄人脸验证方法
CN111539247B (zh) 一种超光谱人脸识别方法、装置、电子设备及其存储介质
CN113536972B (zh) 一种基于目标域伪标签的自监督跨域人群计数方法
TWI441096B (zh) 適用複雜場景的移動偵測方法
WO2023109709A1 (zh) 一种基于注意力机制的图像拼接定位检测方法
CN107273870A (zh) 一种监控场景下融合上下文信息的行人位置检测方法
CN108960404A (zh) 一种基于图像的人群计数方法及设备
CN105740891A (zh) 基于多层次特征提取和上下文模型的目标检测
CN113158943A (zh) 一种跨域红外目标检测方法
CN110490053B (zh) 一种基于三目摄像头深度估计的人脸属性识别方法
CN114360067A (zh) 一种基于深度学习的动态手势识别方法
CN104143091A (zh) 基于改进mLBP的单样本人脸识别方法
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN104408731A (zh) 基于区域图和统计相似性编码的sar图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20191122

Assignee: Yanmi Technology (Yancheng) Co.,Ltd.

Assignor: NUPT INSTITUTE OF BIG DATA RESEARCH AT YANCHENG

Contract record no.: X2023980047098

Denomination of invention: A facial attribute recognition method based on depth estimation of three camera cameras

Granted publication date: 20230314

License type: Common License

Record date: 20231115

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20191122

Assignee: Jiangsu Yanan Information Technology Co.,Ltd.

Assignor: NUPT INSTITUTE OF BIG DATA RESEARCH AT YANCHENG

Contract record no.: X2023980049133

Denomination of invention: A facial attribute recognition method based on depth estimation of three camera cameras

Granted publication date: 20230314

License type: Common License

Record date: 20231203

Application publication date: 20191122

Assignee: Yancheng Nongfu Technology Co.,Ltd.

Assignor: NUPT INSTITUTE OF BIG DATA RESEARCH AT YANCHENG

Contract record no.: X2023980049126

Denomination of invention: A facial attribute recognition method based on depth estimation of three camera cameras

Granted publication date: 20230314

License type: Common License

Record date: 20231203

EE01 Entry into force of recordation of patent licensing contract