CN109598176A - 识别装置和识别方法 - Google Patents

识别装置和识别方法 Download PDF

Info

Publication number
CN109598176A
CN109598176A CN201710914591.7A CN201710914591A CN109598176A CN 109598176 A CN109598176 A CN 109598176A CN 201710914591 A CN201710914591 A CN 201710914591A CN 109598176 A CN109598176 A CN 109598176A
Authority
CN
China
Prior art keywords
attribute
feature
sample information
unit
identification device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710914591.7A
Other languages
English (en)
Inventor
赵旭东
黄耀海
吴春雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN201710914591.7A priority Critical patent/CN109598176A/zh
Priority to US16/141,124 priority patent/US11386702B2/en
Publication of CN109598176A publication Critical patent/CN109598176A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了识别装置和识别方法。所述识别装置包括:被配置为从对象的区域提取所述对象的第一特征的单元;被配置为至少基于针对所述对象的第一属性的置信度信息获得所述对象的第二特征的单元;被配置为基于所述获得的第二属性从预确定样本信息确定样本信息的单元;及被配置为基于所述确定的样本信息识别所述对象的所述第一属性的单元。根据本发明,可提高属性识别的准确性及属性识别的速度。

Description

识别装置和识别方法
技术领域
本发明涉及图像处理,尤其涉及识别装置和识别方法。
背景技术
由于人物属性一般涉及可以描绘一个人的容貌(facial appearances)和/或身形(body appearances),因此人物属性识别通常被用来进行人物行为分析(例如,人物属性统计(people attribute counting)、人物跟踪、人群分析(crowed analysis))。其中,容貌例如包括人的年龄、人的性别和人的种族。身形例如包括人的身高和人的体重。
美国专利US9002116B2中公开了一种示例性人物属性识别技术,该技术主要包括:首先根据特征匹配从存储设备中找到与输入图像中的人具有相似容貌的相似图像(例如,排名前N个图像),然后基于找到的相似图像中的人的面部属性(例如,年龄)推测输入图像中的人的面部属性(例如,年龄)。
也就是说,上述人物属性识别技术通过从存储设备中找到相似图像来识别输入图像中的人的属性。因此,在从存储设备中能够找到的相似图像较少的情况下,即在包含输入图像的特征的特征空间是稀疏的(即,用于寻找相似图像的空间是稀疏的)的情况下,一些不相似图像被引入用来识别人的属性。尤其是,由于用来进行特征匹配的特征(例如,方向梯度直方图(Histogram of Oriented Gradient,HOG)特征、局部二值模式(Local BinaryPattern,LBP)特征)的维度越高,包含输入图像的特征的特征空间越稀疏,因此能够从存储设备找到的相似图像越少,从而将导致更多不相似图像被引入用来识别人的属性。因此,相似图像的准确性将受到影响,从而将影响人物属性识别的准确性。
发明内容
因此,鉴于上面的背景技术中的记载,本发明旨在解决上述问题中的至少一点。
根据本发明的一个方面,提供一种识别装置,所述识别装置包括:特征提取单元,被配置为从自图像获得的对象的区域提取所述对象的第一特征;特征获得单元,被配置为至少基于针对所述对象的第一属性的置信度信息获得所述对象的第二特征,其中,针对所述对象的所述第一属性的置信度信息基于对应于所述第一属性的分类器和所述特征提取单元提取的所述第一特征获得;样本信息确定单元,被配置为基于所述特征获得单元获得的所述第二特征,从预确定样本信息确定样本信息;及属性识别单元,被配置为基于所述样本信息确定单元确定的所述样本信息,识别所述对象的所述第一属性。
其中,所述预确定样本信息至少包括标记的第一属性(即,真值(Ground Truth,GT)第一属性)及至少基于针对所述标记的第一属性的置信度信息获得的特征。
其中,所述对象为人物并且所述对象的属性为人物的面部属性或人物的身体属性。其中,所述人物的面部属性例如为年龄、性别、种族、头发类型(hair type)(例如,卷发、直发)、头发长度(例如,长发、短发)和/或头发颜色。其中,所述人物的身体属性例如为身高、体重、衣服类型(clothes type)、衣服款式(clothes pattern)和/或衣服颜色。
利用本发明,将提高属性识别(尤其是人物属性识别)的准确性和速度。
根据以下参照附图的描述,本发明的其他特性特征和优点将显而易见。
附图说明
包含在说明书中并构成本说明书的一部分的附图例示本发明的实施例,并与文字描述一起用于解释本发明的原理。
图1A至图1C示意性地示出根据本发明的针对人物属性的示例性置信度信息。
图2是示意性地示出可实现根据本发明实施例的技术的硬件配置的框图。
图3是例示根据本发明第一实施例的识别装置的配置的框图。
图4示意性地示出根据本发明第一实施例的识别处理的流程图。
图5A至图5B示意性地示出根据本发明的GT年龄与对应置信度信息的示例对。
图6示意性地示出根据本发明的如图4中所示的步骤S420的流程图。
图7示意性地示出根据图6中所示的流程图获得的示例性连接的置信度信息。
图8是例示根据本发明第二实施例的识别装置的配置的框图。
图9示意性地示出根据本发明的如图8中所示的子集确定单元810的流程图。
图10示意性地示出根据本发明的GT年龄、对应置信度信息及与人物年龄相关的GT人物属性的示例对。
图11是例示根据本发明第三实施例的识别装置的配置的框图。
图12A至图12C示意性地示出根据本发明第三实施例确定的示例性年龄分布。
具体实施方式
下面将参照附图详细地描述本发明的示例性实施例。应注意,下面的描述实质上仅为说明性和示例性的,并且决不意图限制本发明及其应用或用途。除非另有具体说明,否则实施例中阐述的组件和步骤的相对布置、数值表达式和数值并不限制本发明的范围。另外,本领域技术人员已知的技术、方法和设备可能不会被详细地讨论,但在适当的情形中其应当是本说明书的一部分。
请注意,相似的附图标记和字母指代附图中相似的项目,因此,一旦一个项目在一个附图中被定义,则不必在下面的附图中对其进行讨论。
从上述先前技术中的人物属性识别技术可以看出,相似图像被用作识别人物属性的参照并且所述参照的准确性直接影响人物属性识别的准确性,其中所述参照的准确性取决于用于获得所述参照的空间的稀疏度。因此,为了使用于获得参照的空间更加密集,以便可获得更准确的参照,本发明不是如先前技术中所述使用特征匹配来寻找相似图像,而是考虑以下两个方面:
1)对于一个属性(例如,人物的一个属性、包的一个属性等),具有相似属性的对象(例如,人物、包等)将针对该属性具有相似置信度信息。其中,人物的属性(即,人物属性)例如为人物年龄、人物性别或人物种族。其中,包的属性例如为包的颜色、包的款式或包的尺寸。
2)针对对象的一个属性的置信度信息可以反映相对于该属性对该对象进行分类所获得的概率信息,这将使得一个置信度信息可用于表示一个更高层的抽象信息(例如,对象的一个属性)并且使得基于置信度信息获得的特征的维度比上述用来进行特征匹配的特征的维度低得多。例如,假设对象为人物,则针对人物年龄的示例性置信度信息如图1A中所示,其中每一个实线条表示该人物属于一个年龄值(例如,33岁)的对应概率。针对人物种族的示例性置信度信息如图1B中所示,其中每一个点线条表示该人物属于一个种族值(例如,黄种)的对应概率。针对人物性别的示例性置信度信息如图1C中所示,其中每一个虚线条表示该人物属于一个性别值(例如,男性)的对应概率。
因此,发明人发现,在可以使用针对输入图像中的对象的属性的置信度信息来从预存储样本中确定用于识别所述对象的属性的参照的情况下,并且在预存储样本可以由基于对应置信度信息获得的特征来表示的情况下,则一方面,只要预存储样本具有基于相似置信度信息获得的特征,而无论预存储样本是否与所述对象具有相似外观,对应的预存储样本便可被确定为参照。这样将可确定更多参照来识别对象的属性。另一方面,由于基于置信度信息获得的特征的维度更低,因此用于确定参照的空间将变得更加密集,这样将可确定更准确的参照来识别对象的属性。其中,在本发明中,预存储样本被视为预确定样本信息并且至少包括GT属性(例如,GT年龄)及至少基于针对GT属性的置信度信息获得的特征。此外,作为优选的可选解决方案,预确定样本信息中的GT属性和对应特征以成对的方式存储。
因此,使用根据本发明确定的参照可提高属性识别的准确性。进一步地,由于参照是从上述预确定样本信息确定的,因此根据本发明的属性识别的速度将变快。此外,由于基于置信度信息获得的特征的维度更低,因此根据本发明的属性识别的速度将变得更快。
(硬件配置)
首先将参照图2描述可实现下文中描述的技术的硬件配置。
硬件配置200例如包括中央处理单元(CPU)210、随机存取存储器(RAM)220、只读存储器(ROM)230、硬盘240、输入设备250、输出设备260、网络接口270和系统总线280。进一步地,硬件配置200可通过诸如相机、个人数字助理(PDA)、移动电话、平板电脑、笔记本电脑、台式电脑或其他合适的电子设备来实现。
在第一实现方式中,根据本发明的识别处理由硬件或固件配置并且用作硬件配置200的模块或组件。例如,将在下文参照图3详细描述的识别装置300、将在下文参照图8详细描述的识别装置800或将在下文参照图11详细描述的识别装置1100被用作硬件配置200的模块或组件。在第二实现方式中,根据本发明的识别处理由存储在ROM 230或硬盘240中且由CPU 210执行的软件配置。例如,将在下文参照图4详细描述的过程400或将在下文参照图6详细描述的过程420被用作存储在ROM 230或硬盘240中的程序。
CPU 210是任何合适的可编程控制设备(诸如,处理器),并且可通过执行存储在ROM 230或硬盘240(诸如,存储器)中的各种应用程序来执行下文中要描述的各种功能。RAM220用于临时存储从ROM 230或硬盘240加载的程序或数据,并且也被用作CPU 210在其中执行各种过程(诸如,实施将在下文中参照图4或图6详细描述的技术)以及其他可用功能的空间。硬盘240存储诸如操作系统(OS)、各种应用、控制程序、上述预确定样本信息、分类器和/或预定义数据(例如,阈值(THs))等多种信息。
在一种实现方式中,输入设备250用于允许用户与硬件配置200进行交互。在一个实例中,用户可通过输入设备250输入图像/视频/数据。在另一实例中,用户可通过输入设备250触发本发明的对应处理。此外,输入设备250可采用多种形式,诸如按钮、键盘或触摸屏。在另一种实现方式中,输入设备250用于接收从诸如数码相机、摄像机和/或网络摄像机等专门电子设备输出的图像/视频。
在一种实现方式中,输出设备260用于向用户显示识别结果(诸如,人物属性)。而且,输出设备260可采用诸如阴极射线管(CRT)或液晶显示器等各种形式。在另一种实现方式中,输出设备260用于向诸如人物行为分析(例如,人物属性统计、人物跟踪、人群分析)、面部认证(face identification)、人物图像检索等后续处理输出识别结果。
网络接口270提供用于将硬件配置200连接到网络的接口。例如,硬件配置200可经由网络接口270与经由网络连接的其他电子设备进行数据通信。可选地,可以为硬件配置200提供无线接口,以进行无线数据通信。系统总线280可以提供用于在CPU 210、RAM 220、ROM 230、硬盘240、输入设备250、输出设备260和网络接口270等之间相互传输数据的数据传输路径。虽然被称为总线,但是系统总线280并不限于任何特定的数据传输技术。
上述硬件配置200仅仅是说明性的,并且决不意图限制本发明、其应用或用途。而且,为了简明起见,在图2中只示出一个硬件配置。但是,根据需要也可以使用多个硬件配置。
(识别处理)
接下来将参照图3至图12C描述根据本发明的识别处理(尤其是属性识别)。
图3是例示根据本发明第一实施例的识别装置300的配置的框图。其中,图3中所示的一些或全部模块可由专用硬件实现。如图3所示,识别装置300包括特征提取单元310、特征获得单元320、样本信息确定单元330和属性识别单元340。
另外,图3中所示的存储设备350存储将由特征获得单元320使用的对应分类器及上述预确定样本信息。可选地,对应分类器及上述预确定样本信息可存储在不同的存储设备中。在一种实现方式中,存储设备350为图2中所示的ROM 230或硬盘240。在另一种实现方式中,存储设备350是经由网络(未示出)与识别装置300连接的服务器或外部存储设备。
在该实施例中,将以识别输入图像中的人的年龄(例如,人的第一属性)为例。然而,显然不必局限于此。首先,图2中所示的输入设备250接收从专门电子设备(例如,相机)输出或由用户输入的图像。接着,输入设备250经由系统总线280将所接收图像传输到识别装置300。
然后,如图3中所示,特征提取单元310从自所接收图像获得的人的区域(例如,面部区域)提取人的第一特征。
特征获得单元320至少基于针对人的年龄的置信度信息获得人的第二特征,其中,所述针对人的年龄的置信度信息基于特征提取单元310提取的第一特征和用于对年龄进行分类并存储在存储设备350中的第一分类器获得。
样本信息确定单元330基于特征获得单元320获得的第二特征,从存储在存储设备350中的预确定样本信息确定样本信息。
然后,属性识别单元340基于样本信息确定单元330确定的样本信息,识别所接收图像中的人的年龄。
最后,在属性识别单元340识别所接收图像中的人的年龄之后,属性识别单元340经由系统总线280将人的年龄传输到图2中所示的输出设备260,用于向用户显示人的年龄或用于诸如面部认证、人物图像检索等后续处理。
图4中所示的流程图400是图3中所示的识别装置300的对应过程。
如图4中所示,在特征提取步骤S410中,特征提取单元310首先使用例如面部对齐方法从所接收图像确定人的面部区域。然后,特征提取单元310从确定的面部区域提取人的第一特征,其中提取的第一特征例如为HOG特征或LBP特征。可选地,为了识别更准确的人的年龄,特征提取单元310根据卷积神经网络(Convolutional Neural Network,CNN)提取人的第一特征。另外,可以看出,在要识别的人物属性不是人的面部属性(例如,人的年龄)而是人的身体属性(例如,人的身高)的情况下,可使用例如身体检测方法从所接收图像确定人的身体区域以用于后续处理。
在特征获得步骤S420中,特征获得单元320至少基于针对人的年龄的置信度信息获得人的第二特征,其中,针对所述人的年龄的置信度信息基于特征提取单元310提取的第一特征和第一分类器获得。在本发明中,第一分类器例如为支持向量机(Super VectorMachine,SVM)分类器。尤其是,在根据CNN提取第一特征的情况下,第一分类器例如为Softmax分类器。另外,由于第二特征是基于对应置信度信息获得的特征,因此第二特征的维度比特征提取单元310提取的第一特征的维度低的多。因此,特征获得单元320获得的第二特征例如可被视为紧凑特征或轻量特征。
在一种实现方式中,特征获得单元320按照以下操作获得第二特征。首先,特征获得单元320从存储设备350中获得第一分类器。接着,特征获得单元320基于所述第一分类器和特征提取单元310提取的第一特征,确定针对人的年龄的置信度信息。然后,特征获得单元320将所确定的针对人的年龄的置信度信息视为对应的第二特征。因此,在该实现方式中,存储在存储设备350中的预确定样本信息包括GT年龄及针对GT年龄的置信度信息(也即,相应的特征)。如上所述,GT年龄与针对GT年龄的对应置信度信息以成对的方式存储。例如,图5A示出GT年龄(例如,GT年龄为39岁)与针对该GT年龄的对应置信度信息的示例对。
为了从存储设备350确定更准确的样本信息,从而可识别更准确的人的年龄,除了针对人的年龄的置信度信息,还可使用针对人的其他属性(例如,人的种族、人的性别)的置信度信息来确定对应的样本信息。因此,在另一种实现方式中,特征获得单元320参照图6获得第二特征。
如图6中所示,在步骤S421中,特征获得单元320从存储设备350中获得N个分类器。例如,在使用人的年龄、人的种族及人的性别的情况下,特征获得单元320将从存储设备350中获得三个分类器。这三个分类器为用来对年龄进行分类的分类器(即,第一分类器)、用来对种族进行分类的分类器及用来对性别进行分类的分类器。
在步骤S422中,对于人的每一个属性,特征获得单元320基于对应的分类器及特征提取单元310提取的第一特征,确定针对人的该属性的对应置信度信息。例如,在使用人的年龄、人的种族及人的性别的情况下,特征获得单元320将确定针对人的年龄的置信度信息、针对人的种族的置信度信息及针对人的性别的置信度信息。
然后,在步骤S423中,特征获得单元320通过将在步骤S422中确定的针对人的对应属性的置信度信息进行分组来获得第二特征。在一种实现方式中,分组操作为直接将在步骤S422中确定的所有置信度信息连接到一起。在另一种实现方式中,分组操作为将加权置信度信息连接到一起,其中所述加权置信度信息通过对在步骤S422中确定的所有置信度信息进行加权获得。在另一种实现方式中,分组操作为通过使用投影算法将在步骤S422中确定的所有置信度信息进行合并。也就是说,特征获得单元320获得的分组/连接/合并的置信度信息将被视为对应的第二特征。例如,在步骤S422中确定了针对人的年龄的置信度信息、针对人的种族的置信度信息及针对人的性别的置信度信息的情况下,图7示出特征获得单元320获得的示例性连接的置信度信息,其中,实线条表示针对人的年龄的置信度信息、点线条表示针对人的种族的置信度信息及虚线条表示针对人的性别的置信度信息。其中,在该实现方式中,存储在存储设备350中的预确定样本信息包括GT年龄以及基于针对GT年龄的置信度信息和针对其他人物属性的置信度信息获得的置信度信息(也即,相应的特征)。例如,对于一个GT年龄,对应的置信度信息通过对针对该GT年龄的置信度信息和针对其他人物属性的置信度信息进行连接或合并来获得。如上所述,GT年龄与对应的置信度信息也以成对的方式存储。例如,图5B示出GT年龄(例如,GT年龄为39岁)与对应的连接的置信度信息的示例对,其中,实线条表示针对GT年龄的置信度信息、点线条表示针对人物种族的置信度信息及虚线条表示针对人物性别的置信度信息。
返回至图4,在特征获得步骤S420中从所接收图像获得第二特征之后,在样本信息确定步骤S430中,样本信息确定单元330基于获得的第二特征,从存储在存储设备350中的预确定样本信息确定样本信息。
在一种实现方式中,样本信息确定单元330通过将在特征获得步骤S420中获得的置信度信息(即,第二特征)与预确定样本信息中的置信度信息进行匹配来确定样本信息。更具体而言,匹配操作为计算获得的置信度信息与预确定样本信息的置信度信息之间的相似性度量,其中,所述相似性度量通过距离度量来测量,所述距离度量例如为欧氏距离(Euclidean distance)、曼哈顿距离(Manhattan distance)、L2-范数距离(L2-normdistance)或L1-范数距离(L1-norm distance)。例如,对于存储在存储设备350中的每一个预确定样本信息,在该预确定样本信息中的置信度信息与获得的置信度信息之间的距离小于或等于预定义阈值(例如,TH1)的情况下,该预确定样本信息中的GT年龄将被视为与所接收图像中的人的年龄类似,因此,该预确定样本信息将被确定为一个样本信息。
返回至图4,在样本信息确定步骤S430中确定样本信息之后,在属性识别步骤S440中,属性识别单元340基于确定的样本信息中的GT年龄,识别所接收图像中的人的年龄。
在一种实现方式中,由属性识别单元340识别的所接收图像中的人的年龄如下:对确定的样本信息中的GT年龄求平均值获得的平均年龄、对确定的样本信息中的GT年龄进行加权获得的加权年龄或确定的样本信息中百分比为确定的样本信息中最大的一个GT年龄。
在另一种实现方式中,属性识别单元340按照以下操作识别所接收图像中的人的年龄:首先,使用例如统计方法,基于确定的样本信息中的GT年龄,确定所接收图像中的人的年龄分布;然后,将基于所述年龄分布确定的峰值或期望值视为所接收图像中的人的年龄。另外,在该实现方式中,年龄分布由属性识别单元340确定。可选地,年龄分布也可由其他单元确定,诸如分布确定单元(图3中未示出)。另外,年龄分布至少以热力图(heat map)、直方图或曲线图表示。可选地,在该实现方式中,可以识别所接收图像中的人的年龄的置信度区间而非识别人的年龄。其中,下文将根据本发明第三实施例进行详细描述。
根据第一实施例,由于预确定样本信息由GT属性(例如,GT年龄)和对应的置信度信息表示,并且由于用于识别对象属性的参照(即,样本信息)是从该类预确定样本信息确定的,因此属性识别的准确性将得到提高并且属性识别的速度将变快。
如第一实施例中所述,未对存储在存储设备350中的预确定样本信息进行任何处理。为了进一步提高属性识别的速度,也可以对存储在存储设备350中的预确定样本信息执行某种处理。图8是例示根据本发明第二实施例的识别装置800的配置的框图。其中,图8中所示的一些或全部模块可由专用硬件实现。
将图8与图3进行比较,图8中所示的识别装置800的主要不同在于,识别装置800还包括子集确定单元810。
更具体而言,如图8中所示,在样本信息确定单元330确定对应的样本信息之前,子集确定单元810将首先从存储在存储设备350中的预确定样本信息确定子集。然后,样本信息确定单元330将根据第一实施例中描述的对应处理,从子集确定单元810确定的子集中确定样本信息。在该实施例中,仍将以识别输入图像中的人的年龄为例。
在一种实现方式中,子集确定单元810参照图9中的流程图900确定对应的子集。其中,在该实现方式中,存储在存储设备350中的预确定样本信息包括GT年龄、针对GT年龄的置信度信息及与人物年龄相关的至少一个GT人物属性。如上所述,GT年龄、针对GT年龄的对应置信度信息及与人物年龄相关的GT人物属性也以成对的方式存储。其中,与人物年龄相关的人物属性是将影响人物年龄识别的对应人物属性。例如,对于不同种族的人物,人物年龄的识别结果将会不同。对于不同性别的人物,人物年龄的识别结果也将不同。因此,对于人物年龄,人物种族和/或人物性别可被视为与人物年龄相关的对应人物属性。例如,在人物种族被视为与人物年龄相关的对应人物属性的情况下,图10示出GT年龄(例如,GT年龄为39岁)、针对该GT年龄的对应置信度信息及人物GT种族(例如,GT种族为亚洲)的示例对。
如图9中所示,以将人物种族视为与人物年龄相关的对应人物属性为例,在步骤S910中,子集确定单元810从存储设备350中获得用于确定种族的第二分类器,并且基于所述第二分类器及特征提取单元310提取的第一特征确定所接收图像中的人的种族(例如,人的第二属性)。
然后,在步骤S920中,子集确定单元810根据确定的所接收图像中的人的种族,对存储在存储设备350中的预确定样本信息进行过滤。例如,GT种族与确定的所接收图像中的人的种族不同的预确定样本信息将被滤除。换言之,GT种族与确定的所接收图像中的人的种族相同的预确定样本信息将被保留并且将被视为对应的子集。
在另一种实现方式中,子集确定单元810通过从存储设备350中选择至少一个类簇(cluster)来确定对应的子集。
一方面,在该实现方式中,预先使用聚类方法(例如,K均值聚类算法(Kmeansclustering algorithm)),根据预确定样本信息中的GT年龄对存储在存储设备350中的预确定样本信息进行聚类。例如,根据年龄区间(诸如,30岁区间、40岁区间、50岁区间等)对预确定样本信息进行聚类。从而,对于与30岁区间相关的类簇,预确定样本信息中聚类到该类簇中的所有GT年龄都在30岁内。因此,在该实现方式中,聚类到每一个类簇中的预确定样本信息包括GT年龄、针对GT年龄的置信度信息及在聚类处理期间获得的该类簇的聚类中心。如上所述,GT年龄及针对GT年龄的对应置信度信息也以成对的方式存储。
另一方面,子集确定单元810按照以下操作确定对应的子集。首先,对于存储在存储设备350中的每一个类簇,子集确定单元810计算该类簇的中心与特征获得单元320获得的第二特征之间的距离。其中,该距离为例如欧氏距离、曼哈顿距离、L2-范数距离或L1-范数距离。然后,子集确定单元810根据所计算的距离和预定义阈值(例如,TH2),选择至少一个类簇。例如,对于每一个类簇,在所计算的距离小于或等于TH2的情况下,该类簇将被子集确定单元810选定。最后,子集确定单元810将这些选定类簇中的所有预确定样本信息视为对应的子集。
另外,由于图8中所示的特征提取单元310、特征获得单元320、样本信息确定单元330、属性识别单元340及存储设备350与图3中所示的对应单元相同,因此此处将不再重复详细的描述。
根据第二实施例,由于用于识别对象属性的参照(即,样本信息)是从较小尺寸的子集中确定的,因此属性识别的速度将变得更快。
根据图3中所示的识别装置300和图8中所示的识别装置800,本发明被用于识别一个图像中的对象的属性。然而,本发明还可被用于识别视频中的对象的属性。图11是例示根据本发明第三实施例的识别装置1100的配置的框图。其中,图11中所示的一些或全部模块可由专用硬件实现。
将图11与图3进行比较,图11中所示的识别装置1100的主要不同在于,识别装置1100还包括图像获得单元1110、分布确定单元1120及识别单元1130。
在该实施例中,仍将以识别输入视频中的人的年龄(例如,人的第一属性)为例。然而,显然不必局限于此。首先,图2中所示的输入设备250接收从专门电子设备(例如,相机)输出或由用户输入的视频。接着,输入设备250经由系统总线280将所接收视频传输到识别装置1100。
然后,如图11中所示,图像获得单元1110从所接收视频获得至少一个图像。例如,图像获得单元1110获得所接收视频中的每一个视频帧。
对于图像获得单元1110获得的每一个图像(即,每一个视频帧),特征提取单元310、特征获得单元320、样本信息确定单元330根据上述第一实施例对该图像执行对应操作。由于所述对应操作与上述第一实施例中所述的对应操作相同,因此此处将不再重复详细的描述。
然后,在样本信息确定单元330确定每一个图像的对应样本信息之后,分布确定单元1120使用例如统计方法,基于所有确定的样本信息中的GT年龄,确定所接收视频中的人的年龄分布。在一种实现方式中,确定的年龄分布以直方图表示,诸如图12A中所示的直方图。如图12A中所示,例如X坐标用于表示GT年龄的值,Y坐标用于表示GT年龄的百分比。在另一种实现方式中,确定的年龄分布以曲线图表示,诸如图12B中所示的曲线图。如图12B中所示,例如X坐标也用于表示GT年龄的值,Y坐标也用于表示GT年龄的百分比。在又一种实现方式中,为了让用户能够直观地看到所接收视频中的人的年龄分布并且为了确保图2中所示的输出设备260中用于向用户显示年龄分布的显示空间尽可能小,确定的年龄分布以热力图表示,诸如图12C中所示的热力图。如图12C中所示,例如每一个块用于表示GT年龄的值并且每一个块的颜色深度用于表示GT年龄的百分比,其中,一个GT年龄的百分比越高,热力图中对应块的颜色深度越深。最后,在分布确定单元1120确定年龄分布之后,分布确定单元1120经由系统总线280将年龄分布传输至图2中所示的输出设备260,用于向用户显示年龄分布或用于诸如人物行为分析(例如,人物属性统计、人物跟踪、人群分析)、面部认证、人物图像检索等后续处理。
此外,根据上述第二实施例,为了进一步提高属性识别的速度,图11中所示的识别装置1100还可包括子集确定单元(图11中未示出)。对于图像获得单元1110获得的每一个图像,特征提取单元310、特征获得单元320、子集确定单元(例如,图8中所示的子集确定单元810)及样本信息确定单元330根据上述第二实施例对该图像执行对应操作。由于所述对应操作与上述第二实施例中所述的对应操作相同,因此此处将不再重复详细的描述。
另外,在一个应用中,所接收视频中的人的年龄分布被用于确定所接收视频中的人的年龄。因此,如图11中所示,在分布确定单元1120确定年龄分布之后,识别单元1130基于所述年龄分布识别所接收视频中的人的年龄。例如,基于年龄分布确定的峰值或期望值将被视为所接收视频中的人的年龄。可选地,所接收视频中的人的年龄也可以不根据上述应用而是按照以下操作确定。首先,从所接收视频中获得每一个视频帧。然后,对于每一个视频帧,根据上述第一实施例或上述第二实施例识别该视频帧中的人的年龄。最后,基于每一个视频帧中的人的年龄,确定所接收视频中的人的年龄。例如,所接收视频中的人的年龄如下:对所有视频帧中的人的年龄求平均值获得的平均年龄、对所有视频帧中的人的年龄进行加权获得的加权年龄或百分比为所有视频帧中的人的年龄中最大的一个年龄。
在另一应用中,所接收视频中的人的年龄分布被用于确定所接收视频中的人的年龄置信度区间。因此,如图11中所示,在分布确定单元1120确定年龄分布之后,识别单元1130基于所述年龄分布识别所接收视频中的人的年龄置信度区间。例如,对应的置信度区间由以下公式(1)表示:
置信度区间=(X-Y1,X+Y2)…(1)
其中,X是基于年龄分布确定的期望值,Y1是占年龄分布α%的左置信度,Y2是占年龄分布β%的右置信度。另外,α和β可被设定为具有相同的值或者不同的值。
此外,在另一应用中,所接收视频中的每一个人的年龄分布或所接收视频中的每一个人的年龄例如可用于人物行为分析。首先,对于所接收视频中的每一个人,将根据上述第三实施例确定该人的年龄分布或该人的年龄。然后,将使用例如统计方法,基于确定的所有人的年龄分布或基于确定的所有人的年龄来确定所接收视频中的所有人的年龄分布。然后,基于所接收视频中的所有人的年龄分布,可执行人物行为分析的对应处理。
上述的所有单元都是用于实现本公开中所述处理的示例性和/或优选模块。这些单元可以是硬件单元(诸如,现场可编程门阵列(FPGA)、数字信号处理器、专用集成电路等)和/或软件模块(诸如,计算机可读程序)。上面没有详尽地描述用于实现各步骤的单元。然而,当存在执行某一处理的步骤的情况下,可以存在用于实现该同一处理的对应功能模块或单元(通过硬件和/或软件实现)。通过描述的步骤和对应于这些步骤的单元的所有组合的技术方案包括在本申请的公开内容中,只要它们所构成的技术方案是完整的、适用的即可。
可以以多种方式来实施本发明的方法和装置。例如,可以通过软件、硬件、固件或其任何组合来实施本发明的方法和装置。除非另有具体说明,否则本方法的步骤的上述顺序仅旨在是说明性的,并且本发明的方法的步骤不局限于上述具体描述的顺序。此外,在一些实施例中,本发明还可以被实施为在记录介质中记录的程序,其包括用于实现根据本发明的方法的机器可读指令。因此,本发明也涵盖存储用于实现根据本发明的方法的程序的记录介质。
虽然已经通过示例详细地展示了本发明的一些具体实施例,但是本领域的技术人员应该理解,上述示例仅旨在是说明性的,并不限制本发明的范围。本领域的技术人员应该理解,上述实施例可以在不脱离本发明的范围和精神的情况下被修改。本发明的范围由所附权利要求约束。

Claims (20)

1.一种识别装置,所述识别装置包括:
特征提取单元,被配置为从自图像获得的对象的区域提取所述对象的第一特征;
特征获得单元,被配置为至少基于针对所述对象的第一属性的置信度信息获得所述对象的第二特征,其中针对所述对象的所述第一属性的置信度信息基于对应于所述第一属性的分类器及所述特征提取单元提取的所述第一特征获得;
样本信息确定单元,被配置为基于所述特征获得单元获得的所述第二特征,从预确定样本信息确定样本信息;及
属性识别单元,被配置为基于所述样本信息确定单元确定的所述样本信息,识别所述对象的所述第一属性。
2.根据权利要求1所述的识别装置,其中,所述预确定样本信息至少包括标记的第一属性和至少基于针对所述标记的第一属性的置信度信息获得的特征。
3.根据权利要求1所述的识别装置,其中,所述特征获得单元基于针对所述对象的所述第一属性的置信度信息及针对所述对象的其他属性的置信度信息获得所述第二特征;
其中,针对所述对象的所述其他属性的置信度信息基于对应于所述其他属性的分类器及所述特征提取单元提取的所述第一特征获得。
4.根据权利要求3所述的识别装置,其中,所述预确定样本信息至少包括所述标记的第一属性及基于针对所述标记的第一属性的置信度信息和针对所述其他属性的置信度信息获得的特征。
5.根据权利要求1或3所述的识别装置,其中,所述特征提取单元根据卷积神经网络提取所述第一特征。
6.根据权利要求1或3所述的识别装置,所述识别装置还包括:
子集确定单元,被配置为从所述预确定样本信息确定子集;
其中,所述样本信息确定单元从所述子集确定单元确定的所述子集确定所述样本信息。
7.根据权利要求6所述的识别装置,其中,所述子集确定单元根据所述对象的第二属性对所述预确定样本信息进行过滤来确定所述子集;
其中,所述对象的所述第二属性是基于对应于所述第二属性的分类器及所述特征提取单元提取的所述第一特征确定的。
8.根据权利要求6所述的识别装置,其中,所述子集确定单元通过选择至少一个类簇来确定所述子集,所述至少一个类簇通过对所述预确定样本信息进行聚类获得。
9.根据权利要求1所述的识别装置,其中,所述对象为人物,其中所述对象的属性为所述人物的面部属性或所述人物的身体属性。
10.一种识别方法,所述识别方法包括:
特征提取步骤,用于从自图像获得的对象的区域提取所述对象的第一特征;
特征获得步骤,用于至少基于针对所述对象的第一属性的置信度信息获得所述对象的第二特征,其中,针对所述对象的所述第一属性的置信度信息基于对应于所述第一属性的分类器及所述特征提取步骤提取的所述第一特征获得;
样本信息确定步骤,用于基于所述特征获得步骤获得的所述第二特征,从预确定样本信息确定样本信息;及
属性识别步骤,用于基于所述样本信息确定步骤确定的所述样本信息,识别所述对象的所述第一属性。
11.根据权利要求10所述的识别方法,其中,所述预确定样本信息至少包括标记的第一属性和至少基于针对所述标记的第一属性的置信度信息获得的特征。
12.根据权利要求10所述的识别方法,其中,在所述特征获得步骤中,所述第二特征基于针对所述对象的所述第一属性的置信度信息及针对所述对象的其他属性的置信度信息获得;
其中,针对所述对象的所述其他属性的置信度信息基于对应于所述其他属性的分类器及所述特征提取步骤提取的所述第一特征获得。
13.根据权利要求12所述的识别方法,其中,所述预确定样本信息至少包括所述标记的第一属性及基于针对所述标记的第一属性的置信度信息和针对所述其他属性的置信度信息获得的特征。
14.一种识别装置,所述识别装置包括:
特征提取单元,被配置为从自图像获得的对象的区域提取所述对象的第一特征;
特征获得单元,被配置为至少基于针对所述对象的第一属性的置信度信息获得所述对象的第二特征,其中,针对所述对象的所述第一属性的置信度信息基于对应于所述第一属性的分类器及所述特征提取单元提取的所述第一特征获得;
样本信息确定单元,被配置为基于所述特征获得单元获得的所述第二特征,从预确定样本信息确定样本信息;及
分布确定单元,被配置为基于所述样本信息确定单元确定的所述样本信息,确定所述对象的所述第一属性的分布。
15.根据权利要求14所述的识别装置,所述识别装置还包括:
图像获得单元,被配置为从视频获得至少一个图像;
其中,所述特征提取单元、所述特征获得单元和所述样本信息确定单元对所述图像获得单元获得的所述图像中的每一个执行对应操作;
其中,所述分布确定单元基于所述样本信息确定单元为所述图像获得单元获得的所述图像中的每一个确定的样本信息确定所述对象的所述第一属性的所述分布。
16.根据权利要求14或15所述的识别装置,其中,所述分布确定单元确定的所述对象的所述第一属性的所述分布至少以热力图、直方图或曲线图表示。
17.根据权利要求14或15所述的识别装置,所述识别装置还包括:
识别单元,被配置为基于所述分布确定单元确定的所述对象的所述第一属性的所述分布,识别所述对象的所述第一属性。
18.根据权利要求14或15所述的识别装置,所述识别装置还包括:
识别单元,被配置为基于所述分布确定单元确定的所述对象的所述第一属性的所述分布,识别所述对象的所述第一属性的置信度区间。
19.根据权利要求14所述的识别装置,其中,所述预确定样本信息至少包括标记的第一属性和至少基于针对所述标记的第一属性的置信度信息获得的特征。
20.根据权利要求14所述的识别装置,其中,所述对象为人物,其中所述对象的所述属性为所述人物的面部属性或所述人物的身体属性。
CN201710914591.7A 2017-09-30 2017-09-30 识别装置和识别方法 Pending CN109598176A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710914591.7A CN109598176A (zh) 2017-09-30 2017-09-30 识别装置和识别方法
US16/141,124 US11386702B2 (en) 2017-09-30 2018-09-25 Recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710914591.7A CN109598176A (zh) 2017-09-30 2017-09-30 识别装置和识别方法

Publications (1)

Publication Number Publication Date
CN109598176A true CN109598176A (zh) 2019-04-09

Family

ID=65896164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710914591.7A Pending CN109598176A (zh) 2017-09-30 2017-09-30 识别装置和识别方法

Country Status (2)

Country Link
US (1) US11386702B2 (zh)
CN (1) CN109598176A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112417205A (zh) * 2019-08-20 2021-02-26 富士通株式会社 目标检索装置及方法、电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921022A (zh) * 2018-05-30 2018-11-30 腾讯科技(深圳)有限公司 一种人体属性识别方法、装置、设备及介质
JP7414077B2 (ja) * 2019-12-17 2024-01-16 日本電気株式会社 画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000003342A1 (en) * 1998-07-08 2000-01-20 British Telecommunications Public Limited Company Requirements matching
CN105488470A (zh) * 2015-11-30 2016-04-13 小米科技有限责任公司 确定人物属性信息的方法及装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070237387A1 (en) * 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
US8582807B2 (en) * 2010-03-15 2013-11-12 Nec Laboratories America, Inc. Systems and methods for determining personal characteristics
CN103262118B (zh) * 2010-12-08 2015-11-25 日本电气方案创新株式会社 属性值估计装置和属性值估计方法
US9158970B2 (en) * 2012-11-16 2015-10-13 Canon Kabushiki Kaisha Devices, systems, and methods for visual-attribute refinement
US9002116B2 (en) * 2013-03-01 2015-04-07 Adobe Systems Incorporated Attribute recognition via visual search
US9129152B2 (en) * 2013-11-14 2015-09-08 Adobe Systems Incorporated Exemplar-based feature weighting
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
EP3465537A2 (en) * 2016-05-25 2019-04-10 Metail Limited Method and system for predicting garment attributes using deep learning
US9928448B1 (en) * 2016-09-23 2018-03-27 International Business Machines Corporation Image classification utilizing semantic relationships in a classification hierarchy
KR102308871B1 (ko) * 2016-11-02 2021-10-05 삼성전자주식회사 객체의 속성에 기반하여 객체를 인식 및 트레이닝하는 방법 및 장치
JP6811645B2 (ja) * 2017-02-28 2021-01-13 株式会社日立製作所 画像検索装置及び画像検索方法
WO2018170695A1 (zh) * 2017-03-20 2018-09-27 华为技术有限公司 一种表观特征的描述属性识别方法及装置
WO2019000466A1 (zh) * 2017-06-30 2019-01-03 广东欧珀移动通信有限公司 人脸识别方法、装置、存储介质及电子设备
US10963737B2 (en) * 2017-08-01 2021-03-30 Retina-Al Health, Inc. Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images
CN110689030A (zh) * 2018-07-04 2020-01-14 佳能株式会社 属性识别装置和方法及存储介质
US11222196B2 (en) * 2018-07-11 2022-01-11 Samsung Electronics Co., Ltd. Simultaneous recognition of facial attributes and identity in organizing photo albums

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000003342A1 (en) * 1998-07-08 2000-01-20 British Telecommunications Public Limited Company Requirements matching
CN105488470A (zh) * 2015-11-30 2016-04-13 小米科技有限责任公司 确定人物属性信息的方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIAYAN QIU: "Convolutional Neural Network based Age Estimation from Facial Image and Depth Prediction from Single Image", 《HTTP://HDL.HANDLE.NET/1885/102510》 *
闫敬文等: "基于HOG-多尺度LBP特征的人脸性别识别", 《扬州大学学报(自然科学版)》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112417205A (zh) * 2019-08-20 2021-02-26 富士通株式会社 目标检索装置及方法、电子设备

Also Published As

Publication number Publication date
US11386702B2 (en) 2022-07-12
US20190102609A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
Salama AbdELminaam et al. A deep facial recognition system using computational intelligent algorithms
US11210503B2 (en) Systems and methods for facial representation
US10303982B2 (en) Systems and methods for machine learning enhanced by human measurements
CN107633207B (zh) Au特征识别方法、装置及存储介质
US10318797B2 (en) Image processing apparatus and image processing method
CN110362677B (zh) 文本数据类别的识别方法及装置、存储介质、计算机设备
US8416997B2 (en) Method of person identification using social connections
US9996554B2 (en) Search apparatus, search method, and storage medium
Zhou et al. Semi-supervised salient object detection using a linear feedback control system model
US10783357B2 (en) Apparatus and method for recognizing expression of a face, image processing apparatus and system
JP2015219904A (ja) ユーザの人口統計学特性を推定する方法、コンピュータ・システム、及びプログラム
CN110348362B (zh) 标签生成、视频处理方法、装置、电子设备及存储介质
US20200012887A1 (en) Attribute recognition apparatus and method, and storage medium
US10726358B2 (en) Identification of individuals and/or times using image analysis
CN109598176A (zh) 识别装置和识别方法
CN113657087A (zh) 信息的匹配方法及装置
JP2013016170A (ja) 人体動作の認識の方法、装置、及びプログラム
CN109753859A (zh) 在图像中检测人体部件的装置和方法及图像处理系统
CN110633723B (zh) 图像处理装置和方法及存储介质
US20220101407A1 (en) Method for determining a recommended product, electronic apparatus, and non-transitory computer-readable storage medium
CN112101479B (zh) 一种发型识别方法及装置
CN114266921A (zh) 图像描述信息获取方法、装置、服务器及存储介质
Gao et al. Cloud-based actor identification with batch-orthogonal local-sensitive hashing and sparse representation
CN110363050A (zh) 识别装置和方法及识别系统
CN112232890A (zh) 数据处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190409

WD01 Invention patent application deemed withdrawn after publication