CN115516530A - 识别方法、生成方法、识别程序以及识别装置 - Google Patents
识别方法、生成方法、识别程序以及识别装置 Download PDFInfo
- Publication number
- CN115516530A CN115516530A CN202080100412.6A CN202080100412A CN115516530A CN 115516530 A CN115516530 A CN 115516530A CN 202080100412 A CN202080100412 A CN 202080100412A CN 115516530 A CN115516530 A CN 115516530A
- Authority
- CN
- China
- Prior art keywords
- face image
- attribute
- similarity
- estimation
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及识别方法、生成方法、识别程序以及识别装置。在识别方法中,计算机执行以下处理:若接受面部图像,则使用根据面部图像生成与面部图像的属性有关的第一估计值的多个估计模型分别生成与接受的面部图像的属性有关的多个第一估计值,并且生成表示分别与多个估计模型建立对应的多个特征信息与接受的面部图像的特征信息的类似度的多个类似度信息,基于生成的与面部图像的属性有关的多个第一估计值、和生成的多个类似度信息,生成与接受的面部图像的属性有关的第二估计值。
Description
技术领域
本发明涉及识别方法、生成方法、识别程序以及识别装置。
背景技术
在生物体认证技术中,存在用于识别生物体图像所属的群体的方面。作为例子,在面部认证技术中,可举出获取的面部图像是真实的面部还是照片、画面中显示的面部、印刷物这样的伪造物的真伪判定;对象的人物的性别、年龄、瞳色这样的属性估计。但是,面部图像不一定能够在统一的环境下获取,而存在由于在光源的差异、反射的程度不同的环境下获取而识别精度降低的一面。
仅作为减少这样的不同的获取环境的影响的技术的例示,提出了下述三个以往技术1~3。例如,作为第一个,存在以下以往技术1:每当进行输入的面部图像的属性估计时,对估计结果的每个簇提取与簇中心的距离较近的样本数据,并在赋予了正确答案数据的基础上进行更新属性估计模型的再学习。作为第二个,存在以下以往技术2:在获取面部图像时获取表示拍摄环境的信息,使用通过根据拍摄环境加工面部图像的数据从而生成的反映了拍摄环境的模拟现场图像,来进行学习模型的生成、属性估计。作为第三个,存在以下以往技术3:基于对面部图像进行聚类后的结果、和预先与面部图像建立对应的可疑度信息,生成可疑度估计模型,使用与对输入面部图像进行聚类后的结果的簇对应的可疑度信息,估计对象人物的可疑度。
专利文献1:日本特开2012-208710号公报
专利文献2:日本特开2013-242825号公报
专利文献3:国际公开第2018/128015号
然而,上述的技术依然存在难以抑制未知的环境中的群体识别的精度降低这一面。
例如,在上述的以往技术1中,在未知的环境中使用属性估计模型的情况下,使用精度较低的模型直到进行再学习。另外,在上述的以往技术2中,在使用场景的获取环境不明的情况、或者在设想外的环境下获取面部图像的情况下,存在难以适当地加工面部图像的方面,因此存在属性估计的精度降低的情况。并且,在以往技术3中,将聚类结果与可疑度估计模型1对1地建立关联,可疑度估计模型将各簇中包含的图像与可疑度信息建立对应,因此可疑度估计结果取决于聚类结果。因此,在不同的环境下拍摄了相同人物的图像的情况下,聚类结果不同,产生可疑度估计结果出现偏差的可能性。
发明内容
在一个方面中,目的在于抑制未知的环境中的群体识别的精度降低。
在一个方式的识别方法中,计算机执行以下处理:若接受面部图像,则使用根据面部图像生成与上述面部图像的属性有关的第一估计值的多个估计模型分别生成与接受的上述面部图像的属性有关的多个第一估计值,并且生成表示分别与上述多个估计模型建立对应的多个特征信息与接受的上述面部图像的特征信息的类似度的多个类似度信息,基于生成的与上述面部图像的属性有关的多个第一估计值、和生成的上述多个类似度信息,生成与接受的上述面部图像的属性有关的第二估计值。
能够抑制未知的环境中的群体识别的精度降低。
附图说明
图1是表示实施例1所涉及的系统中包含的各装置的功能性结构的一个例子的框图。
图2是表示各群体标签的第一分数的一个例子的图。
图3是表示实施例1所涉及的生成装置的整体流程的一个例子的图。
图4是表示实施例1所涉及的生成装置的子流程的一个例子的图。
图5是表示实施例1所涉及的识别装置的整体流程的一个例子的图。
图6是表示计算机的硬件结构例的图。
具体实施方式
以下,参照附图,对本申请所涉及的识别方法、生成方法、识别程序以及识别装置进行说明。此外,该实施例不限定公开的技术。而且,各实施例能够不使处理内容矛盾的范围内适当地组合。
实施例1
[系统结构]
图1是表示实施例1所涉及的系统中包含的各装置的功能性结构的一个例子的框图。图1所示的系统1具有识别生物体图像所属的群体的群体识别功能。仅作为这样的群体识别的一个例子,可举出与生物体图像的一个例子对应的面部图像是真实的面部还是照片、画面中显示的面部、印刷物这样的伪造物的真伪判定;对象的人物的性别、年龄、瞳色这样的属性估计。
如图1所示,可包含生成装置10和识别装置30。此处,在图1中,仅作为一个例子,举出分别构建生成装置10以及识别装置30这两个机器的系统为例。这些生成装置10以及识别装置30可经由任意的网络连接为可通信,无论是有线还是无线网络。
生成装置10是具有生成用于上述的群体识别功能的群体识别模型的模型生成功能的计算机的一个例子。识别装置30是具有上述的群体识别功能的计算机的一个例子。
生成装置10以及识别装置30能够通过将实现上述的模型生成功能的生成程序或者实现上述的群体识别功能的识别程序作为软件包、在线软件安装至任意的计算机来实现。通过使计算机执行这样安装的生成程序或者识别程序,能够使计算机作为生成装置10或者识别装置30发挥功能。
[生成装置10的结构]
首先,对本实施例所涉及的生成装置10的功能性结构进行说明。如图1所示,生成装置10具有输入部11、特征提取部12、分割部13、以及生成部14。此外,生成装置10除了图1所示的功能部以外,还可以具有已知的计算机所具有的各种功能部、例如各种输入设备、声音输出设备等功能部。
仅作为例示,图1中举出的功能部,例如输入部11、特征提取部12、分割部13以及生成部14等功能部由下述的硬件处理器虚拟地实现。作为这样的处理器的例子,可举出CPU(Central Processing Unit):中央处理器、MPU(Micro Processing Unit:微处理器)等。并不限于这些通用的处理器,也可以使用DLU(Deep Learning Unit:深度学习单元)、GPGPU(General-Purpose computing on Graphics Processing Units:通用图形处理器)、GPU簇等。例如,处理器能够通过在RAM(Random Access Memory:随机存取存储器)等存储器上将上述的生成程序作为工序展开,来虚拟地实现上述的功能部。此处,作为处理器的例子,例示了DLU、GPGPU、GPU簇、CPU、MPU,但也可以通过任意的处理器实现上述的功能部,无论是通用型还是特化型处理器。此外,上述的功能部可以通过ASIC(Application SpecificIntegrated Circuit:专用集成电路)、FPGA(Field Programmable Gate Array:现场可编程逻辑门阵列)等硬连线逻辑实现。
输入部11是输入包含带群体标签的面部图像的学习数据的处理部。以下,仅作为生物体图像的一个例子,举出将面部图像用于群体识别的例子。例如,若举出真假判定为例,则对面部图像赋予真或者假两种群体标签中的正确答案的群体标签。另外,若举出属性估计中的年龄估计为例,则对面部图像赋予20多岁、30多岁、40多岁或者50多岁等多种群体标签中的正确答案的群体标签。并且,也能够赋予组合多种属性后的群体标签。例如,也可以对面部图像赋予以20多岁男性、20多岁女性、30多岁男性、30多岁女性…这样的方式组合年龄以及性别后的群体标签。此外,学习数据中包含的样本、即带群体标签的面部图像的个数可以是一个或者多个等任意的数量。另外,在面部图像中,也可以包含有同一人物的面部,也可以全部是不同的人物的面部。
仅作为一个例子,输入部11能够以接受群体识别模型的生成请求为条件,启动上述的模型生成功能。由此,开始群体识别模型的机器学习(训练)。作为一个例子,能够经由未图示的用户接口、或者未图示的通信接口接受上述的生成请求。此处,举出模型生成功能以接受群体识别模型的生成请求为条件启动的例子,但也能够通过其它的条件启动模型生成功能。例如,也可以将带群体标签的面部图像被输入至生成装置10作为条件,也可以将到达定期时刻、例如12点、18点等作为条件。此外,带群体标签的面部图像也可以从未图示的内部存储设备、可移动介质获取,另外,也可以经由网络从外部装置获取。
特征提取部12是从由输入部11输入的生物体图像提取特征信息的处理部。如图1所示的那样,特征提取部12具有第一提取部12A以及第二提取部12B。
第一提取部12A是从由输入部11输入的面部图像提取第一特征信息的处理部。此处,第一特征信息存在为了分类为获取面部图像的环境的簇,而用于由后述的分割部13进行的聚类的方面。从这样的方面出发,希望使用在类似的环境下拍摄的面部图像被分类为相同的簇的第一特征信息。此处所说的“环境”,是指光源的差异、反射的程度。例如,在环境变化时,光源的反射的程度在面部图像中可作为局部的像素值的变化而出现。因此,作为第一特征信息的一个例子,能够使用LBP(Local Binary Pattern:局部二值模式)。例如,在LBP中,将图像的关注像素的像素值与该关注像素的周围的像素的像素值比较后的结果的统计量被用作特征量。具体而言,以规定的顺序选择面部图像的各像素作为关注像素,针对每个关注像素,将该关注像素与周边像素、例如8与附近的邻接像素之间的大小的比较结果二值化,并提取面部图像整体的二值数据的模式作为LBP。
第二提取部12B是从由输入部11输入的面部图像提取第二特征信息的处理部。此处,第二特征信息能够从用于属性估计的方面出发,根据设为分类对象的属性的性质选择图像特征信息。作为一个方面,在第二特征信息中,能够使用与第一特征信息不同的种类的特征量。例如,在作为第一特征信息使用LBP这样的亮度信息的情况下,作为第二特征信息,能够使用表达物体的质感等的纹理特征量。
分割部13是将第一特征信息的集合分割为多个簇的处理部。仅作为一个例子,分割部13能够对第一特征信息的集合应用聚类、即进行所谓的聚类分析。在这样聚类中,也可以未必使用群体标签。
此处,在聚类的各种算法中,也能够使用未预先决定分割数的分层聚类。例如,在分层聚类中,作为初始值生成N个仅一个第一特征信息所属的簇,并重复进行将第一特征信息的类似度最大的簇彼此结合并产生生成新的簇的操作。此时,预先确定聚类间的类似度的阈值T1,在全部的聚类间的类似度不足阈值时结束重复处理。由此,在类似的环境下获取的面部图像彼此被分类为相同的簇,另一方面,在非类似的环境下获取的面部图像彼此被分类为不同的簇。这样,通过使用不需要预先决定分割的个数的分层聚类,即使在学习数据中包含有在怎样的环境下获取的面部图像,也能够得到针对每个类似的环境形成了簇的聚类结果。此外,簇间的类似度不限定于特定的类似度。例如,能够使用各簇中的第一特征信息的重心彼此的距离、余弦类似度、属于簇的第一特征信息彼此的距离、余弦类似度、使用总和、平均值等统计量的方法等作为聚类间的类似度。
以下,存在将作为聚类结果而得到的簇记载为“环境簇”的情况。
在得到上述的环境簇后,分割部13能够针对每个环境簇,使用第一特征信息计算环境簇的代表信息。例如,在环境簇的代表信息中,能够使用属于环境簇的第一特征信息的重心。这样针对每个环境簇计算出的代表信息被保存于后述的识别装置30的环境簇存储部33A。
环境簇的代表信息也可以对一个环境簇保持多个。例如,在分层聚类中,提取在结束重复簇彼此的结合的处理的距离的阈值被设定为D2(D1>D2)的情况下生成的簇作为子簇。子簇由于满足D1>D2的大小关系,因此个数比环境簇多。因此,根据分层聚类的算法,各子簇被内包于任意一个环境簇中。也能够将这些子簇中的第一特征信息的重心作为被内包的环境簇的代表信息保持。
生成部14是对每个环境簇生成群体识别模型的处理部。仅作为例示,群体估计模型能够通过机器学习的任意的算法、例如神经网络、支持向量机、随机森林等生成。
具体而言,生成部14对每个环境簇执行下述那样的处理。例如,生成部14提取通过第二提取部12B针对每个面部图像提取出的第二特征信息中的与属于环境簇的第一特征信息对应的第二特征信息。接着,生成部14将第二特征信息以及对作为第二特征信息的提取来源的面部图像赋予的群体标签分割为训练数据以及测试数据。
在此基础上,生成部14使用训练数据执行群体识别模型的机器学习。例如,在神经网络、深度学习的情况下,训练模型的各层的权重、偏置等参数。另外,在支持向量机的情况下,训练识别函数。其结果是,训练将面部图像或者第二特征信息作为输入而输出群体标签、或者与群体标签的种类数对应的确信度的“群体识别模型”。在这样的群体识别模型的训练时,训练数据也可以进一步被分割为更新模型的参数的训练数据、和更新模型的超参数例如层构造、学习率等的验证数据。此外,在使用验证数据从多个模型中选择模型的情况下,能够根据交叉验证等分割为训练数据以及验证数据。
之后,生成部14将测试数据中包含的第二特征信息输入至经训练的群体识别模型。接着,生成部14基于群体识别模型针对每个第二特征信息输出的群体标签或各群体标签的确信度、与对该第二特征信息赋予的正确答案的群体标签的一致或者不一致的比较结果,来计算群体识别模型的分辨率。例如,作为群体识别模型的分辨率的一个例子,能够采用测试数据的正确率。
除了与这样对每个环境簇生成的群体识别模型有关的各种信息、例如模型的层构造、权重、偏置等模型信息以外,群体识别模型的分辨率等也被保存于后述的识别装置30的模型存储部34A。
此处,在上述的群体估计模型的训练时,举出使用训练数据中包含的全部的第二特征信息的例子,但也能够选择性地使用属于环境簇的第二特征信息。在环境簇中,存在包含如相同人物的相同场景那样非常类似的图像的情况,在生成群体估计模型时,将这样的非常类似的图像全部使用的必要性较小。因此,在确定距离的阈值D3(D1>D3)而存在不足阈值D3的第一特征信息的组合的情况下,将它们中的至少一个以上除去而生成群体估计模型。这样,通过使用最小限度的面部图像,也可得到计算成本减少的效果。
具体而言,生成部14针对属于环境簇的第一特征信息中的与被分割为训练数据的第二特征信息对应的第一特征信息的每个组合,计算与该组合对应的第一特征信息之间的距离。然后,生成部14针对第一特征信息的每个组合执行以下那样的处理。例如,生成部14判定第一特征信息之间的距离是否不足规定的阈值D3(D1>D3)。此时,在距离不足阈值D3的情况下,对模型的参数更新的贡献度较小的可能性较高。因此,生成部14从训练数据删除与距离不足阈值D3的第一特征信息的组合中的一方的第一特征信息对应的第二特征信息。由此,抑制对模型的精度的影响并且抑制训练次数。另一方面,在距离不足阈值D3的情况下,对模型的参数更新的贡献度并不小的可能性较高。在该情况下,生成部14跳过第二特征信息从训练数据的删除。
[识别装置30的结构]
接下来,对本实施例所涉及的识别装置30的功能性结构进行说明。如图1所示,识别装置30具有获取部31、特征提取部32、环境簇存储部33A、归属度计算部33、模型存储部34A、模型动作部34、以及识别部35。此外,识别装置30也可以除了图1所示的功能部以外还具有已知的计算机所具有的各种功能部、例如各种输入设备、声音输出设备等功能部。
仅作为例示,图1中举出的功能部,例如获取部31、特征提取部32、归属度计算部33、模型动作部34以及识别部35等功能部由下述的硬件处理器虚拟地实现。作为这样的处理器的例子,可举出CPU、MPU等。并不限于这些通用的处理器,也可以使用DLU、GPGPU、GPU簇等。例如,处理器能够通过在RAM等存储器上将上述的识别程序作为工序展开,来虚拟地实现上述的功能部。此处,作为处理器的例子,例示了DLU、GPGPU、GPU簇、CPU、MPU,但也可以通过任意的处理器实现上述的功能部,无论是通用型还是特化型处理器。此外,上述的功能部可以通过ASIC、FPGA等硬连线逻辑实现。
另外,环境簇存储部33A以及模型存储部34A等存储部能作为存储设备、例如HDD、光盘、SSD等辅助存储装置安装,或通过分配存储设备所具有的存储区域的一部分来安装。
获取部31是获取面部图像的处理部。仅作为一个例子,获取部31能够以接受面部图像的输入为条件,启动上述的群体识别功能。由此,开始使用群体识别模型的群体识别的推理。这样,在获取部31中,从是推理的阶段的方面出发,获取未被赋予群体标签的面部图像。以下,存在将由获取部31获取的面部图像记载为“输入面部图像”的情况。
作为一个方面,面部图像的信息源可以为任意。例如,面部图像若也能够经由未图示的用户接口、或者未图示的通信接口接受,则也可以从未图示的内部存储设备、可移动介质获取。
作为其它的方面,获取部31也可以未必获取面部图像本身。例如,获取部31也能够获取由拍摄装置拍摄到的拍摄图像。在该情况下,获取部31也能够对拍摄图像进行面部检测,并通过切出与通过面部检测得到的面部区域对应的部分图像作为面部图像,来获取面部图像。并且,获取部31也可以未必获取静止图像作为上述的拍摄图像,而也能够获取动态图像。在这样获取动态图像的情况下,也可以以拍摄图像的帧为单位进行使用群体识别模型的群体识别的推理。
特征提取部32是从由获取部31获取的面部图像提取特征信息的处理部。如图1所示的那样,特征提取部32具有第一提取部32A以及第二提取部32B。这些第一提取部32A以及第二提取部32B具有与图1所示的生成装置10的第一提取部12A以及第二提取部12B相同的功能。从避免说明的重复的方面出发省略详细内容,但第一提取部12A从面部图像提取LBP特征量作为第一特征信息的一个例子,另一方面,第二提取部12B从面部图像提取纹理特征量作为第二特征信息的一个例子。
归属度计算部33是对每个环境簇计算表示输入面部图像属于该环境簇的程度的归属度的处理部。此处所说的“归属度”对应于类似度信息的一个例子。作为一个实施方式,归属度计算部33基于由第一提取部32A从输入面部图像提取出的第一特征信息、和存储于环境簇存储部33A的环境簇的代表信息,计算各环境簇的归属度。仅作为一个例子,例示作为环境簇的代表信息使用属于环境簇的第一特征信息的重心的情况。在该情况下,归属度计算部33能够计算输入面部图像与各环境簇中的第一特征信息的重心的距离的倒数作为各环境簇的归属度。通过这样计算两者的距离的倒数,能够实现与环境簇的重心的距离越近、换言之类似度越大,则归属度的指标值越大的归一化。
此外,此处,仅作为一个例子,举出针对一个环境簇将一个代表信息用于环境簇的归属度的计算的例子,但也能够针对一个环境簇将多个代表信息用于环境簇的归属度的计算。例如,在多个环境簇代表信息被保持于环境簇存储部33A的情况下,也能够计算距离、类似度的平均、最小值、最大值等统计值作为环境簇的归属度。
模型动作部34是使各环境簇的群体识别模型动作的处理部。作为一个实施方式,模型动作部34根据存储于模型存储部34A的模型信息,在未图示的存储器上将群体识别模型针对每个环境簇展开。在此基础上,模型动作部34通过将由第二提取部32B从输入面部图像提取出的第二特征信息输入至各环境簇的群体识别模型,使各环境簇的群体识别模型动作。其结果是,各环境簇的群体识别模型输出各群体标签的似然性、确信度、生成概率等分数。
以下,从区分群体识别模型所输出的分数、和由后述的识别部35计算的分数的标签的方面出发,存在将前者记载为“第一分数”而将后者记载为“第二分数”的情况。此外,第一分数仅对应于第一估计值的一个例子。第一估计值不限定于第一分数,也可以是群体标签本身,详细内容后述。
此外,归属度计算部33以及模型动作部34可对应于第一生成部的一个例子。
识别部35是识别输入面部图像的群体标签的处理部。此处所说的“识别部”可对应于第二生成部的一个例子。仅作为一个方面,识别部35基于由归属度计算部33对每个环境簇计算的归属度、和根据与各环境簇对应的群体识别模型得到的各群体标签的第一分数,计算各群体标签的第二分数。
图2是表示各群体标签的第一分数的一个例子的图。在图2中,示出针对在群体识别模型的机器学习(训练)的阶段作为第一特征信息的聚类结果而得到的环境簇A~D这四个环境簇的每一个生成了群体识别模型的例子。并且,示出针对环境簇A~D这四个环境簇的每一个,与该环境簇对应的群体识别模型将输入面部图像分类为群体α以及群体β这两个类别的例子。在图2所示的例子中来说,识别部35能如以下那样计算各群体标签的第二分数。仅作为一个例子,对根据与各环境簇对应的群体识别模型得到的各群体标签的第一分数赋予与输入面部图像的各环境簇的归属度对应的权重,针对每个群体标签在各环境簇之间计算第一分数的加权总和作为第二分数。
更具体而言,针对与环境簇A对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.8”以及群体标签“群体β”的第一分数“0.2”,赋予对环境簇A的归属度“0.6”作为权重。另外,针对与环境簇B对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.7”以及群体标签“群体β”的第一分数“0.3”,赋予对环境簇B的归属度“1.2”作为权重。并且,针对与环境簇C对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.1”以及群体标签“群体β”的第一分数“0.9”,赋予对环境簇C的归属度“0.5”作为权重。另外,针对与环境簇D对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.6”以及群体标签“群体β”的第一分数“0.4”,赋予对环境簇A的归属度“0.4”作为权重。
然后,针对每个群体标签,在各环境簇之间将被赋予与输入面部图像的各环境簇的归属度对应的权重后的各环境簇的第一分数合计。例如,在群体标签“群体α”的例子中来说,计算环境簇A的第一分数的加权值“0.8×0.6”、环境簇B的第一分数的加权值“0.7×1.2”、环境簇C的第一分数的加权值“0.1×0.5”、以及环境簇D的第一分数的加权值“0.6×0.4”的总和“1.61”作为第二分数。另一方面,在群体标签“群体β”的例子中来说,计算环境簇A的第一分数的加权值“0.2×0.6”、环境簇B的第一分数的加权值“0.3×1.2”、环境簇C的第一分数的加权值“0.9×0.5”、以及环境簇D的第一分数的加权值“0.4×0.4”的总和“1.09”作为第二分数。其结果是,得到群体标签“群体α”的第二分数“1.61”、和群体标签“群体β”的第二分数“1.09”。
识别部35能够基于这样针对每个群体标签得到的第二分数,识别输入面部图像的群体标签。仅作为一个例子,识别部35能够选择群体标签中的第二分数最大的群体标签作为输入面部图像的群体标签。例如,在上述的例子中来说,群体标签“群体α”的第二分数“1.61”>群体标签“群体β”的第二分数“1.09”。因此,输入面部图像的群体标签被识别为“群体α”。
作为其它的方面,虽然举出了识别部35赋予与输入面部图像的各环境簇的归属度对应的权重的例子,但也能够进一步赋予与在环境簇存储部33A中针对每个环境簇存储的群体识别模型的分辨率对应的权重。
在图2所示的例子中来说,针对与环境簇A对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.8”以及群体标签“群体β”的第一分数“0.2”,赋予对环境簇A的归属度“0.6”作为权重,并且赋予与环境簇A对应的群体识别模型的分辨率“0.9”。另外,针对与环境簇B对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.7”以及群体标签“群体β”的第一分数“0.3”,赋予对环境簇B的归属度“1.2”,并且赋予与环境簇B对应的群体识别模型的分辨率“0.9”作为权重。并且,针对与环境簇C对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.1”以及群体标签“群体β”的第一分数“0.9”,赋予对环境簇C的归属度“0.5”,并且赋予与环境簇C对应的群体识别模型的分辨率“0.8”作为权重。另外,针对与环境簇D对应的群体识别模型所输出的群体标签“群体α”的第一分数“0.6”以及群体标签“群体β”的第一分数“0.4”,赋予对环境簇A的归属度“0.4”,并且赋予与环境簇D对应的群体识别模型的分辨率“0.7”作为权重。
在这样进一步赋予对应于与各环境簇对应的群体识别模型的分辨率的权重的情况下,如以下那样计算各群体标签的第二分数。例如,在群体标签“群体α”的例子中来说,计算环境簇A的第一分数的加权值“0.8×0.6×0.9”、环境簇B的第一分数的加权值“0.7×1.2×0.9”、环境簇C的第一分数的加权值“0.1×0.5×0.8”、以及环境簇D的第一分数的加权值“0.6×0.4×0.7”的总和“1.396”作为第二分数。另一方面,在群体标签“群体β”的例子中来说,计算环境簇A的第一分数的加权值“0.2×0.6×0.9”、环境簇B的第一分数的加权值“0.3×1.2×0.9”、环境簇C的第一分数的加权值“0.9×0.5×0.8”、以及环境簇D的第一分数的加权值“0.4×0.4×0.7”的总和“0.904”作为第二分数。其结果是,得到群体标签“群体α”的第二分数“1.396”、和群体标签“群体β”的第二分数“0.904”。
也在该情况下,群体标签“群体α”的第二分数“1.396”>群体标签“群体β”的第二分数“0.904”。因此,输入面部图像的群体标签被识别为“群体α”。
[处理的流程]
接下来,对本实施例所涉及的系统的处理的流程进行说明。此处,在对(1)生成装置10的整体流程进行说明后,对(2)生成装置10的子流程进行说明,并对(3)识别装置30的整体流程进行说明。
(1)生成装置10的整体流程
图3是表示实施例1所涉及的生成装置10的整体流程的一个例子的图。图3所示的处理能够在被输入具有群体标签的面部图像的阶段,在任意的定时开始。如图3所示,第一提取部12A从由输入部11输入的面部图像提取第一特征信息(步骤S101)。另外,第二提取部12B从由输入部11输入的面部图像提取第二特征信息(步骤S102)。
之后,分割部13对通过步骤S101提取出的第一特征信息的集合进行聚类(步骤S103)。然后,分割部13针对作为步骤S103的聚类结果而得到的每个环境簇,使用属于该环境簇的第一特征信息计算该环境簇的代表信息(步骤S104)。在此基础上,生成部14针对每个环境簇执行生成群体识别模型的“模型生成处理”(步骤S105),结束处理。
(2)生成装置10的子流程
图4是表示实施例1所涉及的生成装置10的子流程的一个例子的图。图4所示的处理与图3所示的步骤S104的处理对应。如图4所示,生成部14以与环境簇的数量对应的次数,重复下述的步骤S201至下述的步骤S209的处理。
即,生成部14提取通过步骤S102针对面部图像提取出的第二特征信息中的与属于环境簇的第一特征信息对应的第二特征信息(步骤S201)。接着,生成部14将通过步骤S201提取出的第二特征信息以及对作为该第二特征信息的提取来源的面部图像赋予的群体标签分割为训练数据以及测试数据(步骤S202)。
然后,生成部14针对属于环境簇的第一特征信息中的与通过在步骤S202被分割为训练数据的第二特征信息对应的第一特征信息的每个组合计算与该组合对应的第一特征信息之间的距离(步骤S203)。
之后,生成部14以与第一特征信息的组合的数量对应的次数,执行下述的步骤S205以及下述的步骤S206的处理。即,生成部14判定第一特征信息之间的距离是否不足规定的阈值D3(D1>D3)(步骤S205)。
此时,距离不足阈值D3的情况(步骤S205Yes),对模型的参数更新的贡献度较小的可能性较高。因此,生成部14从训练数据删除与距离不足阈值D3的第一特征信息的组合中的一方的第一特征信息对应的第二特征信息(步骤S206)。由此,抑制对模型的精度的影响并且抑制训练次数。
另一方面,在距离不足阈值D3的情况下(步骤S205No),对模型的参数更新的贡献度并不小的可能性较高。在该情况下,生成部14跳过第二特征信息从训练数据的删除。
之后,生成部14使用通过步骤S202分割出的训练数据,对作为步骤S103的聚类结果而得到的每个环境簇执行群体识别模型的机器学习(步骤S207)。其结果是,训练将面部图像或者第二特征信息作为输入而输出群体标签、或者与群体标签的种类数对应的确信度的“群体识别模型”。
之后,生成部14将通过步骤S202分割出的测试数据中包含的第二特征信息输入至经训练的群体识别模型(步骤S208)。接着,生成部14基于群体识别模型针对每个第二特征信息输出的各群体标签的确信度、与对该第二特征信息赋予的正确答案的群体标签的一致或者不一致的比较结果,来计算群体识别模型的分辨率(步骤S209)。
除了与这样对每个环境簇生成的群体识别模型有关的各种信息、例如模型的层构造、权重、偏置等模型信息以外,群体识别模型的分辨率等也被保存于后述的识别装置30的模型存储部34A。
(3)识别装置30的整体流程
图5是表示实施例1所涉及的识别装置30的整体流程的一个例子的图。图5所示的处理能够在获取了输入面部图像的阶段,在任意的定时开始。如图5所示,当通过获取部31获取输入面部图像时(步骤S301),第一提取部32A从通过步骤S301获取的面部图像提取第一特征信息(步骤S302)。另外,第二提取部32B从通过步骤S301获取的面部图像提取第二特征信息(步骤S303)。
接着,归属度计算部33基于通过步骤S302从输入面部图像提取出的第一特征信息、和存储于环境簇存储部33A的环境簇的代表信息,计算各环境簇的归属度(步骤S304)。
然后,模型动作部34通过将通过步骤S303从输入面部图像提取出的第二特征信息输入至各环境簇的群体识别模型,使各环境簇的群体识别模型动作(步骤S305)。
之后,识别部35基于通过步骤S304针对每个环境簇计算的归属度、根据与各环境簇对应的群体识别模型得到的各群体标签的第一分数、以及在环境簇存储部33A中针对每个环境簇存储的群体识别模型的分辨率,计算各群体标签的第二分数(步骤S306)。
在此基础上,识别部35基于通过步骤S306针对每个群体标签计算出的第二分数,识别输入面部图像的群体标签(步骤S307),结束处理。
[效果的一方面]
如上所述,在本实施例所涉及的群体识别功能中,基于根据输入面部图像计算的对各环境簇的归属度、和与各环境簇对应的模型所输出的各群体标签的第一分数,计算各群体标签的第二分数。因此,能够通过已知的环境的模型输出的混合来再现与未知的环境对应的模型输出。因此,根据本实施例所涉及的群体识别功能,能够抑制未知的环境中的群体识别的精度降低。
实施例2
虽然到目前为止已对与公开的装置有关的实施例进行了说明,但本发明除了上述的实施例以外,还可以以各种不同的形式实施。因此,以下,对本发明中包含的其它的实施例进行说明。
[模型输出的应用例]
在上述的实施例1中,举出了群体识别模型输出各群体标签的第一分数的例子,但也可以未必从群体识别模型输出分数。例如,也可以群体识别模型输出群体标签。在该情况下,将归属度为规定的基准以上的环境簇的群体识别模型所输出的群体标签设为有效,将归属度不足基准的环境簇的群体识别模型所输出的群体标签设为无效,针对群体标签的每个种类汇总该种类的群体标签为有效的模型输出的数量。在此基础上,也能够通过在群体标签的各个种类中得到的汇总值的多数决定,将汇总值最大的种类的群体标签决定为输入面部图像的群体标签。仅作为一个例子,举出进行群体识别模型输出真实或者虚假的任一群体标签的真假判定的情况为例。此时,在设为群体标签“真实”为有效的模型输出的汇总值为“3”,群体标签“虚假”为有效的模型输出的汇总值为“1”时,“真实”的模型输出数的汇总值“3”>“虚假”的模型输出数的汇总值“3”。因此,输入面部图像的群体标签被决定为“真实”。
[分布以及集成]
另外,图示的各装置的各构成要素不一定如图示那样物理性地配置。即,各装置的分布和集成的具体的形式不限于图示的形式,能够根据各种负荷、使用状况等,将其全部或者一部分以功能性或者物理性地分布或集成的方式配置于任意的单位中。例如,生成装置10以及识别装置30能够集成于一个装置。另外,也可以将输入部11、特征提取部12、分割部13或者生成部14作为生成装置10的外部装置经由网络连接。另外,也可以不同的装置分别具有输入部11、特征提取部12、分割部13或者生成部14,通过网络连接并协同工作,从而实现上述的生成装置10的功能。另外,也可以将获取部31、特征提取部32、归属度计算部33、模型动作部34或者识别部35作为识别装置30的外部装置经由网络连接。另外,也可以不同的装置分别具有获取部31、特征提取部32、归属度计算部33、模型动作部34或者识别部35,通过网络连接并协同工作,从而实现上述的生成装置10的功能。另外,也可以不同的装置分别具有存储于环境簇存储部33A以及模型存储部34A的信息的全部或者一部分,通过网络连接并协同工作,从而实现上述的识别装置30的功能。
[识别程序]
另外,在上述的实施例中进行了说明的各种处理能够通过由个人计算机、工作站等计算机执行预先准备的程序来实现。因此,以下,使用图6,对执行实施例1以及实施例2所涉及的识别程序的计算机的一个例子进行说明。
图6是表示计算机的硬件结构例的图。如图6所示,计算机100具有操作部110a、扬声器110b、照相机110c、显示器120、以及通信部130。并且,该计算机100具有CPU150、ROM160、HDD170、以及RAM180这些110~180各部经由总线140连接。
如图6所示,在HDD170,存储与在上述的实施例1中示出的获取部31、特征提取部32、归属度计算部33、模型动作部34以及识别部35发挥相同的功能的识别程序170a。该识别程序170a与图1所示的获取部31、特征提取部32、归属度计算部33、模型动作部34以及识别部35的各构成要素相同地,也可以集成或者分离。即,也可以在HDD170中未必储存在上述的实施例1中示出的全部的数据,用于处理的数据储存于HDD170即可。
在这样的环境下,CPU150在从HDD170读出识别程序170a的基础上将识别程序170a向RAM180展开。其结果是,如图6所示,识别程序170a作为识别工序180a发挥功能。该识别工序180a在RAM180所具有的存储区域中的被分配给识别工序180a的区域展开从HDD170读出的各种数据,使用该展开的各种数据执行各种处理。例如,作为识别工序180a所执行的处理的一个例子,包含图5所示的处理等。此外,在CPU150中,未必在上述的实施例1中示出的全部的处理部动作,虚拟地实现与设为执行对象处理对应的处理部即可。
此外,上述的识别程序170a也可以未必从最初就存储于HDD170、ROM160。例如,使插入至计算机100的软盘、所谓的FD、CD-ROM、DVD光盘、磁光盘、IC卡等“便携式物理介质”存储各程序。而且,也可以计算机100从这些便携式物理介质获取并执行各程序。另外,也可以使经由公用线路、互联网、LAN、WAN等连接于计算机100的其它的计算机或者服务器装置等存储各程序,计算机100从这些其它的计算机或者服务器装置获取并执行各程序。
附图标记的说明
10 生成装置;11 输入部;12 特征提取部;12A 第一提取部;12B 第二提取部;13分割部;14 生成部;30 识别装置;31 获取部;32 特征提取部;32A 第一提取部;32B 第二提取部;33 归属度计算部;34 模型动作部;35 识别部。
Claims (20)
1.一种识别方法,其特征在于,使计算机执行以下处理:
若接受面部图像,则使用根据面部图像生成与上述面部图像的属性有关的第一估计值的多个估计模型分别生成与接受的上述面部图像的属性有关的多个第一估计值,并且生成表示分别与上述多个估计模型建立对应的多个特征信息与接受的上述面部图像的特征信息的类似度的多个类似度信息,
基于生成的与上述面部图像的属性有关的多个第一估计值、和生成的上述多个类似度信息,生成与接受的上述面部图像的属性有关的第二估计值。
2.根据权利要求1所述的识别方法,其特征在于,
上述多个估计模型被输入从上述面部图像提取的纹理特征量。
3.根据权利要求1所述的识别方法,其特征在于,
上述类似度是分别与上述多个估计模型建立对应的多个LBP(Local BinaryPattern)、与接受的上述面部图像的LBP的类似度。
4.根据权利要求1所述的识别方法,其特征在于,
上述第一估计值是与上述属性有关的标签的分数。
5.根据权利要求4所述的识别方法,其特征在于,
上述第二估计值是被赋予分别与上述多个类似度信息中包含的类似度对应的权重后的上述多个第一估计值的总和。
6.根据权利要求4所述的识别方法,其特征在于,
上述第二估计值是被赋予分别与上述多个类似度信息中包含的类似度对应的权重、和分别与上述多个估计模型各自的分辨率对应的权重后的上述多个第一估计值的总和。
7.根据权利要求1所述的识别方法,其特征在于,
上述第一估计值是与上述属性有关的标签。
8.一种生成方法,其特征在于,由计算机执行以下处理:
获取分别包含面部图像以及上述面部图像的属性的多个学习数据,
基于获取的上述多个学习数据中分别包含的多个面部图像的特征信息,将上述多个学习数据分类为多个簇,
针对上述多个簇中包含的每个簇,通过使用各簇中包含的学习数据进行机器学习,来生成根据面部图像生成与上述面部图像的属性有关的第一估计值的多个估计模型,
若接受面部图像,则使用生成的上述多个估计模型,分别生成与接受的上述面部图像的属性有关的多个第一估计值,并且针对上述多个簇中包含的每个簇,生成分别表示被分类为各簇的学习数据中包含的面部图像的特征信息与接受的上述面部图像的特征信息的类似度的多个类似度信息,
基于生成的与上述面部图像的属性有关的多个第一估计值、和生成的上述多个类似度信息,生成与接受的上述面部图像的属性有关的第二估计值。
9.一种识别程序,其特征在于,使计算机执行以下处理:
若接受面部图像,则使用根据面部图像生成与上述面部图像的属性有关的第一估计值的多个估计模型分别生成与接受的上述面部图像的属性有关的多个第一估计值,并且生成表示分别与上述多个估计模型建立对应的多个特征信息与接受的上述面部图像的特征信息的类似度的多个类似度信息,
基于生成的与上述面部图像的属性有关的多个第一估计值、和生成的上述多个类似度信息,生成与接受的上述面部图像的属性有关的第二估计值。
10.根据权利要求9所述的识别程序,其特征在于,
上述多个估计模型被输入从上述面部图像提取的纹理特征量。
11.根据权利要求9所述的识别程序,其特征在于,
上述类似度是分别与上述多个估计模型建立对应的多个LBP(Local BinaryPattern)、与接受的上述面部图像的LBP的类似度。
12.根据权利要求9所述的识别程序,其特征在于,
上述第一估计值是与上述属性有关的标签的分数。
13.根据权利要求12所述的识别程序,其特征在于,
上述第二估计值是被赋予分别与上述多个类似度信息中包含的类似度对应的权重后的上述多个第一估计值的总和。
14.根据权利要求12所述的识别程序,其特征在于,
上述第二估计值是被赋予分别与上述多个类似度信息中包含的类似度对应的权重、和分别与上述多个估计模型各自的分辨率对应的权重后的上述多个第一估计值的总和。
15.根据权利要求9所述的识别程序,其特征在于,
上述第一估计值是与上述属性有关的标签。
16.一种识别装置,其特征在于,具有:
第一生成部,若接受面部图像,则使用根据面部图像生成与上述面部图像的属性有关的第一估计值的多个估计模型分别生成与接受的上述面部图像的属性有关的多个第一估计值,并且生成表示分别与上述多个估计模型建立对应的多个特征信息与接受的上述面部图像的特征信息的类似度的多个类似度信息;以及
第二生成部,基于生成的与上述面部图像的属性有关的多个第一估计值、和生成的上述多个类似度信息,生成与接受的上述面部图像的属性有关的第二估计值。
17.根据权利要求16所述的识别装置,其特征在于,
上述多个估计模型被输入从上述面部图像提取的纹理特征量。
18.根据权利要求16所述的识别装置,其特征在于,
上述类似度是分别与上述多个估计模型建立对应的多个LBP(Local BinaryPattern)、与接受的上述面部图像的LBP的类似度。
19.根据权利要求19所述的识别装置,其特征在于,
上述第一估计值是与上述属性有关的标签的分数。
20.根据权利要求19所述的识别装置,其特征在于,
上述第二估计值是被赋予分别与上述多个类似度信息中包含的类似度对应的权重后的上述多个第一估计值的总和。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/018748 WO2021225001A1 (ja) | 2020-05-08 | 2020-05-08 | 識別方法、生成方法、識別プログラム及び識別装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115516530A true CN115516530A (zh) | 2022-12-23 |
Family
ID=78468061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080100412.6A Pending CN115516530A (zh) | 2020-05-08 | 2020-05-08 | 识别方法、生成方法、识别程序以及识别装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230035922A1 (zh) |
EP (1) | EP4148662A4 (zh) |
JP (1) | JP7351413B2 (zh) |
CN (1) | CN115516530A (zh) |
WO (1) | WO2021225001A1 (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2924442B2 (ja) * | 1992-04-28 | 1999-07-26 | 松下電器産業株式会社 | パターン認識装置 |
JP4253522B2 (ja) * | 2003-03-28 | 2009-04-15 | 株式会社日立ハイテクノロジーズ | 欠陥分類方法及び装置 |
KR100866792B1 (ko) * | 2007-01-10 | 2008-11-04 | 삼성전자주식회사 | 확장 국부 이진 패턴을 이용한 얼굴 기술자 생성 방법 및장치와 이를 이용한 얼굴 인식 방법 및 장치 |
US8180112B2 (en) * | 2008-01-21 | 2012-05-15 | Eastman Kodak Company | Enabling persistent recognition of individuals in images |
JP2012208710A (ja) | 2011-03-29 | 2012-10-25 | Panasonic Corp | 属性推定装置 |
JP5899472B2 (ja) | 2012-05-23 | 2016-04-06 | パナソニックIpマネジメント株式会社 | 人物属性推定システム、及び学習用データ生成装置 |
US11023712B2 (en) | 2017-01-05 | 2021-06-01 | Nec Corporation | Suspiciousness degree estimation model generation device |
EP3418944B1 (en) * | 2017-05-23 | 2024-03-13 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
US11113532B2 (en) * | 2019-04-16 | 2021-09-07 | Lg Electronics Inc. | Artificial intelligence apparatus for recognizing object and method therefor |
-
2020
- 2020-05-08 EP EP20934707.9A patent/EP4148662A4/en active Pending
- 2020-05-08 JP JP2022519891A patent/JP7351413B2/ja active Active
- 2020-05-08 CN CN202080100412.6A patent/CN115516530A/zh active Pending
- 2020-05-08 WO PCT/JP2020/018748 patent/WO2021225001A1/ja unknown
-
2022
- 2022-10-13 US US17/965,019 patent/US20230035922A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021225001A1 (ja) | 2021-11-11 |
EP4148662A1 (en) | 2023-03-15 |
EP4148662A4 (en) | 2023-07-05 |
JPWO2021225001A1 (zh) | 2021-11-11 |
JP7351413B2 (ja) | 2023-09-27 |
US20230035922A1 (en) | 2023-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Afifi et al. | Afif4: Deep gender classification based on adaboost-based fusion of isolated facial features and foggy faces | |
Thida et al. | Laplacian eigenmap with temporal constraints for local abnormality detection in crowded scenes | |
US11663502B2 (en) | Information processing apparatus and rule generation method | |
CN110598019B (zh) | 重复图像识别方法及装置 | |
CN111694954B (zh) | 图像分类方法、装置和电子设备 | |
Talab et al. | A novel statistical feature analysis-based global and local method for face recognition | |
Hotta | Robust face detection under partial occlusion | |
CN114724218A (zh) | 视频检测方法、装置、设备及介质 | |
CN115018215B (zh) | 基于多模态认知图谱的人口居住预测方法、系统和介质 | |
Dong et al. | Automatic Chinese postal address block location using proximity descriptors and cooperative profit random forests | |
CN115516530A (zh) | 识别方法、生成方法、识别程序以及识别装置 | |
CN112580538B (zh) | 客服人员调度方法、装置、设备及存储介质 | |
Shin et al. | Unsupervised 3d object discovery and categorization for mobile robots | |
Al-Wajih et al. | A new application for gabor filters in face-based gender classification. | |
KR20140140953A (ko) | 얼굴 검출 방법 및 그 장치 | |
Surya et al. | Efficient feature extraction on mammogram images using enhanced grey level co-occurrence matrix | |
CN109993178B (zh) | 一种特征数据生成和特征匹配方法及装置 | |
CN111598144A (zh) | 图像识别模型的训练方法和装置 | |
Vairavan et al. | An Efficient Age Estimation System with Facial Makeover Images Based on Key Points Selection. | |
Babatunde et al. | Assessing the performance of Random Partitioning and K-Fold Cross Validation methods of evaluation of a Face Recognition System | |
CN114266298B (zh) | 基于一致流形逼近与投影聚类集成的图像分割方法及系统 | |
Irhebhude et al. | Northern Nigeria Human Age Estimation From Facial Images Using Rotation Invariant Local Binary Pattern Features with Principal Component Analysis. | |
Majidpour et al. | Unreadable offline handwriting signature verification based on generative adversarial network using lightweight deep learning architectures | |
Nascimento et al. | Machine-based stereotypes: How machine learning algorithms evaluate ethnicity from face data | |
Jia et al. | Recognition method of unspecified face expressions based on machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |