CN108229493A - 对象验证方法、装置和电子设备 - Google Patents

对象验证方法、装置和电子设备 Download PDF

Info

Publication number
CN108229493A
CN108229493A CN201710229657.9A CN201710229657A CN108229493A CN 108229493 A CN108229493 A CN 108229493A CN 201710229657 A CN201710229657 A CN 201710229657A CN 108229493 A CN108229493 A CN 108229493A
Authority
CN
China
Prior art keywords
image
area
data
several
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710229657.9A
Other languages
English (en)
Inventor
旷章辉
范宏伟
张伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensetime Group Ltd
Original Assignee
Sensetime Group Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensetime Group Ltd filed Critical Sensetime Group Ltd
Priority to CN201710229657.9A priority Critical patent/CN108229493A/zh
Publication of CN108229493A publication Critical patent/CN108229493A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种对象验证方法、装置和电子设备。一种对象验证方法,包括:从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及关注度数据;根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。在对图像进行对象验证的过程中,引入对象区域的关注度数据,以体现各个对象区域在对象识别、对象验证中的重要性,因此针对例如对象局部区域被遮挡的非正常拍摄图像,能够降低被遮挡区域的评估价值或忽略被遮挡区域,从而能够更为准确地执行对象验证。

Description

对象验证方法、装置和电子设备
技术领域
本发明实施例涉及图像处理技术,尤其涉及一种对象验证方法、装置和电子设备。
背景技术
在信息化时代,信息的安全性与真实性显得尤为重要,已成为信息处理的基础和保障。作为一种行之有效的信息审核技术,信息验证技术在包括安防、电商、金融、社交等的各个领域,具有广泛的应用前景。
随着深度学习技术的发展,基于图像的对象验证技术的性能也有了显著的提高。然而,在现实场景中,经常出现被拍摄的对象有局部区域被遮挡的情况,例如,人物的面部带有墨镜或口罩或者被手和其他物体所遮挡。对象局部区域被遮挡会严重影响神经网络提取到的深度特征的准确性,从而影响对象特征相似度的判断。
发明内容
本发明实施例的目的在于,提供一种基于图像进行对象验证的技术。
根据本发明实施例的一方面,提供一种对象验证方法,包括:从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据;所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息;所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
可选地,所述从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据包括:获取从第一图像提取到的若干个对象区域的第一区域图像,并且获取从第二图像提取到的相应对象区域的若干个第二区域图像;根据若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据。
可选地,所述根据若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据包括:获取若干个所述第一区域图像各自的所述目标对象的第一对象特征表达数据以及若干个所述第二区域图像各自的所述目标对象的第二对象特征表达数据;根据各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据计算各个所述对象区域的特征相似度数据。
可选地,所述获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据包括:通过用于从图像提取对象特征的第一深度神经网络,分别获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据;所述获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据包括:通过所述第一深度神经网络,获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据。
可选地,所述第一深度神经网络具有多个第一卷积层、从所述第一卷积层并行分出的分别与若干个所述对象区域对应的多个第二卷积层和多个第一全连接层。
可选地,所述从第一图像和第二图像,获取目标对象的若干个对象区域的关注度数据包括:通过用于检测对象区域的关注度的第二深度神经网络,从所述第一图像和第二图像获取各个所述对象区域的关注度数据。
可选地,所述各个所述对象区域的关注度数据为长度与所述对象区域的个数相匹配的特征向量。
可选地,在从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据之前,所述方法还包括:使用包括多个正样本图像对和多个负样本图像对的第一图像样本集训练所述第一深度神经网络,所述正样本图像对包括属于同一对象的图像对,所述负样本图像对包括不属于同一对象的图像对。
可选地,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像;和/或,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像。
可选地,在从第一图像和第二图像,获取目标对象的若干个对象区域的关注度数据之前,所述方法还包括:使用包括多个训练图像对的第二图像样本集训练所述第二深度神经网络,每个所述训练图像对含有第一对象区域的标注信息,所述第一对象区域为关注度数据比第二对象区域高的对象区域。
可选地,所述训练图像对包括所述正样本图像对,并且所述正样本图像对含有在所述正样本图像对中特征相似度最高的对象区域的标注信息。
可选地,所述目标对象是人,所述第一图像和第二图像均为人脸图像,所述若干个对象区域包括以下至少两个脸部区域:全脸、上半脸、下半脸、左半脸和右半脸。
根据本发明实施例的第二方面,提供一种对象验证装置,包括:对象区域数据获取模块,用于从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息,所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;对象验证模块,用于根据所述对象区域数据获取模块获取到的若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
可选地,所述对象区域数据获取模块包括:区域图像获取单元,用于获取从第一图像提取到的若干个对象区域的第一区域图像,并且获取从第二图像提取到的相应对象区域的若干个第二区域图像;对象特征相似度获取单元,用于根据所述区域图像获取单元获取到的若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据。
可选地,所述对象特征相似度获取单元包括:对象特征获取单元,用于获取所述区域图像获取单元获取到的若干个所述第一区域图像各自的所述目标对象的第一对象特征表达数据以及若干个所述第二区域图像各自的所述目标对象的第二对象特征表达数据;特征相似度计算单元,用于根据所述对象特征获取单元获取到的各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据计算各个所述对象区域的特征相似度数据。
可选地,所述对象特征获取单元用于通过用于从图像提取对象特征的第一深度神经网络,分别获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据,并且用于通过所述第一深度神经网络,获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据。
可选地,所述第一深度神经网络具有多个第一卷积层、从所述第一卷积层并行分出的分别与若干个所述对象区域对应的多个第二卷积层和多个第一全连接层。
可选地,所述对象区域数据获取模块包括:区域关注度获取单元,用于通过用于检测对象区域的关注度的第二深度神经网络,从所述第一图像和第二图像获取各个所述对象区域的关注度数据。
可选地,所述各个所述对象区域的关注度数据为长度与所述对象区域的个数相匹配的特征向量。
可选地,所述装置还包括:第一网络训练模块,用于在从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据之前,使用包括多个正样本图像对和多个负样本图像对的第一图像样本集训练所述第一深度神经网络,所述正样本图像对包括属于同一对象的图像对,所述负样本图像对包括不属于同一对象的图像对。
可选地,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像;和/或,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像。
可选地,所述装置还包括:第二网络训练模块,用于在从第一图像和第二图像,获取目标对象的若干个对象区域的关注度数据之前,使用包括多个训练图像对的第二图像样本集训练所述第二深度神经网络,每个所述训练图像对含有第一对象区域的标注信息,所述第一对象区域为关注度数据比第二对象区域高的对象区域。
可选地,所述训练图像对包括所述正样本图像对,并且所述正样本图像对含有在所述正样本图像对中特征相似度最高的对象区域的标注信息。
可选地,所述目标对象是人,所述第一图像和第二图像均为人脸图像,所述若干个对象区域包括以下至少两个脸部区域:全脸、上半脸、下半脸、左半脸和右半脸。
根据本发明实施例的第三方面,提供一种电子设备。电子设备包括处理器、存储器、通信元件和通信总线,所述处理器、所述存储器和所述通信元件通过所述通信总线完成相互间的通信;所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如前所述任一对象验证方法对应的操作。
根据本发明实施例的第四方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有:用于从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据的可执行指令;其中,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息,所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;用于根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象的可执行指令。
根据本发明实施例提供的对象验证技术方案,从待处理的第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,并且结合各个对象区域的特征相似度数据和关注度数据来确定待处理的图像对中的目标对象是否为相同的目标对象。在对图像进行对象验证的过程中,引入对象区域的关注度数据,以体现各个对象区域在对象比对中的重要性,因此针对例如对象局部区域被遮挡的非正常拍摄图像,能够降低被遮挡区域的评估价值或忽略被遮挡区域,从而能够更为准确地执行对象验证。
附图说明
图1是示出根据本发明实施例一的对象验证方法的流程图;
图2A是示出局部人脸区域被遮挡的第一图像和人脸区域未被遮挡的第二图像的示意图;
图2B是示出去除被遮挡区域部分的第一图像和去除相应区域部分的第二图像的示意图;
图3是示出根据本发明实施例二的对象验证方法的流程图;
图4是示出根据本发明实施例的第一深度神经网络的结构示意图;
图5是示出根据本发明实施例四的对象验证装置的逻辑框图;
图6是示出根据本发明实施例五的对象验证装置的逻辑框图;
图7是示出根据本发明实施例六的电子设备的结构示意图。
具体实施方式
下面结合附图详细描述本发明实施例的示例性实施例。
实施例一
图1是示出根据本发明实施例一的对象验证方法的流程图。
参照图1,在步骤S110,从待处理的第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据。其中,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息;所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息。
这里的待处理的第一图像和第二图像可以是拍摄有目标对象的照片或视频帧图像。该目标对象可以是某类物体,例如,人、车辆、雕塑作品、狗、猫等,但不限于此。第一图像和第二图像当中的至少一个可以是拍摄到的目标对象有局部区域被遮挡的图像,当然,这两个图像也可以是拍摄到的目标对象没有被遮挡的图像。
可简单地将目标对象分为若干个对象区域,例如目标对象的上半部区域和下半部区域、或目标对象的左半部区域和右半部区域等);也可根据目标对象的外形特征将其划分为若干个对象区域,如人脸的眼部区域、口鼻部区域、额头部区域、下颌部区域等。
可通过例如现有的图像处理技术对第一图像和第二图像进行对象识别,并且对第一图像和第二图像中识别出的目标对象的各个对象区域进行分析比对,获取到各个所述对象区域的图像特征的特征相似度数据,从而用于对象验证。
例如,通过图像处理技术对包含人脸左半部区域的第一区域图像和包含人脸左半部区域的第二区域图像进行分析比对,来确定人脸左半部区域的特征相似度数据;同理,对包含人脸右半部区域的第一区域图像和包含人脸左半部区域的第二区域图像进行分析比对,来确定人脸右半部区域的特征相似度数据。
此外,基于对于任何可视的对象,不同的对象区域在视觉上引发的关注不同的原理,关注度高的对象区域从对象识别和对象验证的角度具有较高的重要性,而关注度低的对象区域相应地具有较低的重要性。例如,对于人脸来讲,人们通常更注意眼睛区域,如眼睛大小、单双眼皮等,其次才注意例如嘴巴、鼻子等区域。再例如,在人脸某个区域(如眼部区域)被遮挡的情况下,嘴部的关注度会更高;在第一图像和第二图像当中存在对象区域被遮挡的情况下,未被遮挡的对象区域的关注度较高。再例如,在正面拍摄对象的第一图像和从不同角度侧面拍摄的对象的第二图像之间,侧面拍摄的对象的突出部位(如鼻子部位)具有较高的关注度。由此,可针对第一图像和第二图像进行分析,获取该图像对中捕捉到的目标对象的各个对象区域的关注度数据,以体现各个对象区域的重要性,辅助进行对象验证,例如确定第一图像和第二图像中是否含有相同的目标对象(如同一犯罪嫌犯)。
在步骤S120,根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
由于如前所述,在例如对象局部区域被遮挡的情况下,各个对象区域的关注度不同,因此,在获取到前述的第一图像和第二区域图像中目标对象的各个对象区域的特征相似度数据和关注度数据以后,可通过步骤S120的处理,将两个图像(第一图像和第二图像)之间任一对象区域的特征相似度数据和关注度数据进行综合考量,来进行对象验证。例如,将关注度高的对象区域的特征相似度作为综合考量中赋予更重要的要素或给予更高的评定价值,来进行对象验证。
这里所说的确定所述第一图像中的目标对象和所述第二图像中的目标对象是相同的目标对象是指,第一图像中的目标对象和所述第二图像中的目标对象具有相同的表象物理特征。例如,长相相同的人(如从长相上近乎相同的双胞胎)、外表相同的狗、同一款车型的车辆等,而不是指物体的同一对象个体(如同一人、同一条狗等)。
图2A是示出局部人脸区域被遮挡的第一图像和人脸区域未被遮挡的第二图像的示意图。如图2A所示,由于人脸的眼部被佩戴的墨镜遮挡,因此总体说来,第一图像和第二图像之间的特征相似度值较低。图2B是示出去除被遮挡区域部分的第一图像和去除相应区域部分的第二图像的示意图。从图2B可以看出,去除了被遮挡的眼部以外的第一图像和第二图像之间的特征相似度值明显较高。因此,通过降低被遮挡的眼部区域的关注度值,提高未被遮挡的下脸部区域的关注度值,并且结合相应区域图像的特征相似度值,能够更为准确地执行人脸验证。
根据本发明实施例一的对象验证方法,从待处理的第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,并且结合各个对象区域的特征相似度数据和关注度数据来确定待处理的图像对中的目标对象是否为相同的目标对象。在对图像进行对象验证的过程中,引入对象区域的关注度数据,以体现各个对象区域在对象比对中的重要性,因此针对例如对象局部区域被遮挡的非正常拍摄图像,能够降低被遮挡区域的评估价值或忽略被遮挡区域,从而能够更为准确地执行对象验证。
实施例二
图3是示出根据本发明实施例二的对象验证方法的流程图。
参照图3,在步骤S310,获取从第一图像提取到的若干个对象区域的第一区域图像,并且获取从待处理的第二图像提取到的相应对象区域的若干个第二区域图像。
可通过例如现有的图像处理技术对第一图像和第二图像进行对象识别,再分别将第一图像和第二图像按照目标对象的主要区域各自划分为若干个对象区域的第一区域图像和第二区域图像。也可以从内存读取或从其他应用接收第一图像、已提取到的第一区域图像、第二图像和已提取到的第二区域图像。从第一图像和第二图像提取第一区域图像和第二区域图像的处理不是本发明的重点,在此不予赘述。
例如,可将目标对象的主要区域划分为上半部区域和下半部区域,从第一图像提取得到包括目标对象的上半部区域的第一区域图像和包括目标对象的下半部区域的第一区域图像;同理,从第二图像提取得到包括目标对象的上半部区域的第二区域图像和包括目标对象的下半部区域的第二区域图像。
再例如,可将目标对象的主要区域划分为左半部区域、右半部区域和整个区域,从第一图像提取得到包括目标对象的左半部区域的第一区域图像、包括目标对象的右半部区域的第一区域图像和包括整个对象区域的第一区域图像;同理,从第二图像提取得到包括目标对象的左半部区域的第二区域图像、包括目标对象的右半部区域的第二区域图像和包括整个对象区域的第二区域图像。
在步骤S320,根据若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据。
通过对各个第一区域图像和相应对象区域的第二区域图像进行分析比对,可以获取到各个所述对象区域的特征相似度数据,从而用于对象验证。
例如,通过图像处理技术对包含人脸左半部区域的第一区域图像和包含人脸左半部区域的第二区域图像进行分析比对,来确定人脸左半部区域的特征相似度数据;同理,对包含人脸右半部区域的第一区域图像和包含人脸左半部区域的第二区域图像进行分析比对,来确定人脸右半部区域的特征相似度数据。
根据本发明的一种可选实施方式,步骤S320包括步骤S321和步骤S323。
在步骤S321,获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据以及若干个所述第二区域图像各自的目标对象的第二对象特征表达数据。
根据本发明的一种可实施方式,可通过预先训练的深度神经网络来获取第一对象特征表达数据和第二对象特征表达数据。
例如,通过用于从图像提取对象特征的第一深度神经网络,分别获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据,并且通过所述第一深度神经网络,分别获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据。
通过步骤S321的处理,可捕捉到各个对象区域的特征表达数据。该特征表达数据可以是,例如,预定长度的特征向量、对象区域关键部位的特征数据(如位置、大小、形状等)等。
根据本发明的一种可实施方式,如图4所示,第一深度神经网络具有多个第一卷积层CV1、从所述第一卷积层CV1并行分出的分别与若干个所述对象区域对应的多个第二卷积层CV2和连接在多个第二卷积层CV2输出端的第一全连接层FCL1。其中,并行分出的多个第二卷积层CV2共用多个第一卷积层CV1的输出。
其中,多个第一卷积层CV1用于对各个区域图像(第一区域图像和第二区域图像)进行卷积,以获得每个区域图像的总体图像特征数据;从第一卷积层CV1并行分出的多个第二卷积层CV2分别与若干个对象区域对应,分别对各自对应的对象区域的区域图像(第一区域图像和第二区域图像)经过第一卷积层CV1卷积获得的总体图像特征数据进一步进行卷积,以获取区域图像特征数据;多个第一全连接层FCL1分别对自相应的第二卷积层CV2输出的区域图像特征数据进行分类,以获取对象区域的对象特征表达数据(即特征分类数据),例如,预定长度的特征向量。
可选地,第一深度神经网络还包括设置在每个第一卷积层输出端的批规范化(BN,batch normalization)层和池化层,以对经过卷积的特征数据进行归一化、非线性化和下采样。
以上仅描述了用于从区域图像提取对象特征表达数据的一种可实施方式。本领域普通技术人员可以理解,还可通过其他图像处理/分析技术从区域图像(第一区域图像和第二区域图像)提取对象特征表达数据,而不限于前述描述的实施方式。
在步骤S323,根据各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据计算各个所述对象区域的特征相似度数据。
具体地,针对获取到的各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据,通过相似度度量方法计算各个所述对象区域的特征相似度数据,例如,计算两者之间的欧式距离、余弦相似度、马氏距离等。
另一方面,在执行步骤S310和步骤S320之前、之后或者与步骤310和步骤S320并行地,可执行步骤S330。
在步骤S330,通过用于检测对象区域的关注度的第二深度神经网络,从所述第一图像和第二图像获取各个所述对象区域的关注度数据。
可通过任何训练方法预先训练用于检测对象区域的关注度的第二深度神经网络。在该步骤,通过第二深度神经网络,获得在各个对应的第一图像和第二图像中各个对象区域的关注度数据。
根据本发明的一种可选实施方式,将第二深度神经网络设计为具有多个第三卷积层、连接层和第二全连接层。
其中,多个第三卷积层用于分别对第一图像和第二图像进行卷积,以获得这两个图像各自的图像特征数据,图像特征数据可被表征为经过卷积的图像特征向量。连接层将这两个图像(第一图像和第二图像)的图像特征数据连接起来,获得联合的图像特征向量。具体地,可通过对第一图像的图像特征数据和第二图像的图像特征数据执行例如maxout、距离或点乘积等方式获得联合的图像特征向量。此后,通过第二全连接层对从连接层获得的联合的图像特征向量进行分类,获得长度与所述对象区域的个数相匹配的特征向量,该特征向量中的每个向量值表征相应的对象区域的关注度值。因此,该长度与所述对象区域的个数相匹配的特征向量可作为各个对象区域的关注度数据。
可选地,第二深度神经网络还包括设置在每个第三卷积层输出端的批规范化(BN,batch normalization)层和池化层,以对经过卷积的特征数据进行归一化、非线性化和下采样。
以上仅描述了用于从区域图像获取各个对象区域的关注度数据的一种可实施方式。本领域普通技术人员可以理解,还可通过其他图像处理/分析技术从第一图像和第二图像获取各个对象区域的关注度数据,而不限于前述描述的实施方式。
在完成步骤S310、S320和步骤S330的处理后,在步骤S340,根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。。
步骤S340的处理与前述步骤S120的处理类似,在此不予赘述。
在常用的一种应用场景中,该目标对象可以是人。在这种情况下,前述的第一图像和第二图像可均为人脸图像,若干个对象区域可包括,但不限于,以下至少两个脸部区域:全脸、上半脸、下半脸、左半脸和右半脸。当然,也可将对象区域设为全脸、左上脸部、右上脸部、左下脸部、右下脸部等;也可将对象区域设为全脸、上半脸、下半脸等。
根据本发明实施例二的对象验证方法,使用分别从待处理的图像对提取到的若干个对象区域的区域图像对,分别通过用于从图像提取对象特征的第一深度神经网络获取待处理的图像对之间各个对象区域的对象特征表达数据并且计算各个对象区域的对象特征表达数据之间的特征相似度数据,通过用于检测对象区域的关注度的第二深度神经网络从待处理的图像对获取各个所述对象区域的关注度数据,并且结合各个对象区域的特征相似度数据和关注度数据来确定待处理的图像对中的目标对象是否为相同的目标对象。在对图像进行对象验证的过程中,准确地提取各个对象区域的对象特征表达数据并且获取各个对象区域的关注度数据,因此针对例如对象局部区域被遮挡的非正常拍摄图像,能够降低被遮挡区域的评估价值或忽略被遮挡区域,从而能够更为准确地执行对象验证。
实施例三
以下具体说明用于训练前述用于从图像提取对象特征的第一深度神经网络以及/或者用于检测对象区域的关注度的第二深度神经网络的处理。
首先,为了提高获取的对象特征表达数据的准确性,可使用包括多个正样本图像对和多个负样本图像对的图像样本集预先训练所述第一深度神经网络。其中,正样本图像对包括属于同一对象的图像对,所述负样本图像对包括不属于同一对象的图像对。
根据本发明的一种可选实施方式,至少部分正样本图像对包括对象区域被遮挡的正样本图像和对象区域未被遮挡的正样本图像;同理,至少部分负样本图像对包括对象区域被遮挡的负样本图像和对象区域未被遮挡的负样本图像。也就是说,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像;和/或,所述负样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像。
通过使用对象区域被遮挡的正样本图像/负样本图像和对象未被遮挡的正样本图像/负样本图像作为第一图像样本集来训练第一深度神经网络,能够提高训练得到的第一深度神经网络对目标对象图像的各个区域的对象特征表达数据的准确性,以有效地应对从对象区域被遮挡的目标对象图像提取对象特征表达数据的情况。
具体地,先从第一图像样本集中的每个样本图像(正样本图像和负样本图像)如前所述提取各个对象区域的区域样本图像(各自对应于前述的第一区域图像和第二区域图像),将与每个正/负样本图像对相应的这些对象区域相互对应的区域样本图像对作为一组训练样本图像,以这些训练样本图像组作为第一深度神经网络的样本来训练第一深度神经网络。可使用通常的神经网络训练方法来训练第一深度神经网络。
其次,可使用包括多个训练图像对的第二图像样本集训练所述第二深度神经网络,每个所述训练图像对含有高关注度的对象区域的标注信息。
具体地,根据本发明的一种可选实施方式,使用的训练图像对包括所述正样本图像对,并且所述正样本图像对含有在所述正样本图像对中特征相似度最高的对象区域的标注信息。换句话说,可使用先前用于训练第一深度神经网络的多个正样本图像对,并且将各个正样本图像对当中特征相似度最高的对象区域标注为高关注度的对象区域;或者,可使用训练好的第一深度神经网络对训练图像对执行例如步骤S310和S320的处理,获得训练图像对中特征相似度最高的对象区域的数据,将该特征相似度最高的对象区域标注为该训练图像对中高关注度的对象区域。
实施例四
图5是示出根据本发明实施例四的对象验证装置的逻辑框图。
参照图5,根据本发明实施例四的对象验证装置包括对象区域数据获取模块510和对象验证模块520。
对象区域数据获取模块510用于从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息,所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息。
对象验证模块520用于根据对象区域数据获取模块510获取到的若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
本实施例的对象验证装置用于实现前述方法实施例中相应的对象验证方法,并具有相应的方法实施例的有益效果,在此不再赘述。
实施例五
图6是示出根据本发明实施例五的对象验证装置的逻辑框图。
参照图6,在根据本发明实施例五的对象验证装置中,对象区域数据获取模块510包括区域图像获取单元511和对象特征相似度获取单元513。
其中,区域图像获取单元511用于获取从第一图像提取到的若干个对象区域的第一区域图像,并且获取从第二图像提取到的相应对象区域的若干个第二区域图像。
对象特征相似度获取单元513用于根据区域图像获取单元511获取到的若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据。
可选地,对象特征相似度获取单元513包括对象特征获取单元5131和特征相似度计算单元5133。
其中,对象特征获取单元5131用于获取区域图像获取单元511获取到的若干个所述第一区域图像各自的所述目标对象的第一对象特征表达数据以及若干个所述第二区域图像各自的所述目标对象的第二对象特征表达数据;特征相似度计算单元5133,用于根据所述对象特征获取单元5131获取到的各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据计算各个所述对象区域的特征相似度数据。
可选地,对象特征获取单元5131用于通过用于从图像提取对象特征的第一深度神经网络,分别获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据,并且用于通过所述第一深度神经网络,获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据。
可选地,第一深度神经网络具有多个第一卷积层、从所述第一卷积层并行分出的分别与若干个所述对象区域对应的多个第二卷积层和多个第一全连接层。
可选地,对象区域数据获取模块510还包括:区域关注度获取单元515,用于通过用于检测对象区域的关注度的第二深度神经网络,从所述第一图像和第二图像获取各个所述对象区域的关注度数据。
可选地,所述各个所述对象区域的关注度数据为长度与所述对象区域的个数相匹配的特征向量。
可选地,根据本发明实施例五的对象验证装置还包括第一网络训练模块530。
第一网络训练模块530用于在从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据之前,使用包括多个正样本图像对和多个负样本图像对的第一图像样本集训练所述第一深度神经网络,所述正样本图像对包括属于同一对象的图像对,所述负样本图像对包括不属于同一对象的图像对。
可选地,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像;和/或,所述正样本图像对包括:对象区域被遮挡的图像和对象区域未被遮挡的图像。
可选地,根据本发明实施例五的对象验证装置还包括第二网络训练模块540。
第二网络训练模块540用于在从第一图像和第二图像,获取目标对象的若干个对象区域的关注度数据之前,使用包括多个训练图像对的第二图像样本集训练所述第二深度神经网络,每个所述训练图像对含有第一对象区域的标注信息,所述第一对象区域为关注度数据比第二对象区域高的对象区域。
可选地,所述训练图像对包括所述正样本图像对,并且所述正样本图像对含有在所述正样本图像对中特征相似度最高的对象区域的标注信息。
可选地,所述目标对象是人,所述第一图像和第二图像均为人脸图像,所述若干个对象区域包括以下至少两个脸部区域:全脸、上半脸、下半脸、左半脸和右半脸。
本实施例的对象验证装置用于实现前述方法实施例中相应的对象验证方法,并具有相应的方法实施例的有益效果,在此不再赘述。
实施例六
图7是示出根据本发明实施例六的电子设备的结构示意图。
本发明实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图7,其示出了适于用来实现本发明实施例的终端设备或服务器的电子设备700的结构示意图。
如图7所示,电子设备700包括一个或多个处理器、通信元件等,所述一个或多个处理器例如:一个或多个中央处理单元(CPU)701,和/或一个或多个图像处理器(GPU)713等,处理器可以根据存储在只读存储器(ROM)702中的可执行指令或者从存储部分708加载到随机访问存储器(RAM)703中的可执行指令而执行各种适当的动作和处理。通信元件包括通信组件712和通信接口709。其中,通信组件712可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡,通信接口709包括诸如LAN卡、调制解调器等的网络接口卡的通信接口,通信接口709经由诸如因特网的网络执行通信处理。
处理器可与只读存储器702和/或随机访问存储器730中通信以执行可执行指令,通过总线704与通信组件712相连、并经通信组件712与其他目标设备通信,从而完成本发明实施例提供的任一项方法对应的操作,例如,从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息,所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
此外,在RAM 703中,还可存储有装置操作所需的各种程序和数据。CPU701、ROM702以及RAM703通过总线704彼此相连。在有RAM703的情况下,ROM702为可选模块。RAM703存储可执行指令,或在运行时向ROM702中写入可执行指令,可执行指令使处理器701执行上述通信方法对应的操作。输入/输出(I/O)接口705也连接至总线704。通信组件712可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在总线链接上。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信接口709。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
需要说明的是,如图7所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图7的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信组件712可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本发明的保护范围。
特别地,根据本发明实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本发明实施例提供的方法步骤对应的指令,例如,用于从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据的可执行代码,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息,所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;用于根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象的可执行代码。在这样的实施例中,该计算机程序可以通过通信元件从网络上被下载和安装,和/或从第二可拆卸介质711被安装。在该计算机程序被第二中央处理单元(CPU)701执行时,执行本发明实施例的方法中限定的上述功能。
本发明实施例六提供的电子设备,从待处理的第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,并且结合各个对象区域的特征相似度数据和关注度数据来确定待处理的图像对中的目标对象是否为相同的目标对象。在对图像进行对象验证的过程中,引入对象区域的关注度数据,以体现各个对象区域在对象识别、对象验证中的重要性,因此针对例如对象局部区域被遮挡的非正常拍摄图像,能够降低被遮挡区域的评估价值或忽略被遮挡区域,从而能够更为准确地执行对象验证。。
需要指出,根据实施的需要,可将本申请中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本发明实施例的目的。
可能以许多方式来实现本发明的方法和装置、设备。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明实施例的方法和装置、设备。用于方法的步骤的上述顺序仅是为了进行说明,本发明实施例的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明实施例的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本发明实施例的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (10)

1.一种对象验证方法,包括:
从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据;所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息;所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;
根据若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
2.根据权利要求1所述的方法,其中,所述从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据包括:
获取从第一图像提取到的若干个对象区域的第一区域图像,并且获取从第二图像提取到的相应对象区域的若干个第二区域图像;
根据若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据。
3.根据权利要求2所述的方法,其中,所述根据若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据包括:
获取若干个所述第一区域图像各自的所述目标对象的第一对象特征表达数据以及若干个所述第二区域图像各自的所述目标对象的第二对象特征表达数据;
根据各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据计算各个所述对象区域的特征相似度数据。
4.根据权利要求3所述的方法,其中,所述获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据包括:
通过用于从图像提取对象特征的第一深度神经网络,分别获取若干个所述第一区域图像各自的目标对象的第一对象特征表达数据;
所述获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据包括:
通过所述第一深度神经网络,获取若干个所述第二区域图像各自的目标对象的第二对象特征表达数据。
5.根据权利要求4所述的方法,其中,所述第一深度神经网络具有多个第一卷积层、从所述第一卷积层并行分出的分别与若干个所述对象区域对应的多个第二卷积层和多个第一全连接层。
6.根据权利要求1~5中任一项所述的方法,其中,所述从第一图像和第二图像,获取目标对象的若干个对象区域的关注度数据包括:
通过用于检测对象区域的关注度的第二深度神经网络,从所述第一图像和第二图像获取各个所述对象区域的关注度数据。
7.一种对象验证装置,包括:
对象区域数据获取模块,用于从第一图像和第二图像,获取目标对象的若干个对象区域的特征相似度数据以及各个所述对象区域的关注度数据,所述特征相似度数据为所述第一图像和所述第二图像中相应的对象区域的图像特征的相似度信息,所述关注度数据用于表示所述目标对象的对象区域在进行对象比对时的权重信息;
对象验证模块,用于根据所述对象区域数据获取模块获取到的若干个所述对象区域的特征相似度数据以及各个所述对象区域的关注度数据,确定所述第一图像中的目标对象和所述第二图像中的目标对象是否为相同的目标对象。
8.根据权利要求7所述的装置,其中,所述对象区域数据获取模块包括:
区域图像获取单元,用于获取从第一图像提取到的若干个对象区域的第一区域图像,并且获取从第二图像提取到的相应对象区域的若干个第二区域图像;
对象特征相似度获取单元,用于根据所述区域图像获取单元获取到的若干个所述第一区域图像和相应对象区域的第二区域图像分别获取各个所述对象区域的特征相似度数据。
9.根据权利要求8所述的装置,其中,所述对象特征相似度获取单元包括:
对象特征获取单元,用于获取所述区域图像获取单元获取到的若干个所述第一区域图像各自的所述目标对象的第一对象特征表达数据以及若干个所述第二区域图像各自的所述目标对象的第二对象特征表达数据;
特征相似度计算单元,用于根据所述对象特征获取单元获取到的各所述对象区域对应的第一对象特征表达数据和第二对象特征表达数据计算各个所述对象区域的特征相似度数据。
10.一种电子设备,包括:处理器、存储器、通信元件和通信总线,所述处理器、所述存储器和所述通信元件通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1~6中任一项所述的对象验证方法对应的操作。
CN201710229657.9A 2017-04-10 2017-04-10 对象验证方法、装置和电子设备 Pending CN108229493A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710229657.9A CN108229493A (zh) 2017-04-10 2017-04-10 对象验证方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710229657.9A CN108229493A (zh) 2017-04-10 2017-04-10 对象验证方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN108229493A true CN108229493A (zh) 2018-06-29

Family

ID=62656546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710229657.9A Pending CN108229493A (zh) 2017-04-10 2017-04-10 对象验证方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN108229493A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766127A (zh) * 2018-07-25 2020-02-07 北京深鉴智能科技有限公司 神经网络计算专用电路及其相关计算平台与实现方法
CN112219224A (zh) * 2019-12-30 2021-01-12 商汤国际私人有限公司 图像处理方法及装置、电子设备和存储介质
WO2021136978A1 (en) * 2019-12-30 2021-07-08 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
WO2021136979A1 (en) * 2019-12-30 2021-07-08 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
US11450021B2 (en) 2019-12-30 2022-09-20 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
WO2023029702A1 (zh) * 2021-09-06 2023-03-09 京东科技信息技术有限公司 用于验证图像的方法和装置
CN117201790A (zh) * 2023-11-07 2023-12-08 河北省天然气有限责任公司 一种天然气管道监控视频优化编码方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975759A (zh) * 2006-12-15 2007-06-06 中山大学 一种基于结构主元分析的人脸识别方法
CN102622585A (zh) * 2012-03-06 2012-08-01 同济大学 基于局部特征Gabor小波的BP神经网络人脸识别方法
CN103679189A (zh) * 2012-09-14 2014-03-26 华为技术有限公司 场景识别的方法和装置
CN103886305A (zh) * 2014-04-08 2014-06-25 中国人民解放军国防科学技术大学 面向基层治安、维稳及反恐的特异人脸搜索方法
CN105005774A (zh) * 2015-07-28 2015-10-28 中国科学院自动化研究所 一种基于卷积神经网络的人脸亲属关系识别方法及装置
CN105630906A (zh) * 2015-12-21 2016-06-01 苏州科达科技股份有限公司 一种人员搜索方法、装置及系统
CN105718879A (zh) * 2016-01-19 2016-06-29 华南理工大学 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法
CN106023208A (zh) * 2016-05-23 2016-10-12 北京大学 图像质量的客观评价方法
CN106227827A (zh) * 2016-07-25 2016-12-14 华南师范大学 服装图像前景颜色特征提取方法及服装检索方法和系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975759A (zh) * 2006-12-15 2007-06-06 中山大学 一种基于结构主元分析的人脸识别方法
CN102622585A (zh) * 2012-03-06 2012-08-01 同济大学 基于局部特征Gabor小波的BP神经网络人脸识别方法
CN103679189A (zh) * 2012-09-14 2014-03-26 华为技术有限公司 场景识别的方法和装置
EP2884428A1 (en) * 2012-09-14 2015-06-17 Huawei Technologies Co., Ltd. Scene recognition method and device
CN103886305A (zh) * 2014-04-08 2014-06-25 中国人民解放军国防科学技术大学 面向基层治安、维稳及反恐的特异人脸搜索方法
CN105005774A (zh) * 2015-07-28 2015-10-28 中国科学院自动化研究所 一种基于卷积神经网络的人脸亲属关系识别方法及装置
CN105630906A (zh) * 2015-12-21 2016-06-01 苏州科达科技股份有限公司 一种人员搜索方法、装置及系统
CN105718879A (zh) * 2016-01-19 2016-06-29 华南理工大学 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法
CN106023208A (zh) * 2016-05-23 2016-10-12 北京大学 图像质量的客观评价方法
CN106227827A (zh) * 2016-07-25 2016-12-14 华南师范大学 服装图像前景颜色特征提取方法及服装检索方法和系统

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766127A (zh) * 2018-07-25 2020-02-07 北京深鉴智能科技有限公司 神经网络计算专用电路及其相关计算平台与实现方法
CN110766127B (zh) * 2018-07-25 2022-09-23 赛灵思电子科技(北京)有限公司 神经网络计算专用电路及其相关计算平台与实现方法
JP2022509893A (ja) * 2019-12-30 2022-01-25 センスタイム インターナショナル プライベート リミテッド 画像処理方法及び装置、電子機器、並びに記憶媒体
JP7084485B2 (ja) 2019-12-30 2022-06-14 センスタイム インターナショナル プライベート リミテッド 画像処理方法及び装置、電子機器、並びに記憶媒体
KR20210088439A (ko) * 2019-12-30 2021-07-14 센스타임 인터내셔널 피티이. 리미티드. 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체
CN113261011A (zh) * 2019-12-30 2021-08-13 商汤国际私人有限公司 图像处理方法及装置、电子设备和存储介质
US11138758B2 (en) * 2019-12-30 2021-10-05 Sensetime International Pte. Ltd. Image processing method and apparatus, and storage medium
AU2020309091B2 (en) * 2019-12-30 2022-01-20 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
WO2021136978A1 (en) * 2019-12-30 2021-07-08 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
WO2021136979A1 (en) * 2019-12-30 2021-07-08 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
AU2020323956B2 (en) * 2019-12-30 2022-07-14 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
KR102445187B1 (ko) 2019-12-30 2022-09-19 센스타임 인터내셔널 피티이. 리미티드. 이미지 처리 방법 및 장치, 전자 장치, 및 저장 매체
US11450021B2 (en) 2019-12-30 2022-09-20 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
CN112219224A (zh) * 2019-12-30 2021-01-12 商汤国际私人有限公司 图像处理方法及装置、电子设备和存储介质
CN112219224B (zh) * 2019-12-30 2024-04-26 商汤国际私人有限公司 图像处理方法及装置、电子设备和存储介质
WO2023029702A1 (zh) * 2021-09-06 2023-03-09 京东科技信息技术有限公司 用于验证图像的方法和装置
CN117201790A (zh) * 2023-11-07 2023-12-08 河北省天然气有限责任公司 一种天然气管道监控视频优化编码方法及系统
CN117201790B (zh) * 2023-11-07 2024-01-09 河北省天然气有限责任公司 一种天然气管道监控视频优化编码方法及系统

Similar Documents

Publication Publication Date Title
CN108229493A (zh) 对象验证方法、装置和电子设备
US10699103B2 (en) Living body detecting method and apparatus, device and storage medium
WO2020151489A1 (zh) 基于面部识别的活体检测的方法、电子设备和存储介质
CN105631439B (zh) 人脸图像处理方法和装置
Raghavendra et al. Robust scheme for iris presentation attack detection using multiscale binarized statistical image features
CN108229330A (zh) 人脸融合识别方法及装置、电子设备和存储介质
CN107545241A (zh) 神经网络模型训练及活体检测方法、装置及存储介质
CN107423690A (zh) 一种人脸识别方法及装置
US20190392196A1 (en) Within document face verification
CN110516616A (zh) 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法
US20190026606A1 (en) To-be-detected information generating method and apparatus, living body detecting method and apparatus, device and storage medium
CN105518710B (zh) 视频检测方法、视频检测系统以及计算机程序产品
CN109919754A (zh) 一种数据获取方法、装置、终端及存储介质
CN112364803B (zh) 活体识别辅助网络的训练方法、终端、设备及存储介质
CN108171158A (zh) 活体检测方法、装置、电子设备及存储介质
CN108205684A (zh) 图像消歧方法、装置、存储介质和电子设备
CN110543848B (zh) 一种基于三维卷积神经网络的驾驶员动作识别方法及装置
CN108805005A (zh) 身份验证方法和装置、电子设备、计算机程序和存储介质
CN107111755A (zh) 基于活跃度评价的视频假冒检测方法和系统
CN108875469A (zh) 活体检测与身份认证的方法、装置及计算机存储介质
CN109543635A (zh) 活体检测方法、装置、系统、解锁方法、终端及存储介质
CN108875549A (zh) 图像识别方法、装置、系统及计算机存储介质
EP2239687A2 (en) Gabor filter, image recognition apparatus and method, program, and recording medium
US20170309040A1 (en) Method and device for positioning human eyes
CN112101192B (zh) 基于人工智能的伪装检测方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20230321