CN111563924B - 图像深度确定方法及活体识别方法、电路、设备和介质 - Google Patents

图像深度确定方法及活体识别方法、电路、设备和介质 Download PDF

Info

Publication number
CN111563924B
CN111563924B CN202010351856.9A CN202010351856A CN111563924B CN 111563924 B CN111563924 B CN 111563924B CN 202010351856 A CN202010351856 A CN 202010351856A CN 111563924 B CN111563924 B CN 111563924B
Authority
CN
China
Prior art keywords
camera
point
depth
determining
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010351856.9A
Other languages
English (en)
Other versions
CN111563924A (zh
Inventor
方舒
周骥
冯歆鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NextVPU Shanghai Co Ltd
Original Assignee
NextVPU Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NextVPU Shanghai Co Ltd filed Critical NextVPU Shanghai Co Ltd
Priority to CN202010351856.9A priority Critical patent/CN111563924B/zh
Publication of CN111563924A publication Critical patent/CN111563924A/zh
Priority to PCT/CN2021/085276 priority patent/WO2021218568A1/zh
Priority to US17/239,302 priority patent/US11232315B2/en
Priority to EP21170219.6A priority patent/EP3905195A1/en
Priority to JP2021074934A priority patent/JP7064257B2/ja
Priority to KR1020210054725A priority patent/KR102386444B1/ko
Application granted granted Critical
Publication of CN111563924B publication Critical patent/CN111563924B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

本公开提供一种图像深度确定方法及活体识别方法、电路、设备和介质。所述图像深度确定方法包括:获取与拍摄对象上的一物点相关联的特征点对的像素坐标;基于第一像素坐标和第一相机的内参,确定通过第一相机的第一相机坐标系的原点的第一直线;基于第二像素坐标和第二相机的内参,确定通过第二相机的第二相机坐标系的原点的第二直线;以及基于第一直线、第二直线以及描述第一相机与第二相机的相对位置关系的外参,确定物点的深度。

Description

图像深度确定方法及活体识别方法、电路、设备和介质
技术领域
本公开涉及图像处理技术领域,特别涉及一种图像深度确定方法及活体识别方法、电路、设备和介质。
背景技术
获取场景的深度信息一般有两种方式。一种是采用激光测距等手段的主动型测距方案,另一种是基于摄像头的立体视觉方案。在基于摄像头的立体视觉方案中,通过获取同一场景的两幅不同视角的图像中的各对匹配像素点之间的视差,得到视差图,并且然后基于该视差图,得到场景的深度信息。此外,随着人工神经网络的兴起,也涌现了许多基于人工神经网络的深度确定方法。无论是视觉方案还是人工神经网络方案,通常基于对全图或者一个大的图像区域的图像数据进行操作。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
根据本公开的一个方面,提供一种图像深度确定方法。该图像深度确定方法包括:获取与拍摄对象上的一物点相关联的特征点对的像素坐标,其中所述特征点对包括第一图像中对应于该物点的第一像素点和第二图像中对应于该物点的第二像素点,其中所述第一图像为第一相机针对所述拍摄对象拍摄得到的图像,所述第二图像为第二相机针对所述拍摄对象拍摄的图像,并且其中所述像素坐标包括所述第一像素点在所述第一图像中的第一像素坐标和所述第二像素点在所述第二图像中的第二像素坐标;基于所述第一像素坐标和所述第一相机的内参,确定通过所述第一相机的第一相机坐标系的原点的第一直线,其中所述物点在所述第一相机坐标系中的第一坐标表示位于所述第一直线上;基于所述第二像素坐标和所述第二相机的内参,确定通过所述第二相机的第二相机坐标系的原点的第二直线,其中所述物点在所述第二相机坐标系中的第二坐标表示位于所述第二直线上;以及基于所述第一直线、所述第二直线以及描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述物点的深度。
根据本公开的另一个方面,提供一种芯片电路,包括:被配置为执行上述图像深度确定方法的步骤的电路单元。
根据本公开的另一个方面,提供一种图像深度确定装置,包括如上所述的芯片电路。
根据本公开的另一个方面,提供一种计算设备,包括一个或多个处理器和存储器。存储器上存储包括指令的程序,所述指令在由所述一个或多个处理器执行时使所述一个或多个处理器执行如上所述的方法。
根据本公开的另一个方面,提供一个或多个非暂时性计算机可读介质,其上存储包括指令的程序,所述指令在由计算设备的一个或多个处理器执行时,致使所述计算设备执行如上所述的方法。
根据本公开的另一个方面,提供一种活体识别方法。该活体识别方法包括:针对与拍摄对象上的多个物点相关联的多个特征点对中的每一特征点对,通过执行如上所述的图像深度确定方法,确定所述多个物点相应的深度,其中每个特征点对的第一像素点为所述第一图像中的脸部关键点,每个特征点对的第二像素点为所述第二图像中的脸部关键点;以及基于所述多个物点相应的深度,识别所述拍摄对象是否为活体。
从下面结合附图描述的示例性实施例中,本公开的更多特征和优点将变得清晰。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1是示出与相机相关联的相机成像模型的示意图;
图2是示出根据本公开示例性实施例的图像深度确定方法的流程图;
图3是示出根据本公开示例性实施例的用于图2的图像深度确定方法的数据准备过程的流程图;
图4是示出根据本公开示例性实施例的在图3的方法中确定物点的深度的步骤的示例性操作的流程图;
图5是示出根据本公开示例性实施例的在图4的操作中基于第一直线和第二直线确定物点的深度的步骤的示例性操作的流程图;
图6是示出在第一相机坐标系中第一直线与第二直线异面的示意图;
图7是示出在第一相机坐标系中第一直线与第二直线共面的示意图;
图8是示出根据本公开示例性实施例的图像深度确定装置的结构框图;
图9是示出根据本公开示例性实施例的计算设备的结构框图;
图10是示出根据本公开示例性实施例的活体识别方法的流程图;
图11是示出根据本公开示例性实施例的在图10的方法中识别拍摄对象是否为活体的步骤的示例性方案的示意图。
具体实施方式
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个元件与另一元件区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
在获取场景深度的相关技术中,通常需要对全图或者一个大的图像区域的图像数据进行操作(例如可以包括极线校正、畸变校正)。这导致较高的计算复杂度,并且因此导致较低的处理效率或者较高的计算能力要求。
在下面的详细描述中将可以清楚地看到,根据本公开实施例的图像深度确定方法可以利用图像中的特征点对(而非全图或图像区域数据)来确定场景的深度。与需要对全图或者大的图像区域的图像数据进行操作的相关技术相比,这可以减少计算量,从而有利于提高处理效率或者降低对于计算能力的要求。
为了更好地理解本公开的实施例,下面首先介绍与相机相关联的相机成像模型。
图1是示出与相机相关联的相机成像模型100的示意图。参照图1,三维世界中的物体(图中示出为点P(Xw,Yw,Zw))经过相机成像模型100变成二维图像(图中示出为像素点P(x,y))。相机成像模型100可以涉及四个坐标系:世界坐标系、相机坐标系、图像物理坐标系和图像像素坐标系。
世界坐标系是表示物体在真实世界中的坐标的参考系,单位是长度单位(例如,毫米)。相机坐标系是以光心为原点的参考系,它具有分别平行于图像的x方向和y方向的Xc轴和Yc轴,以及与光轴平行的Zc轴,其中Xc、Yc和Zc互相垂直,单位是长度单位。图像物理坐标系(也称为图像坐标系)是以光轴与图像平面的交点为原点的参考系,它具有如图所示的x和y方向,单位是长度单位。图像像素坐标系(也称为像素坐标系)是以图像的顶点为原点的参考系,它具有分别平行于x和y方向的u和v方向,单位是像素。典型地,世界坐标系可以通过相机的外参转换到相机坐标系,而相机坐标系可以通过相机的内参(其通常包括焦距对角矩阵和像素转换矩阵)转换到图像像素坐标系。
对于包括两个相机的立体视觉系统,图1所示的相机成像模型100可以表示这两个相机中的任一个的成像原理。在下文中,立体视觉系统的两个相机之一被称为第一相机C0,并且另一个被称为第二相机C1。
图2是示出根据本公开示例性实施例的图像深度确定方法200的流程图。参照图2,图像深度确定方法200包括:步骤210,获取与拍摄对象上的一物点相关联的特征点对的像素坐标,其中所述特征点对包括第一图像中对应于该物点的第一像素点和第二图像中对应于该物点的第二像素点,其中所述第一图像为第一相机针对所述拍摄对象拍摄得到的图像,所述第二图像为第二相机针对所述拍摄对象拍摄的图像,并且其中所述像素坐标包括所述第一像素点在所述第一图像中的第一像素坐标和所述第二像素点在所述第二图像中的第二像素坐标;步骤230,基于所述第一像素坐标和所述第一相机的内参,确定通过所述第一相机的第一相机坐标系的原点的第一直线,其中所述物点在所述第一相机坐标系中的第一坐标表示位于所述第一直线上;步骤240,基于所述第二像素坐标和所述第二相机的内参,确定通过所述第二相机的第二相机坐标系的原点的第二直线,其中所述物点在所述第二相机坐标系中的第二坐标表示位于所述第二直线上;以及步骤250,基于所述第一直线、所述第二直线以及描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述物点的深度。
下面结合图1和图2具体描述方法200。
在步骤210,获取与拍摄对象上的一物点P相关联的特征点对的第一像素坐标P0(x0,y0)和第二像素坐标P1(x1,y1)。可以从适当的存储装置(本地的和/或远程的)读取已存储或缓存的第一像素坐标P0(x0,y0)和第二像素坐标P1(x1,y1)。可替换地,可以经由有线或无线通信链路从外部设备接收第一像素坐标P0(x0,y0)和第二像素坐标P1(x1,y1)。本公开要求保护的主题的范围在这方面不受限制。
在一些实施例中,在步骤210之前,可以通过执行关于图3描述的数据准备过程300来得到第一像素坐标P0(x0,y0)和第二像素坐标P1(x1,y1)。图3是示出根据本公开示例性实施例的用于图像深度确定的数据准备过程300的流程图。参照图3,过程300可以包括若干步骤。
在步骤310,进行第一相机C0和第二相机C1的标定。第一相机C0和第二相机C1中的每一个的内参和外参均可以采用例如张正友标定法进行标定,但是其他标定方法也是可能的。第一相机C0的单摄参数记为{K0,R0,T0},其中K0为第一相机C0的内参,R0和T0为第一相机C0的外参。更具体地,R0和T0分别为从世界坐标系到第一相机C0的相机坐标系的旋转矩阵和平移向量,并且K0为从第一相机C0的相机坐标系到第一相机C0的像素坐标系的转换矩阵。第二相机C1的单摄参数记为{K1,R1,T1},其中K1为第一相机C1的内参,R1和T1为第二相机C1的外参。更具体地,R1和T1分别为从世界坐标系到第二相机C1的相机坐标系的旋转矩阵和平移向量,并且K1为从第二相机C1的相机坐标系到第二相机C1的像素坐标系的转换矩阵。
在示例中,其中fx0=f0/dx0,fy0=f0/dy0,f0为第一相机C0的焦距,dx0为第一相机C0的单个像素在x方向上的尺寸,dy0为第一相机C0的单个像素在y方向上的尺寸,u0和v0分别表示第一相机C0的图像坐标系原点相对于第一相机C0的像素坐标系原点在x方向和y方向上的偏移量(以像素为单位)。类似地,在该示例中,/> 其中fx1=f1/dx1,fy1=f1/dy1,f1为第二相机C1的焦距,dx1为第二相机C1的单个像素在x方向上的尺寸,dy1为第二相机C1的单个像素在y方向上的尺寸,u1和v1分别表示第二相机C1的图像坐标系原点相对于第二相机C1的像素坐标系原点在x方向和y方向上的偏移量(以像素为单位)。
将理解的是,第一相机C0和第二相机C1可以被适当地布置以形成立体视觉系统。在一些实施例中,第一相机C0和第二相机C1可以为左右布置或上下布置而形成双目相机,但是这不是必须的。在一些实施例中,第一相机C0和第二相机C1可以被布置为比起典型双目相机的配置而言彼此更加远离。
布置好第一相机C0和第二相机C1之后,可以进一步标定描述第一相机C0与第二相机C1的相对位置关系的外参,记为(R,T)。利用第一相机C0的单摄参数{K0,R0,T0}和第二相机C1的单摄参数{K1,R1,T1},世界坐标系中的坐标Xw在第一相机C0的相机坐标系中的坐标可以表示为:Xc0=R0Xw+T0,并且它在第二相机C1的相机坐标系中的坐标可以表示为:Xc1=R1Xw+T1。消去Xw,可以得到:Xc0=R0R1-1Xc1+T0-R0R1-1T1。定义R=R0R1-1,T=T0-R0R1- 1T1,得到第一相机C0与第二相机C1之间的旋转矩阵R和平移向量T。由于外参(R,T)描述了第一相机C0与第二相机C1的相对位置关系,所以利用外参(R,T)可以将第二相机C1的相机坐标系中的坐标转换成第一相机C0的相机坐标系中的坐标。
给定第一相机C0和第二相机C1的内外参数,可以根据两个相机的相机坐标系中的两条直线来确定深度。这对于第一相机C0和第二相机C1的型号可以不施加约束。换言之,在各实施例中,第一相机C0和第二相机C1可以是不同型号的相机。这扩大了可用的相机的来源,从而提供潜在的系统兼容性和降低的成本。
在步骤320,利用第一相机C0和第二相机C1对同一场景进行拍摄。第一相机C0和第二相机C1获取的图像分别记为第一图像IMG0和第二图像IMG1。在一些实施例中,第一相机C0和第二相机C1对场景同时进行拍摄,获得IMG0和IMG1。在一些实施例中,第一相机C0和第二相机C1可以通过基本上同时地拍摄场景来获得IMG0和IMG1。在本上下文中,短语“基本上同时”可以是指两个时间点相差例如1秒、0.5秒、0.1秒或者更多或更少。这在一些应用场景下可能是可行的,例如在拍摄对象本身是静止的或者被要求保持静止的场景中。
所得到的第一图像IMG0和第二图像IMG1中将存在与该场景中的拍摄对象(例如,图1示出的点P,其在下文中被称为物点)对应的像素点。将理解的是,真实世界中的物体可以被认为是由无数物点构成,并且本文并不意图限定物点的实际尺寸。在本上下文中,为了描述的目的,物点P在第一图像IMG0和第二图像IMG1中的表示对应于这两个图像中各自相应的像素点。
在步骤330,从第一图像IMG0和第二图像IMG1中检测特征点,并且进行特征匹配以得到至少一个特征点对。每个特征点对包括第一图像IMG0中的表征一图像特征(例如,角点、边缘点、斑点等)的第一像素点和第二图像IMG1中的表征同一图像特征的第二像素点。根据图1所示的相机成像模型100可知,第一像素点是真实世界中的某一物点(例如,物点P)在第一图像IMG0中的表示,而第二像素点是同一物点在第二图像IMG1中的表示。
第一图像IMG0和第二图像IMG1中特征点的检测可以通过任何已知或将来的特征点检测算法完成。典型的特征点检测算法可以包括例如SIFT(Scale Invariant FeatureTransform)、SURF(Speeded Up Robust Features)、FAST(Features From AcceleratedSegment Test)、BRIEF(Binary Robust Independent Elementary Features)、ORB(Oriented FAST and Rotated BRIEF)等。在得到第一图像IMG0和第二图像IMG1中的特征点之后,可以通过任何已知或将来的特征匹配算法来进行特征点对的匹配,以得到特征点对。典型的特征匹配算法可以包括诸如暴力匹配(Brute-Force Matcher)、Flann-basedmatcher之类的方法。为了提高匹配准确性,还可以相组合地采用其他准则或算法来过滤掉被错误匹配的特征点对,例如“汉明距离小于最小距离的两倍”准则、交叉匹配、K近邻(KNN)匹配、RANSAC(Random Sample Consensus)等。为了不模糊本公开要求保护的主题,这些算法在此不进行详细描述。
借助于过程300,可以得到世界坐标系中的物点P在第一图像IMG0中的第一像素点及其第一像素坐标P0(x0,y0)和在第二图像IMG1中的第二像素点及其第二像素坐标P1(x1,y1)。所得到的像素坐标P0(x0,y0)和P1(x1,y1)可以被存储或缓存在适当的存储装置(例如,本地的和/或远程的)中以供后续利用。
然后,过程300进行至节点A,如图3所示的。将理解的是,节点A并不意图指示任何实际的步骤或动作,而是被提供作为过程300与后续可能的处理步骤之间的“接口”。
还将理解的是,虽然过程300在图2和3中被示出为在图2的步骤210之前执行,但是在可替换的实施例中,过程300的各步骤中的全部或一些可以在步骤210中完成。例如,步骤210可以包括步骤330的操作。在一些实施例中,步骤210可以包括步骤320和330的操作。在一些实施例中,步骤210还可以包括步骤310的操作。
现在返回参照图2,方法200可以可选地包括步骤220,其中对第一像素坐标P0(x0,y0)和第二像素坐标P1(x1,y1)进行去畸变。图像畸变典型地由透镜制造精度以及组装工艺的偏差引起,导致原始图像失真。每个镜头的畸变系数可以通过标定得出。如已知的,典型的畸变校正过程如下:(1)将源图像像素坐标系通过内参矩阵转化成相机坐标系;(2)通过畸变系数校正图像的相机坐标;(3)校正后通过内参矩阵将相机坐标系转换成像素坐标系,并根据源图像坐标的像素值赋值(例如通过插值)给新的图像坐标。
常规的深度确定方案要求对全图或图像区域进行畸变校正。与之相比,方法200是基于特征点对来确定深度,意味着可以只对像素坐标P0(x0,y0)和P1(x1,y1)进行去畸变。这有利于减少计算量,从而提高深度确定的效率。为了便于理解,下文中将去畸变后的P0和P1依然记为P0(x0,y0)和P1(x1,y1)。
将理解的是,步骤220是可选的,因为在一些实施例中,方法200可以从步骤210直接进行至步骤230,而不进行畸变校正。还将理解的是,步骤220不需要在步骤210与230之间执行。例如,它可以在图3的步骤330之前被执行。此外,在各实施例中,第一相机C0拍摄的第一图像IMG0和第二相机C1拍摄的第二图像IMG0可以不进行极线校正(也称为平行校正)。这是因为在通过图像匹配得到特征点对之后,方法200无需对像素值进行处理,并且因此不需要经严格校正的两个图像。这有利于降低计算复杂度,提高处理效率。
在步骤230,基于第一像素坐标P0(x0,y0)和第一相机C0的内参K0,确定通过第一相机C0的相机坐标系(下文称第一相机坐标系)的原点的第一直线L0。根据图1所示的相机成像模型100,物点P在第一相机坐标系中的表示(其为未知量,下文中也称为第一坐标表示)位于第一直线L0上。利用第一相机C0的内参K0,第一坐标表示PC0(PC0x,PC0y,PC0z)与第一像素坐标P0(x0,y0)的关系可以表示如下:
第一相机坐标系的原点和第一坐标表示PC0可以定义第一直线L0,其方向向量为也就是说,与第一图像中的第一像素点P0相应的物点位于该第一直线L0上。而且,根据等式(eq1),第一坐标表示PC0(PC0x,PC0y,PC0z)的坐标分量PC0x和PC0y均可以由坐标分量PC0z来表示。
在步骤240,基于第二像素坐标P1(x1,y1)和第二相机C1的内参K1,确定通过第二相机C1的相机坐标系(下文称为第二相机坐标系)的原点的第二直线L1。根据图1所示的相机成像模型100,物点P在第二相机坐标系中的表示(其为未知量,下文中也称为第二坐标表示)位于第二直线L1上。利用第二相机C1的内参K1,第二坐标表示PC1(PC1x,PC1y,PC1z)与第二像素坐标P1(x1,y1)的关系可以表示如下:
第二相机坐标系的原点和第二坐标表示PC1(PC1x,PC1y,PC1z)可以定义第二直线L1。如下面将描述的,第二直线L1在第二相机坐标系中的表示可以被转换到第一相机坐标系中,以便于利用第一直线L0(其被表示在第一相机坐标系中)和第二直线L1之间的相对位置关系进行深度确定。将理解的是,第二直线L1在第二相机坐标系中的表示和该直线在第一相机坐标系中的表示所代表的是同一条直线,只不过采用了不同坐标系作为参考。
在步骤250,基于第一直线L0、第二直线L1以及描述第一相机C0与第二相机C1的相对位置关系的外参(R,T),确定物点P的深度。在一些实施例中,步骤250可以包括图4所示的示例性操作:步骤410,基于所述第二直线和所述外参,确定所述第二直线在所述第一相机坐标系中的表示;以及步骤420,在所述第一相机坐标系中,基于所述第一直线和所述第二直线,确定所述物点的深度。
参照图4,在步骤410,基于第二直线L1和外参(R,T),确定第二直线L1在第一相机坐标系中的表示。在立体视觉系统中,为了便于计算,通常选择两个相机之一(例如,左相机)的相机坐标系作为主坐标系,该主坐标系与世界坐标系重合。在本文中,以第一相机C0的相机坐标系(即,第一相机坐标系)作为世界坐标系,并且在第一相机坐标系中进行深度的确定。然而,如在具体实施方式的开头段落中指出的,术语“第一”、“第二”并不意图限定两个相机的位置关系或重要性关系。如前所述,在第二相机坐标系中,第二相机坐标系的原点和第二坐标表示PC1(PC1x,PC1y,PC1z)定义了第二直线L1。因此,为了确定第二直线L1在第一相机坐标系中的表示,可以将第二相机坐标系的原点和第二坐标表示PC1(PC1x,PC1y,PC1z)两者均转换到第一相机坐标系中。具体地,利用外参(R,T),将第二坐标表示PC1(PC1x,PC1y,PC1z)转换为第一相机坐标系中的表示PC10(PC10x,PC10y,PC10z)(下文称为第三坐标表示)。转换过程如下:
类似地,确定第二相机坐标系的原点在第一相机坐标系中的表示(下文称为第四坐标表示)为记为C10(Tx,Ty,Tz)。
于是,基于第三坐标表示PC10(PC10x,PC10y,PC10z)和第四坐标表示C10(Tx,Ty,Tz),确定第二直线L1在第一相机坐标系中的表示。具体地,第二直线L1现在由第三坐标表示PC10和第四坐标表示C10限定,其方向向量为
在步骤420,在第一相机坐标系中,基于第一直线L0和第二直线L1,确定物点P的深度。在一些实施例中,步骤420可以包括如图5所示的示例性操作:响应于所述第一直线与所述第二直线异面,确定所述第一直线和所述第二直线的公垂线;确定所述第一直线与所述公垂线的第一交点的坐标以及所述第二直线与所述公垂线的第二交点的坐标;以及基于所述第一交点的坐标的第一深度分量和所述第二交点的坐标的第二深度分量,确定所述物点的深度。
参照图5,在步骤510,确定第一直线L0和第二直线L1是否共面。在一些实施例中,这可以通过向量法来实现。如已知的,向量法是解决平面几何和立体几何中共面、共线问题的有用工具。为此,构建矩阵其中/> 即第一直线L0的方向向量;/>即外参(R,T)中的平移向量T;/>即第二直线L1的方向向量。然后,确定矩阵A的行列式|A|是否为零。若|A|=0,表明第一直线L0与第二直线L1共面;反之,表明第一直线L0与第二直线L1异面。由于相机的安装精度等原因,第一直线L0与第二直线L1通常是异面的。然而,在一些理想情况下,第一直线L0与第二直线L1也可以是共面的。
在确定(步骤510)第一直线L0与第二直线L1异面的情况下,流程进行至步骤520,在该步骤,确定第一直线L0和第二直线L1的公垂线,记为L2。图6示出了在第一相机坐标系中异面的第一直线L0与第二直线L1的示意图。利用向量叉乘,公垂线L2的单位方向向量可以计算如下:
在步骤530,确定第一直线L0与公垂线L2的交点(下文称第一交点)的坐标以及第二直线L1与公垂线L2的交点(下文称第二交点)的坐标。记第一交点为X0,其坐标为X0(X0x,X0y,X0z),第二交点为X1,其坐标为X1(X1x,X1y,X1z),则有以下方程组
方程组(eq5)是根据以下空间关系建立的:
(1)第一个方程表示第一直线L0的方向向量平行于从第一交点X0指向第一相机坐标系的原点的方向向量;
(2)第二个方程表示第二直线L1的方向向量平行于从第二交点X1指向第二相机坐标系的原点(更具体地,第二相机坐标系的原点在第一相机坐标系中的第四坐标表示C10(Tx,Ty,Tz))的方向向量;并且
(3)第三个方程表示公垂线L2的方向向量平行于从第二交点X1指向第一交点X0的方向向量。
在步骤540,基于第一交点X0的坐标的深度分量X0z(下文称第一深度分量)和第二交点X1的坐标的深度分量X1z(下文称第二深度分量),确定物点P的深度。由于第一相机坐标系与世界坐标系重合,因此可以将物点P在第一相机坐标系中的第一坐标表示PC0(PC0x,PC0y,PC0z)的深度分量PC0z认为是物点P的深度。为此,在步骤530中已经确定第一交点坐标X0(X0x,X0y,X0z)和第二交点坐标X1(X1x,X1y,X1z)的基础上,可以计算第一深度分量X0z和第二深度分量X1z的预定义函数值作为物点P的深度。
在一些实施例中,所述预定义函数值包括第一深度分量X0z和第二深度分量X1z的加权平均值。在一些实施例中,加权平均值包括算术平均值,在这种情况下,物点P的深度PC0z被定义为:
PC0z=(X0z+X1z)/2 (eq6)
根据方程组(eq5),可以得到第一交点X0和第二交点X1的中心 该中心的深度分量即为PC0z。至此,从一对特征点对的像素坐标P0(x0,y0)和P1(x1,y1)确定了物点P的深度。
在上面的实施例中,等式(eq6)表示将深度PC0z定义为公垂线L2上第一交点X0与第二交点X1之间的中点处的深度分量。然而,将理解的是,也可以将深度PC0z定义为公垂线L2上的其他点处的深度分量。在其他实施例中,深度PC0z可以被定义为任何其他合适的函数值。
返回参照图5,在确定(步骤510)第一直线L0与第二直线L1共面的情况下,流程进行至步骤550。在这种情况下,可以确定第一直线L0与第二直线L1的交点X2的坐标X2(X2x,X2y,X2z)的深度分量X2z作为物点P的深度。当然,其他实施例也是可能的。
图7示出了在第一相机坐标系中共面的第一直线L0与第二直线L1的示意图。如上所述,第一直线L0的方向向量和第二直线L1的方向向量/>已经是已知的,其中并且/> 于是,可以通过联立第一直线L0和第二直线L1的空间直线表达式来求得这两条直线的交点坐标X2(X2x,X2y,X2z)。这一求解过程是简单的空间几何问题,并且在此不作详细描述。得到交点坐标X2(X2x,X2y,X2z)之后,即可将交点坐标X2(X2x,X2y,X2z)的深度分量X2z作为物点P的深度。
虽然各个操作在附图中被描绘为按照特定的顺序,但是这不应理解为要求这些操作必须以所示的特定顺序或者按顺行次序执行,也不应理解为要求必须执行所有示出的操作以获得期望的结果。例如,步骤240可以在步骤230之前被执行,或者与步骤230并发地执行。又例如,步骤220甚至可以被省略。
图8是示出根据本公开示例性实施例的图像深度确定装置800的结构框图。参照图8,图像深度确定装置800基于第一相机C0和第二相机C1拍摄的图像数据来确定场景的深度。图像深度确定装置800包括芯片电路810,该芯片电路包括被配置为执行上述图像深度确定方法200及其变型的步骤的电路单元812。
如本文所使用的,术语“电路”可指代以下电路的一部分或包括以下电路:专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共用、专用或组)和/或存储器(共用、专用或组)、提供所述功能的组合逻辑电路和/或其它合适的硬件组件。在一些实施例中,可通过一个或多个软件或固件模块来实现电路或者与电路相关联的功能。在一些实施例中,电路可包括在硬件中至少部分地可操作的逻辑。本文描述的实施例可实现为使用任何适当配置的硬件和/或软件的系统。
虽然在图8中图像深度确定装置800被示出为与第一相机C0和第二相机C1相分离,但是在一些实施例中,图像深度确定装置800可以包括第一相机C0和第二相机C1。
图9是示出根据本公开示例性实施例的计算设备900的结构框图。计算设备900可以包括一个或多个处理器和存储器。存储器上存储包括指令的程序,所述指令在由所述一个或多个处理器执行时使所述一个或多个处理器执行上述图像深度确定方法200及其变型。
参照图9,现将描述计算设备900,其是可以应用于本公开的各方面的硬件设备的示例。计算设备900可以是被配置为执行处理和/或计算的任何机器,可以是但不限于工作站、服务器、台式计算机、膝上型计算机、平板计算机、个人数字助理、智能电话、车载计算机、门禁系统、考勤设备或其任何组合。上述图像深度确定装置800可以全部或至少部分地由计算设备900或类似设备或系统实现。虽然计算设备900表示若干类型的计算平台中的一个示例,但是计算设备900可以包括比图9所示更多或更少的元件和/或不同的元件布置,并且不在这些方面限制所要求保护的主题的范围。
在一些实施例中,计算设备900可以包括(可能经由一个或多个接口)与总线902连接或与总线902通信的元件。例如,计算设备900可以包括总线902、一个或多个处理器904、一个或多个输入设备906以及一个或多个输出设备908。一个或多个处理器904可以是任何类型的处理器,并且可以包括但不限于一个或多个通用处理器和/或一个或多个专用处理器(例如特殊处理芯片)。输入设备906可以是能向计算设备900输入信息的任何类型的设备,并且可以包括但不限于鼠标、键盘、触摸屏、麦克风和/或遥控器。输出设备908可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。计算设备900还可以包括非暂时性存储设备910或者与非暂时性存储设备910连接。非暂时性存储设备可以是非暂时性的并且可以实现数据存储的任何存储设备,并且可以包括但不限于磁盘驱动器、光学存储设备、固态存储器、软盘、柔性盘、硬盘、磁带或任何其他磁介质,光盘或任何其他光学介质、ROM(只读存储器)、RAM(随机存取存储器)、高速缓冲存储器和/或任何其他存储器芯片或盒、和/或计算机可从其读取数据、指令和/或代码的任何其他介质。非暂时性存储设备910可以从接口拆卸。非暂时性存储设备910体现了一个或多个非暂时性计算机可读介质,其上存储包括指令的程序,所述指令在由计算设备900的一个或多个处理器执行时,致使所述计算设备900执行上述图像深度确定方法200及其变型。计算设备900还可以包括通信设备912。通信设备912可以是使得能够与外部设备和/或与网络通信的任何类型的设备或系统,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信设备和/或芯片组,例如蓝牙TM设备、1302.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
在一些实施例中,计算设备900还可以包括工作存储器914,其可以是可以存储对处理器904的工作有用的程序(包括指令)和/或数据的任何类型的存储器,并且可以包括但不限于随机存取存储器和/或只读存储器设备。
软件要素(程序)可以位于工作存储器914中,包括但不限于操作系统916、一个或多个应用程序918、驱动程序和/或其他数据和代码。用于执行上述方法和步骤的指令可以被包括在一个或多个应用程序918中,并且上述图像深度确定装置800的芯片电路810可以通过由处理器904读取和执行一个或多个应用程序918的指令来实现。软件要素(程序)的指令的可执行代码或源代码可以存储在非暂时性计算机可读存储介质(例如上述存储设备910)中,并且在执行时可以被存入工作存储器914中(可能被编译和/或安装)。软件要素(程序)的指令的可执行代码或源代码也可以从远程位置下载。
还应该理解,可以根据具体要求而进行各种变型。例如,也可以使用定制硬件,和/或可以用硬件、软件、固件、中间件、微代码,硬件描述语言或其任何组合来实现特定元件。例如,所公开的方法和设备中的一些或全部可以通过使用根据本公开的逻辑和算法,用汇编语言或硬件编程语言(诸如VERILOG,VHDL,C++)对硬件(例如,包括现场可编程门阵列(FPGA)和/或可编程逻辑阵列(PLA)的可编程逻辑电路)进行编程来实现。
还应该理解,前述方法可以通过服务器-客户端模式来实现。例如,客户端可以利用第一相机C0和第二相机C1采集图像数据并将所述图像数据发送到服务器进行后续处理。客户端也可以进行前述方法中的一部分处理,并将处理所得到的数据发送到服务器。服务器可以接收来自客户端的数据,并且执行前述方法或前述方法中的另一部分,并将执行结果返回给客户端。客户端可以从服务器接收到方法的执行结果,并例如可以通过输出设备呈现给用户。
还应该理解,计算设备900的组件可以分布在网络上。例如,可以使用一个处理器执行一些处理,而同时可以由远离该一个处理器的另一个处理器执行其他处理。计算设备900的其他组件也可以类似地分布。这样,计算设备900可以被理解为在多个位置在多个处理器上执行处理的分布式计算系统。
上面描述的图像深度确定方法200或图像深度确定装置800可以用于各种用途,包括脸部(典型地,人脸)识别。在脸部应用的上下文中,从第一和第二图像IMG0和IMG1中定位出脸部区域后,再通过脸部特征点检测算法获取M个脸部特征点(例如,眉毛、眼睛、鼻子、嘴巴、脸部轮廓等位置上的特征点)。第一图像IMG0上的脸部特征点记为(x0i,y0i),i=1,…,M。第二图像IMG1上的脸部特征点记为(x1i,y1i),i=1,…,M。匹配的特征点对记为PAIRi((x0i,y0i),(x1i,y1i)),i=1,…,M。利用上述的图像深度确定方法200,可以得到每个PAIRi对应的深度信息Di,i=1,…,M。这样的深度信息进而可以进一步用于活体识别等各种具体应用中。
图10示出了根据本公开示例性实施例的活体识别方法1000的流程图。活体识别方法1000可以包括:步骤1010,针对与拍摄对象上的多个物点相关联的多个特征点对中的每一特征点对,通过执行上文所述的图像深度确定方法200或其变型,确定所述多个物点相应的深度,其中每个特征点对的第一像素点为所述第一图像中的脸部关键点,每个特征点对的第二像素点为所述第二图像中的脸部关键点;以及步骤1020,基于所述多个物点相应的深度,识别所述拍摄对象是否为活体。
参照图10,在步骤1010,针对与拍摄对象上的多个物点相关联的多个特征点对(例如,PAIRi((x0i,y0i),(x1i,y1i)),i=1,…,M)中的每一特征点对,通过执行图像深度确定方法200或其变型,确定所述多个物点相应的深度(例如,Di,i=1,…,M)。
在步骤1020,基于所述多个物点相应的深度Di,i=1,…,M,识别拍摄对象是否为活体。典型地,步骤1020可以例如基于脸部深度阈值判断方案1022、支持向量机(SVM)方案1024或人工神经网络(ANN)方案1026,如图11中在高层级上示意性示出的。下面详细描述这三种方案,但是其他实施例也是可能的。
在脸部深度阈值判断方案1022中,根据多个物点相应的深度的一函数值与预定阈值的关系,识别拍摄对象是否为活体。具体地,构建多个物点的深度的函数,并且将各物点的深度值代入该函数。然后,将得到的函数值与预定阈值进行比较,并且根据比较结果识别拍摄对象是否为活体。在一些实施例中,这可以包括以下示例性操作:
(1a)确定各特征点对中的深度值最小的特征点对,获取该特征点对所对应的深度值;
(1b)分别将各特征点对的深度值减去该最小深度值,得到各特征点对的相对深度值;
(1c)计算各特征点对的相对深度值的和或者平方和作为比较值。当所述比较值小于预定阈值时,识别拍摄对象为非活体,否则识别拍摄对象为活体。
在SVM方案1024中,利用各物点的深度构建输入向量,并输入经训练的支持向量机中,以得到识别结果。在一些实施例中,这可以包括以下示例性操作:将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数;利用所确定的对齐参数,将各相应空间坐标与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标;利用对齐后的各相应空间坐标的深度分量构建深度特征向量;以及将所述深度特征向量输入经训练的支持向量机分类器,以得到识别结果。
下面详细描述SVM方案1024中的操作。
(2a)将每个物点的深度代入该物点的第一坐标表示PC0(PC0x,PC0y,PC0z)中,以得到该物点的空间坐标。从上文关于图像深度确定方法200的描述可知,第一坐标表示PC0(PC0x,PC0y,PC0z)可以看作是深度值的函数,其中PC0z被认为等于深度值,而PC0x和PC0y均可以借助等式(eq1)由PC0z表示。因此,对于M个特征点对,将各自的M个深度值代入第一坐标表示PC0(PC0x,PC0y,PC0z),可以得到M个空间坐标{(xi,yi,zi),i=1,…,M}。
(2b)确定用于将多个物点的相应空间坐标{(xi,yi,zi),i=1,…,M}与标准脸部的相应关键点空间坐标对齐的对齐参数。对齐的作用是将一个任意角度的脸部映射到一个正视的脸的形状。标准脸可以通过拍摄多个正脸得到一组关键点的空间坐标,并且然后取平均的方式得到。将标准脸的关键点空间坐标记为{(xsi,ysi,zsi),i=1,…,M}。对齐参数包含旋转向量Ra、平移向量Ta、伸缩尺度s,那么,有 通过求解最小化能量函数/> 可以得到对齐参数Ra、Ta和s。
(2c)利用所确定的对齐参数,将各相应空间坐标{(xi,yi,zi),i=1,…,M}与标准脸部的相应关键点空间坐标{(xsi,ysi,zsi),i=1,…,M}进行对齐,以得到对齐后的各相应空间坐标。具体地,利用对齐参数,可以得到对齐后的关键点空间坐标{(x′i,y′i,z′i),i=1,…,M}。
(2d)利用对齐后的各相应空间坐标{(x′i,y′i,z′i),i=1,…,M}的深度分量构建深度特征向量。在示例中,可以构建M维的深度特征向量FEATUREi={z′i,i=1,…,M}。
(2e)将深度特征向量FEATUREi={z′i,i=1,…,M}输入经训练的支持向量机分类器,以得到识别结果。SVM分类器是事先训练好的。在SVM分类器的训练中,将活体样本和非活体样本的关键点空间坐标按照上述方式进行对齐,并且构建深度特征向量作为训练样本。然后,利用训练样本训练SVM分类器,得到SVM分类器参数。
在一些实施例中,在SVM方案1024的识别结果的基础上,可以进一步利用伸缩尺度s进行活体识别。伸缩尺度s的大小代表了所检测的脸部与标准脸的大小比例关系。利用大量的脸部数据,可以(例如,通过统计的方式)得到一个伸缩尺度s的预定范围,并将其作为指示所检测的脸部是否为正常脸部的指标。在SVM的识别结果表明拍摄对象为活体的情况下,如果伸缩尺度s位于该预定范围内,则将拍摄对象识别为活体。如果伸缩尺度s未位于该预定范围内(例如,低于该预定范围的下限或超过该预定范围的上限),则将拍摄对象识别为非活体。
在一些实施例中,代替SVM方案1024,可以直接利用上面的操作(2a)和(2b)中确定的对齐参数(其包括伸缩尺度s)进行活体识别。也即,如果伸缩尺度s位于预定范围内,则将拍摄对象识别为活体。如果伸缩尺度s未位于该预定范围内(例如,低于该预定范围的下限或超过该预定范围的上限),则将拍摄对象识别为非活体。
在ANN方案1026中,利用各物点的空间坐标{(x′i,y′i,z′i),i=1,…,M}构建输入向量,并输入经训练的支持向量机中,以得到识别结果。在一些实施例中,这可以包括以下示例性操作:将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数;利用所确定的对齐参数,将各相应空间坐标与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标;利用对齐后的各相应空间坐标构建输入向量;以及将所述输入向量输入经训练的人工神经网络,以得到识别结果。
下面详细描述ANN方案1026中的操作。
(3a)对于M个特征点对,将各自的M个深度值代入第一坐标表示PC0(PC0x,PC0y,PC0z),得到M个空间坐标{(xi,yi,xi),i=1,…,M}。
(3b)确定用于将多个物点的相应空间坐标{(xi,yi,zi),i=1,…,M}与标准脸部的相应关键点空间坐标对齐的对齐参数。
(3c)利用所确定的对齐参数,将各相应空间坐标{(xi,yi,zi),i=1,…,M}与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标。此处,操作(3a)至(3c)与上面关于SVM方案1024描述的操作(2a)至(2c)相同,并且在此不在赘述。
(3d)利用对齐后的各相应空间坐标{(x′i,y′i,z′i),i=1,…,M}构建输入向量。在示例中,可以将{(x′i,y′i,z′i),i=1,…,M}直接构建为输入向量。
(3e)将所述输入向量输入经训练的ANN,以得到识别结果。与SVM方案1024类似,ANN是事先训练好的。在ANN的训练中,将活体样本和非活体样本的关键点空间坐标按照上述方式进行对齐,并且构建训练样本。然后,利用训练样本训练ANN,得到ANN的网络参数。在该实施例中,可以采用任何适当类型的人工神经网络,并且在这些方面不限制本公开所要求保护的主题。
在一些实施例中,在ANN方案1026的识别结果的基础上,可以进一步利用伸缩尺度s进行活体识别。也即,如果ANN的识别结果表明拍摄对象为活体,则进一步利用伸缩尺度s进行识别:如果伸缩尺度s位于预定范围内,则将拍摄对象识别为活体。如果伸缩尺度s未位于该预定范围内(例如,低于该预定范围的下限或超过该预定范围的上限),则将拍摄对象识别为非活体。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本公开的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
下面描述本公开的一些示例性方面。
方面1.一种图像深度确定方法,包括:
获取与拍摄对象上的一物点相关联的特征点对的像素坐标,其中所述特征点对包括第一图像中对应于该物点的第一像素点和第二图像中对应于该物点的第二像素点,其中所述第一图像为第一相机针对所述拍摄对象拍摄得到的图像,所述第二图像为第二相机针对所述拍摄对象拍摄的图像,并且其中所述像素坐标包括所述第一像素点在所述第一图像中的第一像素坐标和所述第二像素点在所述第二图像中的第二像素坐标;
基于所述第一像素坐标和所述第一相机的内参,确定通过所述第一相机的第一相机坐标系的原点的第一直线,其中所述物点在所述第一相机坐标系中的第一坐标表示位于所述第一直线上;
基于所述第二像素坐标和所述第二相机的内参,确定通过所述第二相机的第二相机坐标系的原点的第二直线,其中所述物点在所述第二相机坐标系中的第二坐标表示位于所述第二直线上;以及
基于所述第一直线、所述第二直线以及描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述物点的深度。
方面2.如方面1所述的方法,其中所述基于所述第一直线、所述第二直线以及描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述物点的深度包括:
基于所述第二直线和所述外参,确定所述第二直线在所述第一相机坐标系中的表示;以及
在所述第一相机坐标系中,基于所述第一直线和所述第二直线,确定所述物点的深度。
方面3.如方面2所述的方法,其中所述基于所述第二直线和所述外参,确定所述第二直线在所述第一相机坐标系中的表示包括:
利用所述外参,将所述第二坐标表示转换为所述第一相机坐标系中的第三坐标表示,并且确定所述第二相机坐标系的原点在所述第一相机坐标系中的第四坐标表示;以及
基于所述第三坐标表示和所述第四坐标表示,确定所述第二直线在所述第一相机坐标系中的表示。
方面4.如方面2所述的方法,其中所述在所述第一相机坐标系中,基于所述第一直线和所述第二直线,确定所述物点的深度包括:
响应于所述第一直线与所述第二直线异面,确定所述第一直线和所述第二直线的公垂线;
确定所述第一直线与所述公垂线的第一交点的坐标以及所述第二直线与所述公垂线的第二交点的坐标;以及
基于所述第一交点的坐标的第一深度分量和所述第二交点的坐标的第二深度分量,确定所述物点的深度。
方面5.如方面4所述的方法,其中所述确定所述第一直线与所述公垂线的第一交点的坐标以及所述第二直线与所述公垂线的第二交点的坐标包括:
根据以下空间关系来确定所述第一交点的坐标和所述第二交点的坐标:
所述第一直线的方向向量平行于从所述第一交点指向所述第一相机坐标系的原点的方向向量;
所述第二直线的方向向量平行于从所述第二交点指向所述第二相机坐标系的原点的方向向量;以及
所述公垂线的方向向量平行于从所述第二交点指向所述第一交点的方向向量。
方面6.如方面4所述的方法,其中所述基于所述第一交点坐标的第一深度分量和所述第二交点坐标的第二深度分量,确定所述物点的深度包括:
确定所述第一深度分量和所述第二深度分量的预定义函数值作为所述物点的深度。
方面7.如方面6所述的方法,其中所述预定义函数值包括加权平均值。
方面8.如方面7所述的方法,其中所述加权平均值包括算术平均值。
方面9.如方面2所述的方法,其中所述在所述第一相机坐标系中,基于所述第一直线和所述第二直线,确定所述物点的深度包括:
响应于所述第一直线与所述第二直线共面,确定所述第一直线与所述第二直线的交点的坐标的深度分量作为所述物点的深度。
方面10.如方面1-9中任一项所述的方法,其中所述第一相机和所述第二相机是不同型号的相机。
方面11.如方面1-9中任一项所述的方法,还包括:
在所述基于所述第一像素坐标和第一相机的内参,确定通过所述第一相机的第一相机坐标系的原点的第一直线之前,对所述第一像素坐标进行去畸变;以及在所述基于所述第二像素坐标和第二相机的内参,确定通过所述第二相机的第二相机坐标系的原点的第二直线之前,对所述第二像素坐标进行去畸变。
方面12.一种芯片电路,包括:
被配置为执行根据方面1-11中任一项所述的方法的步骤的电路单元。
方面13.一种图像深度确定装置,包括如方面12所述的芯片电路。
方面14.一种计算设备,包括:
一个或多个处理器;以及
存储器,其上存储包括指令的程序,所述指令在由所述一个或多个处理器执行时使所述一个或多个处理器执行根据方面1-11中任一项所述的方法。
方面15.一个或多个非暂时性计算机可读介质,其上存储包括指令的程序,所述指令在由计算设备的一个或多个处理器执行时,致使所述计算设备执行根据方面1-11中任一项所述的方法。
方面16.一种活体识别方法,包括:
针对与拍摄对象上的多个物点相关联的多个特征点对中的每一特征点对,通过执行如方面1-11中任一项所述的图像深度确定方法,确定所述多个物点相应的深度,其中每个特征点对的第一像素点为所述第一图像中的脸部关键点,每个特征点对的第二像素点为所述第二图像中的脸部关键点;以及
基于所述多个物点相应的深度,识别所述拍摄对象是否为活体。
方面17.如方面16所述的活体识别方法,其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:根据所述多个物点相应的深度的一函数值与预定阈值的关系,识别所述拍摄对象是否为活体。
方面18.如方面16所述的活体识别方法,其中每个物点的所述第一坐标表示的各个坐标分量为该物点的深度的函数,并且其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:
将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;
确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数;
利用所确定的对齐参数,将各相应空间坐标与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标;
利用对齐后的各相应空间坐标的深度分量构建深度特征向量;以及
将所述深度特征向量输入经训练的支持向量机分类器,以得到识别结果。
方面19.如方面18所述的活体识别方法,其中所述对齐参数包括伸缩尺度,并且其中所述活体识别方法还包括:
响应于所述识别结果表明所述拍摄对象为活体,确定所述伸缩尺度是否落入预定范围;
响应于确定所述伸缩尺度位于预定范围内,识别所述拍摄对象为活体;以及
响应于确定所述伸缩尺度未位于预定范围内,识别所述拍摄对象为非活体。
方面20.如方面16所述的活体识别方法,其中每个物点的所述第一坐标表示的各个坐标分量为该物点的深度的函数,并且其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:
将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;
确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数,其中所述对齐参数包括伸缩尺度;
响应于所述伸缩尺度位于预定范围内,识别所述拍摄对象为活体;以及
响应于所述伸缩尺度未位于预定范围内,识别所述拍摄对象为非活体。
方面21.如方面16所述的活体识别方法,其中每个物点的所述第一坐标表示的各个坐标分量为该物点的深度的函数,并且其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:
将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;
确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数;
利用所确定的对齐参数,将各相应空间坐标与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标;
利用对齐后的各相应空间坐标构建输入向量;以及
将所述输入向量输入经训练的人工神经网络,以得到识别结果。
方面22.如方面21所述的活体识别方法,其中所述对齐参数包括伸缩尺度,并且其中所述活体识别方法还包括:
响应于所述识别结果表明所述拍摄对象为活体,确定所述伸缩尺度是否位于预定范围内;
响应于确定所述伸缩尺度位于预定范围内,识别所述拍摄对象为活体;以及
响应于确定所述伸缩尺度未位于预定范围内,识别所述拍摄对象为非活体。

Claims (21)

1.一种图像深度确定方法,包括:
获取与拍摄对象上的一物点相关联的特征点对的像素坐标,其中所述特征点对包括第一图像中对应于该物点的第一像素点和第二图像中对应于该物点的第二像素点,其中所述第一图像为第一相机针对所述拍摄对象拍摄得到的图像,所述第二图像为第二相机针对所述拍摄对象拍摄的图像,并且其中所述像素坐标包括所述第一像素点在所述第一图像中的第一像素坐标和所述第二像素点在所述第二图像中的第二像素坐标;
基于所述第一像素坐标和所述第一相机的内参,确定通过所述第一相机的第一相机坐标系的原点的第一直线,其中所述物点在所述第一相机坐标系中的第一坐标表示位于所述第一直线上;
基于所述第二像素坐标和所述第二相机的内参,确定通过所述第二相机的第二相机坐标系的原点的第二直线,其中所述物点在所述第二相机坐标系中的第二坐标表示位于所述第二直线上;以及
基于所述第一直线、所述第二直线以及描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述物点的深度,包括:
基于所述第二直线和描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述第二直线在所述第一相机坐标系中的表示;以及
在所述第一相机坐标系中,基于所述第一直线和所述第二直线的相对位置关系,确定所述物点的深度。
2.如权利要求1所述的方法,其中所述基于所述第二直线和描述所述第一相机与所述第二相机的相对位置关系的外参,确定所述第二直线在所述第一相机坐标系中的表示包括:
利用所述外参,将所述第二坐标表示转换为所述第一相机坐标系中的第三坐标表示,并且确定所述第二相机坐标系的原点在所述第一相机坐标系中的第四坐标表示;以及
基于所述第三坐标表示和所述第四坐标表示,确定所述第二直线在所述第一相机坐标系中的表示。
3.如权利要求1所述的方法,其中所述在所述第一相机坐标系中,基于所述第一直线和所述第二直线的相对位置关系,确定所述物点的深度包括:
响应于所述第一直线与所述第二直线异面,确定所述第一直线和所述第二直线的公垂线;
确定所述第一直线与所述公垂线的第一交点的坐标以及所述第二直线与所述公垂线的第二交点的坐标;以及
基于所述第一交点的坐标的第一深度分量和所述第二交点的坐标的第二深度分量,确定所述物点的深度。
4.如权利要求3所述的方法,其中所述确定所述第一直线与所述公垂线的第一交点的坐标以及所述第二直线与所述公垂线的第二交点的坐标包括:
根据以下空间关系来确定所述第一交点的坐标和所述第二交点的坐标:
所述第一直线的方向向量平行于从所述第一交点指向所述第一相机坐标系的原点的方向向量;
所述第二直线的方向向量平行于从所述第二交点指向所述第二相机坐标系的原点的方向向量;以及
所述公垂线的方向向量平行于从所述第二交点指向所述第一交点的方向向量。
5.如权利要求3所述的方法,其中所述基于所述第一交点坐标的第一深度分量和所述第二交点坐标的第二深度分量,确定所述物点的深度包括:
确定所述第一深度分量和所述第二深度分量的预定义函数值作为所述物点的深度。
6.如权利要求5所述的方法,其中所述预定义函数值包括加权平均值。
7.如权利要求6所述的方法,其中所述加权平均值包括算术平均值。
8.如权利要求1所述的方法,其中所述在所述第一相机坐标系中,基于所述第一直线和所述第二直线的相对位置关系,确定所述物点的深度包括:
响应于所述第一直线与所述第二直线共面,确定所述第一直线与所述第二直线的交点的坐标的深度分量作为所述物点的深度。
9.如权利要求1-8中任一项所述的方法,其中所述第一相机和所述第二相机是不同型号的相机。
10.如权利要求1-8中任一项所述的方法,还包括:
在所述基于所述第一像素坐标和第一相机的内参,确定通过所述第一相机的第一相机坐标系的原点的第一直线之前,对所述第一像素坐标进行去畸变;以及
在所述基于所述第二像素坐标和第二相机的内参,确定通过所述第二相机的第二相机坐标系的原点的第二直线之前,对所述第二像素坐标进行去畸变。
11.一种芯片电路,包括:
被配置为执行根据权利要求1-10中任一项所述的方法的步骤的电路单元。
12.一种图像深度确定装置,包括如权利要求11所述的芯片电路。
13.一种计算设备,包括:
一个或多个处理器;以及
存储器,其上存储包括指令的程序,所述指令在由所述一个或多个处理器执行时使所述一个或多个处理器执行根据权利要求1-10中任一项所述的方法。
14.一个或多个非暂时性计算机可读介质,其上存储包括指令的程序,所述指令在由计算设备的一个或多个处理器执行时,致使所述计算设备执行根据权利要求1-10中任一项所述的方法。
15.一种活体识别方法,包括:
针对与拍摄对象上的多个物点相关联的多个特征点对中的每一特征点对,通过执行如权利要求1-10中任一项所述的图像深度确定方法,确定所述多个物点相应的深度,其中每个特征点对的第一像素点为所述第一图像中的脸部关键点,每个特征点对的第二像素点为所述第二图像中的脸部关键点;以及
基于所述多个物点相应的深度,识别所述拍摄对象是否为活体。
16.如权利要求15所述的活体识别方法,其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:根据所述多个物点相应的深度的一函数值与预定阈值的关系,识别所述拍摄对象是否为活体。
17.如权利要求15所述的活体识别方法,其中每个物点的所述第一坐标表示的各个坐标分量为该物点的深度的函数,并且其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:
将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;
确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数;
利用所确定的对齐参数,将各相应空间坐标与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标;
利用对齐后的各相应空间坐标的深度分量构建深度特征向量;以及
将所述深度特征向量输入经训练的支持向量机分类器,以得到识别结果。
18.如权利要求17所述的活体识别方法,其中所述对齐参数包括伸缩尺度,并且其中所述活体识别方法还包括:
响应于所述识别结果表明所述拍摄对象为活体,确定所述伸缩尺度是否落入预定范围;
响应于确定所述伸缩尺度位于预定范围内,识别所述拍摄对象为活体;以及
响应于确定所述伸缩尺度未位于预定范围内,识别所述拍摄对象为非活体。
19.如权利要求15所述的活体识别方法,其中每个物点的所述第一坐标表示的各个坐标分量为该物点的深度的函数,并且其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:
将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;
确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数,其中所述对齐参数包括伸缩尺度;
响应于所述伸缩尺度位于预定范围内,识别所述拍摄对象为活体;以及
响应于所述伸缩尺度未位于预定范围内,识别所述拍摄对象为非活体。
20.如权利要求15所述的活体识别方法,其中每个物点的所述第一坐标表示的各个坐标分量为该物点的深度的函数,并且其中所述基于所述多个物点相应的深度,识别所述拍摄对象是否为活体包括:
将每个物点的深度代入该物点的所述第一坐标表示中,以得到该物点的空间坐标;
确定用于将所述多个物点的相应空间坐标与标准脸部的相应关键点空间坐标对齐的对齐参数;
利用所确定的对齐参数,将各相应空间坐标与标准脸部的相应关键点空间坐标进行对齐,以得到对齐后的各相应空间坐标;
利用对齐后的各相应空间坐标构建输入向量;以及
将所述输入向量输入经训练的人工神经网络,以得到识别结果。
21.如权利要求20所述的活体识别方法,其中所述对齐参数包括伸缩尺度,并且其中所述活体识别方法还包括:
响应于所述识别结果表明所述拍摄对象为活体,确定所述伸缩尺度是否位于预定范围内;
响应于确定所述伸缩尺度位于预定范围内,识别所述拍摄对象为活体;以及
响应于确定所述伸缩尺度未位于预定范围内,识别所述拍摄对象为非活体。
CN202010351856.9A 2020-04-28 2020-04-28 图像深度确定方法及活体识别方法、电路、设备和介质 Active CN111563924B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202010351856.9A CN111563924B (zh) 2020-04-28 2020-04-28 图像深度确定方法及活体识别方法、电路、设备和介质
PCT/CN2021/085276 WO2021218568A1 (zh) 2020-04-28 2021-04-02 图像深度确定方法及活体识别方法、电路、设备和介质
US17/239,302 US11232315B2 (en) 2020-04-28 2021-04-23 Image depth determining method and living body identification method, circuit, device, and medium
EP21170219.6A EP3905195A1 (en) 2020-04-28 2021-04-23 Image depth determining method and living body identification method, circuit, device, and medium
JP2021074934A JP7064257B2 (ja) 2020-04-28 2021-04-27 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
KR1020210054725A KR102386444B1 (ko) 2020-04-28 2021-04-28 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010351856.9A CN111563924B (zh) 2020-04-28 2020-04-28 图像深度确定方法及活体识别方法、电路、设备和介质

Publications (2)

Publication Number Publication Date
CN111563924A CN111563924A (zh) 2020-08-21
CN111563924B true CN111563924B (zh) 2023-11-10

Family

ID=72075496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010351856.9A Active CN111563924B (zh) 2020-04-28 2020-04-28 图像深度确定方法及活体识别方法、电路、设备和介质

Country Status (5)

Country Link
EP (1) EP3905195A1 (zh)
JP (1) JP7064257B2 (zh)
KR (1) KR102386444B1 (zh)
CN (1) CN111563924B (zh)
WO (1) WO2021218568A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
CN111563924B (zh) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 图像深度确定方法及活体识别方法、电路、设备和介质
CN112487921B (zh) * 2020-11-25 2023-09-08 奥比中光科技集团股份有限公司 一种用于活体检测的人脸图像预处理方法及系统
CN114267068B (zh) * 2021-12-24 2022-11-01 合肥的卢深视科技有限公司 基于连续帧信息的人脸识别方法、电子设备及存储介质
CN116402871B (zh) * 2023-03-28 2024-05-10 苏州大学 一种基于场景平行要素的单目测距方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017142654A1 (en) * 2016-02-18 2017-08-24 Intel Corporation 3-dimensional scene analysis for augmented reality operations
CN108986161A (zh) * 2018-06-19 2018-12-11 亮风台(上海)信息科技有限公司 一种三维空间坐标估计方法、装置、终端和存储介质
CN109118533A (zh) * 2018-08-30 2019-01-01 歌尔股份有限公司 深度信息处理方法、装置和设备
CN110770794A (zh) * 2018-08-22 2020-02-07 深圳市大疆创新科技有限公司 图像深度估计方法、装置、可读存储介质及电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2573153B2 (ja) * 1994-02-28 1997-01-22 株式会社エイ・ティ・アール通信システム研究所 ステレオ画像間対応づけ確信度検出装置および方法
JP2003294416A (ja) * 2002-04-03 2003-10-15 Eng Kk ステレオ画像処理装置
JP2005172703A (ja) * 2003-12-12 2005-06-30 Komatsu Ltd 物体の3次元計測方法および装置
CN100553347C (zh) * 2006-10-26 2009-10-21 上海交通大学 立体视觉系统的场景深度恢复和三维重建方法
JP4807583B2 (ja) * 2007-03-29 2011-11-02 本田技研工業株式会社 射影変換収束演算処理方法
JP2010152529A (ja) * 2008-12-24 2010-07-08 Nippon Hoso Kyokai <Nhk> 頂点テクスチャマッピング装置及びプログラム
JP5713624B2 (ja) * 2009-11-12 2015-05-07 キヤノン株式会社 三次元計測方法
JP6079333B2 (ja) * 2013-03-15 2017-02-15 株式会社リコー 校正装置、方法及びプログラム
CN104680528A (zh) * 2015-02-11 2015-06-03 广州霞光技研有限公司 一种基于双目立体视觉的排爆机器人空间定位方法
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
CN110895822B (zh) * 2018-09-13 2023-09-01 虹软科技股份有限公司 深度数据处理系统的操作方法
CN110942032B (zh) * 2019-11-27 2022-07-15 深圳市商汤科技有限公司 活体检测方法及装置、存储介质
CN111563924B (zh) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 图像深度确定方法及活体识别方法、电路、设备和介质
CN111780673B (zh) * 2020-06-17 2022-05-31 杭州海康威视数字技术股份有限公司 一种测距方法、装置及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017142654A1 (en) * 2016-02-18 2017-08-24 Intel Corporation 3-dimensional scene analysis for augmented reality operations
CN108986161A (zh) * 2018-06-19 2018-12-11 亮风台(上海)信息科技有限公司 一种三维空间坐标估计方法、装置、终端和存储介质
CN110770794A (zh) * 2018-08-22 2020-02-07 深圳市大疆创新科技有限公司 图像深度估计方法、装置、可读存储介质及电子设备
CN109118533A (zh) * 2018-08-30 2019-01-01 歌尔股份有限公司 深度信息处理方法、装置和设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周杰 ; 安平 ; 郑帅 ; 严徐乐 ; 左一帆 ; .飞行时间深度相机和彩色相机的联合标定.信号处理.2017,(01),全文. *

Also Published As

Publication number Publication date
WO2021218568A1 (zh) 2021-11-04
CN111563924A (zh) 2020-08-21
JP2021174554A (ja) 2021-11-01
KR20210133880A (ko) 2021-11-08
KR102386444B1 (ko) 2022-04-14
EP3905195A1 (en) 2021-11-03
JP7064257B2 (ja) 2022-05-10

Similar Documents

Publication Publication Date Title
CN111563924B (zh) 图像深度确定方法及活体识别方法、电路、设备和介质
EP3614340B1 (en) Methods and devices for acquiring 3d face, and computer readable storage media
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8224069B2 (en) Image processing apparatus, image matching method, and computer-readable recording medium
CN111160178B (zh) 图像处理方法及装置、处理器、电子设备及存储介质
CN110942032B (zh) 活体检测方法及装置、存储介质
US11232315B2 (en) Image depth determining method and living body identification method, circuit, device, and medium
KR102476016B1 (ko) 안구 위치 정보 확정 방법 및 장치
CN103530599A (zh) 一种真实人脸和图片人脸的区别方法和系统
CN113256718B (zh) 定位方法和装置、设备及存储介质
CN111160232B (zh) 正面人脸重建方法、装置及系统
CN112184811B (zh) 单目空间结构光系统结构校准方法及装置
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP2012022411A (ja) 情報処理装置及びその制御方法、プログラム
WO2019075656A1 (zh) 图像处理方法、装置、终端和存储介质
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2019220032A (ja) 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法
CN114119405A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN115482285A (zh) 图像对齐方法、装置、设备及存储介质
CN115880206A (zh) 图像准确度判断方法、装置、设备及存储介质、程序产品
CN112991210B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
US20240054747A1 (en) Image processing apparatus, image processing method, and storage medium
JP7524980B2 (ja) 判定方法、判定プログラム、及び情報処理装置
CN117373103B (zh) 一种图像特征提取方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant