CN110998595A - 用于头部姿势估计的方法和系统 - Google Patents

用于头部姿势估计的方法和系统 Download PDF

Info

Publication number
CN110998595A
CN110998595A CN201880049508.7A CN201880049508A CN110998595A CN 110998595 A CN110998595 A CN 110998595A CN 201880049508 A CN201880049508 A CN 201880049508A CN 110998595 A CN110998595 A CN 110998595A
Authority
CN
China
Prior art keywords
head
coordinates
image frame
camera
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880049508.7A
Other languages
English (en)
Inventor
B·米尔巴赫
F·加西亚贝切罗
J·M·迪亚兹巴罗斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IEE International Electronics and Engineering SA
Original Assignee
IEE International Electronics and Engineering SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IEE International Electronics and Engineering SA filed Critical IEE International Electronics and Engineering SA
Publication of CN110998595A publication Critical patent/CN110998595A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种用于使用单眼相机(2)进行的头部姿势估计的方法。为了提供用于可靠而鲁棒的实时头部姿势估计的手段,本发明提供了该方法包括:‑提供由所述相机(2)记录的示出头部(10)的初始图像帧(In);以及‑用以下步骤执行至少一个姿势更新循环:‑在感兴趣区域(30)内识别并选择所述头部(10)在所述初始图像帧(In)中具有2D坐标(pi)的多个显著点(S);‑使用所述头部(10)的几何头部模型(20),确定所选择的显著点(S)的与头部姿势相对应的3D坐标(Pi);‑提供由所述相机(2)记录的示出所述头部(10)的更新的图像帧(In+1);‑在所述更新的图像帧(In+1)内识别具有更新的2D坐标(qi)的至少一些先前选择的显著点(S);‑通过使用透视n点法确定与所述更新的2D坐标(qi)相对应的更新的3D坐标(Pi')来更新所述头部姿势;以及‑使用所述更新的图像帧(In+1)作为用于下一个姿势更新循环的所述初始图像帧(In)。

Description

用于头部姿势估计的方法和系统
技术领域
本发明涉及用于头部姿势估计的方法和系统。
背景技术
不同类型的应用需要头部姿势估计(HPE)。除了确定头部姿势本身之外,HPE通常对于面部识别、面部表情检测、凝视等也是必要的。这些应用中有许多是与安全相关的,例如是否检测到驾驶员的头部姿势以确定他是否疲倦或分心。然而,基于相机图像检测和监测人的头部的姿势是一项有挑战的任务。这尤其适用于使用单眼相机系统的情况。通常,头部姿势的特征可以是6个自由度(DOF),即3个平移和3个旋转。对于大多数应用,这6个DOF需要实时确定或估计。头部姿势估计遇到的一些问题是,人的头部在几何上相当复杂,个体头部差异显著(在大小、比例、颜色等方面),并且照明可能会显著影响头部的外观。
通常,旨在用于单眼相机系统的HPE方法基于几何头部模型以及图像中头部模型上特征点的跟踪。特征点可以是面部地标(例如,眼睛、鼻子或嘴)或人面部上的任意点。因此,这些方法依赖于对面部地标的精确检测或帧到帧的面部检测。这些方法的主要缺点是,当面部地标被相机遮挡时,它们可能在头部的大旋转角度处失效。基于跟踪面部表面上任意特征的方法可以应对更大的旋转,但是跟踪这些特征通常是不稳定的,例如,由于纹理低或照明变化。另外,在大旋转角度下的面部检测也比在正面观察时更不可靠。尽管已经有若干种用于解决这些缺点的方法,但是到目前为止仍未解决基本问题,即需要对面部或面部地标进行逐帧检测。
发明目的
本发明的目的是提供用于可靠且鲁棒的实时头部姿势估计的单元。该目的通过根据权利要求1的方法和根据权利要求14的系统来实现。
发明内容
本发明提供了一种用于使用单眼相机的头部姿势估计的方法。在本发明的上下文中,“估计”头部姿势和“确定”头部姿势被同义地使用。可以理解的是,每当仅基于图像确定头部姿势时,就存在一些不准确的余地,这使其成为对头部姿势的估计。该方法使用单眼相机,这意味着一次只能获得来自单个视点的图像。然而,可以想到的是,在执行该方法的同时,单眼相机本身会改变其位置和/或朝向。尽管可以想到将该方法应用于动物头部的HPE,但是在该上下文中“头部”大多是指人的头部。
在第一步中,提供由相机记录的初始图像帧,该初始图像帧示出了头部。可以理解,图像帧通常被提供为代表像素的一系列(数字)数据。初始图像帧代表相机视场中的所有事物,并且初始图像帧的一部分是头部的图像。通常,初始图像帧应示出整个头部,但本发明的方法也可以在例如以下情况下工作:人离相机太近,以至于只有头部的一部分(例如,80%)可见。通常,初始图像帧可以是单色或多色的。
在已经提供了初始图像帧之后,可以获得初始头部姿势。可以基于如下所述的预定义的几何头部模型从初始图像帧确定该初始头部姿势。替代地,该方法可以使用外部确定的初始头部姿势,如稍后将描述的。随后,执行至少一个姿势估计循环。然而,应注意,姿势估计循环不必紧随其后执行。例如,如果相机正在记录一系列图像帧,例如以每秒50帧或每秒100帧的速度,则不必对跟随初始图像帧的图像帧执行姿势估计循环。而是可能的是自初始图像帧以来已经过了若干帧甚至几十帧。每个姿势估计循环包括以下步骤,所述步骤不一定必须按照它们被提到的顺序执行。
在一个步骤中,在感兴趣区域内识别并选择头部的在初始图像帧中具有2D坐标的多个显著点。显著点(或显著特征)是以某种方式与其周围环境可明显区分的点,主要是由于颜色或亮度的明显对比。通常,它们是纹理区域的一部分。显著点的示例是眼角或嘴角、耳朵的特征、胎记、穿孔等。为了检测这些显著点,可以采用本领域中已知的算法,例如哈里斯角落检测、SIFT、SURF或FAST。识别并选择多个这样的显著点。这包括一些显著点被识别出但未被选择(即,被丢弃)的可能性,例如因为认为它们不适合该方法的以下步骤。感兴趣区域是初始图像帧中被认为示出头部或头部的至少一部分的那部分。换句话说,对显著点的识别和选择仅限于该感兴趣区域。记录初始图像帧与选择多个显著点之间的时间间隔可以短或长。然而,对于实时应用,最期望的是时间间隔短,例如少于10ms。通常,对显著点的识别并不局限于人的面部。例如,当头部旋转时,感兴趣区域至少在一个循环中包括头部的非面部区域。在那种情况下,至少在一个循环中,至少一个选择的显著点在头部的非面部区域中。这样的显著点可以是例如耳朵、耳环等的特征。不限于检测面部特征是本发明方法的巨大优点,所述本发明方法使得对面部进行逐帧检测不必要。
在已经选择了显著点之后,使用与头部姿势相对应的头部的几何头部模型来确定对应的3D坐标。将理解,所确定的3D坐标是当前头部姿势的3D几何头部模型的显著点的3D坐标。换句话说,从显著点的2D坐标(在初始图像帧中)开始,确定(或估计)3D空间(或“现实世界”)中的3D坐标。当然,在没有附加信息的情况下,3D坐标将将是模糊的。为了解决这种歧义,使用了几何头部模型,其定义了头部的大小和形状(通常以简化的方式),并假设了头部姿势,所述头部姿势定义了头部的6个DOF,即头部的位置和朝向。技术人员将理解,几何头部模型对于所有姿势都是相同的,但其配置(朝向+位置)不是。还应当理解,(初始)头部姿势必须以某种方式预先确定。虽然大致确定头部的位置是可设想的,例如通过假设平均大小并将其与初始图像的大小相关联,但很难估计朝向。一种可能性是考虑初始头部模型的3D面部特征。使用透视n点法,估计了将这些3D面部特征与在图像中检测到的其对应的2D面部特征相关联的头部姿势。然而,此初始化需要检测图像中足够数量的2D面部特征,这可能无法始终得到保证。为了解决此问题,在记录初始图像帧时,可能会要求人直接面对相机(或采取某种其他明确定义的位置)。替代地,可以使用一种方法,所述方法确定在哪个帧中该人正望向相机并将该帧用作初始图像帧。完成此步骤后,将显著点与3D坐标关联,所述3D坐标位于由(通常是简化的)几何头部模型表示的头部上。
在另一步骤中,提供了由相机记录的示出头部的更新的图像帧。该更新的图像帧已在初始图像帧之后被记录,但是如上所述,它不必是下一帧。与本领域已知的方法相反,即使从初始图像帧到更新的图像帧已经经过了若干图像帧,本发明的方法也令人满意地工作。这当然暗示了更新的图像帧与初始图像帧有很大不同并且头部的姿势可能已经显著改变的可能性。
在提供了更新的图像帧之后,在更新的图像帧内识别至少一些先前选择的具有更新的2D坐标的显著点。显著点可以例如从初始图像帧跟踪到更新的图像帧。然而,其他特征配准方法也是可能的。一种可能性是确定更新的图像帧中的显著点,并且将更新图像帧中的确定的显著点配准到初始图像帧中的显著点。具有更新的2D坐标的显著点的识别可以在确定3D坐标之前或之后或与其同时(即,并行地)进行。通常,由于头部姿势已经在初始图像帧和更新的图像帧之间改变,所以更新的2D坐标不同于初始识别的2D坐标。同样,有可能某些先前选择的显著点在更新的图像帧中不可见,通常是因为该人转动他的头使得一些显著点不再面对相机,或者因为一些显著点被相机和头部之间的物体遮挡了。然而,如果之前已经选择了足够的显著点,那么足够的数量应该仍然可见。识别这些显著点及其更新的2D坐标。
一旦已经识别出显著点并且知道更新的2D坐标,就通过使用透视n点法确定与更新的2D坐标相对应的更新的3D坐标来更新头部姿势。通常,给定世界上的一组n个3D点及其图像中对应的2D投影,透视n点是估计校准的相机的姿势的问题。然而,这等效于当给定具有3D坐标的头部的n个显著点时,相对于相机而言头部的姿势未知。当然,该方法基于以下假设:显著点相对于几何头部模型的位置没有显著变化。尽管头部及其显著点并不完全是刚性的,并且显著点的相对位置可能会有所变化(例如,由于面部表情的变化),但是通常仍然可能解决透视n点问题,而相对位置的变化可能导致一些差异,其可以将这些差异最小化以确定最可能的头部姿势。为了确定更新的3D坐标并因此确定更新的头部姿势而采用透视n点法的一大优点是,即使在初始图像帧和更新的图像帧之间发生较大的变化,该方法也工作。不必执行对头部或显著点的逐帧跟踪。只要可以在更新的图像帧中标识足够数量的先前选择的显著点,就可以始终更新头部姿势。
如果执行了多于一个姿势更新循环,则将更新的图像帧用作用于下一个循环的初始图像帧。
虽然可能的是外部地(例如,通过手动或语音输入)提供几何头部模型和头部姿势的参数,其中一些可以使用相机确定(或估计)。例如,有可能在执行至少一个姿势更新循环之前,确定相机和头部之间的距离。该距离是使用由相机记录的图像帧(例如,初始图像帧)确定的。例如,如果人正面对相机,则可以确定图像帧中的眼睛中心之间的距离。根据人体测量数据库,将其与瞳孔间平均距离(其对应于男性为64.7mm、女性为62.3mm)进行比较时,这些距离之比等于相机焦距与相机和头部之间的距离(或者更确切地说,相机与相机和眼睛基线之间的距离)之比。如果已知头部的尺寸或几何头部模型,则可能的是确定头部中心的3D坐标,从而已知头部姿势的6个DOF中的3个。
还优选地的是,在执行至少一个姿势更新循环之前,确定头部模型的尺寸。当然,如何执行取决于所使用的头部模型。在圆柱形头部模型的情况下,可以确定头部在图像帧内的边界框,假设头部不倾斜(例如,当人面对相机时),头部的高度对应于圆柱体的高度。边界框的宽度对应于圆柱体的直径。可以理解,为了确定实际的高度和直径(或半径),相机和头部之间的距离也必须已知。
头部模型通常代表简化的几何形状。这可能是例如椭圆头部模型(EHM)或甚至平面头部模型(PHM)。根据一个实施例,头部模型是圆柱形头部模型(CHM)。换句话说,头部的形状近似为圆柱体。尽管此模型很简单,并且允许对表面的可见部分的容易的识别,但它仍然是足以产生可靠结果的足够好的近似值。然而,也可以使用其他更准确的模型来获得优势。
通常,该方法用于监测某个时间段期间的变化的头部姿势。因此,优选的是,执行多个连续的姿势更新循环。
关于如何识别先前选择的显著点有不同的选项。一般问题可以被认为是跟踪从初始图像帧到更新的图像帧的显著点。有若干种解决这种光学跟踪问题的方法。根据一个优选实施例,使用光流来识别先前选择的显著点。例如,这可以使用如J.Y.Bouget,“Pyramidal implementation of the affine lucas kanade feature trackerdescription of the algorithm”,Intel Corporation,2001,vol.1,No.2,pp.1–9中公开的Kanade-Lucas-Tomasi(KLT)特征跟踪器来执行。当然可以理解,代替跟踪显著点,其他特征配准方法也是可能的。一种可能性是确定更新图像帧中的显著点,并将更新的图像帧中的确定的显著点配准到初始图像帧中的显著点。
优选地,通过将2D坐标从相机的图像平面投影到可见的头部表面上来确定3D坐标。相机的图像平面可以对应于CCD元素等的位置。这可以被认为是图像帧的物理位置。给定相机的光学特性,如果已知对应物体的表面,则可以将图像平面上的任何点投影或“光线跟踪”到其原点。在这种情况下,提供了可见的头部表面,并且3D坐标对应于回溯射线与该可见的头部表面的交集。可见的头部表面代表被认为是可见的头部的那些部分。应当理解,取决于所使用的头部模型,(真实)头部的实际可见表面可以或多或少地不同。
根据优选实施例,通过确定边界平面与模型头部表面的交集来确定可见头部表面。模型头部表面是所使用的几何头部模型的表面。在CHM的情况下,模型头部表面是圆柱形表面。边界平面用于将模型头部表面的被认为是不可见(或被遮挡)的部分与被认为是可见的部分分开。这样确定的可见头部表面的精度部分取决于头部模型,但对于CHM,如果适当地确定边界平面的位置和朝向,则结果是足够的。
优选地,边界平面平行于相机的X轴和圆柱形头部模型的中心轴。在此,X轴是与光轴垂直的水平轴。在对应的坐标系中,Z轴对应于光轴,并且Y轴对应于垂直轴。当然,相应轴在相机的参考帧内是水平/垂直的,并且不一定是相对于重力方向。圆柱形头部模型的中心轴贯穿圆柱体每个基座的中心。换句话说,它是圆柱体的对称轴。也可以说边界平面的法线向量由X轴和中心轴的叉积得到。该边界平面和(圆柱形)模型头部表面的交集定义了可见头部表面的(三维)边缘。
将注意,可以通过本领域技术人员已知的任何合适方法根据图像帧确定感兴趣区域。根据一个实施例,通过将可见头部表面投影到图像平面上来定义感兴趣区域。边界平面和(圆柱形)模型头部表面的交集定义了可见头部表面的(三维)边缘。将这些边缘投影到相机的图像平面上会在图像中产生对应的2D坐标。这些对应于(当前或更新的)感兴趣区域。如上所述,例如当头部旋转时,感兴趣区域至少在一个循环中包括头部的非面部区域。在那种情况下,在至少一个循环中,可见的头部表面包括非面部头部表面。
根据优选实施例,基于相关联的权重来选择显著点,所述相关联的权重取决于到感兴趣区域的边界的距离。这是基于这样的假设:即使头部姿势仅轻微变化,靠近感兴趣区域边界的显著点也可能不属于实际头部,或者可以更可能被遮挡。例如,一个这样的显著点可能属于人的耳朵,并且因此当人面对相机时是可见的,但是即使人只是稍微转动头部其也被遮挡了。因此,如果在距感兴趣区域的边界较远的位置检测到足够的显著点,则可以丢弃较靠近边界的显著点。
另外,可以基于显著点的权重来执行透视n点法。例如,如果透视n点法的结果不确定,则可以完全忽略那些在更接近感兴趣区域的边界处检测到的显著点,或者可以容忍在确定与这些显著点相关联的更新的3D坐标时出现的任何不一致之处。换句话说,当确定更新的头部姿势时,离边界较远的显著点被视为更可靠且具有更大的权重。这种方法也可以称为“距离变换”。
如果执行若干个连续的姿势更新循环,则最初指定的感兴趣区域通常在一段时间后不再适合。这将导致在更新显著点时出现困难,因为检测将发生在与头部位置不良好对应的图像帧的区域中。因此,优选的是,在每个姿势更新循环中,感兴趣区域都被更新。通常,在更新头部姿势之后执行对感兴趣区域的更新。
本发明还提供了一种用于头部姿势估计的系统,包括单眼相机和处理设备,所述系统被配置为:
-提供由相机记录的示出头部的初始图像帧;以及
-用以下步骤执行至少一个姿势更新循环:
-在感兴趣区域内识别并选择头部在初始图像帧中具有2D坐标的多个显著点;
-使用头部的几何头部模型,确定所选择的显著点的与头部姿势相对应的3D坐标;
-接收由相机记录的示出头部的更新的图像帧;
-在更新的图像帧内识别具有更新的2D坐标的至少一些先前选择的显著点;
-通过使用透视n点法确定与更新的2D坐标相对应的更新的3D坐标来更新头部姿势;以及
-使用更新的图像帧作为用于下一个姿势更新循环的初始图像帧。
可以通过有线或无线连接将处理设备连接到相机,以便从相机接收图像帧,并且可选地将命令传输到相机。可以理解,通常处理设备的至少一些功能是软件实现的。
上面已经关于对应的方法描述了由处理设备执行的其他术语和功能,并且因此将不再再次解释。
本发明系统的优选实施例对应于本发明方法的实施例。换句话说,该系统(或者通常是该系统的处理设备)优选地适于执行本发明方法的优选实施例。
附图说明
通过下面参考附图,根据非限制性实施例的以下详细描述,本发明的另外的细节和优点将变得显而易见,在附图中:
图1是本发明的系统和头部的示意图;
图2是示出本发明方法的实施例的流程图;
图3示出了图2的方法的第一初始化步骤;
图4示出了图2的方法的第二初始化步骤;并且
图5示出了图2的方法的一系列步骤。
具体实施方式
图1示意性地示出了根据本发明的用于头部姿势估计的系统1和人的头部10。系统1包括单眼相机2,其特征在于垂直Y轴、水平Z轴(其对应于光轴)和垂直于图1的绘图平面的X轴。相机2(有线或无线地)连接到处理设备3,所述处理设备3可以接收由相机2记录的图像帧I0、In、In+1。相机2指向头部10。系统1被配置为执行用于头部姿势估计的方法,现在将参考图2至图5对其进行说明。
图2是示出本发明方法的一个实施例的流程图。在开始之后,如图3和图4所示,相机记录了初始图像帧I0。任何图像帧的“物理位置”对应于相机2的图像平面2.1。初始图像帧I0被提供给处理设备3。在随后的步骤中,处理设备3确定相机和头部10之间的距离Zeyes,或者更确切地说,在相机和眼睛的基线之间的距离,所述距离(如图3所示)由
Figure BDA0002378227610000091
给出,其中,f是相机的焦距(以像素为单位),δpx是图像帧I0上眼睛中心之间的估计距离,并且δmm是瞳孔间平均距离,其根据人体测量数据库对应于男性的64.7mm和女性的62.3mm。如图3至图5所示,真实头部10由圆柱形头部模型(CHM)20近似。在初始化期间,假定头部10处于垂直位置并面向相机2,因此,CHM 20也竖立,其中心轴23平行于相机2的Y轴。中心轴23穿过CHM 20顶部和底部底座的中心CT、CB
Zcam表示CHM 20的中心与相机2之间的距离,并且等于Zeyes与从头部10的中心到眼睛基线之间的中点的距离Zhead的总和。Zcam通过
Figure BDA0002378227610000092
与CHM的半径r相关。如图4所示,CHM 20的尺寸可以由图像帧中的边界框确定,所述边界框定义了感兴趣区域30。边界框的高度对应于CHM 20的高度,而边界框的宽度对应于CHM 20的直径。当然,图像帧I0中的相应量需要按
Figure BDA0002378227610000093
因子进行缩放,以便获得3D空间中的实际量。给定边界框的左上角、右上角、左下角和右下角的2D坐标{pTL,pTR,pBL,pBR},处理设备3计算
Figure BDA0002378227610000094
类似地,通过
Figure BDA0002378227610000095
计算CHM 20的高度h。
在Zcam被确定(或估计)的情况下,3D空间中面部边界框的角(即,{PTL,PTR,PBL,PBR}和CHM 20的顶部和底部底座的中心CT、CB)可以通过将对应的2D坐标投影到3D空间中并将其与关于Zcam的信息组合来确定。
到目前为止描述的步骤可以视为初始化过程的一部分。一旦做到这一点,该方法就继续参考实际头部姿势估计的步骤,现在将参考图5对其进行描述。这些步骤是姿势更新循环的一部分,其如图2的右半部分所示。
虽然图5示出了由相机2记录并提供给处理设备3的初始图像帧In,该初始图像帧In可以与图3和图4中的图像帧I0相同。根据由处理设备3执行的方法的一个步骤,在感兴趣区域30内识别并选择多个显著点S(由图5中的黑底白字数字1指示)。这样的显著点S位于初始图像帧In的纹理区域中,并且可以是眼睛、嘴、鼻子等的角。为了识别显著点S,可以使用诸如FAST之类的合适算法。显著点S由图像帧I0中的2D坐标pi表示。权重被指派给每个显著点S,所述权重取决于显著点S离感兴趣区域30的边界31的距离。相应显著点S越靠近边界31,其权重就越低。可能的是没有选择权重最低的显著点S,而是因为(相当)不可靠而将其丢弃。这可以用来增强该方法的总体性能。应当注意,感兴趣区域30除了面部区域32之外还包括若干非面部区域,例如颈部区域33、头部顶部区域34、头部侧面区域35等。
在所选择的显著点S的2D坐标pi已知的情况下,确定对应的3D坐标Pi(由图5中的黑底白字数字3指示)。这是通过将2D坐标投影到CHM 20的可见头部表面22上来实现的。可见头部表面22是CHM 20的表面21的被认为对相机2可见的一部分。在CHM 20的初始头部姿势的情况下,可见头部表面22为其侧表面的一半。3D坐标Pi也可以看作是射线40与CHM20的可见头部表面22相交的结果,所述射线40从相机2的光学中心处开始并穿过像平面2.1处的相应显著点S。射线40的方程式定义为P=C+kV,其中,V是平行于从相机的光学中心C到P的线的向量。通过求解几何模型的二次方程来计算标量参数k。
在另一步骤中,将已由相机2记录的更新的图像帧In+1提供给处理设备3,并且在该更新的图像帧In+1内识别至少一些先前选择的显著点S(在图5中用黑底白字数字2指示)以及更新的2D坐标qi。可以使用光流来执行该识别。虽然图5中的标签指示在确定对应于初始图像帧In的3D坐标Pi之前执行了更新的图像帧In+1内的识别,这些步骤的顺序可以如图2的流程图所指示地被反转或它们可以并行执行。
在另一步骤中(在图5中由黑底白字数字4指示),处理设备3使用更新的2D坐标qi和3D坐标Pi来解决透视n点问题,并且因此更新头部姿势。头部姿势通过计算由平移t和旋转R得到的更新的3D坐标P'i使得P′i=R·Pi+t并且通过迭代方法将3D特征重新投影到图像平面上和它们相应检测到的2D特征之间的误差最小化来计算。在误差的定义中,也可能考虑与相应显著点S相关联的权重,使得从具有低权重的显著点S引起的误差对总误差的贡献较小。将平移t和旋转R应用于旧的头部姿势会产生更新的头部姿势(由图5中的黑底白字数字5指示)。
在另一步骤中,感兴趣区域30被更新。在该实施例中,感兴趣区域30由CHM 20的可见头部表面22在图像上的投影定义。可见头部表面22转而由头部表面21与边界平面24的交集定义。边界平面24具有法线向量,所述法线向量是由平行于相机2的X轴的向量与平行于CHM 20的中心轴23的向量之间的叉积产生的。换句话说,边界平面24平行于X轴并平行于中心轴24(参见图5中的黑底白字数字6)。CHM 20的可见头部表面22的角{P′TL,P′TR,P′BL,P′BR}由模型头部表面21和边界平面24之间的最远相交集给出,而新的感兴趣区域30由将可见头部表面22投影到图像平面2.1上(由图5中的黑底白字数字7指示)而得到的。
更新的感兴趣区域30再次包括非面部区域,例如颈部区域33、头部顶部区域34、头部侧面区域35等。在下一个循环中,可以选择来自这些非面部区域33-35中的至少一个的显著点。例如,头部侧面区域35现在更靠近感兴趣区域30的中心,使得有可能从该区域中选择显著点,例如耳朵的特征。

Claims (15)

1.一种用于使用单眼相机(2)进行的头部姿势估计的方法,所述方法包括:
-提供由所述相机(2)记录的示出头部(10)的初始图像帧(In);以及
-用以下步骤执行至少一个姿势估计循环:
-在感兴趣区域(30)内识别并选择所述头部(10)的在所述初始图像帧(In)中具有2D坐标(pi)的多个显著点(S);
-使用所述头部(10)的几何头部模型(20),确定所选择的显著点(S)的与所述几何头部模型(20)的头部姿势相对应的3D坐标(Pi);
-提供由所述相机(2)记录的示出所述头部(10)的更新的图像帧(In+1);
-在所述更新的图像帧(In+1)内识别具有更新的2D坐标(qi)的至少一些先前选择的显著点(S);
-通过使用透视n点法确定与所述更新的2D坐标(qi)相对应的更新的3D坐标(Pi')来更新所述头部姿势;以及
-使用所述更新的图像帧(In+1)作为用于下一个姿势更新循环的初始图像帧(In)。
2.根据权利要求1所述的方法,其中,在执行所述至少一个姿势更新循环之前,所述相机(2)与所述头部(10)之间的距离被确定。
3.根据权利要求1或2所述的方法,其中,在执行所述至少一个姿势更新循环之前,所述头部模型(20)的尺寸被确定。
4.根据前述权利要求中任一项所述的方法,其中,所述头部模型(20)是圆柱形头部模型。
5.根据前述权利要求中任一项所述的方法,其中,多个连续的姿势更新循环被执行。
6.根据前述权利要求中任一项所述的方法,其中,先前选择的显著点(S)是使用光流来识别的。
7.根据前述权利要求中任一项所述的方法,其中,所述3D坐标(Pi)是通过将来自所述相机(2)的图像平面(2.1)的2D坐标(pi)投影到可见头部表面(22)上来确定的。
8.根据前述权利要求中任一项所述的方法,其中,所述可见头部表面(22)是通过确定边界平面(24)与模型头部表面(21)的交集来确定的。
9.根据前述权利要求中任一项所述的方法,其中,所述边界平面(24)平行于所述相机(2)的X轴和所述圆柱形头部模型(20)的中心轴(23)。
10.根据前述权利要求中任一项所述的方法,其中,所述感兴趣区域(30)是通过将所述可见头部表面(22)投影到所述图像平面(2.1)上来定义的。
11.根据前述权利要求中任一项所述的方法,其中,所述显著点(S)是基于相关联的权重来选择的,所述相关联的权重取决于到所述感兴趣区域(30)的边界(31)的距离。
12.根据前述权利要求中任一项所述的方法,其中,所述透视n点法是基于所述显著点(S)的所述权重来执行的。
13.根据前述权利要求中任一项所述的方法,其中,在每个姿势更新循环中,所述感兴趣区域(30)被更新。
14.一种用于头部姿势估计的系统(1),包括单眼相机(2)和处理设备(3),所述系统被配置为:
-提供由所述相机(2)记录的示出头部(10)的初始图像帧(In);以及
-用以下步骤执行至少一个姿势更新循环:
-在感兴趣区域(30)内识别并选择所述头部(10)的在所述初始图像帧(In)中具有2D坐标(pi)的多个显著点(S);
-使用所述头部(10)的几何头部模型(20),确定所选择的显著点(S)的与头部姿势相对应的3D坐标(Pi);
-接收由所述相机(2)记录的示出所述头部(10)的更新的图像帧(In+1);
-在所述更新的图像帧(In+1)内识别具有更新的2D坐标(qi)的至少一些先前选择的显著点(S);
-通过使用透视n点法确定与所述更新的2D坐标(qi)相对应的更新的3D坐标(Pi')来更新所述头部姿势;以及
-使用所述更新的图像帧(In+1)作为用于下一个姿势更新循环的初始图像帧(In)。
15.根据权利要求14所述的系统,其中,所述系统(1)适于执行根据权利要求2至13中的任一项所述的方法。
CN201880049508.7A 2017-07-25 2018-07-25 用于头部姿势估计的方法和系统 Pending CN110998595A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
LU100348A LU100348B1 (en) 2017-07-25 2017-07-25 Method and system for head pose estimation
LU100348 2017-07-25
PCT/EP2018/070205 WO2019020704A1 (en) 2017-07-25 2018-07-25 METHOD AND SYSTEM FOR ESTIMATING HEAD INSTALLATION

Publications (1)

Publication Number Publication Date
CN110998595A true CN110998595A (zh) 2020-04-10

Family

ID=59812065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880049508.7A Pending CN110998595A (zh) 2017-07-25 2018-07-25 用于头部姿势估计的方法和系统

Country Status (5)

Country Link
US (1) US20210165999A1 (zh)
CN (1) CN110998595A (zh)
DE (1) DE112018003790T5 (zh)
LU (1) LU100348B1 (zh)
WO (1) WO2019020704A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3944806A1 (de) * 2020-07-29 2022-02-02 Carl Zeiss Vision International GmbH Verfahren zum bestimmen des nahpunkts, zum bestimmen der nahpunktdistanz, zum bestimmen eines sphärischen brechwertes sowie zum herstellen eines brillenglases sowie entsprechende mobile endgeräte und computerprogramme

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110063403A1 (en) * 2009-09-16 2011-03-17 Microsoft Corporation Multi-camera head pose tracking
US20120169887A1 (en) * 2011-01-05 2012-07-05 Ailive Inc. Method and system for head tracking and pose estimation
US20130329951A1 (en) * 2012-06-11 2013-12-12 Samsung Electronics Co., Ltd. Method and apparatus for estimating a pose of a head for a person
US20140092132A1 (en) * 2012-10-02 2014-04-03 Frida Issa Systems and methods for 3d pose estimation
CN104217350A (zh) * 2014-06-17 2014-12-17 北京京东尚科信息技术有限公司 实现虚拟试戴的方法和装置
CN105205455A (zh) * 2015-08-31 2015-12-30 李岩 一种移动平台上人脸识别的活体检测方法及系统
US20160210500A1 (en) * 2015-01-15 2016-07-21 Samsung Electronics Co., Ltd. Method and apparatus for adjusting face pose
CN105913417A (zh) * 2016-04-05 2016-08-31 天津大学 基于透视投影直线的几何约束位姿方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110063403A1 (en) * 2009-09-16 2011-03-17 Microsoft Corporation Multi-camera head pose tracking
US20120169887A1 (en) * 2011-01-05 2012-07-05 Ailive Inc. Method and system for head tracking and pose estimation
US20130329951A1 (en) * 2012-06-11 2013-12-12 Samsung Electronics Co., Ltd. Method and apparatus for estimating a pose of a head for a person
US20140092132A1 (en) * 2012-10-02 2014-04-03 Frida Issa Systems and methods for 3d pose estimation
CN104217350A (zh) * 2014-06-17 2014-12-17 北京京东尚科信息技术有限公司 实现虚拟试戴的方法和装置
US20160210500A1 (en) * 2015-01-15 2016-07-21 Samsung Electronics Co., Ltd. Method and apparatus for adjusting face pose
CN105205455A (zh) * 2015-08-31 2015-12-30 李岩 一种移动平台上人脸识别的活体检测方法及系统
CN105913417A (zh) * 2016-04-05 2016-08-31 天津大学 基于透视投影直线的几何约束位姿方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHAY OHAYON 等: "Robust 3D Head Tracking Using Camera Pose Estimation" *

Also Published As

Publication number Publication date
WO2019020704A1 (en) 2019-01-31
DE112018003790T5 (de) 2020-05-14
US20210165999A1 (en) 2021-06-03
LU100348B1 (en) 2019-01-28

Similar Documents

Publication Publication Date Title
US11010967B2 (en) Three dimensional content generating apparatus and three dimensional content generating method thereof
US9728012B2 (en) Silhouette-based object and texture alignment, systems and methods
KR101997500B1 (ko) 개인화된 3d 얼굴 모델 생성 방법 및 장치
US9269194B2 (en) Method and arrangement for 3-dimensional image model adaptation
US9489743B2 (en) Determining dimension of target object in an image using reference object
JP5812599B2 (ja) 情報処理方法及びその装置
WO2009091029A1 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
KR20180112756A (ko) 표정 검출 성능을 갖는 머리-장착형 디스플레이
KR20120138627A (ko) 안면 추적 장치 및 방법
KR20170064369A (ko) 3d 얼굴 모델링 방법 및 3d 얼굴 모델링 장치
KR102187143B1 (ko) 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
KR101865173B1 (ko) 가상현실 콘텐츠의 영상 분석을 통한 모션 시뮬레이터의 운동 생성 방법
EP3506149A1 (en) Method, system and computer program product for eye gaze direction estimation
Pressigout et al. Hybrid tracking algorithms for planar and non-planar structures subject to illumination changes
WO2019145411A1 (en) Method and system for head pose estimation
CN110998595A (zh) 用于头部姿势估计的方法和系统
Kotake et al. A fast initialization method for edge-based registration using an inclination constraint
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
JP2008015895A (ja) 画像処理装置及び画像処理プログラム
CN114399800A (zh) 人脸姿态估计方法及装置
EP4227903A1 (en) Method for head image registration and head model generation and corresponding devices
JP2001175860A (ja) フィードバック処理のある3次元物体認識装置及び方法並びに記録媒体
TWI557685B (zh) 網格動畫製作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200410

WD01 Invention patent application deemed withdrawn after publication