CN106133750B - 用于确定视线方向的3d图像分析器 - Google Patents

用于确定视线方向的3d图像分析器 Download PDF

Info

Publication number
CN106133750B
CN106133750B CN201580014214.7A CN201580014214A CN106133750B CN 106133750 B CN106133750 B CN 106133750B CN 201580014214 A CN201580014214 A CN 201580014214A CN 106133750 B CN106133750 B CN 106133750B
Authority
CN
China
Prior art keywords
image
pattern
hough
vector
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201580014214.7A
Other languages
English (en)
Other versions
CN106133750A (zh
Inventor
丹尼尔·凯内泽
阿尔伯特·海斯
安德拉斯·卡特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of CN106133750A publication Critical patent/CN106133750A/zh
Application granted granted Critical
Publication of CN106133750B publication Critical patent/CN106133750B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/145Square transforms, e.g. Hadamard, Walsh, Haar, Hough, Slant transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20008Globally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)

Abstract

一种用于在3D空间中确定视线方向或视线(包括视线方向向量和位置向量,例如,位置向量指示瞳孔中点以及视线方向向量开始的地方)的3D图像分析器被配置为接收一个第一组图像数据和另一组图像信息,其中,第一图像包含将三维对象从第一视角显示到第一图像平面中的图案,并且其中,所述另一组包含以下图像,该图像包括将同一三维对象从另一视角显示到另一图像平面中的图案,或者其中,所述另一组包括第一图像中的至少两个点之间的关系和/或图像信息和/或至少位置信息。基于第一图像或一个或多个其他图像来确定图像信息。位置信息描述了三维对象的至少一个点与第一图像平面之间的关系。所述3D图像分析器包括位置计算器和对准计算器,并计算3D空间中的视线方向。

Description

用于确定视线方向的3D图像分析器
技术领域
本发明的实施例涉及一种用于在3D空间中确定视线方向(即,方向向量)或视线(包括位置向量和方向向量)而不必用户校准的3D图像分析器,其中,用户的视线方向是待确定的。进一步的实施例涉及一种用于识别对准和/或视线方向的具有3D图像分析器的图像分析系统,并涉及一种用于识别对准和/或视线方向的相应方法。
背景技术
关于自动确定人类视线方向,存在不同类别的系统。一种常见类别是基于视频的系统,该系统利用一个或多个相机记录人的眼睛并在线或离线分析这些视频记录以从其确定视线方向。
以基于视频确定视线方向为规则的系统,对于每个用户,在使用之前以及在一些情况下附加地在使用期间(例如,当离开相机的检测区时或者在用户和系统之间的位置改变的情况下),需要校准过程,以能够确定用户的视线方向。此外,这些系统中的一些系统需要非常具体限定的相机布置以及彼此的照明或者朝用户的非常具体的相机布置以及关于用户位置的先前知识(例如,在德国专利no.DE 10 2004 046 617 A1中所公开的),以能够执行对视线方向的确定。
因此,需要一种改进的构思。
发明内容
一个目的是允许有效且可靠的方向识别,例如,视线方向识别。
该目的通过独立权利要求来实现。其它实施例在从属权利要求中限定。
本发明的实施例创造一种用于确定视线方向或视线(包括例如视线方向向量和位置向量,例如,位置向量指示瞳孔中点以及视线方向向量开始的地方)或视点的3D图像分析器,其中,所述3D图像分析器被配置为至少接收基于第一图像确定的一个第一组图像数据以及基于第一图像确定的另一组信息,其中,第一图像包含将三维对象从第一视角显示到第一图像平面中所产生的图案(例如,瞳孔、虹膜或椭圆的图案),并且其中,所述另一组也包含具有将同一三维对象从另一视角显示到另一图像平面中所产生的图案的图像,或者其中,所述另一组包含描述了三维对象的至少一个点与第一图像平面之间的(相对)关系的信息。所述3D图像分析器包括位置计算器和对准计算器。所述位置计算器被配置为基于第一组、根据另外图像确定的另一组以及第一图像和所述另外图像的视角之间的几何关系来计算三维空间内图案的位置,或者基于第一组以及第一图像中至少两个特性特征彼此之间在统计上评估的关系来计算三维空间内图案的位置,或者基于第一组以及三维对象的至少一个点与第一图像平面之间的位置关系来计算三维空间内图案的位置。所述对准计算器被配置为按每图像计算两个可能的3D视线向量,并从这两个可能的3D视线向量确定在三维空间中图案被对准所根据的3D视线向量,其中,所述计算和所述确定基于第一组、所述另一组以及计算出的图案的位置。
因此,已经认识到本发明的主旨是,基于通过上述位置计算器确定的图案的位置-空间中对象的对准,例如,空间中瞳孔的对准(由此,视线方向),和/或视线(包括视线方向向量和位置向量,例如,位置向量指示瞳孔中点以及视线方向向量开始的地方),可以确定例如来自第一视角的至少一组图像数据和附加信息和/或另一组图像数据(来自另一视角)。通过位置计算器执行对准的确定,其中,在第一步骤中,位置计算器确定图案的位置。然后,从图案的该特定位置开始,存在图案可以被对准所根据的两个可能的3D视线向量。因此,这两个可能的3D视线向量例如被确定为使得图案的光学畸变可以与图案的基本形状进行比较,并且从中确定图案朝图像的光学平面倾斜的量(参见第一组图像数据)。从在倾斜的情况下被描绘为椭圆的(圆形)瞳孔的示例开始,变得显然的是,存在瞳孔相对于光学平面的两个可能的倾斜度,这导致瞳孔的椭圆形状的绘示。因此,对准计算器基于另一组图像数据或基于附加信息进行确定,其中,所述另一组图像数据或附加信息也基于第一组图像信息来获得,并对应于理论上可行的倾斜度和/或实际3D视线向量,由此,对应于实际视线方向。
因此(通过使用3D位置计算和虚拟投影平面),优选地,可以确定视线方向向量和/或视线(包括所搜索图案和方向向量),而无需预先知晓瞳孔与相机之间的距离或者无需相机(例如,通过瞳孔中点)的光轴的精确定位。
根据实施例,可以通过以下方式发生适用3D视线向量的确定和/或选择:确定(来自另一视角的)另一组图像数据的两个另外的可能的3D视线向量,其中,来自第一组图像数据的3D视线向量与来自另一组图像数据的3D视线向量相对应,由此,其是实际3D视线向量。备选地,根据另外的实施例,还可以例如在以下事实方面分析第一组图像数据:(在瞳孔中点开始)通过这两个可能的3D视线向量扫描第一图像中描绘的眼睛巩膜的多少像素。从而,选择扫描巩膜的较少像素的3D视线向量。替代对巩膜的分析,还可行的是,选择如下3D视线向量:沿其投影到图像中的投影(从瞳孔中点开始),瞳孔中点与眼睛睁开的边缘之间的距离更小。
根据另外的实施例,通过统计确定的关系,例如,两个脸部特征(例如,鼻子、眼睛)之间的距离,也可以被协商,以计算图案中的点(例如,瞳孔或虹膜中心)的3D位置。这些统计关系被预先确定并存储在存储器中。
根据另外的实施例,上述图案中的点的3D位置的确定不限于使用通过统计确定的值。其还可以基于上游计算器的结果而发生,其中,上游计算器提供脸部特征(例如,鼻子、眼睛)的3D位置或上面提到的图案的3D位置。
根据另外的实施例,从可能的3D视线向量中选择实际3D视线向量还可以基于图案(例如,瞳孔或虹膜中心)的3D位置并基于脸部特征(例如,眼睛的边缘、嘴的边缘)的上述3D位置而发生。
根据另外的实施例,对准计算通过以下方式而发生:针对第一图像计算由于包括光学交点周围的光学特性的实际第一投影平面的旋转所导致的第一虚拟投影平面,使得被定义为与第一虚拟投影平面垂直的第一虚拟光轴通过所识别的图案的中点延伸。优选地,根据另外的实施例,针对另外图像,通过包括光学交点周围的光学特性的实际第二投影平面的旋转,计算第二虚拟位置,使得被定义为与第二虚拟投影平面垂直的第二虚拟光轴通过边缘图案的中点延伸。通过使用上述虚拟投影平面,之后可以基于第一图像和第二图像分别计算两个可能的3D视线向量,其中一个相应的3D视线向量(在理想情况下,确切地讲,在与现实具有微小偏差的情况下)对应于实际3D视线向量。
根据另外的实施例,3D视线矢量可以通过一组方程来描述,其中,每个方程描述各个轴和各个虚拟投影平面相对于3D视线矢量的几何关系。参考第一虚拟投影平面,通过第一方程,基于第一组图像数据,可以描述3D视线向量,其中,可以得到第一方程的两个解。参考第二虚拟投影平面,基于第二组图像数据的第二方程导致关于3D视线向量的两个(另外的)解。相应地,可以通过第一方程的一个解向量与第二方程的一个解向量的测量平均来计算实际3D视线向量。这两个向量通过以下事实来限定:它们的差小于这两个方程的解向量的其他组合之间的差,使得系统从包括第一方程和第二方程的方程具有一个明确的解。第一方程的上述解向量等于第二方程的上述解向量+/-10%。
根据另外的实施例,3D图像分析器可以实现在包括例如选择性自适应数据处理器的处理单元中。
根据另外的实施例,3D图像分析器可以是用于跟踪瞳孔的图像分析系统的一部分。这种图像分析系统通常包括用于至少一个相机的至少一个霍夫路径,或者优选地,用于至少两个相机的两个霍夫路径。此外,每个霍夫路径可以包括一个预处理器以及一个霍夫变换单元。附加地,该霍夫变换单元还可以包括用于分析收集到的图案并用于输出一组图像数据的单元。
根据另外的实施例,建立了一种用于确定视线方向或视线的方法。所述方法包括以下步骤:接收基于第一图像确定的至少一个第一组图像数据以及基于第一图像或另外图像确定的另一组信息,其中,第一图像将三维对象的图案从第一视角显示在第一图像平面中,并且其中,所述另一组包含具有将同一三维对象从另一视角显示到另一图像平面中所产生的图案的图像,或者包括描述三维对象的至少一个点与第一图像平面之间的关系的信息。所述方法还包括以下步骤:基于第一组、根据另外图像确定的另一组以及第一图像和所述另外图像的视角之间的几何关系来计算三维空间中图案的位置,或者基于第一组以及第一图像中至少两个特性特征彼此之间在统计上确定的关系来计算三维空间中图案的位置,或者基于第一组以及三维对象的至少一个点与第一图像平面之间的位置关系来计算三维空间中图案的位置。在第三步骤中,在三维空间中计算图案被对准所根据的3D视线向量,其中,所述计算基于第一组图像数据、所述另一组信息以及计算的图案的位置而发生。
根据另外的实施例,该方法可以由计算机执行。在这方面,另外的实施例涉及一种具有用于执行上述方法的程序代码的计算机可读数字存储介质。
附图说明
随后,基于附图示出本发明的实施例。附图中示出了:
图1是根据实施例的3D图像分析器的示意框图;
图2a是根据实施例的具有预处理器和霍夫变换单元的霍夫处理器的示意框图;
图2b是根据实施例的预处理器的示意框图;
图2c是用于检测直线(线段)的霍夫核的示意图示;
图3a是根据实施例的霍夫变换单元的可能实现的示意框图;
图3b是根据实施例的减速矩阵的单个单元;
图4a至图4d是根据实施例的霍夫变换单元的进一步实现的示意框图;
图5a是根据实施例的具有两个图像处理器和后处理单元的立体相机组件的示意框图,其中,每个图像处理器包括一个霍夫处理器;
图5b是用于说明利用图5a的单元可行的视点检测以及用于解释在单视场情况下的视点检测的眼睛的示例性图像;
图6至图7进一步示出了对附加实施例和/或方面的解释;
图8a至图8c是与投影平面相关的光学系统的示意图示;以及
图8d是具有在相关描述中提及的参数的椭圆的示意图示;
图8e是将3D空间中的圆描述为平面的椭圆以说明基于椭圆的参数计算3D空间中的圆的对准的示意图示;以及
图9a至图9i进一步示出了对霍夫变换单元的背景知识的解释。
具体实施方式
以下,参考附图详细描述本发明的实施例。应当注意的是,用相同的附图标记提供相同的元件,使得其描述彼此适用和/或可交换。
图1示出了具有位置计算器404和对准计算器408的3D图像分析器400。3D图像分析器被配置为基于至少一组图像数据,然而优选地基于第一组图像数据和第二组图像数据,确定3D空间中的视线方向(由此,3D视线方向)。与同样确定的视线上的点(例如,3D空间中的瞳孔或虹膜中心)一起,从该点以及上述视线方向,产生3D视线,其还可以用作计算3D视点的基础。
用于进行确定的基本方法包括三个基本步骤:接收基于第一图像802a(参见图8a)确定的至少一个第一组图像数据以及基于第一图像802a和另外图像802b确定的另一组信息。从而,第一图像802a从第一图像平面的第一视角显示三维对象的图案804a(参见图8b)。所述另一组通常包括另外图像802b。
对于另外的实施例,备选地,所述另一组还可以包含以下信息(而非具体的图像数据)中的一项或多项:三维对象的点PMP与第一图像平面802之间的位置关系、在脸部或眼睛中若干特征点彼此之间的位置关系、在传感器方面脸部或眼睛中的特征点的位置关系、脸部的位置和对准。
在下一步骤中,基于第一组、所述另一组以及第一图像802a与第二图像802的视角之间的几何关系,来计算三维空间中图案806a的位置。备选地,可以基于第一组以及第一图像804a中的至少两个特性特征彼此之间的在统计上评估的关系来计算三维空间中图案806的位置。该单元操作的最后步骤涉及计算三维空间中图案804a和804b所对准到的3D视线向量。该计算基于第一组和第二组而发生。
以下通过图8a至图8e描述用于该视线方向计算的详细计算示例。
计算瞳孔中点
如已描述的,通过相机镜头808a和808b描绘圆形瞳孔806a,在图像传感器802a和802b上分别出现了椭圆瞳孔投影(参见图8a)。瞳孔的中心位于两个传感器802a和802b上,因此,在各个相机图像中还总是描绘出椭圆的中点EMP K1和EMP K2。因此,由于这两个椭圆中点EMP K1和EMP K2的立体背投影(stereoscopic rear projection),可以通过物镜模型确定3D瞳孔中点。与之相关的可选需求是理想的时间同步的图像,使得所描述的从两个相机拍摄的场景相同,并因此,在相同位置采集到瞳孔中点。
最初,针对每个相机,必须计算椭圆中点的背投影光束RS,其沿着对象与在光学系统的物侧(H1)的交点之间的相交光束行进(图8a)。
Figure GDA0002534824280000073
该背投影光束由方程(A1)定义。其包括起始点RS0和标准化的方向向量
Figure GDA0002534824280000072
从而从物镜的两个主点H1和H2以及从传感器平面中的椭圆中心EMP,导致方程(A2)和(A3)所示的所用物镜模型(图8b)。为此,三个点(H1、H2和EMP)必须全部可用于眼睛跟踪器坐标系。
RS0=H1 (A2)
Figure GDA0002534824280000071
主点可以通过以下方程来计算:
Figure GDA0002534824280000074
以及
Figure GDA0002534824280000087
直接来自物镜和相机参数(图8b),其中,K0是相机传感器平面的中点,
Figure GDA0002534824280000088
是相机传感器平面的法向向量。可以从由以下方程提供的先前确定的椭圆中心参数xm和ym计算相机坐标系中的3D椭圆中心:
Figure GDA0002534824280000081
其中,Pimage是相机图像的像素分辨率,Soffset是传感器上的开始读出图像的位置,Sres是传感器的分辨率,SPxGr是传感器的像素大小。
在理想情况下,所搜索瞳孔中点是两个背投影光束RSK1和RSK2的交点。然而,利用实际确定的模型参数和椭圆中点,已经通过最小测量误差,在3D空间中不再产生直线的交点。在该系列中既不相交也不平行的两条直线在几何中被指定为斜线(skew line)。在背投影的情况下,可以假设这两条斜线非常接近地分别通过瞳孔中点。因此,瞳孔中点在这两条直线之间的线的一半上位于它们彼此距离最小的位置。
两条斜线之间的最短距离由与这两条直线垂直的连接线来表示。可以根据方程(A4)计算在两个背投影光束上的垂直直立线的方向向量
Figure GDA0002534824280000082
作为其方向向量的交叉乘积。
Figure GDA0002534824280000083
背投影光束之间的最短连接线的位置由方程(A5)来定义。通过使用RSK1sRSK2t和
Figure GDA0002534824280000084
产生可以计算s、t和u的方程组。
Figure GDA0002534824280000085
因此,在使用针对s和u计算的值之后,位于背投影光束之间的线的一半处的所搜索瞳孔中点PMP产生于方程(A6)。
Figure GDA0002534824280000086
作为用于所计算的瞳孔中点的精度的指示符,附加地,可以计算背投影光束之间的最小距离dRS。模型参数和椭圆参数越精确,dRS越小。
Figure GDA0002534824280000091
计算出的瞳孔中点是这两种参数之一,这两种参数确定将由眼睛跟踪器确定的眼睛的视线。此外,需要计算以下描述的视线方向向量
Figure GDA0002534824280000092
用于计算瞳孔中点的该方法的优点是,相机到眼睛之间的距离不必牢牢地存储在系统中。例如,这是在DE 10 2004 046 617 A1的专利说明书中描述的方法所需要的。
视线方向向量的计算
要确定的视线方向向量
Figure GDA0002534824280000093
对应于圆形瞳孔表面的法向向量,因此,是由于3D空间中指定的瞳孔的对准。从针对瞳孔在相机传感器上的两个椭圆形状的投影可以确定的椭圆参数,可以确定瞳孔的位置和对准。由此,投影椭圆的两个半轴的长度以及旋转角度显示出瞳孔和/或视线方向相对于相机位置的对准的特性。
例如在DE 10 2004 046 617 A1的专利说明书中描述了一种用于从椭圆参数以及眼睛跟踪系统中牢牢存储的相机和眼睛之间的距离来计算视线方向的方法。如图8e所示,该方法假设平行投影,由此,通过传感器法线和投影到传感器的瞳孔的中点所限定的直线通过瞳孔中点。为此,需要预先知道相机到眼睛的距离并将其牢牢地存储在眼睛跟踪系统中。
然而,利用该方法中呈现的相机物镜的模型(其描述了实际对象的显示行为),发生对象到图像传感器的立体投影(perspective projection)。由于此,可以执行瞳孔中点的计算,并且不必预先知道相机到眼睛的距离,与上面提到的专利说明书相比,这构成了重要改进之一。然而,由于立体投影,在传感器上显示的瞳孔椭圆的形状与平行投影的结果相反,不仅是因为瞳孔相对于传感器表面的倾斜。如图8b所示,瞳孔中点与相机物镜的光轴之间的偏转角(deflection)δ同样地影响瞳孔投影的形状,并因此影响从其确定的椭圆参数。
与图8b的图示相反,瞳孔与相机之间的几百毫米的距离相对于在2mm和8mm之间的瞳孔半径非常大。因此,随着瞳孔相对于光轴的倾斜所发生的瞳孔投影与理想椭圆形状的偏差非常小,并可以忽略。
为了能够计算视线方向向量
Figure GDA0002534824280000108
必须消除角度δ对椭圆参数的影响,使得瞳孔椭圆的形状仅受瞳孔的对准影响。如果瞳孔中点PMP直接位于相机系统的光轴上,则总是进行这种假定。因此,可以通过计算虚拟相机系统vK的传感器上的瞳孔投影来消除角度δ的影响,其中,所述虚拟相机系统vK的光轴直接通过先前计算的瞳孔中点PMP,如图8c所示。
可以从原始相机系统804a(图8b中的K)绕其物侧主点H1旋转的参数来计算这种虚拟相机系统804a’(图8c中的vK)的位置和对准。因此,这同时对应于虚拟相机系统804a’的物侧主点vH1。因此,所示对象的相交光束的方向向量在虚拟光学系统808c’的前面和后面,与原始相机系统中的相同。在眼睛跟踪器坐标系中发生用于确定视线方向向量的所以进一步计算。
如下获得虚拟相机vK的标准的法向向量
Figure GDA0002534824280000101
Figure GDA0002534824280000102
对于进一步的过程,需要计算绕眼睛跟踪器坐标系的绕x轴(vKθ)、绕y轴
Figure GDA0002534824280000103
以及绕z轴(vKψ)的旋转角度,以获得向量
Figure GDA0002534824280000104
其中,必须旋转关于眼睛跟踪器坐标系的几个轴的眼睛跟踪器坐标系的z方向的单位向量。由于眼睛跟踪器坐标系的x方向的单位向量以及y方向的单位向量大约旋转角度vKθ
Figure GDA0002534824280000105
和vKψ,可以计算向量vKx
Figure GDA0002534824280000106
其指示眼睛跟踪器坐标系中的虚拟传感器的x轴和y轴。
为了获得虚拟相机系统804a’(图8c)的位置,必须按照其位于瞳孔中点PMP的相交光束上的方式,通过利用方程(A9)计算其位置向量和/或坐标原点vK0,其中,坐标原点vK0同时是图像传感器的中点。
Figure GDA0002534824280000107
为此所需的主点之间的距离d以及主平面2与传感器平面之间的距离b必须已知或例如通过实验装置来确定。
此外,像侧主点的位置产生于方程(A10)
Figure GDA0002534824280000111
为了计算虚拟传感器804a’上的瞳孔投影,最初,需要原始位置中的传感器上的先前确定的椭圆的边缘点RP3D。这些边缘点产生于相机图像中的椭圆E的边缘点RP2D,其中与图8d相对应地,Ea是椭圆的短半轴,Eb是椭圆的长半轴,
Figure GDA0002534824280000116
Figure GDA0002534824280000117
是椭圆的中点坐标,Eα是椭圆的旋转角度。可以从E、传感器S和相机K的参数,通过方程(A11)至(A14)计算眼睛跟踪器坐标系中的一个点RP3D的位置,其中,指示根据图8d的边缘点RP2D在椭圆圆周上的位置。
Figure GDA0002534824280000112
Figure GDA0002534824280000113
Figure GDA0002534824280000114
Figure GDA0002534824280000115
将瞳孔边缘点显示为传感器上的椭圆边缘点RP3D的原始相机系统中的一个相交光束KS的方向与将同一瞳孔边缘点显示为虚拟传感器上的椭圆边缘点RP3D的虚拟相机系统中的相交光束vKS的方向相同。图8b和图8c中的椭圆边缘点的相交光束证明了这方面。因此,两个光束KS和vKS具有从方程(A15)产生的相同的方向向量。对于虚拟传感器侧相交光束vKS的位置向量vKS0,vKS0=vH2总是适用的。
Figure GDA0002534824280000121
与虚拟相机vK的x-y平面相对应的虚拟传感器平面和虚拟相交光束在方程(A16)中换算,其中,通过求解s2和t2,获得它们交点的参数。经此,可以通过方程(A17)计算虚拟相机的图像中的像素坐标中的椭圆边缘点。
Figure GDA0002534824280000122
Figure GDA0002534824280000123
之后,从一些虚拟边缘点vRP2D,可以通过椭圆拟合来计算虚拟椭圆vE的参数,例如,利用根据Fitzgibbon等的“直接最小二乘拟合”算法。为此,需要至少六个虚拟边缘点vRP2D,其中,可以通过使用方程(A11)中的几个ω与上述路径来计算所述虚拟边缘点。
这样确定的虚拟椭圆vE的形状仅取决于瞳孔的对准。此外,虚拟椭圆vE的中点总是在虚拟传感器的中心,并且与和相机法线
Figure GDA0002534824280000124
相对应的传感器法线一起形成沿通过瞳孔中点PMP的光轴延伸的直线。因此,满足了其后基于DE 10 2004 046 617 A1的专利说明书中所呈现的方法计算视线方向的需求。从而,利用该方法,现在也可以通过使用上述虚拟相机系统来确定视线方向,如果瞳孔中点位于实际相机系统的光轴的轴之外(在实际应用中几乎总是这种情况)。
如图8e所示,现在,在虚拟主平面1中接受先前计算的虚拟椭圆vE。由于vE的中点位于虚拟传感器的中心,因此,在光轴上,3D椭圆中点vE‘MP对应于虚拟主点1。同时,其是虚拟主平面1中的瞳孔中点PMP的丢弃的垂脚(perpendicular foot)。以下,仅使用椭圆vE的长短轴比和旋转角度。vE的这些形状参数因而可以相对于主平面1不变地使用,因为它们参考的2D传感器平面的x轴和y轴的对准与3D传感器平面相对应,并因此还对应于主平面1的对准。
可以通过瞳孔的两种不同的对准来产生相机图像中的瞳孔806a的每个图像。因此,在评估瞳孔形状期间,如图8e所示,从每个相机的结果产生视图的两个可能直线与虚拟主平面1的两个虚拟交点vS。与图8e中的几何比率相对应地,可以如下确定两个可能的视线方向
Figure GDA0002534824280000131
Figure GDA0002534824280000132
已知瞳孔中点与椭圆中点vE’MP之间的距离A是:
A=|vH1-PMP| (A18)
由此,可以利用方程A19确定r。
Figure GDA0002534824280000133
针对以下方程,类似地计算两个方向向量
Figure GDA0002534824280000134
以及
Figure GDA0002534824280000135
其中,从vH1至vS1以及至vS2对准所述两个方向向量:
Figure GDA0002534824280000136
Figure GDA0002534824280000137
Figure GDA0002534824280000138
Figure GDA0002534824280000139
根据vKθ
Figure GDA00025348242800001310
vKψ和vEα
Figure GDA00025348242800001311
Figure GDA00025348242800001312
之后,可以确定两个虚拟交点vS1以及vS2,并且由此,可能的视线方向
Figure GDA0002534824280000141
以及
Figure GDA0002534824280000142
Figure GDA0002534824280000143
Figure GDA0002534824280000144
Figure GDA0002534824280000145
Figure GDA0002534824280000146
为了确定实际视线方向,需要相机
Figure GDA0002534824280000147
以及
Figure GDA0002534824280000148
和相机
Figure GDA0002534824280000149
以及
Figure GDA00025348242800001410
的可能视线方向。从这四个向量中,每个相机的相应的一个向量指示实际视线方向,因此,理想地,这两个标准的向量相同。为了识别它们,对于所有四种可能组合,从一个相机的向量并从另一相机的向量,形成分别选择的可能视线方向向量的差。具有最小差的组合包含所搜索的向量。通常,这些导致待确定的视线方向向量
Figure GDA00025348242800001411
当平均时,必须假设几乎同时捕获到图像,使得两个相机收集到相同的瞳孔位置以及相同的对准,并因此,相同的视线方向。
作为所计算的视线方向向量的准确性的测量,附加地,可以计算指示实际视线方向的两个平均向量
Figure GDA00025348242800001412
Figure GDA00025348242800001413
之间的角度Wdiff。Wdiff越小,到目前为止计算所用的模型参数和椭圆中点越准确。
Figure GDA00025348242800001414
可以利用以下方程计算相对于瞳孔的法线位置的视点θBW和φBW(
Figure GDA00025348242800001415
平行于眼睛跟踪器坐标系的z轴):
Figure GDA00025348242800001416
以及
Figure GDA0002534824280000151
在应当考虑视线方向与眼睛的光轴和/或与瞳孔法线的系统偏差的情况下,可以将相应角度与所确定的视点θBW和φBW相加。然后,必须通过以下方程计算新的视线方向向量:
Figure GDA0002534824280000152
从新视点θBW’和φBW’以及
Figure GDA0002534824280000153
利用视线方向向量
Figure GDA0002534824280000154
(除了来自方程A6的瞳孔中点PMP之外),还已知将由3D图像分析器确定的视线(LoS)的第二参数。这可以从以下方程推导出。
Figure GDA0002534824280000155
以上介绍的方法的实施不依赖于平台,从而以上介绍的方法也可以在例如PC的不同硬件平台上执行。
图2a示出了具有预处理器102和霍夫变换单元104的霍夫处理器100。预处理器102构成了第一信号处理阶段并在信息上连接到霍夫变换单元104。霍夫变换单元104具有延迟滤波器106,其可以包括至少一个(然而,优选地,多个)延迟元件108a、108b、108c、110a、110b和110c。延迟滤波器106的延迟元件108a至108c以及110a至110c通常布置为矩阵,因此,在列108和110与行a至c中,信令连接到彼此。根据图2a中的实施例,延迟元件108a至108c和/或110a至110c中的至少一个具有可调节的延迟时间,这里通过“+/-”符号来表现。为了激活延迟元件108a至108c以及110a至110c和/或为了对其进行控制,可以提供单独的控制逻辑和/或控制寄存器(未示出)。该控制逻辑经由可选的切换元件109a至109c和/或111a至111c控制各个延迟元件108a至108c和/或110a至110c的延迟时间,例如,所述可选的切换元件109a至109c和/或111a至111c可以包括复用器和旁路。霍夫变换单元104可以包括附加配置寄存器(未示出),用于对各个延迟元件108a至108c以及110a至110c进行初始配置。
预处理器102的目标在于,通过各个样本112a、112b和112c可以被霍夫变换单元104有效处理的方式来处理各个样本112a、112b和112c。为此,预处理器102接收图像数据和/或多个样本112a、112b和112c,并且例如以旋转的形式和/或以反折(reflection)的形式执行预处理,以向霍夫变换单元104输出几个版本(参见112a和112a’)。如果霍夫变换单元104具有一个霍夫核106,则该输出可以连续地发生,或者如果提供了几个霍夫核,则该输出还可以并行地发生。因此,这意味着,根据该实施方式,n个版本的图像被整体并行地输出和处理,被半并行地(由此,仅部分并行地)输出和处理,或者被连续地输出和处理。预处理器102中的预处理用于利用搜索图案或霍夫核配置检测几个类似图案(上升和下降的直线),以下通过利用第一样本112a对其进行说明。
例如,该样本可以被旋转例如大约90°,以获得旋转版本112a’。该旋转过程具有附图标记114。由此,旋转可以发生大约90°,还可以是大约180°或270°或者一般地大约360°/n,借以应当注意的是,根据下游霍夫变换(参见霍夫变换单元104),仅进行90°旋转会是非常有效的。参照图2b和图2c解决这些次方面。此外,图像112a还可以被反折,以获得反折版本112a”。反折的过程具有附图标记116。反折116对应于存储器的向后读出。基于反折版本112a”以及基于旋转版本112a’,通过执行过程114或116,可以从旋转且反折版本112a”’获得第四版本。基于反折116,检测到如随后所述的具有相同霍夫核配置的两个相似图案(例如,向右开的半圆和向左开的半圆)。
霍夫变换单元104被配置为在由预处理器102提供的版本112a或112a’(或112a”或112a”’)中检测预定的搜索图案,例如椭圆或椭圆的一部分、圆或圆的一部分、直线或一段。为此,与所搜索预定图案相对应地配置滤波器装置。根据各个配置,延迟元件108a至108c或110a至110c中的一些被激活或旁路(bypassed)。因此,当将待检查的图像112a或112a’的片带(film strip)应用于变换单元104时,一些像素被延迟元件108a至108c选择性地延迟,这对应于中间存储,而其他像素被直接发送到下一列110。由于该过程,弯曲的或倾斜的几何形状“变直”。根据加载的图像数据112a或112a’和/或确切地讲,根据图像112a或112a’的所应用行的图像结构,在列108或110之一中发生高列量(column amount),而其他列中的列量较低。列量经由列量输出108x或110x而输出,这里借以可选地,可以提供用于建立每个列108或110的列量的加法元件(未示出)。利用列量中的一个列量的最大值,可以假设存在所搜索图像结构或所搜索图像结构的一部分或者至少存在与所搜索结构的一致性的关联度。因此,这意味着,按每个处理步骤,片带被进一步移动大约一个像素或大约一个列108或110,从而利用每个处理步骤,通过起始直方图,可以识别出是否检测到所搜索结构之一,或者存在所搜索结构的可能性是否相应地高。换言之,这意味着,覆盖列108或110的各自列量的阈值表明检测到所搜索图像结构的一部分,借以每个列108或110与所搜索图案或所搜索图案的特征(例如,直线的角度或圆的半径)相关联。这里应当注意的是,对于各个结构,不仅相应线110的各延迟元件110a、110b和110c是决定性的,而且具体地,与在后延迟元件110a、110b和110c结合的在前延迟元件108a、108b和108c也是决定性的。与目前工艺水平相对应地,延迟元件或旁路的这种激活或结构是先验预定的。
经由可变延迟元件108a至108c或110a至110c(延迟元件),可以在正在进行的操作期间调整所搜索特征(由此,例如,半径或增幅)。由于各列108和110彼此连接,在调节延迟元件108a至108c或110a至110c之一的延迟时间的过程中发生滤波器106的整个滤波器特性的改变。由于霍夫变换单元104的滤波器106的滤波器特性的灵活调节,可以在运行期间调整变换核106,从而可以收集并利用相同霍夫核106跟踪例如动态图像内容(例如对于小瞳孔和大瞳孔)。在图3a中,其涉及关于延迟时间可以如何调节的确切实现。为了实现具有更大灵活性的霍夫处理器100或变换单元104,优选地,将所有延迟元件108a、108b、108c、110a、110b和/或110c(或所提及的延迟元件中的至少一个)实施为具有可变延迟时间或可离散切换的延迟时间,从而在正在进行的操作期间,可以在待检测的不同图案之间或在待检测的图案的不同特征之间切换。
根据另外的实施例,所示的霍夫核104的大小是可配置的(在操作期间或在之前),从而可以激活或停用附加霍夫单元(Hough cell)。
根据另一实施例,变换单元104可以连接到用于例如利用控制器(未示出)调节相同延迟元件,或者确切地讲用于调节各延迟元件108a至108c以及110a至110c的装置。控制器例如布置在下游处理单元中,并被配置为调节滤波器106的延迟特性,如果图案不能被识别,或者如果识别不是足够好(图像内容与存在所搜索图案时的所搜索图案的低一致性)。参照图5a,其涉及该控制器。
上述实施例具有以下优点:实现起来容易且灵活,并且特别地能够实现在FPGA(现场可编程门阵列)上。这里所涉及的背景是,上述并行霍夫变换的进展没有衰退并且这么说是完全并行化的。因此,进一步的实施例涉及FPGA,其至少具有霍夫变换单元104和/或预处理器102。将上述设备实现为FPGA,例如XILINX Spartan 3A DSP,可以通过使用96MHz的频率来实现例如60FPS的非常高的帧率以及640×480的分辨率,由于具有多个列108和110的上述结构104,可以进行并行处理或所谓的并行霍夫变换。
在这点上应当注意的是,关于以上及之后的实施例,首要地,用“视线方向”或“视线向量”表示眼睛的光轴。眼睛的该光轴应与眼睛的视轴相区分,然而,其中,眼睛的光轴可以用作对视轴的估计,因为这些轴通常彼此依赖。因此,例如,通过包括眼睛的光轴的校正角度,可以计算方向或方向向量,甚至这是对眼睛的实际视轴的对准的明确更好的估计。
图2a和图2b示出了预处理器102,其用于对具有帧112a、112b和112c的视频数据流112进行预处理。预处理器102被配置为接收样本112作为二值边缘图像或者甚至作为梯度图像,并基于所述图像执行旋转114或反折116,以获得四个版本112a、112a’、112a”和112a”’。为此,背景是,通常,由霍夫变换单元执行的并行霍夫变换基于图像112a的两个或四个分别经预处理的例如转移大约90°的版本。如图2b所示,最初,在两个版本112a和112a’被水平反折(参见112a到112a”以及112a’到112a”’)之前,发生90°旋转(112a到112a’)。为了执行反折116和/或旋转114,预处理器在相应实施例中具有内部或外部存储器,其用于装载接收到的图像数据112。
预处理器102的旋转114和/或反折116的处理取决于下游霍夫变换、并行霍夫核的数目(并行化程度)和并行霍夫核的配置,如参照图2c具体描述的。在这方面,预处理器102可以被配置为经由输出126,根据与以下三个星座图(constellation)之一相对应的下游霍夫变换单元104的并行化程度而输出预处理后的视频流:
100%并行化:同时输出四个视频数据流,即,一个非旋转且非反折的版本112a、一个旋转大约90°的版本112a’以及分别反折的版本112a”和112a”’。
50%并行化:在第一步中输出两个视频数据流,即,非旋转的112a和反折大约90%的112a’,并且在第二步中输出分别反折的变体112a”和112a”’。
25%并行化:顺序地分别输出一个视频数据流,即,非旋转的112a、旋转大约90°的112a’、反折的112a”以及反折且旋转的112a”’。
作为以上变体的替代,还将想到,基于第一版本,建立另外三个完全旋转的版本,例如,旋转大约90°、180°和270°,基于此,执行霍夫变换。
根据另外的实施例,预处理器102可以被配置为执行进一步图像处理步骤,例如上采样。附加地,预处理器还可以创建梯度图像。对于梯度图像创建将是图像预处理的部分的情况,灰度值图像(初始图像)可以在FPGA中旋转。
图2c示出了两个霍夫核配置128和130,例如,对于两个并行31×31霍夫核,被配置为识别直线或直线段。此外,应用单位圆132,以说明在哪个角部分(angle segment)中可以进行检测。在这点上应当注意的是,要以白点示出延迟元件的方式来分别查看霍夫核配置128和130。霍夫核配置128对应于所谓的类型1霍夫核,而霍夫核配置120对应于所谓的类型2霍夫核。从这两个霍夫核配置128和130的比较可以得出,一个构成了另一个的逆。利用第一霍夫核配置128,可以检测3π/4和π/2之间的部分1中的直线,而可以通过利用霍夫核配置130检测部分3π/2到5π/4(部分2)中的直线。为了实现在其他部分中的检测,如上所述,将霍夫核配置128和130应用于各个图像的旋转版本。因此,通过利用霍夫核配置128,可以收集π/4和零之间的部分1r,并且通过利用霍夫核配置130,可以收集π和3π/4之间的部分2r。
备选地,当仅使用一个霍夫核(例如,类型1霍夫核)时,图像一次旋转大约90°、一次旋转大约180°以及一次旋转大约270°会是有用的,以收集直线对准的上述变体。另一方面,由于灵活性,在霍夫核的配置期间,可以仅使用一种霍夫核类型,该类型在正在进行的操作期间被重新配置,或者关于该类型,各个延迟元件可以通过霍夫核与逆类型相对应的方式被打开或关闭。因此,换言之,这意味着,当使用预处理器102(在50%并行化操作中)以及仅具有一个霍夫核且仅具有一次图像旋转的可配置霍夫变换单元104时,可以显示整个功能,否则只能通过两个并行霍夫核来涵盖整个功能。在这方面,变得清楚的是,各个霍夫核配置或对霍夫核类型的选择取决于由预处理器102执行的预处理。
图3a示出了具有m列108、110、138、140、141和143以及n行a、b、c、d、e和f从而形成m×n个单元的霍夫核104。滤波器的列108、110、138、140、141和143表示所搜索结构的特定特性,例如,对于特定曲线或特定直线增幅。
每个单元包括延迟元件,其在延迟时间方面是可调节的,借以在该实施例中,由于提供了具有旁路的可切换延迟元件的事实,实现了调节机制。以下,参照图3b,代表性地描述所有单元的构造。图3b的单元(108a)包括延迟元件142、诸如复用器的远程可控开关144以及旁路146。通过远程可控开关144,行信号可以经由延迟元件142来传送,或者可以未延迟的导向交点148。一方面,交点148连接到针对列(例如108)的量元件150,而另一方面,经由该交点148,还连接了下一单元(例如110a)。
通过所谓的配置寄存器160(参见图3a)配置复用器144。在这点上应当注意的是,这里示出的附图标记160仅与配置寄存器160的直接耦接到复用器144的一部分相关。配置寄存器160的元件被配置为控制复用器144,并经由第一信息输入160a接收配置信息,所述配置信息例如源自存储在FPGA内部BRAM 163中的配置矩阵。该配置信息可以是按照逐个列的比特串,并与所配置的延迟单元(142+144)中的几个延迟单元(还在变换期间)的配置相关。因此,可以经由输出160b另外发送所述配置信息。由于在操作的任意时间点进行重新配置是不可能的,配置寄存器160或配置寄存器160的单元经由另外的信号输入160c接收所谓的使能信号,通过该使能信号开始重新配置。关于这点的背景是,霍夫核的重新配置需要一定时间,这取决于延迟元件的数目或者具体地取决于列的大小。由此,对于每个列元件,关联时钟周期,并且由于BRAM 163或配置逻辑160,发生较少时钟周期的延迟。对于基于视频的图像处理,对重新配置的总延迟通常是可以忽略的。假设在本实施例中,利用CMOS传感器记录的视频数据流具有水平消隐和垂直消隐,由此水平消隐或垂直消隐时间可以用于重新配置。由于这种情况,在FPGA中实现的霍夫核结构的大小预先确定了针对霍夫核配置的最大尺寸。如果例如使用较小的配置,则这些配置垂直居中并在水平方向上与霍夫核结构的列1对准。霍夫核结构的未使用元件全部用激活的延迟元件占用着。
利用各延迟元件(142+144)以这种方式处理的数据流的评估逐列地发生。为此,逐列地进行合计,以检测局部量最大值,其显示出所识别的搜索结构。每列108、110、138、140、141和143的总和用于确定分配给相应列的值,该值表示对于结构的特征之一与所搜索结构的一致性的程度。为了按每列108、110、138、140、141或143确定列量的局部极大值,提供所谓的比较器108v、110v、138v、140v、141v或143v,它们连接到各个量元件150。可选地,在不同列108、110、138、140、141或143的各个比较器108v、110v、138v、140v、141v、143v之间,还可以设置另外的延迟元件153,延迟元件153用于比较相邻列的列量。详细地,在滤波器的通过期间,针对所搜索图案的特征具有一致性的最高程度的列108、110、138或140总是被挑选出滤波器。在检测列量的局部最大值(比较之前、之后的列)期间,可以假设存在所搜索结构。因此,比较的结果是列号(可能地包括列量=一致性的程度),其中,已经识别出局部最大值,或者找到了所搜索结构的特征,例如,列138。优选地,该结果包括所谓的多维霍夫空间,该多维霍夫空间包括所搜索结构的所有相关参数,例如,图案的类别(例如,直线或半圆)、图案的一致性的程度、结构的特征(关于曲线段的曲线的强度或者关于直线段的增幅和长度)以及所搜索图案的位置或方位。换言之,这意味着,对于霍夫空间中的每个点,将相应结构的灰度值添加在图像段中。因此,形成了最大值,通过利用所述最大值,可以容易地定位霍夫空间中的所搜索结构并且将所搜索结构导回至图像段。
图3b的霍夫核单元可以具有可选的流水线延迟元件162(流水线-延迟),该流水线延迟元件162例如布置在该单元的输出并且被配置为对通过延迟元件142延迟的信号以及通过旁路145未延迟的信号进行延迟。
如参照图1所示,这种单元还可以包括具有可变性的一个延迟元件或者多个切换且旁路的延迟元件,使得延迟时间在几个阶段中可调。在这方面,替代地,将想到在如图3b所示的霍夫核单元的实现之外的其他实现。
以下,参照图5a说明图像处理系统1000内的上述设备的应用。图5a示出了具有预处理器102和霍夫变换单元104的FPGA实现的图像处理器10a。此外,在预处理器102之前,可以在图像处理器10a中实现输入级12,输入级12被配置为从相机14a接收图像数据或图像样本。为此,输入级12可以例如包括图像交接部(image takeover intersection)12a、分割和边缘检测器12b以及用于相机控制的装置12c。用于相机控制的装置12c连接到图像交接部12a和相机14,并用于控制如加强明暗度(intensification)和/或光照的因素。
图像处理器10a还包括所谓的霍夫特征提取器16,其被配置为分析由霍夫变换单元104输出的且包括用于图案识别的所有相关信息的多维霍夫空间,并基于分析结果输出所有霍夫特征的汇编(compilation)。详细地,这里发生霍夫特征空间的平滑,即,借助本地滤波器的空间平滑或者霍夫空间的变薄(拒绝与图案识别不相关的信息)。考虑图案的类别和结构的特征来执行所述变薄,使得霍夫概率空间中的非极大值淡出。此外,对于变薄,还可以定义阈值,使得可以预先确定例如结构的最小或最大可容许特征,例如最小或最大曲线或者最小或最大增幅。通过基于阈值的拒绝,还可以发生霍夫概率空间中的噪声抑制。
原始图像段中的所有剩余点的参数的分析再变换导致例如以下霍夫特征:对于弯曲结构,可以发送位置(x坐标和y坐标)、出现概率、半径和角度(其表明弧向哪个方向打开)。对于直线,可以确定以下参数:位置(x坐标和y坐标)、出现概率、角度(表明直线的增幅)以及代表直线段的长度。该变薄的霍夫空间由霍夫特征提取器16输出,或者一般地由图像处理器10a输出,以在后处理单元18处进行处理。
另外的实施例包括使用图像处理系统内的3D图像分析器400(图5a)以及上游图像处理器10a(图5a)或上游霍夫处理器,其中,调整霍夫处理器以及具体地后处理单元18,用于检测被显示为椭圆的瞳孔或虹膜。
霍夫处理器的后处理单元可以例如被实现为嵌入式处理器,并且根据其应用,可以包括不同的子单元,以下对其进行示例性说明。后处理单元18(图5a)可以包括霍夫特征后几何转换器202。该几何转换器202被配置为分析由霍夫特征提取器输出的一个或多个预定义的搜索图案,并输出几何解释参数。因此,几何转换器202可以例如被配置为基于检测到的霍夫特征输出几何参数,例如,第一直径、第二直径、关于椭圆(瞳孔)或圆的中点的移位和位置。根据优选实施例,几何转换器202用于通过利用3到4个霍夫特征(例如,曲线)来检测并选择瞳孔。由此,包括如下标准:例如,与所搜索结构或霍夫特征的一致性的程度、待检测的霍夫特征或预定图案的曲线、霍夫特征的位置和方位。所选霍夫特征组合被布置为:首先,根据所获得的霍夫特征的量进行布置,并在第二行中,根据与所搜索结构的一致性的程度进行布置。在布置之后,在该点的霍夫特征组合被选择,并且据此,拟合椭圆,该椭圆最有可能在相机图像内表示瞳孔。
此外,后处理单元18(图5a)包括可选的控制器204,其被形成为将控制信号返回到图像处理器10a(参见控制通道206),或者确切地讲,返回到霍夫变换单元104,基于此,滤波器106的滤波器特性是可调节的。关于滤波器核106的动态调节,控制器204通常连接到几何转换器202,以分析所识别的几何形状的几何参数,并且以能够对几何形状进行更精确识别的方式在所定义边界内跟踪霍夫核。该过程是连续的,例如,开始于上一霍夫核配置(上次使用的霍夫核的大小)并且一旦识别202提供了不足的结果就被跟踪。因此,对于瞳孔或椭圆检测的上述示例,如果人接近相机14a,则控制器可以调节椭圆大小,例如,这取决于待记录的对象与相机14a之间的距离。基于上次调节并基于椭圆的几何参数,滤波器特性的控制据此发生。
根据另外的实施例,后处理单元18可以具有选择性的自适应数据处理器300。该数据处理器的目的是,对数据序列内的异常值(outlier)和流失值(dropout)进行后处理,以例如执行数据序列的平滑。因此,该选择性的自适应数据处理器300被配置为接收由几何转换器202输出的若干组值,由此每一组被分配给相应样本。数据处理器300的滤波器处理器基于所述若干组,以如下方式执行对值的选择:用内部确定的数据值(交换值)交换难以置信的组中的数据值(例如,异常值或流失值),并且剩余组中的数据值被进一步不变地使用。详细地,发送可信组(不包含异常值或流失值)的数据值,并且用可信组的数据值(例如,之前数据值或若干之前数据值的平均值)交换不可信组(包含异常值或流失值)的数据值。由此,从发送的值以及或许从交换值所产生的数据序列被连续地平滑。因此,这意味着,例如,根据指数平滑的原理,发生数据序列(例如,所确定的椭圆中点坐标)的自适应时间平滑,由此,(例如,由于瞳孔检测期间的错误检测所导致的)待平滑的数据序列的流失值和异常值不会导致平滑后数据的波动。详细地,数据处理器可以对新接收的组中的数据值进行平滑,如果其没有落入以下标准内:
-根据通过组中的附加值之一被量化的一致性的关联度,利用所搜索结构,其是数据序列的流失值。
-根据关联的尺寸参数或几何参数,如果例如实际对象的尺寸偏离先前对象太多,则其是流失值。
-根据实际数据值与基于先前数据值所确定的阈值的比较,如果实际数据值(例如,实际位置值)不在阈值之间,则其是流失值。对此的说明性示例是,例如对象的实际位置坐标(组中的数据值)是否偏离之前由选择性的自适应数据处理器确定的位置坐标太多。
此外,如果满足了这些标准之一,则输出之前的值或至少进行协商,以对实际值进行平滑。为了在平滑期间获得可能地小延迟,可选地,与过去值相比,对实际值定级更高(stronger rated)。因此,在应用指数平滑期间,可以通过以下公式来确定实际值:
实际上平滑的值=实际值×平滑系数+上次平滑的值×(1-平滑系数)
针对待平滑数据的趋向,在所定义边界内动态地调整平滑系数,例如,减小相当恒定值的发展或者增大关于倾斜或下降值的发展。如果长期地,关于待平滑的几何参数(椭圆参数)发生较大的跳跃,则数据处理器由此将平滑后值的发展调整至新的值。通常,还可以例如在初始化期间通过利用参数来配置该选择性的自适应数据处理器300,由此经由这些参数,确定平滑行为,例如,流失值的最大时间段或者最大平滑因子。
因此,该选择性的自适应数据处理器300或者一般地后处理单元18可以输出待识别的图案的位置和几何形状具有高精度的可信值。为此,后处理单元具有交接部(intersection)18a,经由交接部18a,可选地,还可以接收外部控制命令。如果要平滑更多的数据序列,则还可以想到,针对每个数据序列使用单独的选择性的自适应数据处理器,或者通过按每组数据值可以对不同数据序列进行处理的方式来调节选择性的自适应数据处理器。
以下,通过具体的实施例来总体地描述选择性的自适应数据处理器300的以上特征:
数据处理器300例如可以具有两个或更多个输入以及一个输出。对于待处理的数据序列,提供所述输入中(接收数据值)的一个输入。输出是基于所选择数据的平滑后的序列。对于所述选择,对另外的输入(接收用于对数据值进行更精确评估的附加值)进行协商和/或数据序列本身。在数据处理器300内进行处理期间,发生数据序列的改变,由此,对数据序列内异常值的处理和流失值的处理进行区分。
异常值:在选择期间,(在待处理的数据序列内)布置异常值,并用其他(内部确定的)值交换异常值。
流失值:针对待处理的数据序列的质量的评估,对一个或多个另外的输入信号(附加值)进行协商。通过利用一个或多个阈值而发生所述评估,由此,将数据分为“高”质量和“低”质量。将具有低质量的数据评估为流失值,并用其他(内部确定的)值交换该数据。
在接下来的步骤中,例如,发生数据序列的平滑(例如,时间序列的指数平滑)。针对平滑,对经过流失值和异常值调整的数据序列进行协商。平滑可以通过可变(自适应)系数而发生。针对待处理的数据的等级(level)的差,调整平滑系数。
根据另外的实施例,还可能的是,后处理单元18包括图像分析器,例如,3D图像分析器400。在3D图像分析器400的情况下,与后处理单元18一起,还可以提供包括图像处理器10b和相机14的进一步的图像收集单元。因此,两个相机14a和14b以及图像处理器10a和10b建立了立体相机布置,由此,优选地,图像处理器10b与图像处理器10a相同。
3D图像分析器400与基本实施例相对应,被配置为接收基于一个第一图像(参见相机14a)所确定的至少一组图像数据以及基于第二图像(参见相机14b)所确定的第二组图像数据,其中,第一图像和第二图像显示来自不同视角的图案,并且被配置为基于此计算视点或3D视线向量(3D gaze vector)。为此,3D图像分析器400包括位置计算器404和对准计算器408。位置计算器404被配置为基于第一组、第二组以及视角之间的或者第一相机14a与第二相机14b之间的几何关系,来计算三维空间内图案的位置。对准计算器408被配置为计算3D视线向量,例如视线方向,所识别的图案在三维空间内对准到所述视线方向,由此,该计算基于第一组、第二组以及计算出的位置(参见位置计算器404)。
另外的实施例还可以利用相机的图像数据和另一组信息(例如,脸部或眼睛中特征点的相对位置或绝对位置)进行操作,所述信息用于计算图案的位置(例如,瞳孔或虹膜中点)并用于选择实际视线方向向量。
为此,其可以例如被叫做所谓的3D相机系统模型,例如,该3D相机系统模型在配置文件中存储了所有模型参数,如位置参数、光学参数(参见相机14a和14b)。
以下,基于瞳孔识别的示例,现在描述3D图像分析器400的整体功能。在3D图像分析器400中存储或记载的模型包括关于相机单元即关于相机传感器的数据(例如,像素大小、传感器大小和分辨率)、关于所用物镜的数据(例如,焦距和物镜失真)、待识别的对象的数据或特征(例如,眼睛的特征)以及关于另外相关对象(例如,在使用系统1000的情况下作为输入设备的显示器)的数据。
3D位置计算器404通过三角测量法,基于两个或者甚至多个相机图像(参见14a和14b)计算眼睛位置或瞳孔中点。为此,经由图像处理器10a和10b、几何转换器202和选择性的自适应数据处理器300的处理链,在这两个相机图像(参见14a和14b)中设置有点的2D坐标。从所传送的2D坐标,针对两个相机14a和14b,通过利用3D相机模型,具体地,考虑光学参数,来计算将3D点在传感器上显示为2D点的光线。假设两条直线彼此距离最短的点(在理想情况下,直线的交点)是所搜索3D点的位置。该3D位置与结合模型参数描述所传送2D坐标的精度的误差测量一起经由交接部18a输出作为结果,或者发送到视线方向计算器408。
基于3D空间内的该位置,视线方向计算器408可以确定从瞳孔的两个椭圆形状的投影至相机传感器的视线方向,而无需进行校准并且无需知道眼睛和相机系统之间的距离。为此,除了图像传感器的3D位置参数之外,视线方向计算器408使用通过几何分析器202确定的椭圆参数以及通过位置计算器404确定的位置。从瞳孔中点的3D位置和图像传感器的位置,通过实际相机单元的旋转,计算虚拟相机单元,其中,虚拟相机单元的光轴穿过3D瞳孔中点。之后,分别从实际传感器上瞳孔的投影,计算虚拟传感器上瞳孔的投影,从而出现两个虚拟椭圆。从两个虚拟图像传感器上的虚拟椭圆的参数,可以计算在与相应虚拟传感器平面平行的任意平面上眼睛的两个视点。利用四个视点和3D瞳孔中点,可以计算四个视线方向向量,因此,每个相机分别有两个向量。从这四个可能的视线方向向量中,一个相机的正好一个向量与另一相机的一个向量总是几乎相同。两个相同的向量指示眼睛的所搜索视线方向,随后,由视线方向计算器404经由交接部18a输出所搜索视线方向。
该3D计算的具体优点是,瞳孔大小和3D视线方向的3D眼睛位置的非接触式且完全免校准的确定不依赖于关于眼睛朝相机的位置的知识。考虑3D空间模型对3D眼睛位置和3D视线方向的分析确定使相机的数目任意(大于1)以及3D空间中相机的位置任意。短的延迟时间以及同时具有高帧率实现了所描述系统1000的实时能力。此外,可选地但不是必要地,还可以固定所谓的时间制度(time regime),使得连续结果之间的时间差恒定。例如,优选地在安全关键应用中,关于其,结果必须在固定时间段内可用,并且这可以通过使用FPGA进行计算来实现。
根据替代变型,还可以仅利用一个相机执行视线方向确定。为此,一方面,必需基于相机的图像数据以及可能地基于一组附加信息来计算3D瞳孔中点,另一方面,从可以按每相机计算的两个可能视线方向向量中,必须选择实际视线方向向量,稍后参照图5b对其进行说明。
关于确定3D瞳孔中点,存在几种可能性。一种可能性是基于对第一相机图像中特征点之间的关系的评估。从而,基于第一相机图像中的瞳孔中点,考虑如上所述的相机的光学系统,计算穿过3D瞳孔中点的直线,然而,其中,尚未可知的是,在该直线上的何处找到所搜索瞳孔中点。为此,需要相机或相机的准确主点1(图8a中的H1 K1)之间的距离。如果确定了第一相机图像中的至少两个特性特征(例如,瞳孔中点)并且它们彼此间的距离是已知的,例如通过一大群人统计评估出的值,则可以估计该信息。然后,可以通过将特性特征之间所确定的距离(例如,以像素为单位)与被称为特性的统计值的距离(例如,以像素为单位)以及与到相机的已知距离相关,来估计相机和3D瞳孔中点之间的距离。
用于获得3D瞳孔中点的另外的变型是,在第二组信息内(例如,通过用于3D脸部检测的上游模块,根据3D脸部检测,在3D空间中确定脸部特征点或眼睛区域的位置),将其位置或其到相机的距离提供给3D图像分析器。
为了确定实际视线方向向量,在关于“3D图像分析器”的先前描述中,其包括用于免校准眼睛跟踪的方法,迄今需要来自不同视角的至少两个相机图像。关于视线方向的计算,存在一个位置,在该位置处,按每相机图像,正好确定两个可能的视线方向向量,由此,分别地,在虚拟相机传感器中心与3D瞳孔中点之间的交线处,第二向量对应于第一向量的反射(reflection)。在从其他相机图像产生的两个向量中,正好一个向量几乎对应于从第一相机图像计算的向量。这些相对应的向量指示待确定的视线方向。
为了能够也利用相机执行免校准眼睛跟踪,必须在从相机图像确定的两个可能的视线方向向量(以下“v1”和“v2”)中选择实际视线方向向量(以下“vb”)。
参考图5b对该处理进行示例性说明。图5b示出了包括瞳孔的眼球(绿框)的可见部分以及两个可能的视线方向v1和v2。
关于选择视线方向“vb”,存在可以分别使用或组合使用的多种可能性,以选择实际视线方向向量。通常,从两个可能的3D视线向量中选择正确的3D视线向量,其中,例如,根据实施例,仅使用一个单个相机图像(+附加信息)。以下说明这些可能性中的一些可能性(所列不是最终的),其中,假设已经在该选择的时间点确定了v1和v2(参见图5a):
根据第一种可能性,可以在相机图像中发生基于巩膜的评估(虹膜周围的白色皮肤)。定义了2个光束(开始于瞳孔中点并无限长),一个沿v1的方向,一个沿v2的方向。这两个光束分别被投射到眼睛的相机图像中,并从瞳孔中点传播到图像边缘。使属于较少巩膜的像素失真的光束属于实际视线方向向量vb。巩膜的像素在灰度值上与相邻虹膜的像素和眼睑的像素不同。如果属于所捕捉的眼睛的脸部从相机转移太远(由此,如果相机的光轴与垂直于脸部平面的直立向量之间的角度变得太大),则本方法达到其限制。
根据第二种可能性,可以在眼睛打开期间发生对瞳孔中点的位置的评估。在眼睛打开期间或在眼球的可见部分内瞳孔中点的位置可以用于选择实际视线方向向量。与之相关的一种可能性是定义两个光束(开始于瞳孔中点并无限长),一个沿v1的方向,一个沿v2的方向。这两个光束分别被投射到眼睛的相机图像中,并从瞳孔中点传播到图像边缘。在相机图像中沿两个光束,分别地,确定瞳孔中点与眼睛开口的边缘(在图5b中绿色标记的)之间的距离。出现较短距离的光束属于实际视线方向向量。如果属于所捕捉的眼睛的脸部从相机转移太远(由此,如果相机的光轴与垂直于脸部平面的直立向量之间的角度变得太大),则本方法达到其限制。
根据第三种可能性,可以朝向参考瞳孔中点发生对瞳孔中点的位置的评估。在眼睛打开期间或在眼球的可见部分内在相机图像中所确定的瞳孔中点的位置可以与参考瞳孔中点一起用于选择实际视线方向向量。对此的一种可能性是定义2个光束(开始于瞳孔中点并无限长),一个沿v1的方向,一个沿v2的方向。这两个光束分别被投射到眼睛的相机图像中,并从瞳孔中点传播到图像的边缘。在眼睛睁开期间的参考瞳孔中点对应于在眼睛看向用于图像记录的相机的方向时的瞳孔中点(更确切地讲,在相机的第一主点的方向上)。投射到相机图像中的在该图像中距参考瞳孔中点具有较大距离的光束属于实际视线方向向量。关于确定参考瞳孔中点,存在几种可能性,以下描述其中一些可能性:
可能性1(应用的特定情况):在眼睛直接看向相机传感器中心方向的情况下,参考瞳孔中点产生于所确定的瞳孔中点。如果虚拟传感器平面上的瞳孔轮廓(参见关于视线方向计算的描述)表征为圆,则进行这样的假定。
可能性2(应用的一般情况):随着对参考瞳孔中点的位置的粗略估计,可以使用眼睛开口表面的焦点(focus)。如果脸部所位于的平面不平行于相机的传感器平面,则该估计方法达到其限制。如果脸部平面朝相机传感器平面的倾斜是已知的(例如,通过之前执行的对头位置和对准的确定)并且这用于校正所估计的参考瞳孔中点的位置,则该限制可以得到补偿。此外,该方法要求3D瞳孔中点与虚拟传感器的光轴之间的距离远远小于3D瞳孔中点与相机之间的距离。
可能性3(应用的一般情况):如果眼睛中点的3D位置是可用的,则可以确定3D眼睛中点与虚拟传感器中点之间的直线以及该直线与眼球表面的交点。参考瞳孔中点产生于该交点转换到相机图像中的位置。
根据另外的实施例,并且关于霍夫处理器的使用,替代FPGA 10a和10b,可以使用ASIC(专用芯片),特别地其可以高数量地实现且具有非常低的单元成本。然而,综述,可以确定的是,独立于霍夫处理器10a和10b的实施,由于高效处理和相关的低内部时钟需求,可以实现低能耗。
不管这些特征,这里使用的霍夫处理器或在霍夫处理器上执行的方法非常稳健并且不容易失败。在这点上应当注意的是,如图2a所示的霍夫处理器100可以在与具体地关于图5所示的不同特征的各种组合中使用。
根据图2a的霍夫处理器的应用是:例如,用于短暂打盹的报警系统或疲劳检测器作为汽车行业中的驾驶辅助系统(或者一般地用于安全相关的人机接口)。由此,通过评估眼睛(例如,覆盖瞳孔作为对眨眼程度的测量)以及考虑视点和焦点,可以检测特定疲劳图案。
此外,关于用于技术设备的输入设备或输入接口,可以使用霍夫处理器;由此,之后,眼睛位置和视线方向用作输入参数。确切的应用将是:分析或支持用户例如通过突出显示特定聚焦区域的方式来观看屏幕内容。这样的应用是:辅助生活、计算机游戏领域,关于通过包括视线方向对3D可视化进行优化,关于市场和媒体开发,或者关于眼科诊断和特别感兴趣的疗法。
如上已经指出的,上述方法的实施不依赖于平台,从而上述方法也可以在例如PC的其他硬件平台上执行。因此,进一步的实施例涉及一种用于霍夫处理的方法,具有以下步骤:通过使用预处理器处理分别具有图像的大多数样本,其中,各样本的图像被旋转和/或反折,从而针对每个样本输出相应样本的图像的大多数版本;以及通过使用霍夫变换单元基于所述大多数版本收集大多数样本中的预定图案,其中,所述霍夫变换单元具有延迟滤波器,所述延迟滤波器具有依赖于所选预定图案组的滤波器特性。
即使在结合可调节特性的以上说明中,总是参考滤波器特性,在这点上应当注意的是,根据进一步的实施例,可调节特性还可以涉及关于快速2D相关的后处理特性(曲线或失真特性)。参考图4a至图4d对该实施方式进行说明。
图4a示出了快速2D相关的处理链1000。2D相关的处理链至少包括用于2D曲线的功能块1105以及用于融合(merging)的功能块1110。图4b中示出了关于2D曲线的过程。图4b以模板示出了示例性的汇编。通过图4c并结合图4d,变得显然的是,基于该处理链1000,可以如何提取霍夫特征。图4c示例性地示出了用于识别椭圆1115的具有n个模板的逐像素相关(在这种情况下,例如,针对具有不同增幅的直线),而图4d示出了逐像素相关的结果,由此通常经由n个结果图像仍然发生最大搜索。每个结果图像按每像素包含一个霍夫特征。以下,在整体背景下描述该霍夫处理。
与利用具有可调节特性的延迟滤波器的实现(针对并行FPGA结构所优化的实现)相反,关于这里概述的霍夫处理,其具体地针对基于PC的实现,该处理的一部分将通过另一方法交换。
到目前为止,事实是延迟滤波器的准每列表示所搜索结构(例如,具有不同增幅的直线段)。通过滤波器后,具有最高量值的列号是决定性的。由此,列号表示所搜索结构的特性,量值指示对与所搜索结构的一致性的测量。
关于基于PC的实现,用快速2D相关交换延迟滤波器。先前的延迟滤波器应根据特定图案的特性的位置n的大小而形成。将该n个特性在存储器中存储为模板。之后,将预处理后的图像(例如,二值边缘图像或梯度图像)逐像素地传递。在每个像素位置,具有下层图像内容(与后处理特性相对应)的所有存储的模板分别被同步(即,像素位置(模板的大小)的环境被评估)。该过程被称为数字图像处理中的相关。因此,对于每个模板,获得相关值,即,对与下层图像内容的一致性的测量。因此,后者对应的列量形成了先前的延迟滤波器。现在,(按每像素)对具有最高相关值的模板进行确定,并存储其模板号(模板号描述了所搜索结构的特性,例如,直线段的增幅)。
因此,按每像素,获得相关值和模板号。由此,可以完整地描述已经概述的霍夫特征。
还应当注意的是,可以在局部区域中以及在频率区域中执行各个模板与图像内容的相关。这意味着初始图像首先分别与所有n个模板进行相关。获得N个结果图像。如果这些结果图像叠加放置(如在立方体中),则将(通过所有平面)搜索按每像素的最高相关值。由此,各个平面随后表示立方体中的各个模板。结果,再次获得各个图像,随后,各个图像按每像素包含相关测量和模板号-由此按每像素一个霍夫特征。
即使始终结合“瞳孔识别”描述以上方面,以上概述的方面也可用于进一步的应用。这里,例如,将提及应用“用于短暂打盹的报警系统”,以下对其进行详细地说明。
用于短暂打盹的报警系统是至少包括图像收集单元、照明单元、处理单元以及声学和/或光学信令单元的系统。通过评估用户所记录的图像,设备能够识别用户开始短暂打盹或疲劳或偏转(deflection),并警告用户。
例如,可以通过以下形式开发该系统:使用CMOS图像传感器,并且在红外范围内对场景进行照明。这具有以下优点:设备独立于环境光而工作,并且特别地不会使用户失明。作为处理单元,使用嵌入式处理器系统,其执行下层操作系统上的软件代码。信令单元可以例如包括多频蜂鸣器和RGB-LED。
可以通过以下事实形式发生对记录图像的评估:在第一处理阶段,利用分类器执行脸部和眼睛检测以及眼睛分析。该处理阶段提供了用于对准脸部、眼睛位置和眨眼反射程度的第一指示。
基于此,在之后步骤中,可以执行基于模型的眼睛精确分析。由此使用的眼睛模型可以例如包括:瞳孔和/或虹膜位置、瞳孔和/或虹膜大小、对眼睑和眼睛边缘点的描述。由此,这是足够的,如果在每个时间点,这些要素中的一些要素被找到和评估。还可以经由若干图像跟踪各个要素,从而不用在每个图像中再次完全搜索各个要素。
可以使用霍夫特征,以执行脸部检测或眼睛检测或眼睛分析或眼睛精确分析。2D图像分析器可以用于脸部检测或眼睛检测或眼睛分析。对于在脸部检测或眼睛检测或眼睛分析期间对所确定的结果值或中间结果或值发展的平滑,可以使用所描述的自适应的选择性数据处理器。
对眨眼反射的程度和/或眼睛精确分析结果的按时间顺序的评估可以用于确定用户的短暂打盹或疲劳或偏转。附加地,还可以使用如结合3D图像分析器所描述的免校准视线方向确定,以获得用于确定用户的短暂打盹或疲劳或偏转的更好结果。此外,为了使这些结果稳定,可以使用选择性自适应数据处理器。
根据实施例,初始图像阶段中的霍夫处理器可以包括用于相机控制的单元。
根据实施例,基于特定视线方向,可以确定所谓的视点(视线与另一平面的交点),例如用于控制PC。
如上已经指出的,上述方法的实施独立于平台,从而上述方法也可以在例如PC的其他硬件平台上执行。
虽然已结合设备描述了一些方面,但是应当理解:这些方面还包括对相应方法的描述,使得设备的块或组件还应被理解为相应的方法步骤或方法步骤的特征。通过与之类比,结合方法步骤或作为方法步骤所描述的各方面也包括对相应设备的相应块或细节或特征的描述。一些或所有方法步骤可以由装置(通过使用硬件装置)来执行,例如,可编程计算机或电子开关(electronic switch)的微处理器。关于一些实施例,可以由这种装置来执行最重要方法步骤中的某一个或多个方法步骤。
根据具体实现要求,本发明的实施例可以实现为硬件或软件。可以通过使用其上存储有电可读控制信号的数字存储介质来实施实现方式,例如,软盘、DVD、蓝光盘、CD、ROM、PROM、EPROM、EEPROM或闪存、硬盘或任何其他磁或光存储器,其可以与可编程计算机系统协作或合作,使得执行相应方法。因此,数字存储介质可以是计算机可读的。
根据本发明的一些实施例因此包括具有电可读控制信号的数据载体,该电可读控制信号能够与可编程计算机系统协作从而执行本文所述的方法之一。
通常,本发明的实施例可以实现为具有程序代码的计算机程序产品,其中,在所述计算机程序产品在计算机上运行时,所述程序代码可有效执行所述方法之一。
程序代码可以例如存储在机器可读载体上。
另外的实施例包括用于执行本文所述的方法之一的计算机程序,其中,该计算机程序存储在机器可读载体上。
因此,换言之,根据本发明的方法的一个实施例是具有程序代码的计算机程序,该程序代码用于在计算机程序在计算机上运行时执行本文所限定的方法之一。
根据本发明的方法的另一实施例从而是数据载体(或数字存储介质或计算机可读介质),其上记录有用于执行本文限定的方法之一的计算机程序。
因此,根据本发明的方法的另一实施例是包括用于执行本文所限定的方法之一的计算机程序的数据流或信号序列。所述数据流或信号序列可以例如被配置为例如经由数据通信连接(例如,经由互联网)被传送。
另一实施例包括被配置或调整为执行本文所限定的方法之一的处理单元,例如计算机或可编程逻辑器件。
另一实施例包括其上安装有用于执行本文所限定的方法之一的计算机程序的计算机。
根据本发明的另一实施例包括被设计为向接收方发送用于执行本文所限定的至少一个方法的计算机程序的设备或系统。例如,可以通过电或光的方式发生所述发送。接收方可以是计算机、移动设备、存储器设备或类似设备。所述设备或系统可以例如包括用于向接收方发送计算机程序的文件服务器。
关于一些实施例,可编程逻辑器件(例如,现场可编程门阵列FPGA)可以用于执行本文所限定的方法的一些或全部功能。关于一些实施例,现场可编程门阵列可以与微处理器协作以执行本文所限定的方法之一。通常,关于一些实施例,所述方法由任意硬件设备来执行。这可以是通用硬件(如计算机处理器(CPU))或专用于所述方法的硬件(例如,ASIC)。
以下,换句话说,从另外两个角度来描述上述的本发明或本发明的多个方面:
集成眼睛跟踪器
集成眼睛跟踪器包括FPGA优化算法的编译,所述FPGA优化算法适合于通过利用从相机实时图像的并行霍夫变换来提取(椭圆)特征(霍夫特征)并且从所述特征计算视线方向。通过评估所提取的特征,可以确定瞳孔椭圆。当使用位置和对准彼此已知的几个相机时,可以确定瞳孔中点的3D位置以及3D视线方向和瞳孔直径。关于计算,对相机图像中椭圆的位置和形状进行协商。不需要针对各个用户的系统校准以及相机与所分析的眼睛之间的距离的知识。
具体地,所使用的图像处理算法的特征在于,针对FPGA(现场可编程门阵列)上的处理对算法进行优化。所述算法能够在FPGA上实现具有恒定刷新率、最小延迟时段和最小资源消耗的非常快速的图像处理。因此,这些模块针对需要小的构造体积的时间关键型、延迟关键型和安全关键型应用(例如,驾驶辅助系统)、医疗诊断系统(例如,perimeters)以及人机界面应用(例如,移动设备)。
问题
-在几个(实时)相机图像中对3D空间中3D眼睛位置和3D视线方向的稳健检测以及对瞳孔大小的检测
-非常短的反应时间(或处理时间)
-小的构造
-通过集成解决方案的自主功能(独立于PC)
技术发展水平
-眼睛跟踪器系统
οSteffen Markert:对人眼的视线方向的实时确定(毕业论文和专利DE 10 2004046 617 A1)
οAndrew T.Duchowski:眼睛跟踪方法:理论与实践
-并行霍夫变换
οJohannes Katzmann:椭圆霍夫变换的实时实现(毕业论文和专利DE 10 2005047 160 B4)
οChristian Holland-Nell:基于针对圆的霍夫变换的瞳孔检测算法的实现(毕业论文和专利DE 10 2005 047 160 B4)
当前技术发展水平的缺点
-眼睛跟踪器系统
ο缺点:
■眼睛跟踪系统通常在使用之前需要进行(复杂的)校准
■根据Markert(专利DE 10 2004 046 617 A1)的系统是免校准的,然而,其仅工作在以下特定条件下:
1.相机与瞳孔中点之间的距离必须已知且在文件上
2.该方法仅适用于3D瞳孔中点位于相机的光轴内的情况
■针对PC硬件对整个处理进行优化,因此,整个处理还经受其缺点(在处理期间没有固定的时间制度是可行的)
■需要有效系统,因为算法具有非常高的资源消耗
■长的处理时间段,并因此,长的延迟时间段,直到结果是可用的(部分地依赖于待评估的图像大小)
-并行霍夫变换
ο缺点:
■仅可以对二值边缘图像进行变换
■变换仅提供了与图像坐标(找到结构的位置,而不是:命中概率和进一步的结构特征)相关的二值结果
■在正在进行的操作期间不能灵活调整变换核,并因此对于动态图像内容(例如,小瞳孔和大瞳孔)的适用性是不足的。
■不能在操作期间将变换核重新配置成其他结构,并因此针对对象识别的适用性有限
实施方式
整个系统从其中显示出同一眼睛的两个或更多个相机图像分别确定多维霍夫特征的列表,并在此基础上分别计算瞳孔椭圆的位置和形状。从这两个椭圆的参数以及仅从相机彼此的位置和排列,可以完全免校准地确定瞳孔中点的3D位置以及3D视线方向和瞳孔直径。作为硬件平台,使用至少两个图像传感器、FPGA和/或下游微处理器系统的组合(而不强制需要PCI)。
“霍夫预处理”、“并行霍夫变换”、“霍夫特征提取器”、“至椭圆转换器的霍夫特征”、“核大小控制”、“时间智能平滑滤波器”、“3D相机系统模型”、“3D位置计算”和“3D视线方向计算”涉及集成眼睛跟踪器的各个功能模块。它们遵循如下集成眼睛跟踪器的图像处理链:
图6示出了集成眼睛跟踪器中的各个功能模块的框图。框图示出了集成眼睛跟踪器的各个处理阶段。以下,呈现出各模块的详细描述。
·“霍夫预处理”
ο功能
■具体地通过图像旋转对用于模块“并行霍夫变换”的视频流进行上采样,并且根据模块“并行霍夫变换”的并行化程度对要变换的图像进行上采样
ο输入
■二值边缘图像或梯度图像
ο输出
■根据后续模块的并行化程度,具有来自输入的上采样像素数据的一个或多个视频流
ο详细描述
■基于该原理,可以将并行霍夫变换从四个分别约为90°扭曲的主方向应用于图像内容
■为此,在预处理中,发生大约90°的图像旋转
■其余的两个方向被以下事实覆盖:旋转的图像和非旋转的图像分别被水平地反折(通过存储器中的图像矩阵字段的反向读出)
■根据模块的并行化程度,针对输出产生以下三个星座图(constellation):
·100%并行化:同时输出四个视频数据流:大约90°
旋转、非旋转以及分别被反折
·50%并行化:输出两个视频数据流:大约90°旋转和非旋转,依次发生分别反折的变化的输出
·25%并行化:输出一个视频数据流:大约90°旋转和非旋转,并分别地依次输出它们的反折的变化
·“并行霍夫变换”
ο功能
■简单图案(具有不同尺寸和增幅的直线以及具有不同半径和取向的曲线)及其在二值边缘或梯度图像中出现概率的并行识别
ο输入
■对于并行霍夫变换,上采样的边缘或梯度图像(“霍夫预处理”模块的输出)
ο输出
■包含所搜索结构的所有相关参数的多维霍夫空间
ο详细描述
■通过复杂的基于延迟的局部滤波器对输入进行处理,该局部滤波器具有用于像素数据的所定义的“通过方向”且通过以下特征来表征:
·包括延迟元件的具有可变大小的滤波器核
·对于滤波器针对所搜索图案的自适应调节,延迟元件可以在操作期间接通和断开
·滤波器的每列表示所搜索结构(曲线或直线增幅)的特定特性
·通过滤波器列的总和提供了由相应列表示的结构的特性的出现概率
·当通过滤波器时,总是输出具有所搜索图案的特性的最高出现概率的列
■对于每个图像像素,滤波器提供了霍夫空间中包含以下信息的一个点:
·图案的类别(例如,直线或半圆)
·图案的出现概率
·结构的特性(曲线的强度或者对于直线:增幅和长度)
·图像中结构的位置或取向
■作为变换结果,产生多维图像,以下称为霍夫空间。
·“霍夫特征提取器”
ο功能
■从包含用于模式识别的相关信息的霍夫空间提取特征
ο输入
■多维霍夫空间(“并行霍夫变换”模块的输出)
ο输出
■包含用于模式识别的相关信息的霍夫特征的列表
ο详细描述
■霍夫特征空间的平滑(通过局部滤波进行空间校正)
■通过修改的“非最大抑制”使霍夫空间“变薄”(抑制用于模式识别的非相关信息):
·通过考虑图案的类别和结构的特性使对于处理不相关的点淡出(霍夫概率空间中的“非极大值”)
·借助适当的阈值使霍夫空间的点进一步变薄:
ο通过霍夫概率空间中的阈值进行噪声抑制
ο指示对于结构的最小和最大可容许特性的区间(例如,关于弯曲结构的最小/最大曲线或者关于直线的最低/最高增幅)
■原始图像范围中的所有剩余点的参数的分析再变换导致以下霍夫特征:
·具有以下参数的弯曲结构:
ο位置(x-和y-图像坐标)
ο霍夫特征的出现概率
ο弧的半径
ο指示弧沿哪个方向开口的角度
·具有以下参数的直线:
ο位置(x-和y-图像坐标)
ο霍夫特征的出现概率
ο指示直线的增幅的角度
ο所表示的直线段的长度
·“霍夫特征至椭圆转换器”
ο功能
■选择3至4个霍夫特征(曲线),其具有最高概率地描述了图像中的瞳孔边缘(椭圆)并沉到椭圆
ο输入
■相机图像中所有检测到的霍夫特征(曲线)的列表
ο输出
■具有最高概率地表示瞳孔的椭圆的参数
ο详细描述
■从所有霍夫特征(曲线)的列表,形成3至4个霍夫特征的组合,由于其参数,该3至4个霍夫特征可以描述水平极值点和垂直极值点
■从而,以下标准影响霍夫特征的选择:
·霍夫特征的分数(概率)
·霍夫特征的曲线
·霍夫特征彼此的位置和取向
■如下布置所选择的霍夫特征组合:
·首先,根据所包含的霍夫特征的数目
·其次,根据所包含的霍夫特征的组合概率
■在布置之后,选择处于第一位的霍夫特征组合,并拟合相机图像中最有可能表示瞳孔的椭圆
·“核大小控制”
ο功能
■并行霍夫变换的滤波器核(霍夫核)到实际椭圆大小的动态调节
ο输入
■最后使用的霍夫核大小
■在相应相机图像中表示瞳孔的椭圆的参数
ο输出
■更新后的霍夫核大小
ο详细描述
■根据由“至椭圆转换器的霍夫特征”计算的椭圆的大小(半轴的长度),跟踪霍夫核大小,以在检测极值点期间提高霍夫变换结果的精度
·“时间智能平滑滤波器”
ο功能
■根据指数平滑的原理,对(例如,所确定的椭圆中点坐标的)数据序列同时进行自适应平滑,由此,待平滑的数据序列内的流失值或极端异常值不会导致平滑后数据的波动
ο输入
■在模块的每次激活时间,数据序列和相关联质量标准中的相应的一个值(例如,拟合椭圆的出现概率)
ο输出
■平滑后的数据值(例如,椭圆中点坐标)
o详细描述
■通过一组滤波器参数,在初始化滤波器时,可以确定其行为
■如果实际输入值没有落入以下类别之一内,则该实际输入值用于平滑:
·与相关联的出现概率相对应,是数据序列中的流失值
·与相关联的椭圆参数相对应,是异常值
ο如果实际椭圆的大小与先前椭圆的大小相异太多
ο实际位置朝椭圆的最后位置的差太大
■此外,如果这些标准之一被满足,则输出先前确定的值,否则,对用于平滑的当前值进行协商
■为了在平滑期间获得可能地小延迟,与过去值相比,对当前值定级更高:
·当前平滑的值=当前值×平滑系数+上次平滑的值×(1-平滑系数)
·针对待平滑的数据的趋势,在所定义的边界内动态调整平滑系数:
ο减少数据序列中相当恒定值的发展
ο增加数据序列中增大值或减小值的发展
■如果长期发生关于待平滑的椭圆参数的较大飞跃,则对滤波器以及由此也对平滑后值的发展进行调整
·“3D相机系统模型”
ο功能
■3D空间的建模,在所述3D空间中设置有若干相机、用户(或其眼睛)以及可能地屏幕
ο输入
■包含所有模型的模型参数(位置参数、光学参数、其他参数等)的配置文件
ο输出
■提供用于该模型内计算的统计框架和功能
ο详细描述
■对模型的所有元素的空间位置(位置和旋转角度)及其几何形状(例如,像素大小、传感器大小、分辨率)和光学(例如,焦距、物镜失真)特性进行建模
■在该时间点,模型包括以下元素:
·相机单元,包括:
ο相机传感器
ο物镜
·眼睛
·显示器
■除了模型的所有元素的特性以外,具体地,提供下面描述的功能“3D位置计算”(用于计算眼睛位置)和“3D视线方向计算”(用于计算视线方向)
■借助该模型,除其他事项外,可以计算3D视线(包括瞳孔中点和(与人眼的生物学和生理学相对应地校正的)视线方向向量)
■可选地,还可以计算观看者在3D模型的另一对象上(例如,在显示器上)的视点以及观看者的关注区域
·“3D位置计算”
ο功能
■通过三角测量法计算由两个或更多个相机捕获的点(例如,瞳孔中点)的空间位置(3D坐标)
ο输入
■两个相机图像中一个点的2D坐标
ο输出
■该点的3D坐标
■误差测量:描述与模型参数结合的所传送2D坐标的精度
ο详细描述
■从所传送的2D坐标,通过利用针对两个相机的“3D相机系统模型”(具体地,考虑光学参数),计算将3D点显示为传感器上的2D点的光束
■将这些光束描述为模型的3D空间中的直线
■假设两条直线具有最小距离的点(在理想情况下,直线的交点)是所搜索的3D点
·“3D视线方向计算”
ο功能
■从瞳孔到相机传感器的两个椭圆形状的投影确定视线方向,而无需校准且无需知晓眼睛和相机系统之间的距离
ο输入
■图像传感器的3D位置参数
■投影到两个图像传感器的瞳孔的椭圆参数
■两个图像传感器上椭圆中点的3D位置
■瞳孔中点的3D位置
ο输出
■用向量和角度表示的3D视线方向
ο详细描述
■从瞳孔中点的3D位置和图像传感器的位置,通过实际相机单元的旋转,计算虚拟相机单元,其中,虚拟相机单元的光轴穿过3D瞳孔中点。
■之后,从瞳孔到实际传感器的投影(瞳孔的投影),分别计算虚拟传感器,从而可以说出现两个虚拟椭圆
■从虚拟椭圆的参数,针对两个传感器,可以在与相应传感器平面任意平行的平行平面上分别计算眼睛的两个视点
■利用这四个视点和3D瞳孔中点,可以计算四个视线方向向量(分别来自每个相机结果的两个向量)
■从这四个视线方向向量中,总是有恰好一个向量与一个相机的向量或另一相机的向量(几乎)相同
■两个相同的向量指示眼睛的所搜索的视线方向,随后,该视线方向由模块“3D视线方向计算”作为结果进行提供。
4.a)优点
-独立于眼睛朝向相机的位置,非接触且完全免校准地确定3D眼睛位置、3D视线方向和瞳孔大小
-(通过包括3D空间模型)对3D眼睛位置和3D视线方向的分析确定使相机的数目任意(大于2)以及3D空间中相机的位置任意。
-测量投影到相机的瞳孔以及由此准确确定瞳孔大小
-由于完全并行处理而无需在处理链中递归而导致高帧率(例如,在一个XILINXSpartan 3A DSP@96MHz上是60FPS@640x480)以及短延迟时段
-使用针对并行FPGA结构已开发的FPGA硬件和算法
-使用霍夫变换(在所描述的用于FPGA硬件的调整形式中)以针对对象识别进行稳健特征提取(这里:瞳孔椭圆的特征)
-在FPGA中的并行处理上,对用于霍夫变换结果的后处理的算法进行优化
-固定的时间制度(连续结果之间的恒定时间差)
-如完全集成到芯片上的最小构造空间
-低能耗
-由于尺度效应(scaling effect)的利用,将处理直接移植到FPGA到ASIC的可能性→具有高质量的有成本效益的解决方案
应用
-在(实况)相机图像数据流中,检测3D眼睛位置和3D视线方向,其可以用于以下应用:
ο安全相关领域
■例如,作为汽车行业中的驾驶辅助系统的短暂打盹报警系统或疲劳检测器,评估眼睛(例如,瞳孔的覆盖度作为眨眼程度的测量)并考虑视点和焦点
ο人机界面
■作为技术设备的输入接口(眼睛位置和视线方向可以用作输入参数)
■支持用户观看屏幕内容(例如,突出显示所观看的区域)
■例如,
·在辅助生活领域中
·对于计算机游戏
·视线方向支持用于头戴式设备的输入
·通过包括视线方向优化3D可视化
ο市场和媒体开发
■例如,通过评估测试人的空间视线方向和视点,评价广告的吸引力
ο眼科诊断(例如,客观视野检查法)和疗法
FPGA-脸部跟踪器
本发明的一个方面涉及一种自主(独立于PC的)系统,具体地,该自主系统使用FPGA优化的算法并且适合于检测相机实时图像中的脸部及其(空间)位置。具体地,所用算法的特征在于,它们在FPGA(现场可编程门阵列)上针对处理被优化,并且与现有方法相比,进展好,而无需在处理中递归。所述算法允许在FPGA中实现具有恒定帧率、最小延迟时段和最小资源消耗的非常快速的图像处理。因而,这些模块针对需要小的构造体积的时间关键型/延迟关键型/安全关键型应用(例如,驾驶辅助系统)或者如人机界面的应用(例如,用于移动设备)。此外,通过使用第二相机,可以高度准确地、免校准地且非接触地确定用户针对图像中的特定点的空间位置。
问题
在(实时)相机图像中,稳健的基于硬件的脸部检测
-通过使用立体相机系统检测3D空间中的脸部和眼睛位置
-非常短的反应时间(或处理时间)
-小的构造
-通过集成解决方案的自主功能(独立于PC)
技术发展水平
-文献:
οChristian Küblbeck,Andreas Ernst:使用修改的统计变换在视频序列中进行脸部检测和跟踪(Face detection and tracking in video sequences using themodified census transformation)
οPaul Viola,Michael Jones:稳健的实时对象检测(Robust Real-time ObjectDetection)
当前脸部跟踪器系统的缺点
-针对PC系统(更一般地:通用处理器)优化整体处理,并且因此,整体处理也经受其缺点(例如,在处理期间固定的时间制度是不可行的(示例:依据图像内容,例如,背景,跟踪可能需要更长时间))
-顺序处理;初始图像被接连带入不同尺度阶段(直至达到最低尺度阶段)并且利用关于脸部的多级分类器被分别搜索
ο根据必须计算多少尺度阶段或者必须计算分类器的多少级,处理时间段发生变化,直至结果可用
-为了实现高帧率,因为已经到PC硬件优化的算法具有非常高的资源消耗(具体地,关于嵌入式处理器系统),所以需要有效系统
-基于检测到的脸部位置,分类器只提供不准确的眼睛位置(眼睛“位置”-具体地,瞳孔中点-不被分析性地确定(或测量)并且因此经受高的不准确度)
-所确定的脸部和眼睛位置仅在2D图像坐标中可用,在3D中不可用
实施方式
整体系统从相机图像(其中仅显示一个脸部)确定脸部位置,并且通过使用该位置确定左眼和右眼的瞳孔中点的位置。如果使用排列彼此已知的两个或更多个相机,则这两点可以被指示用于三维空间。可以在使用“集成眼睛跟踪器”的系统中进一步处理所确定的两个眼睛位置。
“并行图像缩放器”、“并行脸部取景器”、“并行眼睛分析器”、“并行瞳孔分析器”、“时间智能平滑滤波器”、“3D相机系统模型”和“3D位置计算”涉及整个系统(FPGA脸部跟踪器)的各个功能模块。它们遵循如下FPGA脸部跟踪器的图像处理链:
图7a示出了FPGA脸部跟踪器中的各个功能模块的框图。对于脸部跟踪,强制需要功能模块“3D相机系统模型”和“3D位置计算”,然而,当使用立体相机系统并计算用于确定空间位置(例如,用于在两个相机图像中计算2D脸部中点期间确定3D头位置)的两个相机上的适当点时使用所述功能模块。
FPGA脸部跟踪器的模块“特征提取(分类)”基于Fraunhofer IIS(德国,埃尔兰根)的Küblbeck/Ernst的特征提取和分类,并在统计特征(census feature)的基础上使用其分类的调整变型。
框图示出了FPGA脸部跟踪系统的各个处理阶段。以下,呈现出各模块的详细描述。
·“并行图像缩放器”
ο功能
■并行计算初始图像的缩放阶段,并在新的图像矩阵中布置计算的缩放阶段,以便允许后续图像处理模块同时分析所有缩放阶段
图7b示出了初始图像(原始图像)以及并行图像缩放器的结果(降尺度图像)。
ο输入
■原始分辨率的初始图像
ο输出
■以适于后续脸部跟踪模块的布置包含初始图像的多个缩放变型的新图像矩阵
ο详细描述
■通过并行计算初始图像的不同缩放阶段,建立图像金字塔
■为了保证在目标矩阵内先前计算的缩放阶段的限定布置,通过利用各种标准发生各个缩放阶段的图像坐标到目标矩阵的图像坐标系的变换:
·限定缩放阶段之间的最小距离,以抑制相邻阶段中分析结果的串扰
·限定到目标矩阵的边缘的距离,以保证从图像部分地投射的脸部的分析
·“并行脸部取景器”
ο功能
■从联合布置在矩阵中的若干缩放阶段的分类结果检测脸部
如图7c所示,分类的结果(在右侧)构成了并行脸部取景器的输入。
ο输入
■包含若干缩放阶段的分类的图像矩阵
ο输出
■脸部所位于的概率最高的位置(考虑若干标准)
ο详细描述
■噪声抑制以限制分类结果
■通过利用局部量滤波器(amount filter)和最大滤波器(maximum filter)的组合,对缩放尺度内的分类结果进行空间校正
■可选地以在所有缩放阶段上和不在所有缩放阶段的脸部尺寸,在最高出现概率上对脸部定位
■对在所选缩放阶段上和不在所选缩放阶段的结果位置进行空间平均
·考虑以下标准而发生对所述平均中所包括的缩放阶段的选择:
ο在所查看的缩放阶段中所选脸部的中点的差
ο动态确定的量滤波器的最高结果的偏差
ο缩放阶段的抑制而无需分类结果
■对“并行脸部取景器”的检测性能进行基于阈值的调整
·“并行眼睛分析器”
ο功能
■在脸部检测期间并行检测相应脸部中眼睛的位置(对于并非理想地在正面捕获的且扭曲的脸部,这是尤其重要的)
ο输入
■包含初始图像的若干缩放阶段的图像矩阵(来自“并行图像缩放器”模块)以及相应的当前位置(来自“并行脸部取景器”模块),其中,所搜索脸部位于该当前位置的概率最高
ο输出
■在由“并行脸部取景器”当前检测到的脸部中眼睛的位置和相关概率值
ο详细描述
■基于降尺度的初始图像,在其由“并行脸部取景器”提供的脸部区域内的限定范围(眼睛范围)中,如以下所述执行对于每个眼睛的眼睛搜索:
·从脸部区域内的凭经验确定的眼睛的一般位置限定眼睛范围。
·利用专门形成的基于相关性的局部滤波器,在眼睛范围内确定存在眼睛的概率(将该图像段中的眼睛简化描述为伴随光环境的一点暗面)
·准确的眼睛位置(含其概率)产生于先前计算的概率山(probabilitymountain)中的最小搜索
·“并行瞳孔分析器”
ο功能
■基于先前确定的眼睛位置,在所检测到的眼睛内检测瞳孔中点的位置(从而,眼睛位置的精度增加,这对于瞳孔的测量或后续评估是重要的)
ο输入
■原始分辨率的初始图像以及所确定的眼睛位置和脸部大小(来自“并行眼睛分析器”或“并行脸部取景器”)
ο输出
■瞳孔在所评估的图像内的位置以及指示是否已找到瞳孔的状态
ο详细描述
■基于所确定的眼睛位置和脸部大小,在眼睛周围识别待处理的图像部分
■除该图像矩阵之外,建立包含图像列的最小值的向量以及包含图像行的最小值的向量
■在这些向量内(从最小灰度值),如以下所述,在水平方向和垂直方向上分别检测瞳孔中点:
·检测各向量的最小值(作为瞳孔内的位置)
·基于该最小值,在向量内,沿正方向和负方向,确定以下位置,在该位置处,超过与所有向量元素的动态范围按比例相关的可调阈值
·这两个向量中这些范围的中点一起形成了瞳孔在所分析图像中的中点
·“时间智能平滑滤波器”
o功能
■对(例如,所确定的脸部坐标的)数据序列进行自适应时间平滑,由此,流失值、不合理值(absurd value)或极端异常值不会导致平滑后数据的波动
o输入
■在模块的每次激活时间,数据序列和相关联质量标准中的相应的一个值(关于脸部跟踪:脸部得分(face score)和找到脸部的降尺度阶段)
o输出
■平滑后的数据值(例如,脸部坐标)
o详细描述
■通过一组滤波器参数,在滤波器的初始化期间,可以确定其行为
■如果当前输入值没有落入以下类别之一内,则该当前输入值用于平滑:
·根据相关得分,是数据序列的流失值
·根据相关降尺度阶段,是不合理值(在过远的降尺度阶段中已经确定的值)
·根据朝向用于平滑的最后值的差太大,是异常值
■此外,如果这些标准之一被满足,则输出先前确定的平滑值,否则,对用于平滑的当前值进行协商
■为了在平滑期间获得可能地低延迟,与过去值相比,对当前值定级更高:
·当前平滑的值=当前值×平滑系数+上次平滑的值×(1-平滑系数)
·针对待平滑的数据的趋势,在所定义的边界内动态调整平滑系数:
o减少数据序列中相当恒定值的发展
o增加数据序列中增大值或减小值的发展
■如果长期发生关于待平滑的椭圆参数的较大飞跃,则对滤波器以及由此也对平滑后值的发展进行调整
·“3D相机系统模型”
o功能
■3D空间的建模,在所述3D空间中设置有若干相机、用户(或其眼睛)以及可能地屏幕
o输入
■包含模型的所有元素的模型参数(位置参数、光学参数等)的配置文件
o输出
■提供用于该模型内计算的统计框架和功能
o详细描述
■对模型的所有元素的空间位置(位置和旋转角度)及其几何形状(例如,像素大小、传感器大小、分辨率)和光学(例如,焦距、物镜失真)特性进行建模
■在该时间点,模型包括以下元素:
·相机单元,包括:
o相机传感器
o物镜
·眼睛
·显示器
■除了模型的所有元素的特性以外,具体地,提供下面描述的功能“3D位置计算”(用于计算眼睛位置)和“3D视线方向计算”(用于计算视线方向)
■在其他应用情况下,还提供以下功能:
·借助该模型,除其他事项外,可以计算3D视线(包括瞳孔中点和(与人眼的生物学和生理学相对应的)视线方向向量)
·可选地,还可以计算观看者在3D模型的另一对象上(例如,在显示器上)的视点以及观看者的关注区域
·“3D位置计算”
o功能
■计算由两个或更多个相机捕获的点(例如,瞳孔中点)的空间位置(3D坐标)
o输入
■点在两个相机图像中的2D坐标
o输出
■该点的3D坐标
■误差测量:描述与模型参数结合的所传送2D坐标的精度
o详细描述
■从所传送的2D坐标,通过利用针对两个相机的“3D相机系统模型”(具体地,考虑光学参数),计算将3D点显示为传感器上的2D点的光束
■将这些光束描述为模型的3D空间中的直线
■假设两条直线具有最小距离的点(在理想情况下,直线的交点)是所搜索的3D点。
优点
在(实时)相机图像中确定2D形式的脸部位置和眼睛位置,并且(通过包括3D空间模型)在3D空间中重新计算所述位置的3D形式
-对3D下呈现的算法进行优化以在FPGA中具有实时能力和并行处理
-由于完全并行处理而无需在处理链中递归而导致高帧率(在XILINX Spartan 3ADSP@48MHz上是60FPS@640x480)以及短延迟时段→非常快速的图像处理和具有最小延迟的结果的输出
-由于可以用一个组件(FPGA)实现全部功能而导致最小构造空间
-低能耗
-固定的时间制度(连续结果之间的恒定时间差),并因此,注定用于安全关键型应用
-由于尺度效应(scaling effect)的利用,将处理从FP6A直接移植到ASIC(专用集成电路)的可能性→具有高质量的非常有成本效益的解决方案
应用
-与软件解决方案相比,应用期间的优点
o自主功能(片上系统)
o易于转移到ASIC中的可能性
o集成到现有系统/开关中节省空间
-与软件解决方案相似的应用领域(在(实时)相机图像数据流中,检测脸部位置和相应眼睛位置,用于以下列出的应用)
o安全应用
■例如,汽车领域中的短暂打盹报警系统,评估眼睛(眨眼程度)以及眼睛和头的移动
o人机通信
■例如,用于技术设备的输入接口(头或眼睛位置作为输入参数)
o视线跟踪
■例如,脸部和眼睛位置,作为用于视线方向确定的初步阶段(结合“集成眼睛跟踪器”)
o市场
■例如,通过确定头和眼睛的参数(特别是位置)评估广告的吸引力
以下,公开关于上述各方面的进一步背景知识。
霍夫特征提取
随后的本实施例的目的是,在并行霍夫变换的基础上,开发一种用于特征提取的稳健方法。为此,修改霍夫核,并且提出一种用于特征提取的方法,该方法减少变换的结果并将它们划分成每个图像对应几个“特征向量”。之后,用MATLAB工具箱实施新开发的方法并对其进行测试。最后,呈现该新方法的FPGA实现。
用于直线和圆的并行霍夫变换
并行霍夫变换使用不同大小的霍夫核,所述霍夫核必须通过用于相应应用的配置矩阵来配置。以下呈现用于建立这种配置矩阵的数学上下文和方法。MATLAB alc_config_1ines_curvatures.m表示这些方法,并建立针对不同大小的半圆和直线的配置矩阵。
为了建立配置矩阵,最初需要计算用于不同霍夫核的离散表现的曲线的阵列。已经证明了对于曲线阵列的要求(建立规定)。考虑这些建立规定,特别地,直线和半圆适合于霍夫核的配置。对于视线方向确定,使用具有用于半圆(或曲线)的配置的霍夫核。出于完整性的原因,这里还导出用于直线(或直线段)的配置。证明了确定用于直线的曲线阵列的数学上下文。
计算用于直线的曲线阵列的起始点是(B1)中的线性直线方程。
y=m·x+n (B1)
可以通过增幅m的变化产生曲线阵列。为此,将0°至45°的直线增幅划分成相同大小的区间。区间的数目取决于霍夫核大小,并对应于霍夫核线(Hough core line)的数目。可以通过0至coreheigt的控制变量Ycore来调节增幅。
Figure GDA0002534824280000571
通过值为0至核宽的控制变量(在(B3)中用Xcore替换)的变化来计算曲线阵列的函数值。
Figure GDA0002534824280000581
对于2D图中的离散表示,必须对函数值四舍五入。在(Katzmann 2005,p.37-38)上说明了用于半圆的曲线阵列的计算,并且示出在图9b中。
用于计算曲线阵列的起始点是坐标格式的圆方程。
r2=(x-xM)2+(y-yM)2 (B4)
在XM=0(圆心在y轴上的位置)、X=Xcore的情况下,针对曲线阵列的函数值变换到y遵循(B5)。
Figure GDA0002534824280000582
由于yM和r不是已知的,必须替换掉它们。为此,可以从图9b导出(B6)和(B7)的数学上下文。
yM=h-r (B6)
Figure GDA0002534824280000583
通过将(B7)转换到yM以及yM必须总为负(参见图9b)的条件,获得(B8)。
Figure GDA0002534824280000584
将(B8)用在(B5)中导致(B9)。
Figure GDA0002534824280000585
从图9b,变得更清楚的是,霍夫核是枢纽中心的,并位于圆坐标系的y轴上。变量xcore通常是从0到corewidth-1,因此,必须通过-
Figure GDA0002534824280000591
对其进行校正。
Figure GDA0002534824280000592
但是,半径缺失,其通过将(B6)用在(B7)中并通过进一步转换而被获得。
Figure GDA0002534824280000593
Figure GDA0002534824280000594
Figure GDA0002534824280000595
为了产生曲线阵列,最后,变量h必须从0到
Figure GDA0002534824280000596
变化。这通过从0到coreheight的控制变量ycore而发生。
Figure GDA0002534824280000597
如关于直线,必须在2D图中对离散表现的y值四舍五入。可以通过方程(B15)容易地确定用于类型2的霍夫核的曲线阵列。
yTyp_2=coreheigt-yTyp_1 (B15)
基于曲线阵列,对于所有霍夫尺寸,可以分别确定用于直线和圆的两种配置(类型1和类型2)。因此,直接从曲线阵列确定配置(参见Katzmann 2005,p.35-36)。配置矩阵可以被“零”或“一”占据。从而,“一”表示霍夫核中所用延迟元件。最初,用零值在霍夫核尺寸上将配置矩阵初始化。之后,进行以下步骤:
1.以曲线阵列的第一曲线开始,并测试第一x索引数的y值。如果y值大于零,则在完全相同的位置(相同的x索引)在相同行(相同的y索引)中用其占据配置矩阵的元素。
2.通过曲线阵列的所有曲线,修改具有相同x索引的y值。如果在第一步骤中元素被其占据,则减去所有y值中的一个。如果在第一步骤中元素未被占据,则什么也不做。
3.通过步骤1和步骤2,只要配置矩阵的所有元素趋近。
在图9c中,逐步展现了配置过程。
最后,回应霍夫核配置的一些特殊性。针对直线的配置总是根据霍夫核的宽度只表示直线段。二值边缘图像中的较长的直线段可选地从检测到的一些直线段组合而成。直线段的角度(或增幅)的分辨率取决于霍夫核的高度。
针对圆的配置总是表示半圆顶点附近的圆弧。仅曲线阵列的最高y索引数(最小半径)表示完整的半圆。所开发的配置可以用于新霍夫核。
霍夫核的修改
Holland-Nell的FPGA实现的决定性的缺点是霍夫核的刚性配置。延迟线在合成之前必须被参数化并且之后被牢固地沉积在硬件结构中(Holland-Nell,p.48-49)。在运行期间改变(例如,霍夫核尺寸)是不可能的。在这点上,新方法变得更加灵活。新霍夫核还将在运行期间,在FPGA中被完全重新配置。这具有若干优点。一方面,不必并行提出两个霍夫核(类型1和类型2),另一方面,还可以使用用于直线和半圆的不同配置。此外,霍夫核大小可以在运行期间灵活地改变。
先前霍夫核结构包括延迟和旁路,并且在FPGA合成之前,确定要使用哪个路径。以下,该结构通过复用器、用于配置延迟元件(切换复用器)的另外的寄存器并通过流水线延迟而扩展。可以在运行期间修改配置寄存器。通过这种方式,可以将不同配置矩阵带入霍夫核中。通过设置流水线延迟,FPGA中的合成工具在霍夫核设计的实施期间具有更多自由,并且可以实现更高的时钟率。流水线延迟突破了FPGA结构内的时间关键路径。在图9d中,展现了延迟元件的新设计。
与根据Katzmann和Holland-Nell的先前实现相比,新霍夫核的延迟元件建立得有点更复杂。关于延迟元件的灵活配置,需要附加寄存器,并且复用器占用进一步的逻辑资源(必须以LUT形式实施在FPGA中)。流水线延迟是可选的。除延迟元件的修改外,还实施对霍夫核的设计的修改。在图9e中展现了新霍夫核。
与先前霍夫核相比,首先,将实施新的表示法。由于图9e中旋转大约90°的设计,原先称为初始直方图的信号的“行量”现在被称为“列量”。因此,霍夫核的每一列表示曲线阵列的曲线。此外,新霍夫核可以在运行期间被新配置矩阵冲击。配置矩阵归档在FPGA内部BRAM中,并由配置逻辑加载。这按逐列的位串将配置加载到链式配置寄存器中(参见图9d)。霍夫核的重新配置需要特定时间段,并取决于列的长度(或延迟线的量)。因此,每个列元素需要时钟周期以及通过BRAM的一些航向周期(tack cycle)的延迟,并且添加配置逻辑。虽然关于重新配置的整体延迟是不利的,但是对于基于视频的图像处理,其是可以接受的。通常,利用CMOS传感器记录的视频数据流具有水平消隐和垂直消隐。因此,重新配置可以在水平消隐时间中没有问题地发生。在FPGA中实现的霍夫核结构的尺寸还预先确定霍夫核配置的最大可能尺寸。如果使用较小的配置,则这些配置在霍夫核结构的列1,在水平方向上垂直居中对准(参见图9f)。霍夫核结构的未使用元件全部被延迟占用。对于x坐标的校正,较小配置的正确对准很重要(参见公式(B17)至(B19))。
如之前,向霍夫核馈送通过所配置的延迟线的二值边缘图像。利用每个处理步骤,经由整个霍夫核计算列量,并且分别将列量与先前列的量信号进行比较。如果列提供了较高的总值,则原始列的总值被重写。作为初始信号,新霍夫核提供列总值以及相关联的列号。稍后,基于这些值,可以进行以下声明:找到结构(由列号表示)并检测到出现概率(由总值表示)。霍夫核的初始信号还可以被称为霍夫空间或累加器空间。与通常的霍夫变换相比,霍夫空间可用于图像坐标系中的并行霍夫变换。这意味着,对于每个图像坐标,输出与列号相关联的总值。对于眼睛图像的完整变换,必须分别通过非旋转图像和旋转图像的类型1和类型2的一个霍夫核。因此,在变换后,不仅与列号相关联的列量而且霍夫核类型和初始图像(非旋转或旋转)的对准都是可用的。此外,对于直线和半圆,可以分别使用不同的霍夫核大小和配置。因而,除提到的结果外,还可以指示曲线类型和霍夫核大小。总的来说,下表中示出了新霍夫核大小的结果数据集。关于并行霍夫变换,对于每个图像点,产生这样的数据集。
Figure GDA0002534824280000621
利用修改的霍夫核结构进行并行霍夫变换,对于初始图像的每个视点,产生对结果数据集的概述。
与Katzmann和Holland-Nell的霍夫核的二值的且基于阈值的输出相比,该新霍夫核结构产生了显著更多的初始数据。由于这种数据量难以处理,呈现一种用于特征提取的方法,其显著减少了结果数据量。
类型2霍夫核以及图像旋转
对于关于并行霍夫变换的实施例,已经介绍了图像旋转的必要性和类型2霍夫核的特殊性。关于并行霍夫变换,初始图像必须通过霍夫核四次。这是必要的,从而能够在不同角度位置检测直线和半圆。如果仅使用类型1霍夫核,则将必须在初始位置处理图像,并将图像旋转大约90°、180°和270°。通过包括类型2霍夫核,省略大约180°和270°的旋转。如果利用类型2霍夫核处理非旋转初始图像,则这对应于利用类型1霍夫核处理大约180°旋转的初始图像。与旋转大约270°类似。这可以被以下处理替换:利用类型2霍夫核处理大约90°旋转的图像。对于FPGA实现,附加旋转的省略具有积极效果,因为图像旋转通常仅借助外部存储器来解决。根据所应用的硬件,只有特定带宽(最大可能数据率)在FPGA和存储组件之间是可用的。关于类型2霍夫核的使用,外部存储组件的带宽仅被大约90°的旋转占用。关于Holland-Nell的先前实现,需要在FPGA中实施类型1的霍夫核和类型2的霍夫核。利用修改的霍夫核设计,现在还可以将霍夫核结构在FPGA中实施一次,并且上传类型1或类型2的配置。由于这种新功能,仅利用一个霍夫核并且仅利用一次图像旋转,可以将初始图像进行完全变换。
仍然要考虑的是,在仅利用一个霍夫核的处理期间,在霍夫核中还发生四倍的数据率。关于具有60fps和VGA分辨率的视频数据流,像素数据率共达24MHz。在这种情况下,霍夫核将必须以96MHz进行操作,这对于Spartan三代的FPGA已经构成了高时钟率。为了优化设计,应当在霍夫核结构内利用流水线延迟增强操作。
特征提取
特征提取代表先前表格中的数据集进行工作。这些数据集可以概括在特征向量中(B16)。以下,可以将特征向量称为霍夫特征。
MV=[MVX,MVY,MVO,MVKS,MVH,MVG-1,MVA] (B16)
特征向量分别包括检测到的特征的各自x坐标和y坐标(MVx和MVy)、方位MV0、曲线强度MVKS、频率MVH、霍夫核尺寸MVG-1和检测到的结构的类别MVA。可以从以下表格获得特征向量的各元素的详细含义和值范围。
Figure GDA0002534824280000641
霍夫特征向量的元素及其含义和值范围。
Figure GDA0002534824280000642
Figure GDA0002534824280000651
方位的计算取决于图像旋转和变换所用的霍夫核类型。
从上述表,变得显然的是,关于直线和半圆的两个元素MV0和MVKS具有不同含义。关于直线,方位和曲线强度的组合形成了所检测到的直线段在0°到180°的角度中的位置角度。从而,方位表明角度区域,曲线强度表示该范围内的具体角度。霍夫核越大(更确切地,霍夫核列可用的越多),角度分辨率越精细。关于半圆,方位表示半圆的位置角度或对准。原则上,可以仅在四个排列中检测半圆。关于半圆配置,曲线强度表示半径。
除方位MV0和曲线强度MVKS外,关于坐标(MVx和MVy)应考虑进一步的特殊特征(参见图9g)。关于直线,该坐标总是表示中点,关于半圆或曲线,该坐标总是表示顶点。利用该假定,y坐标可以与所实现的霍夫核结构相对应地校正,并且不依赖于变换所用的配置的大小(参见图9f)。与局部滤波器类似,y坐标被垂直居中地表示。对于x坐标,建立通过霍夫核列的上下文,已提供了命中(在特征向量中,用标号MVKS存储霍夫核列)。根据霍夫核类型和图像旋转,还可以指示用于三种不同情况的计算规定。对于类型1的霍夫核,分别参考用于非旋转初始图像和旋转初始图像的公式(B17)。如果类型2的霍夫核可用,则必须根据图像旋转来参考公式(B18)或公式(B19)。
Figure GDA0002534824280000652
Figure GDA0002534824280000653
Figure GDA0002534824280000654
利用指令“取整(floor)”,对分数有理数进行向下四舍五入。在FPGA中,这对应于二进制小数的简单切割。在已经确定方位并且已经校正霍夫特征的坐标之后,可以进行实际特征提取。
对于特征提取,使用三个阈值并结合非最大值抑制运算符。非最大值抑制运算符对于直线和半圆是不同的。通过阈值,给定最小曲线强度
Figure GDA0002534824280000661
和最大曲线强度
Figure GDA0002534824280000662
并且确定最小频率
Figure GDA0002534824280000663
非最大值抑制运算符可以看做大小为3×3的局部运算符(参见图9h)。如果恰好满足(B23)中的非最大值抑制运算符(nms-运算符)的条件并且超过根据公式(B20)至(B22)的阈值,则总是产生针对半圆(或曲线)的有效特征。
Figure GDA0002534824280000664
Figure GDA0002534824280000665
Figure GDA0002534824280000666
Figure GDA0002534824280000667
由于非最大值抑制,抑制了在特征向量的频率空间中不构成局部极大值的霍夫特征。以这种方式,抑制了对所搜索结构没有贡献且与后处理无关的霍夫特征。仅通过可以预先有效调节的三个阈值,将特征提取参数化。可以从下表得出对阈值的详细说明。
Figure GDA0002534824280000668
详细描述用于从霍夫空间提取霍夫特征的三个阈值。与根据Katzmann的方法相比,参数指示有相似功能。
关于直线,可以同样地推导出大小为3×3(参见图9h)的非最大值抑制运算符。从而,应当考虑一些特殊性。与曲线不同,不根据沿二值边缘发展的数个最大值的连续发生而检测关于直线段的所搜索结构。因此,非最大值抑制可以基于Canny边缘检测算法中的方法。根据霍夫核类型以及检测到的角度区域,可以区分三种情况(参见图9i并结合上表)。由于对旋转坐标的再变换仅发生在非最大值抑制之后,对于旋转的以及非旋转的初始图像,所述情况区分都是有效的。应当使用哪种nms-运算符分别取决于霍夫核类型以及角度区域。由具有直线配置的霍夫核提供的角度区域通过角度区域平分来划分。可以将角度区域平分指示为霍夫核列(小数点折射)
Figure GDA0002534824280000671
通过公式(B24)描述依据霍夫核大小的数学上下文。在霍夫特征所位于的角度区域中,参考具有所传送的命中(MVKS)的霍夫核列,其可以直接与角度区域平分的霍夫核列进行比较。
Figure GDA0002534824280000672
如果已选择了运算符,则与用于曲线的非最大值抑制相似,可以请求关于相应nms-运算符的条件(公式(B25)至(B27))。如果满足所有条件并且如果附加地超过根据公式(B20)至(B22)的阈值,则可以假定在位置nms2,2处的霍夫特征。
Figure GDA0002534824280000673
对一个nms-运算符的确定取决于发生命中的角度区域和霍夫核类型。
Figure GDA0002534824280000681
Figure GDA0002534824280000682
Figure GDA0002534824280000683
特征提取的完成形成所旋转霍夫特征的再旋转以及x和y坐标。对于后处理,应当再次将这些用于图像坐标系。如果处理了旋转的初始图像,则不管曲线类型如何(不管是直线还是曲线),总是执行再变换。在公式(B28)和(B29)中,描述数学上下文。非旋转初始图像的宽度是指图像宽度。
Figure GDA0002534824280000684
Figure GDA0002534824280000685
通过利用特征提取,可以将并行霍夫变换的结果数据减少到几个点。然后,这些可以作为特征向量传送到后处理。
上述实施例仅构成对本发明的原理的说明。应当理解的是:本文所述的布置和细节的修改和变形对于本领域其他技术人员将是显而易见的。因此,旨在仅由所附专利权利要求的保护范围而不由本文中通过描述和解释实施例的方式所给出的具体细节来限制本发明。

Claims (26)

1. 一种用于确定视线方向的3D图像分析器(400),其中,所述3D图像分析器(400)被配置为接收基于第一图像(804a)确定的至少一个第一组图像数据以及基于第一图像(804a)或另外图像(804b)确定的另一组图像信息,其中,第一图像(804a)包含将三维对象从第一视角显示到第一图像平面中所产生的图案,并且所述另一组包含具有将同一三维对象从另一视角显示到另一图像平面中所产生的图案的图像,或者所述另一组包含描述三维对象的至少一个点与第一图像平面之间的关系的信息,其中,所述3D图像分析器(400)包括以下特征:
位置计算器(404),被配置为基于所述第一组、根据所述另外图像(804b)确定的另一组以及第一图像(804a)和所述另外图像(804b)的视角之间的几何关系来计算所述图案在三维空间内的位置,或者基于所述第一组以及第一图像中至少两个特性特征彼此之间在统计上确定的关系来计算图案(806a)在三维空间内的位置,或者基于第一组以及三维对象的至少一个点与第一图像平面之间的位置关系来计算图案(806a)在三维空间内的位置;以及
对准计算器(408),被配置为按每图像计算两个可能的3D视线向量,并从所述两个可能的3D视线向量确定在三维空间中对准图案(806a)所根据的3D视线向量,其中,所述计算和所述确定基于第一组、所述另一组以及所计算的图案(806a)的位置;以及
其中,所述另一组包括另外图像(804b),并且对准计算器(408)被配置为计算两个另外的可能的3D视线向量,以及将这两个另外的可能的3D视线向量进行比较,并基于所述比较来确定在三维空间中对准图案(806a)所根据的3D视线向量;
其中对准计算器(408)被配置为从所述两个可能的3D视线向量中选择在三维空间中对准图案(806a)所根据的3D视线向量,其中,该3D视线向量的特征在于,与其他3D视线向量的背投影相比,该3D视线向量基于瞳孔中点到图像中的背投影扫描较少的像素;或者
其中对准计算器(408)被配置为沿投影到图像中的两个3D视线向量确定所识别的瞳孔中点与所识别的眼睛边缘之间的相应距离,并从两个可能的3D视线向量中选择在三维空间中对准图案所根据的3D视线向量,其中,3D视线向量被如下选择:其向图像中的投影扫描瞳孔中点与眼睛睁开的边缘之间的较小距离。
2.根据权利要求1所述的3D图像分析器(400),其中,所述另一组图像信息包含关于通过投影从第一图像(804a)和/或所述另外图像(804b)中显示的巩膜扫描多少像素的信息,所述投影由第一图像和/或所述另外图像中的瞳孔中点和所述两个可能的3D视线向量显示到图像中而引起。
3.根据权利要求1所述的3D图像分析器(400),其中,所述另一组图像信息包括关于在第一图像(804)中识别的眼睛内的瞳孔位置与参考瞳孔位置之间的关系以及所述两个可能的3D视线向量的信息。
4.根据权利要求3所述的3D图像分析器,其中,对准计算器(408)被配置为确定眼睛的参考位置,所述参考位置对应于所显示的眼睛睁开的表面与朝向相机传感器平面的脸部平面的平行位置的焦点或者所计算的直视相机传感器中心的瞳孔中点,并且对准计算器(408)被配置为从所述两个可能的3D视线向量中选择在三维空间中对准图案(806a)所根据的3D视线向量,其中,如下3D视线向量被选择:其在图像中基于瞳孔中点的显示具有到所述参考位置的较大距离。
5.根据权利要求1所述的3D图像分析器(400),其中,在统计上评估的关系包括:两个特性脸部特征之间的距离、两个特性脸部特征之间的比例或一个特性脸部特征与一个图像边缘之间的比例。
6.根据权利要求1所述的3D图像分析器(400),其中,位置计算器(404)被配置为检测两个或更多个特性特征,将它们的位置关系与先前在统计上确定的且存储的数据进行比较,并从中确定图案朝相机的距离和/或对准。
7.根据权利要求1所述的3D图像分析器(400),被配置为接收多个第一组和其他组的多个样本。
8.根据权利要求7所述的3D图像分析器(400),其位置计算器(404)被配置为针对多个样本计算图案(806a)的位置,
其中,对准计算器(408)被配置为针对所述多个样本确定图案(806a)的3D视线向量,从而跟踪3D视线向量。
9.根据权利要求1所述的3D图像分析器(400),其中,图案(806a)是瞳孔、虹膜或椭圆。
10.根据权利要求1所述的3D图像分析器(400),其中,所述第一组和另一组源自包括以下项的组:图案(806a)的坐标、图案(806a)的中点的坐标、图案(806a)的几何参数、椭圆的中点的坐标、椭圆的第一直径-长轴、椭圆的第二直径-短轴、以及椭圆的轴的倾斜角度。
11.根据权利要求1所述的3D图像分析器(400),其中,将3D视线向量定义为沿着基于属于图案(806a)的对象的表面的法向方向延伸通过图案(806a)的中点的向量。
12.根据权利要求1所述的3D图像分析器(400),其中,位置和3D向量的计算基于源自包括以下信息的组的另外信息:关于相机镜头的光学参数、相机镜头的位置和对准、传感器像素大小的信息以及关于若干传感器像素的省略或集中的信息。
13.根据权利要求12所述的3D图像分析器(400),其中,对准计算器(408)被配置为计算第一图像(804a)的第一虚拟投影平面,使得被定义为与第一虚拟投影平面垂直的第一虚拟光轴延伸通过图案(806a)的中点,以及
基于第一组图像信息对准第一虚拟投影平面。
14.根据权利要求12所述的3D图像分析器(400),其中,对准计算器(408)被配置为计算第一图像(804a)的第一虚拟投影平面,使得被定义为与第一虚拟投影平面垂直的第一虚拟光轴延伸通过图案(806a)的中点,并计算所述另外图像(804b)的第二虚拟投影平面,使得被定义为与第二虚拟投影平面垂直的第二虚拟光轴延伸通过图案的中点,
其中,第一虚拟光轴延伸通过在第一虚拟投影平面中接收的图案(806a)的中点,第二虚拟光轴延伸通过在第二虚拟投影平面中接收的图案(806a)的中点。
15.根据权利要求14所述的3D图像分析器(400),其中,第一虚拟投影平面和/或第二虚拟投影平面中第一图像(804a)和/或另外图像(804b)的变换基于图案(806a)的特定位置和/或基于源自包括以下信息的组的另外信息而进行:关于相机镜头的光学参数、镜头位置、传感器像素大小的信息以及关于若干传感器像素的省略或集中的信息。
16.根据权利要求14所述的3D图像分析器(400),其中,对准计算器(408)被配置为在第一虚拟投影平面中通过多个虚拟相交光束以及在第二虚拟投影平面中通过多个第二相交光束来显示图案(806a),其中,图案(806a)在第一视角由多个第一相交光束通过光学装置显示到第一投影平面上并在第二视角由多个第二相交光束通过光学装置显示到第二投影平面上。
17.根据权利要求16所述的3D图像分析器(400),其中,所述图案是失真的瞳孔或虹膜或椭圆,其通过至少包括第一轴和第二轴以及失真的瞳孔或虹膜或椭圆的轴之一的倾斜角度的第一组图像数据和第二组图像数据来描述。
18.根据权利要求17所述的3D图像分析器(400),其中,3D视线向量通过一组方程来描述,其中,每个方程描述相应的第一虚拟投影平面或相应的另外虚拟投影平面相对于3D视线向量的几何关系。
19.根据权利要求18所述的3D图像分析器(400),其中,针对相对于第一虚拟投影平面的3D向量,通过第一方程,基于第一组图像数据,计算两个可行解,并且其中,针对相对于另外虚拟投影平面的3D视线向量,通过另外方程,基于所述另一组图像信息的图像数据,计算两个可行解。
20.根据权利要求19所述的3D图像分析器(400),其中,第一方程的一个解向量与第二方程的一个解向量之间的差小于这两个方程的解向量的其他组合之间的差,并且选择所描述的向量,其中,所述3D图像分析器通过所选的两个向量的额定平均来进行计算。
21.根据权利要求20所述的3D图像分析器(400),其中,对准计算器(408)被配置为通过利用包括第一方程和第二方程的方程组来计算3D视线向量的明确结果。
22.根据权利要求1所述的3D图像分析器(400),其中,所述3D图像分析器(400)被实现在处理单元中。
23.根据权利要求22所述的3D图像分析器(400),其中,所述处理单元具有被配置为接收若干组值的选择性自适应数据处理器,其中,每一组被分配到相应样本,具有以下特征:
处理器,被配置为基于接收的组输出可信组,其中,用可信组替换不可信组,并且用内部确定的值替换不可信组的值。
24.一种用于基于先前检测的或跟踪的瞳孔或虹膜来确定视线方向的图像分析系统,包括以下特征:
用于单视场相机组件中的至少一个相机的至少一个霍夫路径,或者用于立体或多视场相机组件中的至少两个相机的至少两个霍夫路径,其中,每个霍夫路径包括具有以下特征的霍夫处理器:
预处理器(102),被配置为接收分别包括图像的多个样本(112a、112b、112c),旋转和/或反折相应样本(112a、112b、112c)的图像,并针对每个样本(112a、112b、112c)输出相应样本(112a、112b、112c)的图像的多个版本(112a’、112a’’、112a’’’、112a’’’’);以及
霍夫变换单元(104),被配置为基于所述多个版本(112a’、112a’’、112a’’’、112a’’’’)收集所述多个样本(112a、112b、112c)内的预定搜索图案(806a),其中,依赖于搜索图案(806a)的霍夫变换单元(104)的特性是可调节的;
用于分析收集的图案(806a)并用于输出一组图像数据的单元,其中,该组图像数据描述了图案(806a)的位置和/或几何形状;以及
根据权利要求1至23中的一个权利要求所述的3D图像分析器(400)。
25.一种用于确定视线方向的方法,具有以下步骤:
接收基于第一图像(804a)确定的至少一个第一组图像数据以及基于另外图像(804b)确定的另一组图像信息,其中,第一图像(804a)将三维对象的图案(806a)从第一视角显示到第一图像平面中,并且所述另一组包括另外图像(804b)或描述了三维对象的至少一个点与第一图像平面之间的关系的信息;
基于第一组、另一组以及第一图像和所述另外图像(804b)的视角之间的几何关系来计算三维空间中图案(806a)的位置,或者基于第一组以及第一图像(804a)中至少两个特性特征之间在统计上评估的关系来计算三维空间中图案(806a)的位置,或者基于第一组以及三维对象的至少一个点与第一图像平面之间的位置关系来计算三维空间中图案(806a)的位置;以及
基于第一组和所述另一组计算在三维空间中对准图案(806a)所根据的3D视线向量;
其中所述另一组包括另外图像(804b),以计算两个另外的可能的3D视线向量,将这两个另外的可能的3D视线向量与两个可能的3D视线向量进行比较,并基于所述比较确定在三维空间中对准图案(806a)所根据的3D视线向量;从所述两个可能的3D视线向量中选择在三维空间中对准图案(806a)所根据的3D视线向量,其中,该3D视线向量的特征在于,与其他3D视线向量的背投影相比,其基于瞳孔中点到图像中的背投影扫描更少的巩膜像素;或者
其中沿投影到图像中的所述两个可能的3D视线向量确定所识别的瞳孔中点与所识别的眼睛边缘之间的相应距离,并从所述两个可能的3D视线向量中选择在三维空间中对准图案所根据的3D视线向量,其中,如下3D视线向量被选择:其向图像中的投影扫描瞳孔中点与眼睛睁开的边缘之间的较小距离。
26.一种计算机可读数字存储介质,其上存储了具有程序代码的计算机程序,其中,如果运行在计算机、嵌入式处理器、可编程逻辑器件或客户端特定芯片上,则所述程序代码用于执行根据权利要求25所述的方法。
CN201580014214.7A 2014-02-04 2015-01-30 用于确定视线方向的3d图像分析器 Expired - Fee Related CN106133750B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014201997.4 2014-02-04
DE102014201997 2014-02-04
PCT/EP2015/052004 WO2015117905A1 (de) 2014-02-04 2015-01-30 3d-bildanalysator zur blickrichtungsbestimmung

Publications (2)

Publication Number Publication Date
CN106133750A CN106133750A (zh) 2016-11-16
CN106133750B true CN106133750B (zh) 2020-08-28

Family

ID=52434840

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201580014214.7A Expired - Fee Related CN106133750B (zh) 2014-02-04 2015-01-30 用于确定视线方向的3d图像分析器
CN201580014261.1A Pending CN106104573A (zh) 2014-02-04 2015-01-30 霍夫处理器
CN201580018519.5A Expired - Fee Related CN106258010B (zh) 2014-02-04 2015-01-30 2d图像分析器

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN201580014261.1A Pending CN106104573A (zh) 2014-02-04 2015-01-30 霍夫处理器
CN201580018519.5A Expired - Fee Related CN106258010B (zh) 2014-02-04 2015-01-30 2d图像分析器

Country Status (6)

Country Link
US (3) US10192135B2 (zh)
EP (4) EP3103059A1 (zh)
JP (3) JP6248208B2 (zh)
KR (2) KR101991496B1 (zh)
CN (3) CN106133750B (zh)
WO (4) WO2015117904A1 (zh)

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150022664A1 (en) 2012-01-20 2015-01-22 Magna Electronics Inc. Vehicle vision system with positionable virtual viewpoint
US10365711B2 (en) 2012-05-17 2019-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
EP3103059A1 (de) * 2014-02-04 2016-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-bildanalysator zur blickrichtungsbestimmung
US10017114B2 (en) 2014-02-19 2018-07-10 Magna Electronics Inc. Vehicle vision system with display
US10445573B2 (en) * 2014-06-27 2019-10-15 Fove, Inc. Gaze detection device
US10318067B2 (en) * 2014-07-11 2019-06-11 Hewlett-Packard Development Company, L.P. Corner generation in a projector display area
WO2016073557A1 (en) 2014-11-04 2016-05-12 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds
KR20160094190A (ko) * 2015-01-30 2016-08-09 한국전자통신연구원 시선 추적 장치 및 방법
JP6444233B2 (ja) * 2015-03-24 2018-12-26 キヤノン株式会社 距離計測装置、距離計測方法、およびプログラム
US20160363995A1 (en) * 2015-06-12 2016-12-15 Seeing Machines Limited Circular light element for illumination of cornea in head mounted eye-tracking
CN105511093B (zh) * 2015-06-18 2018-02-09 广州优视网络科技有限公司 3d成像方法及装置
US9798950B2 (en) * 2015-07-09 2017-10-24 Olympus Corporation Feature amount generation device, feature amount generation method, and non-transitory medium saving program
CN108352393B (zh) 2015-07-23 2022-09-16 光程研创股份有限公司 高效宽光谱传感器
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
EP3709362B1 (en) 2015-08-04 2021-07-14 Artilux Inc. Germanium-silicon light sensing method
US10616149B2 (en) * 2015-08-10 2020-04-07 The Rocket Science Group Llc Optimizing evaluation of effectiveness for multiple versions of electronic messages
CN115824395B (zh) 2015-08-27 2023-08-15 光程研创股份有限公司 宽频谱光学传感器
JP6634765B2 (ja) * 2015-09-30 2020-01-22 株式会社ニデック 眼科装置、および眼科装置制御プログラム
CN108139758A (zh) * 2015-10-09 2018-06-08 深圳市大疆创新科技有限公司 基于显著性特征的载运工具定位
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
CN106200905B (zh) * 2016-06-27 2019-03-29 联想(北京)有限公司 信息处理方法及电子设备
US10133942B2 (en) 2016-07-05 2018-11-20 Nauto Global Limited System and method for automatic driver identification
CN109478334B (zh) * 2016-07-20 2021-04-20 富士胶片株式会社 关注位置识别装置、摄像装置、显示装置、关注位置识别方法及非暂时性有形介质
CN105954992B (zh) * 2016-07-22 2018-10-30 京东方科技集团股份有限公司 显示系统和显示方法
GB2552511A (en) * 2016-07-26 2018-01-31 Canon Kk Dynamic parametrization of video content analytics systems
US10417495B1 (en) * 2016-08-08 2019-09-17 Google Llc Systems and methods for determining biometric information
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
JP6587254B2 (ja) * 2016-09-16 2019-10-09 株式会社東海理化電機製作所 輝度制御装置、輝度制御システム及び輝度制御方法
EP3305176A1 (en) * 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
US11361003B2 (en) * 2016-10-26 2022-06-14 salesforcecom, inc. Data clustering and visualization with determined group number
CN110178104A (zh) 2016-11-07 2019-08-27 新自动公司 用于确定驾驶员分心的系统和方法
US11612307B2 (en) * 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
WO2018102990A1 (en) * 2016-12-06 2018-06-14 SZ DJI Technology Co., Ltd. System and method for rectifying a wide-angle image
DE102016224886B3 (de) * 2016-12-13 2018-05-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Ermittlung der Schnittkanten von zwei sich überlappenden Bildaufnahmen einer Oberfläche
CN110121689A (zh) * 2016-12-30 2019-08-13 托比股份公司 眼睛/注视追踪系统和方法
US10282592B2 (en) * 2017-01-12 2019-05-07 Icatch Technology Inc. Face detecting method and face detecting system
DE102017103721B4 (de) * 2017-02-23 2022-07-21 Karl Storz Se & Co. Kg Vorrichtung zur Erfassung eines Stereobilds mit einer rotierbaren Blickrichtungseinrichtung
KR101880751B1 (ko) * 2017-03-21 2018-07-20 주식회사 모픽 무안경 입체영상시청을 위해 사용자 단말과 렌티큘러 렌즈 간 정렬 오차를 줄이기 위한 방법 및 이를 수행하는 사용자 단말
JP7003455B2 (ja) * 2017-06-15 2022-01-20 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
US10430695B2 (en) 2017-06-16 2019-10-01 Nauto, Inc. System and method for contextualized vehicle operation determination
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
EP3420887A1 (en) 2017-06-30 2019-01-02 Essilor International Method for determining the position of the eye rotation center of the eye of a subject, and associated device
EP3430973A1 (en) * 2017-07-19 2019-01-23 Sony Corporation Mobile system and method
JP2019017800A (ja) * 2017-07-19 2019-02-07 富士通株式会社 コンピュータプログラム、情報処理装置及び情報処理方法
KR101963392B1 (ko) * 2017-08-16 2019-03-28 한국과학기술연구원 무안경식 3차원 영상표시장치의 동적 최대 시역 형성 방법
WO2019039997A1 (en) * 2017-08-25 2019-02-28 Maker Trading Pte Ltd GENERAL SYSTEM FOR MONOCULAR ARTIFICIAL VISION AND METHOD FOR IDENTIFYING LOCATIONS OF TARGET ELEMENTS
US10460458B1 (en) * 2017-09-14 2019-10-29 United States Of America As Represented By The Secretary Of The Air Force Method for registration of partially-overlapped aerial imagery using a reduced search space methodology with hybrid similarity measures
CN107818305B (zh) * 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
EP3486834A1 (en) * 2017-11-16 2019-05-22 Smart Eye AB Detection of a pose of an eye
CN108024056B (zh) * 2017-11-30 2019-10-29 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
KR102444666B1 (ko) * 2017-12-20 2022-09-19 현대자동차주식회사 차량용 3차원 입체 영상의 제어 방법 및 장치
CN108334810B (zh) * 2017-12-25 2020-12-11 北京七鑫易维信息技术有限公司 视线追踪设备中确定参数的方法和装置
JP7109193B2 (ja) * 2018-01-05 2022-07-29 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
CN108875526B (zh) * 2018-01-05 2020-12-25 北京旷视科技有限公司 视线检测的方法、装置、系统及计算机存储介质
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
JP6975341B2 (ja) 2018-02-23 2021-12-01 アーティラックス・インコーポレイテッド 光検出装置およびその光検出方法
WO2019169031A1 (en) 2018-02-27 2019-09-06 Nauto, Inc. Method for determining driving policy
US11675428B2 (en) * 2018-03-29 2023-06-13 Tobii Ab Determining a gaze direction using depth information
JP7212062B2 (ja) 2018-04-08 2023-01-24 アーティラックス・インコーポレイテッド 光検出装置
CN108667686B (zh) * 2018-04-11 2021-10-22 国电南瑞科技股份有限公司 一种网络报文时延测量的可信度评估方法
WO2019199035A1 (ko) * 2018-04-11 2019-10-17 주식회사 비주얼캠프 시선 추적 시스템 및 방법
KR20190118965A (ko) * 2018-04-11 2019-10-21 주식회사 비주얼캠프 시선 추적 시스템 및 방법
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
CN108876733B (zh) * 2018-05-30 2021-11-09 上海联影医疗科技股份有限公司 一种图像增强方法、装置、设备和存储介质
US10410372B1 (en) * 2018-06-14 2019-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
US10803618B2 (en) * 2018-06-28 2020-10-13 Intel Corporation Multiple subject attention tracking
CN109213031A (zh) * 2018-08-13 2019-01-15 祝爱莲 窗体加固控制平台
KR102521408B1 (ko) * 2018-08-27 2023-04-14 삼성전자주식회사 인포그래픽을 제공하기 위한 전자 장치 및 그에 관한 방법
WO2020047416A1 (en) * 2018-08-30 2020-03-05 Splashlight Holding Llc Technologies for enabling analytics of computing events based on augmented canonicalization of classified images
CN109376595B (zh) * 2018-09-14 2023-06-23 杭州宇泛智能科技有限公司 基于人眼注意力的单目rgb摄像头活体检测方法及系统
JP7099925B2 (ja) * 2018-09-27 2022-07-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP6934001B2 (ja) * 2018-09-27 2021-09-08 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN110966923B (zh) * 2018-09-29 2021-08-31 深圳市掌网科技股份有限公司 室内三维扫描与危险排除系统
US11144779B2 (en) 2018-10-16 2021-10-12 International Business Machines Corporation Real-time micro air-quality indexing
CN109492120B (zh) * 2018-10-31 2020-07-03 四川大学 模型训练方法、检索方法、装置、电子设备及存储介质
JP7001042B2 (ja) * 2018-11-08 2022-01-19 日本電信電話株式会社 眼情報推定装置、眼情報推定方法、プログラム
CN111479104A (zh) * 2018-12-21 2020-07-31 托比股份公司 用于计算视线会聚距离的方法
US11113842B2 (en) 2018-12-24 2021-09-07 Samsung Electronics Co., Ltd. Method and apparatus with gaze estimation
CN109784226B (zh) * 2018-12-28 2020-12-15 深圳云天励飞技术有限公司 人脸抓拍方法及相关装置
US11049289B2 (en) * 2019-01-10 2021-06-29 General Electric Company Systems and methods to semi-automatically segment a 3D medical image using a real-time edge-aware brush
US10825137B2 (en) * 2019-01-15 2020-11-03 Datalogic IP Tech, S.r.l. Systems and methods for pre-localization of regions of interest for optical character recognition, and devices therefor
KR102653252B1 (ko) * 2019-02-21 2024-04-01 삼성전자 주식회사 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법
US11068052B2 (en) * 2019-03-15 2021-07-20 Microsoft Technology Licensing, Llc Holographic image generated based on eye position
US11644897B2 (en) 2019-04-01 2023-05-09 Evolution Optiks Limited User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same
EP3948402B1 (en) 2019-04-01 2023-12-06 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
US20210011550A1 (en) * 2019-06-14 2021-01-14 Tobii Ab Machine learning based gaze estimation with confidence
CN110718067A (zh) * 2019-09-23 2020-01-21 浙江大华技术股份有限公司 违规行为告警方法及相关装置
US11080892B2 (en) * 2019-10-07 2021-08-03 The Boeing Company Computer-implemented methods and system for localizing an object
US11688199B2 (en) * 2019-11-13 2023-06-27 Samsung Electronics Co., Ltd. Method and apparatus for face detection using adaptive threshold
CN113208591B (zh) * 2020-01-21 2023-01-06 魔门塔(苏州)科技有限公司 一种眼睛开闭距离的确定方法及装置
EP4113968A4 (en) * 2020-02-28 2023-04-05 NEC Corporation IMAGE CAPTURE DEVICE, IMAGE CAPTURE METHOD AND IMAGE PROCESSING DEVICE
CN113448428B (zh) * 2020-03-24 2023-04-25 中移(成都)信息通信科技有限公司 一种视线焦点的预测方法、装置、设备及计算机存储介质
CN111768433A (zh) * 2020-06-30 2020-10-13 杭州海康威视数字技术股份有限公司 一种移动目标追踪的实现方法、装置及电子设备
US11676255B2 (en) * 2020-08-14 2023-06-13 Optos Plc Image correction for ophthalmic images
CN111985384A (zh) * 2020-08-14 2020-11-24 深圳地平线机器人科技有限公司 获取脸部关键点的3d坐标及3d脸部模型的方法和装置
US10909167B1 (en) * 2020-09-17 2021-02-02 Pure Memories Ltd Systems and methods for organizing an image gallery
CN112633313B (zh) * 2020-10-13 2021-12-03 北京匠数科技有限公司 一种网络终端的不良信息识别方法及局域网终端设备
CN112255882A (zh) * 2020-10-23 2021-01-22 泉芯集成电路制造(济南)有限公司 集成电路版图微缩方法
CN112650461B (zh) * 2020-12-15 2021-07-13 广州舒勇五金制品有限公司 一种基于相对位置的展示系统
US11417024B2 (en) 2021-01-14 2022-08-16 Momentick Ltd. Systems and methods for hue based encoding of a digital image
KR20220115001A (ko) * 2021-02-09 2022-08-17 현대모비스 주식회사 스마트 디바이스 스위블을 이용한 차량 제어 장치 및 그 방법
US20220270116A1 (en) * 2021-02-24 2022-08-25 Neil Fleischer Methods to identify critical customer experience incidents using remotely captured eye-tracking recording combined with automatic facial emotion detection via mobile phone or webcams.
JPWO2022259499A1 (zh) * 2021-06-11 2022-12-15
JP2022189536A (ja) * 2021-06-11 2022-12-22 キヤノン株式会社 撮像装置および方法
US11914915B2 (en) * 2021-07-30 2024-02-27 Taiwan Semiconductor Manufacturing Company, Ltd. Near eye display apparatus
CN114387442A (zh) * 2022-01-12 2022-04-22 南京农业大学 一种多维空间中的直线、平面和超平面的快速检测方法
US11887151B2 (en) * 2022-02-14 2024-01-30 Korea Advanced Institute Of Science And Technology Method and apparatus for providing advertisement disclosure for identifying advertisements in 3-dimensional space
CN114794992B (zh) * 2022-06-07 2024-01-09 深圳甲壳虫智能有限公司 充电座、机器人的回充方法和扫地机器人
CN115936037B (zh) * 2023-02-22 2023-05-30 青岛创新奇智科技集团股份有限公司 二维码的解码方法及装置
CN116523831B (zh) * 2023-03-13 2023-09-19 深圳市柯达科电子科技有限公司 一种曲面背光源的组装成型工艺控制方法
CN116109643B (zh) * 2023-04-13 2023-08-04 深圳市明源云科技有限公司 市场布局数据采集方法、设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8032842B2 (en) * 2006-07-25 2011-10-04 Korea Institute Of Science & Technology System and method for three-dimensional interaction based on gaze and system and method for tracking three-dimensional gaze
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
JP2013024910A (ja) * 2011-07-15 2013-02-04 Canon Inc 観察用光学機器
CN103019507A (zh) * 2012-11-16 2013-04-03 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
JP3163215B2 (ja) 1994-03-07 2001-05-08 日本電信電話株式会社 直線抽出ハフ変換画像処理装置
JP4675492B2 (ja) * 2001-03-22 2011-04-20 本田技研工業株式会社 顔画像を使用した個人認証装置
JP4128001B2 (ja) * 2001-11-19 2008-07-30 グローリー株式会社 歪み画像の対応付け方法、装置およびプログラム
JP4275345B2 (ja) * 2002-01-30 2009-06-10 株式会社日立製作所 パターン検査方法及びパターン検査装置
CN2586213Y (zh) * 2002-12-24 2003-11-12 合肥工业大学 实时实现Hough变换的光学装置
US7164807B2 (en) 2003-04-24 2007-01-16 Eastman Kodak Company Method and system for automatically reducing aliasing artifacts
JP4324417B2 (ja) * 2003-07-18 2009-09-02 富士重工業株式会社 画像処理装置および画像処理方法
JP4604190B2 (ja) 2004-02-17 2010-12-22 国立大学法人静岡大学 距離イメージセンサを用いた視線検出装置
DE102004046617A1 (de) * 2004-09-22 2006-04-06 Eldith Gmbh Vorrichtung und Verfahren zur berührungslosen Bestimmung der Blickrichtung
US8995715B2 (en) * 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
JP4682372B2 (ja) * 2005-03-31 2011-05-11 株式会社国際電気通信基礎技術研究所 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
US7406212B2 (en) 2005-06-02 2008-07-29 Motorola, Inc. Method and system for parallel processing of Hough transform computations
US20070066916A1 (en) * 2005-09-16 2007-03-22 Imotions Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
DE102005047160B4 (de) * 2005-09-30 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild
US8180159B2 (en) * 2007-06-06 2012-05-15 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP5558081B2 (ja) * 2009-11-24 2014-07-23 株式会社エヌテック 画像形成状態検査方法、画像形成状態検査装置及び画像形成状態検査用プログラム
US8670019B2 (en) * 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8737728B2 (en) 2011-09-30 2014-05-27 Ebay Inc. Complementary item recommendations using image feature data
CN103297767B (zh) * 2012-02-28 2016-03-16 三星电子(中国)研发中心 一种适用于多核嵌入式平台的jpeg图像解码方法及解码器
US9308439B2 (en) * 2012-04-10 2016-04-12 Bally Gaming, Inc. Controlling three-dimensional presentation of wagering game content
US11093702B2 (en) * 2012-06-22 2021-08-17 Microsoft Technology Licensing, Llc Checking and/or completion for data grids
EP2709060B1 (en) * 2012-09-17 2020-02-26 Apple Inc. Method and an apparatus for determining a gaze point on a three-dimensional object
CN103136525B (zh) * 2013-02-28 2016-01-20 中国科学院光电技术研究所 一种利用广义Hough变换的异型扩展目标高精度定位方法
WO2014181770A1 (ja) 2013-05-08 2014-11-13 コニカミノルタ株式会社 発光パターンを有する有機エレクトロルミネッセンス素子の製造方法
KR20150006993A (ko) * 2013-07-10 2015-01-20 삼성전자주식회사 디스플레이 장치 및 이의 디스플레이 방법
US9619884B2 (en) 2013-10-03 2017-04-11 Amlogic Co., Limited 2D to 3D image conversion device and method
EP3103059A1 (de) 2014-02-04 2016-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-bildanalysator zur blickrichtungsbestimmung
KR20230142657A (ko) * 2014-03-19 2023-10-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 눈 시선 추적을 사용하는 의료 디바이스, 시스템, 및 방법
US9607428B2 (en) 2015-06-30 2017-03-28 Ariadne's Thread (Usa), Inc. Variable resolution virtual reality display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8032842B2 (en) * 2006-07-25 2011-10-04 Korea Institute Of Science & Technology System and method for three-dimensional interaction based on gaze and system and method for tracking three-dimensional gaze
JP2013024910A (ja) * 2011-07-15 2013-02-04 Canon Inc 観察用光学機器
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
CN103019507A (zh) * 2012-11-16 2013-04-03 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Frank Klefenz等.REAL-TIME CALIBRATION-FREE AUTONOMOUS EYE TRACKER.《2010 IEEE International Conference on Acoustics, Speech and Signal Processing》.2010, *
REAL-TIME CALIBRATION-FREE AUTONOMOUS EYE TRACKER;Frank Klefenz等;《2010 IEEE International Conference on Acoustics, Speech and Signal Processing》;20100628;论文摘要,第2节 *

Also Published As

Publication number Publication date
US10592768B2 (en) 2020-03-17
US10074031B2 (en) 2018-09-11
JP2017514193A (ja) 2017-06-01
EP3968288A2 (de) 2022-03-16
CN106133750A (zh) 2016-11-16
US20170032214A1 (en) 2017-02-02
CN106258010A (zh) 2016-12-28
KR101858491B1 (ko) 2018-05-16
WO2015117906A1 (de) 2015-08-13
JP6268303B2 (ja) 2018-01-24
KR20160119176A (ko) 2016-10-12
KR101991496B1 (ko) 2019-06-20
WO2015117904A1 (de) 2015-08-13
WO2015117905A1 (de) 2015-08-13
CN106258010B (zh) 2019-11-22
EP3103058A1 (de) 2016-12-14
US10192135B2 (en) 2019-01-29
EP3103059A1 (de) 2016-12-14
US20160335475A1 (en) 2016-11-17
WO2015117907A3 (de) 2015-10-01
KR20160119146A (ko) 2016-10-12
JP6248208B2 (ja) 2017-12-13
WO2015117907A2 (de) 2015-08-13
US20160342856A1 (en) 2016-11-24
JP2017509967A (ja) 2017-04-06
EP3103060A1 (de) 2016-12-14
JP2017508207A (ja) 2017-03-23
CN106104573A (zh) 2016-11-09
JP6483715B2 (ja) 2019-03-13

Similar Documents

Publication Publication Date Title
CN106133750B (zh) 用于确定视线方向的3d图像分析器
US10767982B2 (en) Systems and methods of locating a control object appendage in three dimensional (3D) space
US8638989B2 (en) Systems and methods for capturing motion in three-dimensional space
US20130182079A1 (en) Motion capture using cross-sections of an object
US20140313308A1 (en) Apparatus and method for tracking gaze based on camera array
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
KR20140125713A (ko) 카메라 어레이에 기반하여 시선을 추적하는 방법 및 장치
CN111160136B (zh) 一种标准化3d信息采集测量方法及系统
KR20120138627A (ko) 안면 추적 장치 및 방법
CN111028205B (zh) 一种基于双目测距的眼睛瞳孔定位方法及装置
US20220100268A1 (en) Eye tracking device and a method thereof
Chatterjee et al. Noise in structured-light stereo depth cameras: Modeling and its applications
Balzer et al. Volumetric reconstruction applied to perceptual studies of size and weight
Coudron et al. Multi-view tof fusion for object detection in industrial applications
Zhao Stereo imaging and obstacle detection methods for vehicle guidance
KR101348903B1 (ko) 시선 추적용 기하광학에 기반한 각막 반경 측정 알고리즘을 이용한 각막 반경 측정 장치 및 방법
Hansard et al. Characterization of Time-of-Flight Data
Chaudhuri et al. Depth recovery from defocused images
CN110853096A (zh) 基于单目视觉的固定靶标空间定位方法
Kılıç Performance improvement of a 3d reconstruction algorithm using single camera images
Entner Real-time 3d reconstruction for autonomous football playing robots using a feature based stereo approach

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200828