JP2015194838A - Line-of-sight direction estimation device and line-of-sight direction estimation method - Google Patents

Line-of-sight direction estimation device and line-of-sight direction estimation method Download PDF

Info

Publication number
JP2015194838A
JP2015194838A JP2014071746A JP2014071746A JP2015194838A JP 2015194838 A JP2015194838 A JP 2015194838A JP 2014071746 A JP2014071746 A JP 2014071746A JP 2014071746 A JP2014071746 A JP 2014071746A JP 2015194838 A JP2015194838 A JP 2015194838A
Authority
JP
Japan
Prior art keywords
distance image
head
eyeball
gaze direction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014071746A
Other languages
Japanese (ja)
Inventor
内海 章
Akira Uchiumi
章 内海
修蔵 乗冨
Shuzo Noritomi
修蔵 乗冨
公久 近藤
Kimihisa Kondo
公久 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2014071746A priority Critical patent/JP2015194838A/en
Publication of JP2015194838A publication Critical patent/JP2015194838A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device for estimating eyeball movement (line-of-sight direction) on the basis of distance image information with high resolution to be obtained by a distance image sensor.SOLUTION: A line-of-sight direction estimation device includes: a distance image sensor 32.1 for acquiring a distance image including the eye area of a person to be measured; a storage device 2080 for storing an eyeball three-dimensional shape model; an eyeball comparison processing part 5614 for estimating an eyeball posture from the fitting of the distance image of the eye area extracted from the distance image and the eyeball three-dimensional shape model; and an eyeball movement/line-of-sight direction estimation part 5616 for estimating a line-of-sight direction on the basis of the estimated eyeball posture.

Description

この発明はカメラ等からの画像を処理する画像処理に関し、特に、画像中の人物の視線方向を推定するための画像認識の分野に関する。   The present invention relates to image processing for processing an image from a camera or the like, and more particularly to the field of image recognition for estimating the direction of the line of sight of a person in an image.

視線情報にはユーザの意図や興味対象などの情報が含まれているため、マーケティングや広告、コミュニケーション支援や入力デバイスなど多数の用途で有用であり、従来から研究が進められている(非特許文献1、非特許文献2を参照)。   The line-of-sight information includes information such as the user's intentions and interests, so it is useful for many purposes such as marketing, advertising, communication support, and input devices. 1, see Non-Patent Document 2).

その中で様々な視線計測システムが提案されているが、一方で従来の視線計測システムではユーザに対して決まった参照点を注視するなどキャリブレーションや接触型の計測装置の着用が必要であるなど、その用途は人工的に作られた実験環境下に限られており、日常生活や公共の場において不特定多数のユーザに対して視線情報を取得することは非常に困難であった。   Various line-of-sight measurement systems have been proposed, but on the other hand, the conventional line-of-sight measurement system requires the user to wear a calibration or contact-type measuring device, such as gazing at a fixed reference point for the user. The use is limited to an artificially created experimental environment, and it has been very difficult to acquire line-of-sight information for an unspecified number of users in daily life and public places.

しかし、角膜反射による視線計測手法により赤外線照明を用いて眼球領域、視線方向を推定する視線計測手法が一般的になり、ある限られた範囲であれば遠隔で視線計測が行える用途が広がった。   However, a line-of-sight measurement technique that estimates the eyeball region and line-of-sight direction using infrared illumination by a line-of-sight measurement technique based on corneal reflection has become common, and the use of remote line-of-sight measurement within a limited range has expanded.

近年では一般的なビデオカメラを用いた視線計測の研究が盛んに行われている(非特許文献3,非特許文献4,非特許文献5を参照)。   In recent years, research on gaze measurement using a general video camera has been actively conducted (see Non-Patent Document 3, Non-Patent Document 4, and Non-Patent Document 5).

その中の一つとして眼球の3次元モデルを用いて眼球中心と虹彩中心を用いて視線方向を推定する手法が提案されている(特許文献1、非特許文献6を参照)。この手法によって特別な照明やキャリブレーションを必要とせず従来の角膜反射による視線推定より比較的小さい解像度で視線計測を推定することができ、日常環境でも視線を取得することが可能となった。   As one of them, there has been proposed a method for estimating a gaze direction using an eyeball center and an iris center using a three-dimensional eyeball model (see Patent Document 1 and Non-Patent Document 6). By this method, it is possible to estimate the gaze measurement with a relatively smaller resolution than the conventional gaze estimation by corneal reflection without requiring special illumination or calibration, and it is possible to obtain the gaze even in the daily environment.

しかしこれらの手法では通常のビデオ画像を利用するため、照明条件の変化や被計測者の個人差による取得画像の変化の影響を受けやすいという問題があった。   However, since these methods use normal video images, there is a problem that they are easily affected by changes in the acquired image due to changes in lighting conditions or individual differences in the person being measured.

一方で、近年物体までの距離を面的に獲得した距離画像を取得する装置が安価に提供されるようになりその利用が進んでいる(特許文献2、非特許文献7を参照)。今後さらに距離画像センサの高解像度化が進むことが予想される。   On the other hand, in recent years, an apparatus for acquiring a distance image obtained by two-dimensionally acquiring a distance to an object has been provided at a low cost, and its use is proceeding (see Patent Document 2 and Non-Patent Document 7). It is expected that the resolution of the range image sensor will further increase in the future.

距離画像センサとしては、たとえば、TOF(Time Of Flight)方式や、パターン投射方式などが知られている。   As the distance image sensor, for example, a TOF (Time Of Flight) method, a pattern projection method, and the like are known.

TOF方式では、赤外線などの不可視光をパルス変調して画角内に照射し,イメージ・センサ側でこのパルスの位相遅れを計測することで,対象物までの往復の距離を割り出すものである。   In the TOF method, invisible light such as infrared light is pulse-modulated and irradiated within the angle of view, and the phase delay of this pulse is measured on the image sensor side to determine the reciprocal distance to the object.

一方、パターン投射方式では、単一の投影パターン(ランダムなドットがちりばめられた大きな四角形パターン)を常に対象表面に投影しておき、撮影した画像からパターン内の各場所の移動量を画像処理でとらえることにより、赤外線カメラで撮影した動画のすべてのフレームにおいて3次元計測を行うことを実現する。   On the other hand, in the pattern projection method, a single projection pattern (a large square pattern with random dots interspersed) is always projected onto the target surface, and the amount of movement of each location in the pattern is captured by image processing. By capturing this, it is possible to perform three-dimensional measurement on all frames of a moving image shot with an infrared camera.

特開2012−216180号公報明細書JP 2012-216180 A Specification 特開2013−210339号公報明細書Japanese Unexamined Patent Publication No. 2013-210339

OHNO, T., MUKAWA, N., AND KAWATO, S. 2003. Just blink your eyes: A head-free gaze tracking system. In Proc. CHI2003,950-951.OHNO, T., MUKAWA, N., AND KAWATO, S. 2003. Just blink your eyes: A head-free gaze tracking system. In Proc. CHI2003,950-951. MORIMOTO, C. H., AND MIMICA, M. R. M. 2005. Eye gaze tracking techniques for interactive applications. Computer Vision and Image Understanding 98, 1, 4-24.MORIMOTO, C. H., AND MIMICA, M. R. M. 2005. Eye gaze tracking techniques for interactive applications. Computer Vision and Image Understanding 98, 1, 4-24. BALUJA, S., AND POMERLEAU, D. 1994. Non-intrusive gaze tracking using artificial neural networks. Tech. Rep. CMU-CS-94-102, CMU.BALUJA, S., AND POMERLEAU, D. 1994. Non-intrusive gaze tracking using artificial neural networks. Tech. Rep. CMU-CS-94-102, CMU. SHIELE, B., AND WAIBEL, A. 1995. Gaze tracking based on face-color. In Proc. Int’l Workshop on Automatic Face and Gesture Recognition, 344-349.SHIELE, B., AND WAIBEL, A. 1995. Gaze tracking based on face-color. In Proc. Int’l Workshop on Automatic Face and Gesture Recognition, 344-349. MORENCY, L. P., CHRRISTOUDIAS, C., AND DARRELL, T. 2006. Recognizing gaze aversion gestures in embodied conversational discourse. In Proc. ICMI’06, 287-294.MORENCY, L. P., CHRRISTOUDIAS, C., AND DARRELL, T. 2006. Recognizing gaze aversion gestures in embodied conversational discourse. In Proc. ICMI’06, 287-294. MATSUMOTO, Y., AND ZELINSKY, A. 2000. An algorithm for real-time stereo vision implementation of head pose and gaze direction measurement. In Proc. Int. Conf. Automatic Face and Gesture Recognition, 499-504.MATSUMOTO, Y., AND ZELINSKY, A. 2000. An algorithm for real-time stereo vision implementation of head pose and gaze direction measurement. In Proc. Int. Conf. Automatic Face and Gesture Recognition, 499-504. Pedro, L.M.; de Paula Caurin, G.A., ”Kinect evaluation for human body movement analysis,” Biomedical Robotics and Biomechatronics (BioRob), 2012 4th IEEE RAS & EMBS International Conference on , vol., no., pp.1856,1861, 24-27 June 2012.Pedro, LM; de Paula Caurin, GA, “Kinect evaluation for human body movement analysis,” Biomedical Robotics and Biomechatronics (BioRob), 2012 4th IEEE RAS & EMBS International Conference on, vol., No., Pp. 1856, 1861 24-27 June 2012.

ただし、非特許文献7に開示された技術は、人間の視線方向の推定に距離画像を利用したものではない。   However, the technique disclosed in Non-Patent Document 7 does not use a distance image for estimation of the human gaze direction.

また、特許文献2に開示の技術は、実物体を撮像することにより指定物理量を画素値として有する複数のピクセルによって構成される一対の画像のそれぞれを取得するように構成されている一対の画像センサと、一対の画像センサのうち一方の画像センサにより取得された一方の画像の対象領域を構成する複数のピクセルのそれぞれに対して割り当てられる、実物体までの距離を取得するように構成されている距離画像センサと、を用いて実物体の表面と、指定形状の仮想物体の表面である仮想面との接触状態を推定することを目的とするものであって、画像中の人間が任意の方向を見ているときに、その視線方向を推定することを目的とするものでない。   The technique disclosed in Patent Document 2 is a pair of image sensors configured to acquire a pair of images each including a plurality of pixels having a designated physical quantity as a pixel value by imaging a real object. And a distance to a real object assigned to each of a plurality of pixels constituting a target area of one image acquired by one image sensor of the pair of image sensors. The distance image sensor is used to estimate the contact state between the surface of the real object and the virtual surface that is the surface of the virtual object of the specified shape. It is not intended to estimate the direction of the line of sight when watching.

したがって、2次元的な距離画像を用いることで、任意の方向を見ている対象者の視線を推定する方法については、必ずしも明らかではない。   Therefore, it is not always clear how to estimate the line of sight of a subject who is looking at an arbitrary direction by using a two-dimensional distance image.

本発明は、距離画像センサによって得られる高解像度の距離画像情報に基づいて眼球運動(視線方向)を推定することを目的とする。   An object of the present invention is to estimate eye movement (gaze direction) based on high-resolution distance image information obtained by a distance image sensor.

この発明の1つの局面に従うと、視線方向推定装置であって、被計測者の目領域を含む距離画像を取得するための距離画像センサと、眼球3次元形状モデルを格納する記憶装置と、距離画像から抽出された目領域の距離画像と眼球3次元形状モデルとのフィッティングに基づいて、眼球姿勢を算出して、視線方向を推定する視線方向推定手段とを備える。   According to one aspect of the present invention, a gaze direction estimation device, a distance image sensor for acquiring a distance image including an eye area of a measurement subject, a storage device that stores a three-dimensional eyeball model, and a distance Eye gaze direction estimating means for calculating an eyeball posture and estimating a gaze direction based on the fitting of the distance image of the eye region extracted from the image and the eyeball three-dimensional shape model.

好ましくは、記憶装置は、頭部3次元形状モデルを格納し、視線方向推定装置は、距離画像センサにより取得された被計測者の頭部の距離画像と頭部3次元形状モデルとに基づいて、頭部姿勢を推定する頭部姿勢推定手段と、頭部姿勢推定手段により推定された頭部姿勢から目領域の距離画像を抽出する目領域抽出手段とをさらに備える。   Preferably, the storage device stores the head three-dimensional shape model, and the line-of-sight direction estimation device is based on the distance image of the measurement subject's head acquired by the distance image sensor and the head three-dimensional shape model. And a head posture estimating means for estimating the head posture, and an eye region extracting means for extracting a distance image of the eye region from the head posture estimated by the head posture estimating means.

好ましくは、視線方向推定装置は、被計測者の光学画像を取得するための撮影手段をさらに備え、頭部姿勢推定手段は、撮影手段により取得された被計測者の頭部の光学画像と、頭部の距離画像とを統合して、頭部姿勢を推定する。   Preferably, the gaze direction estimation device further includes an imaging unit for acquiring an optical image of the measurement subject, and the head posture estimation unit includes an optical image of the measurement subject's head acquired by the imaging unit; The head posture is estimated by integrating the distance image of the head.

好ましくは、視線方向推定手段は、撮影手段により取得された被計測者の目領域の光学画像と、目領域の距離画像とを統合して、視線方向を推定する。   Preferably, the line-of-sight direction estimation unit estimates the line-of-sight direction by integrating the optical image of the eye area of the measurement subject acquired by the imaging unit and the distance image of the eye area.

この発明の他の局面に従うと、視線方向推定方法であって、距離画像センサにより取得された距離画像により被計測者の視線方向を推定する方法であって、距離画像センサにより被計測者の目領域を含む距離画像を取得するステップと、演算装置が、記憶装置に格納された眼球3次元形状モデルと距離画像から抽出された目領域の距離画像とのフィッティングに基づいて、眼球姿勢を算出して、視線方向を推定するステップとを備える。   According to another aspect of the present invention, a gaze direction estimation method is a method for estimating a gaze direction of a measurement person based on a distance image acquired by a distance image sensor, the eye of the measurement person being measured by the distance image sensor. The step of acquiring a distance image including a region, and the arithmetic device calculates an eyeball posture based on the fitting of the eyeball three-dimensional shape model stored in the storage device and the distance image of the eye region extracted from the distance image. And estimating the line-of-sight direction.

好ましくは、記憶装置は、頭部3次元形状モデルを格納しており、視線方向推定方法は、演算装置が、距離画像センサにより取得された被計測者の頭部の距離画像と頭部3次元形状モデルとに基づいて、頭部姿勢を推定するステップと、演算装置が、推定された頭部姿勢から目領域の距離画像を抽出するステップとをさらに備える。   Preferably, the storage device stores a head three-dimensional shape model, and the gaze direction estimation method includes: a distance image of the measurement subject's head acquired by the distance image sensor; The step of estimating the head posture based on the shape model and the step of the computing device extracting a distance image of the eye area from the estimated head posture are further provided.

好ましくは、視線方向推定方法は、撮像装置により被計測者の光学画像を取得するためのステップと、頭部姿勢を推定するステップは、撮影装置により取得された被計測者の頭部の光学画像と、頭部の距離画像とを統合して、頭部姿勢を推定するステップを含む。   Preferably, in the gaze direction estimation method, the step of acquiring the optical image of the measurement subject by the imaging device and the step of estimating the head posture are the optical image of the measurement subject's head acquired by the imaging device. And the head distance image are integrated to estimate the head posture.

好ましくは、視線方向を推定するステップは、撮影装置により取得された被計測者の目領域の光学画像と、目領域の距離画像とを統合して、視線方向を推定するステップを含む。   Preferably, the step of estimating the line-of-sight direction includes the step of estimating the line-of-sight direction by integrating the optical image of the eye area of the measurement subject acquired by the photographing apparatus and the distance image of the eye area.

本発明の視線方向の推定装置、視線方向の推定方法では、距離画像を用いることで、2次元画像上の眼球あるいは顔面表面の輝度値の個人差や照明条件に大きく依存することなく安定して視線方向の推定を行うことが可能である。   In the gaze direction estimation apparatus and gaze direction estimation method of the present invention, by using a distance image, the gaze direction estimation method is stable without greatly depending on individual differences in brightness values of the eyeball or face on the two-dimensional image or illumination conditions. It is possible to estimate the gaze direction.

また、2次元光学画像に比べてより多くの情報が得られるため推定精度の向上が可能となる。   Further, since more information can be obtained compared to the two-dimensional optical image, the estimation accuracy can be improved.

あるいは、頭部全体の観測や通常の画像センサによって得られる輝度画像を併用することで、推定精度を向上させることが可能となる。   Alternatively, the estimation accuracy can be improved by using the entire head and the luminance image obtained by a normal image sensor.

視線方向の推定装置の外観を示す図である。It is a figure which shows the external appearance of the estimation apparatus of a gaze direction. コンピュータシステム20のハードウェアブロック図である。2 is a hardware block diagram of a computer system 20. FIG. CPU2040がソフトウェアを実行することにより実現する機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved when CPU2040 runs software. 本実施の形態の視線方向の推定装置において、上述したCPU2040がソフトウェアを実行することにより実現する機能を示す機能ブロック図である。FIG. 11 is a functional block diagram showing functions realized by the above-described CPU 2040 executing software in the gaze direction estimation apparatus of the present embodiment. 視線方向の推定処理のフローを示すフローチャートである。It is a flowchart which shows the flow of an estimation process of a gaze direction. 頭部3次元形状モデルの例を示す図である。It is a figure which shows the example of a head three-dimensional shape model. 観測された光学画像から眼球周辺画像を切り出した例を示す図である。It is a figure which shows the example which cut out the eyeball periphery image from the observed optical image. 眼球の3次元形状モデルの例を示す図である。It is a figure which shows the example of the three-dimensional shape model of an eyeball.

以下、本発明の実施の形態の視線方向の推定装置の構成について、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。   Hereinafter, the configuration of the gaze direction estimation apparatus according to the embodiment of the present invention will be described with reference to the drawings. In the following embodiments, components and processing steps given the same reference numerals are the same or equivalent, and the description thereof will not be repeated unless necessary.

[ハードウェア構成]
以下、本発明の実施の形態にかかる「視線方向の推定装置」のハードウェア構成について説明する。この視線方向の推定装置は、パーソナルコンピュータまたは専用コンピュータ等、演算装置上で実行されるソフトウェアにより実現されるものであって、対象となる距離画像から人物の顔内の目領域を抽出し、視線方向を推定・検出するためのものである。
[Hardware configuration]
Hereinafter, the hardware configuration of the “line-of-sight direction estimation device” according to the embodiment of the present invention will be described. This gaze direction estimation device is realized by software executed on a computing device such as a personal computer or a dedicated computer, and extracts an eye region in a person's face from a target distance image, It is for estimating and detecting the direction.

ただし、以下に説明する「視線方向の推定装置」の各機能の一部または全部は、ハードウェアにより実現されてもよい。   However, some or all of the functions of the “line-of-sight direction estimation device” described below may be realized by hardware.

なお、「頭部姿勢」とは、3次元空間内で対象となる人間の顔の向きを意味するものとする。   It should be noted that the “head posture” means the orientation of the human face that is the target in the three-dimensional space.

図1は、この視線方向の推定装置の外観を示す図である。   FIG. 1 is a diagram showing an appearance of the gaze direction estimating device.

図1を参照して、この視線方向の推定装置を構成するシステム20は、CD−ROM(Compact Disc Read-Only Memory )またはDVD−ROM(Digital Versatile Disc Read-Only Memory)ドライブ(以下、「光学ディスクドライブ」と呼ぶ)2030のような記録媒体からデータを読み取るためのドライブ装置を備えたコンピュータ本体2010と、コンピュータ本体2010に接続された表示装置としてのディスプレイ2120と、同じくコンピュータ本体2010に接続された入力装置としてのキーボード2100およびマウス2110と、コンピュータ本体2010に接続された、画像を取込むための複数のカメラ30.1と、距離画像センサ32.1とを含む。   Referring to FIG. 1, a system 20 constituting the gaze direction estimating apparatus includes a CD-ROM (Compact Disc Read-Only Memory) or DVD-ROM (Digital Versatile Disc Read-Only Memory) drive (hereinafter referred to as “optical”). A computer main body 2010 provided with a drive device for reading data from a recording medium such as a disk drive 2030, a display 2120 as a display device connected to the computer main body 2010, and also connected to the computer main body 2010. A keyboard 2100 and a mouse 2110 as input devices; a plurality of cameras 30.1 connected to the computer main body 2010 for capturing images; and a distance image sensor 32.1.

記録媒体としては、光学ディスクに限定されず、たとえば、メモリカードのような不揮発性半導体メモリを用いたものであってもよく、その場合は、メモリドライブ2020(図示せず)が設けられる。   The recording medium is not limited to an optical disk, and may be, for example, a non-volatile semiconductor memory such as a memory card. In that case, a memory drive 2020 (not shown) is provided.

また、この実施の形態の装置では、光学カメラ30.1としては、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)センサのような固体撮像素子を含む単眼カメラを用いることができ、静止画だけでなく動画を撮影できるものとする。カメラの台数としては、1台でもよいし、複数台でもよい。   In the apparatus of this embodiment, as the optical camera 30.1, a monocular camera including a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) sensor can be used. It is assumed that not only still images but also moving images can be taken. The number of cameras may be one or a plurality.

また、距離画像センサ32.1は、基本的には、光学カメラの撮像領域と共通に、対象の目領域を含む領域について、3次元の距離画像データを取得できるセンサである。   The distance image sensor 32.1 is basically a sensor that can acquire three-dimensional distance image data for an area including the target eye area in common with the imaging area of the optical camera.

(ハードウェアの構成)
図2は、コンピュータシステム20のハードウェアブロック図である。
(Hardware configuration)
FIG. 2 is a hardware block diagram of the computer system 20.

図2において、コンピュータ本体2010は、メモリドライブ2020、ディスクドライブ2030に加えて、CPU2040と、ディスクドライブ2030及びメモリドライブ2020に接続されたバス2050と、ブートアッププログラム等のプログラムを記憶するためのROM2060とに接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM2070と、アプリケーションプログラム、システムプログラム、及びデータを記憶するための不揮発性記憶装置(たとえば、ハードディスク(HDD))2080と、ネットワーク等を介して外部機器、たとえば、サーバ等と通信するための通信インタフェース2090と、光学カメラ30.1や距離画像センサ32.1からのデータを取り込むための画像入力インタフェース2092とを含む。   In FIG. 2, in addition to the memory drive 2020 and the disk drive 2030, the computer main body 2010 includes a CPU 2040, a bus 2050 connected to the disk drive 2030 and the memory drive 2020, and a ROM 2060 for storing programs such as a bootup program. And a RAM 2070 for temporarily storing instructions of the application program and providing a temporary storage space, and a non-volatile storage device (for example, a hard disk (HDD) for storing the application program, the system program, and data )) 2080, a communication interface 2090 for communicating with an external device such as a server via a network, etc., and a digital camera 30.1 or a distance image sensor 32.1. And an image input interface 2092 for capturing data.

コンピュータシステム20に、本実施の形態の視線方向の推定装置の機能を実行させるプログラムは、CD−ROM2200、またはメモリ媒体2210に記憶されて、ディスクドライブ2030またはメモリドライブ2020に挿入され、さらにハードディスク2080に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ本体2010に送信され、ハードディスク2080に記憶されても良い。プログラムは実行の際にRAM2070にロードされる。   A program that causes the computer system 20 to execute the function of the gaze direction estimating device according to the present embodiment is stored in the CD-ROM 2200 or the memory medium 2210, inserted into the disk drive 2030 or the memory drive 2020, and further the hard disk 2080. May be transferred to. Alternatively, the program may be transmitted to the computer main body 2010 via a network (not shown) and stored in the hard disk 2080. The program is loaded into the RAM 2070 at the time of execution.

コンピュータシステム20は、さらに、入力装置としてのキーボード2100およびマウス2110と、出力装置としてのディスプレイ2120とを備える。   The computer system 20 further includes a keyboard 2100 and a mouse 2110 as input devices, and a display 2120 as an output device.

上述したようなコンピュータシステム20として機能するためのプログラムは、コンピュータ本体2010に、情報処理装置等の機能を実行させるオペレーティングシステム(OS)は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム20がどのように動作するかは周知であり、詳細な説明は省略する。   The program for functioning as the computer system 20 as described above does not necessarily include an operating system (OS) that causes the computer main body 2010 to execute functions such as an information processing apparatus. The program only needs to include an instruction portion that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 20 operates is well known and will not be described in detail.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

さらに、CPU2040も、1つのプロセッサであっても、あるいは複数のプロセッサであってもよい。すなわち、シングルコアのプロセッサであっても、マルチコアのプロセッサであってもよい。   Further, the CPU 2040 may be a single processor or a plurality of processors. That is, it may be a single core processor or a multi-core processor.

図3は、人間の目の断面の模式図である。   FIG. 3 is a schematic diagram of a cross section of a human eye.

眼球は外壁(眼球壁)と内容物からなる。外壁は3層構造をなしており、最外層の外膜(繊維膜)は眼球の前部の強く湾曲した屈折を担う角膜と、その外周を覆う強膜からなる。   The eyeball consists of an outer wall (eyeball wall) and contents. The outer wall has a three-layer structure, and the outer membrane (fiber membrane) of the outermost layer consists of a cornea that bears a strongly curved refraction at the front of the eyeball and a sclera that covers the outer periphery.

中間層は、眼球血管膜と総称され、カメラの絞りに相当する膜状組織であり中央に瞳孔と呼ばれる開口部を持つ虹彩と、カメラのレンズに相当する水晶体を支えたりひっぱったりする毛様体などからなる。   The middle layer is generally called the ocular vascular membrane, and is a membranous tissue that corresponds to the diaphragm of the camera, with an iris that has an opening called the pupil in the center, and a ciliary body that supports and pulls the lens that corresponds to the camera lens. Etc.

最内層は、感覚網膜(神経性網膜)と網膜色素上皮からなる網膜がある。網膜の後半部は、受けた光を神経の興奮状態に替えて視神経に伝える。   The innermost layer includes a retina composed of a sensory retina (neural retina) and a retinal pigment epithelium. The second half of the retina transmits the received light to the optic nerve, replacing the excited state of the nerve.

眼球の内容物には、直径約1cmの弾性を持つ凸レンズ状組織である水晶体と、無色透明なゼリー状で眼球の形状を支える硝子体などがある。   The contents of the eyeball include a crystalline lens that is a convex lens-like tissue having a diameter of about 1 cm, and a vitreous body that supports the shape of the eyeball in a colorless and transparent jelly shape.

眼球全体は、図3のような断面形状を有し、高解像度の距離画像センサであれば、たとえば、角膜、強膜など眼球の形状を反映した距離画像を取得することが可能である。また、そのような距離画像に基づいて、たとえば、角膜の頂部(瞳孔の位置に対応)を検出することも可能となる。   If the entire eyeball has a cross-sectional shape as shown in FIG. 3 and is a high-resolution distance image sensor, for example, a distance image reflecting the shape of the eyeball such as the cornea and sclera can be acquired. Further, based on such a distance image, for example, the apex of the cornea (corresponding to the position of the pupil) can be detected.

[システムの機能ブロック]
図4は、本実施の形態の視線方向の推定装置において、上述したCPU2040がソフトウェアを実行することにより実現する機能を示す機能ブロック図である。
[System functional blocks]
FIG. 4 is a functional block diagram illustrating functions realized by the above-described CPU 2040 executing software in the gaze direction estimation apparatus according to the present embodiment.

なお、図4に示した機能ブロックのうちのCPU2040が実現する機能ブロックとしては、ソフトウェアでの処理に限定されるものではなく、その一部または全部がハードウェアにより実現されてもよい。   Note that the functional blocks realized by the CPU 2040 among the functional blocks shown in FIG. 4 are not limited to processing by software, and some or all of them may be realized by hardware.

図4に示すように、対象となる人物からの情報を計測するためのセンサとしては、典型的には、光学カメラ30.1と距離画像センサ32.1とが設けられる。   As shown in FIG. 4, an optical camera 30.1 and a distance image sensor 32.1 are typically provided as sensors for measuring information from a target person.

ただし、最小の構成ではセンサとして、距離画像センサ32.1を使用し、被計測者の目領域の距離画像のみを得る構成としてもよい。   However, in the minimum configuration, the distance image sensor 32.1 may be used as a sensor, and only the distance image of the eye area of the measurement subject may be obtained.

なお、前提として、光学カメラ30.1と距離画像センサ32.1とは、ともに、得られた画像データから、グローバル座標での位置を、後に説明するような方法で算出できるように、校正されているものとする。   As a premise, both the optical camera 30.1 and the distance image sensor 32.1 are calibrated so that the position in global coordinates can be calculated from the obtained image data by a method described later. It shall be.

光学カメラ30.1により撮像された動画に対応する映像信号は、フレームごとに画像キャプチャ処理部5602により制御されてデジタルデータとしてキャプチャされ、画像データ記録処理部5604により、ハードディスクのような不揮発性記憶装置2080に画像データ2082として格納される。   The video signal corresponding to the moving image picked up by the optical camera 30.1 is controlled by the image capture processing unit 5602 for each frame and captured as digital data, and the image data recording processing unit 5604 is a nonvolatile storage such as a hard disk. It is stored as image data 2082 in the device 2080.

同様にして、距離画像センサ32.1により撮像された距離画像データは、フレームごとに距離画像キャプチャ処理部5606により制御されてデジタルデータとしてキャプチャされ、距離画像データ記録処理部5608により、不揮発性記憶装置2080に距離画像データ2084として格納される。   Similarly, the distance image data captured by the distance image sensor 32.1 is controlled by the distance image capture processing unit 5606 for each frame and captured as digital data. The distance image data recording processing unit 5608 stores the non-volatile data. It is stored as distance image data 2084 in the device 2080.

頭部比較処理部5610は、距離画像センサの計測範囲が眼球部よりも広く頭部全体を含むことができる場合には、まず頭部全体について観測された距離画像と頭部3次元モデルを比較し、頭部の位置・姿勢を推定する。   If the measurement range of the distance image sensor is wider than the eyeball part and can include the entire head, the head comparison processing unit 5610 first compares the distance image observed for the entire head with the head three-dimensional model. The head position / posture is estimated.

また、頭部比較処理部5610は、光学カメラによる計測範囲が眼球部よりも広く頭部全体を含むことができる場合には、まず頭部全体について得られる光学画像特徴と頭部の3次元モデルを比較し、頭部の位置・姿勢を推定する。このような推定処理は、たとえば、上述した特許文献1に記載されたのと、同様の処理により実現することができる。   In addition, when the measurement range by the optical camera is wider than the eyeball unit and can include the entire head, the head comparison processing unit 5610 first includes an optical image feature obtained for the entire head and a three-dimensional model of the head. To estimate the position and orientation of the head. Such an estimation process can be realized by a process similar to that described in Patent Document 1 described above, for example.

頭部比較処理部5610は、後に説明するように、距離画像および光学画像の双方から頭部の位置・姿勢を推定する場合は、たとえば、それぞれの推定に所定の重み付けを施して統合することにより、推定精度を向上させることができる。   As will be described later, when comparing the position / posture of the head from both the distance image and the optical image, the head comparison processing unit 5610, for example, applies a predetermined weight to each estimation and integrates them. The estimation accuracy can be improved.

第1の目領域抽出部5612.1は、距離画像データから推定された頭部の位置・姿勢から目領域位置を決定し得られた目領域位置を用いて距離画像中から目領域の距離画像を抽出する。   The first eye area extraction unit 5612.1 uses the eye area position obtained by determining the eye area position from the position / posture of the head estimated from the distance image data, and the distance image of the eye area from the distance image. To extract.

第2の目領域抽出部5612.2は、光学画像から推定された頭部の位置・姿勢から目領域位置を決定し、得られた目領域位置を用いて光学画像中から目領域の距離画像を抽出する。   The second eye region extraction unit 5612.2 determines the eye region position from the position / posture of the head estimated from the optical image, and uses the obtained eye region position to display a distance image of the eye region from the optical image. To extract.

眼球比較処理部5614は、目領域について距離画像が得られている場合は、得られた眼球部距離画像を眼球の3次元形状モデルと比較し、距離画像と最も適合する眼球姿勢を推定する。また、眼球比較処理部5614は、光学画像から目領域の画像が抽出されている場合は、距離センサに加えて得られた目領域位置を用いて輝度画像中から抽出された目領域を使用して、後に説明するように、距離画像による眼球姿勢の推定と輝度画像中の虹彩(瞳孔)位置の推定を統合して眼球の姿勢を推定する
眼球運動・視線方向推定部5616は、眼球部距離画像から取得された眼球姿勢に基づき視線方向(眼球運動)を推定する。なお、光学カメラ30.1からの光学画像が併用できる場合には、さらに眼球部の画像(輝度画像)を使用して、距離画像による眼球姿勢の推定と輝度画像中の虹彩(瞳孔)位置の推定を統合して行うことで眼球運動の推定精度を向上させることができる。
When a distance image is obtained for the eye region, the eyeball comparison processing unit 5614 compares the obtained eyeball portion distance image with a three-dimensional shape model of the eyeball, and estimates an eyeball posture that best matches the distance image. Further, when an eye region image is extracted from the optical image, the eyeball comparison processing unit 5614 uses the eye region extracted from the luminance image using the eye region position obtained in addition to the distance sensor. As described later, the eyeball posture is estimated by integrating the estimation of the eyeball posture from the distance image and the estimation of the iris (pupil) position in the luminance image. The eye movement / gaze direction estimation unit 5616 is the eyeball portion distance. A gaze direction (eye movement) is estimated based on the eyeball posture acquired from the image. In addition, when an optical image from the optical camera 30.1 can be used in combination, an eyeball image (luminance image) is further used to estimate the eyeball posture from the distance image and the iris (pupil) position in the luminance image. The estimation accuracy of eye movement can be improved by integrating the estimation.

なお、推定された眼球姿勢と距離画像に基づいて、眼球3次元形状モデルを更新し、個人化(キャリブレーション)することも可能である。   The eyeball three-dimensional shape model can be updated and personalized (calibrated) based on the estimated eyeball posture and the distance image.

表示制御部5618は、眼球運動・視線方向推定部5616に基づき推定された視線の方向を、たとえば、光学画像として撮影された人画像上に、線分や矢印などとして、重畳して表示する。このとき、画像データ等と同期したデータとして、視線方向の推定結果を、不揮発性記憶装置2080に格納してもよい。   The display control unit 5618 superimposes and displays the gaze direction estimated based on the eye movement / gaze direction estimation unit 5616, for example, as a line segment or an arrow on a human image taken as an optical image. At this time, the estimation result of the line-of-sight direction may be stored in the nonvolatile storage device 2080 as data synchronized with the image data or the like.

不揮発性記憶装置2080には、後に説明するような頭部3次元形状モデル2086や、眼球3次元形状モデル2088が格納されている。これらの頭部3次元形状モデル2086や眼球3次元形状モデル2088については、たとえば、予め複数の人間についての実測に基づいて、それらの平均としてパラメータ(形状標準パラメータ)を設定しておくことができる。なお、このような形状標準パラメータを初期値として、後に説明するようなフィッティング計算において、形状標準パラメータも、各被計測者に合せて、形状パラメータとして随時更新する構成とすることも可能である。   The nonvolatile storage device 2080 stores a head three-dimensional shape model 2086 and an eyeball three-dimensional shape model 2088 as will be described later. With respect to the head three-dimensional shape model 2086 and the eyeball three-dimensional shape model 2088, for example, parameters (shape standard parameters) can be set in advance based on actual measurements on a plurality of persons. . It should be noted that with such shape standard parameters as initial values, the shape standard parameters may be updated as needed as shape parameters in accordance with each measurement subject in fitting calculations as will be described later.

図5は、視線方向の推定処理のフローを示すフローチャートである。   FIG. 5 is a flowchart showing the flow of the gaze direction estimation process.

視線方向の推定処理が開始されると、CPU2040は、初期化処理を行い、たとえば、画像フレームを表す変数kの値を1にセットする(S102)。   When the gaze direction estimation process is started, the CPU 2040 performs an initialization process, and sets, for example, a value of a variable k representing an image frame to 1 (S102).

続いて、CPU2040は、記憶装置2080から、対応するフレームの光学画像を読出し(S104)、さらに、対応する距離画像を読み出す(S106)。   Subsequently, the CPU 2040 reads the optical image of the corresponding frame from the storage device 2080 (S104), and further reads the corresponding distance image (S106).

CPU2040は、フレームkで頭部の光学画像または距離画像が得られている場合(S108でY)、頭部運動の推定処理を実行する(S110)。   When an optical image or a distance image of the head is obtained at frame k (Y in S108), the CPU 2040 executes a head movement estimation process (S110).

距離画像センサ32.1は、センサから物体の表面までの距離を複数の方向について計測するセンサであり、計測結果は3次元点列の座標データとして与えられる。ここでは、計測結果が、以下のようなN個の点の観測データDiとして得られるものとする。   The distance image sensor 32.1 is a sensor that measures the distance from the sensor to the surface of the object in a plurality of directions, and the measurement result is given as coordinate data of a three-dimensional point sequence. Here, it is assumed that the measurement result is obtained as observation data Di of N points as follows.

(頭部運動の推定処理)
図6は、頭部3次元形状モデルの例を示す図である。
(Head movement estimation process)
FIG. 6 is a diagram illustrating an example of a head three-dimensional shape model.

頭部の回転を、アジマス角αh、エレベーション角βh、ローテーション角γhの3パラメータで表現することとする。各回転を以下の回転行列で表す。 The rotation of the head is represented by three parameters, an azimuth angle α h , an elevation angle β h , and a rotation angle γ h . Each rotation is represented by the following rotation matrix.

距離画像において、頭部が正面に向いているときの顔表面の点hj座標を頭部の回転中心を原点とする座標系で点Xhjと表すとする。顔面の形状は顔表面のMh個の点の集合として以下のように表現される。 In the distance image, the point h j coordinate on the face surface when the head is facing the front is represented as a point Xh j in a coordinate system with the rotation center of the head as the origin. The shape of the face is expressed as a set of Mh points on the face surface as follows.

頭部回転中心位置がTh、頭部姿勢が(αh,βh,γh)であるとき、点Xhjは、以下の点に移ることになる。 When the head rotation center position is Th and the head posture is (α h , β h , γ h ), the point Xh j moves to the following point.

さらに、光学カメラで得られる2次元画像上で検出可能な顔面上の特徴点fk(たとえば、目じり、目頭、口の端点など)についても、頭部が正面に向いているときの点fkの座標を頭部の回転中心を原点とする座標系で、以下のような点Xfkと表すとする。 Furthermore, the coordinates of the point fk when the head is facing the front also with respect to the feature point fk on the face that can be detected on the two-dimensional image obtained by the optical camera (for example, the eyes, the corners of the eyes, the end points of the mouth, etc.) Is a coordinate system with the center of rotation of the head as the origin, and is represented by the following point Xfk.

ここで、頭部運動の推定とは、上述した頭部回転のパラメータ(αh,βh,γh)および頭部併進運動のパラメータThの推定値を得ることである。 Here, the estimation of the head motion is to obtain the estimated values of the parameters (α h , β h , γ h ) of the head rotation and the parameter Th of the head translation motion described above.

頭部距離画像が得られているとすると、CPU2040は、頭部運動パラメータをモデル形状と観測形状の差の自乗和である次式を最小化する(αh,βh,γh,Thx,Thy,Thz)ものとして算出する。 Assuming that a head distance image has been obtained, the CPU 2040 minimizes the following equation which is the sum of squares of the difference between the model shape and the observed shape as the head movement parameter (α h , β h , γ h , Thx, (Thy, Thz).

一方で、光学画像からは、上述のとおり、以下の式のような顔特徴点(目尻、目頭、口の端部など)の位置Xfkが検出される。 On the other hand, as described above, the position Xfk of face feature points (the corner of the eye, the top of the eye, the edge of the mouth, etc.) represented by the following expression is detected from the optical image.

光学画像については、頭部姿勢が、(αh,βh,γh)および頭部位置Thで表されるとき、顔特徴点fkの位置は、以下のように表される。 For the optical image, when the head posture is represented by (α h , β h , γ h ) and the head position Th, the position of the face feature point fk is represented as follows.

光学カメラ位置をTc、カメラ姿勢をRc、焦点距離をfとし、簡単のため、画像原点が一致しているとすると、点Xfkは、以下の式で表される。 Assuming that the optical camera position is Tc, the camera posture is Rc, and the focal length is f, and the image origins coincide for the sake of simplicity, the point Xfk is expressed by the following equation.

以下では、このような関係を、単に、以下のように表す。 Hereinafter, such a relationship is simply expressed as follows.

距離画像の観測と通常画像の観測の両方を考慮すると、頭部位置・姿勢は次式で推定される。 Considering both the observation of the distance image and the observation of the normal image, the head position / posture is estimated by the following equation.

ここで、qhは距離画像と光学画像の重みを表すパラメータである(0≦qh≦1)。 Here, qh is a parameter representing the weight of the distance image and the optical image (0 ≦ qh ≦ 1).

このような距離画像、あるいは距離画像と光学画像についてのフィッテイングの計算は、たとえば、「Levenberg-Marquardt法」などのようなアルゴリズムを用いることで計算することができる。   Such a distance image or a fitting calculation for a distance image and an optical image can be calculated by using an algorithm such as “Levenberg-Marquardt method”, for example.

図5に再び戻って、CPU2040は、頭部の位置姿勢が得られると、頭部と眼球位置について予めモデルとして設定されている関係から光学画像または距離画像センサの計測データのうち目領域に対応する領域を抽出する(S114)。   Returning to FIG. 5 again, when the position and orientation of the head are obtained, the CPU 2040 corresponds to the eye region of the measurement data of the optical image or the distance image sensor from the relationship set as a model in advance for the head and eyeball positions. A region to be extracted is extracted (S114).

図7は、観測された光学画像から眼球周辺画像を切り出した例を示す図である。   FIG. 7 is a diagram illustrating an example in which an eyeball peripheral image is cut out from the observed optical image.

図7(a)に示されるように、観測された光学画像から被計測者の眼球周辺画像が正しく切り出されている。   As shown in FIG. 7A, the image around the eyeball of the measurement subject is correctly cut out from the observed optical image.

また、図7(b)において矢印は、目じりまたは目頭、あるいは、瞳孔などの特徴点の位置を示している。   In addition, in FIG. 7B, the arrows indicate the positions of the feature points such as the eyes or the eyes or the pupil.

なお、得られた画像から瞼領域を抽出するためには、ベジェ曲線を用いたフィッティングなどを用いることができる。   In order to extract the eyelid region from the obtained image, fitting using a Bezier curve or the like can be used.

CPU2040は、虹彩領域の決定には、得られた瞼領域と眼球領域の境界を用い、瞼領域内と眼球領域内での輝度を用いて、虹彩領域を決定する。   The CPU 2040 determines the iris region by using the obtained boundary between the eyelid region and the eyeball region, and using the luminance in the eyelid region and the eyeball region.

なお、虹彩領域の抽出およびそれに基づく瞳孔の抽出には、上述した特許文献1に開示された方法を用いてもよい。   Note that the method disclosed in Patent Document 1 described above may be used to extract the iris region and the pupil based on the iris region.

また、距離画像から目領域を抽出する場合は、上述したような頭部姿勢の情報に基づいて、同様にして、目領域に対応する距離画像を切り出せばよい。距離画像の場合は、上述したように角膜の形状等に直接基づいて、眼球の運動の推定を行うことができる。   In addition, when an eye region is extracted from a distance image, a distance image corresponding to the eye region may be similarly cut out based on the information on the head posture as described above. In the case of a distance image, it is possible to estimate the movement of the eyeball based directly on the shape of the cornea as described above.

図5にもどって、目領域の距離画像が取得されている場合は(S116でY)、CPU2040は、以下に説明する手続きで、眼球運動および視線方向の推定を行う(S118)。
[眼球運動(視線方向)の推定]
(眼球3次元形状モデル)
まず、眼球運動(視線方向)の推定処理の前提として、眼球3次元形状モデルについて説明する。
Returning to FIG. 5, when the distance image of the eye region has been acquired (Y in S116), the CPU 2040 performs eye movement and gaze direction estimation according to the procedure described below (S118).
[Estimation of eye movement (gaze direction)]
(Eyeball 3D shape model)
First, an eyeball three-dimensional shape model will be described as a premise of the eye movement (gaze direction) estimation process.

図8は、眼球の3次元形状モデルの例を示す図である。   FIG. 8 is a diagram illustrating an example of a three-dimensional shape model of an eyeball.

図8に示すように、虹彩半径をri(瞳孔半径をrp)、眼球回転中心を中心として虹彩(瞳孔)が回転する際の回転半径をlとする。   As shown in FIG. 8, the iris radius is ri (pupil radius is rp), and the rotation radius when the iris (pupil) rotates around the center of eyeball rotation is l.

眼球の回転をアジマス角α、エレベーション角βの2パラメータで表現することとする。各回転は、以下の回転行列で表される。   The rotation of the eyeball is expressed by two parameters, an azimuth angle α and an elevation angle β. Each rotation is represented by the following rotation matrix.

眼球が正面に向いているときの眼球表面の点ejの座標を眼球の回転中心を原点とする座標系でXejと表すとする。眼球の形状は、眼球表面のM個の点の集合として以下のように表現される。 Assume that the coordinates of the point ej on the surface of the eyeball when the eyeball is facing the front are represented as Xej in a coordinate system with the rotation center of the eyeball as the origin. The shape of the eyeball is expressed as a set of M points on the eyeball surface as follows.

ここで眼球運動(視線方向)の推定とは、眼球回転のパラメータα,βおよび眼球中心位置の推定値を得ることである。 Here, the estimation of the eye movement (gaze direction) is to obtain the estimated values of the eyeball rotation parameters α and β and the eyeball center position.

まず、距離画像単独での眼球運動推定処理について説明する。   First, eye movement estimation processing using a distance image alone will be described.

センサ配置の調整または頭部の位置・姿勢推定の結果として目領域に限定した距離画像が得られているとする。このとき、眼球運動パラメータは、モデル形状と観測形状の差の自乗和である次式を最小化するグローバル座標でのパラメータ(α,β,Tx,Ty,Tz)として得られる。   It is assumed that a distance image limited to the eye region is obtained as a result of adjustment of sensor arrangement or estimation of head position / posture. At this time, the eye movement parameter is obtained as a parameter (α, β, Tx, Ty, Tz) in global coordinates that minimizes the following equation, which is the sum of squares of the difference between the model shape and the observed shape.

一方で通常画像からは虹彩(瞳孔)の以下のような位置Xeが検出さる。 On the other hand, the following position Xe of the iris (pupil) is detected from the normal image.

虹彩(瞳孔)の回転半径をlとすると、姿勢α,β、眼球の回転中心位置Teにある眼球の虹彩(瞳孔)位置は、以下のようになる。 If the radius of rotation of the iris (pupil) is l, the iris (pupil) position of the eyeball at postures α and β and the rotation center position Te of the eyeball is as follows.

カメラ位置をTc、カメラ姿勢をRc、焦点距離をfとし、簡単のためカメラの光軸中心と画像原点が一致しているとすると、位置Xeは次式で表される。 Assuming that the camera position is Tc, the camera posture is Rc, and the focal length is f, and the center of the optical axis of the camera and the image origin coincide for the sake of simplicity, the position Xe is expressed by the following equation.

距離画像の観測と通常画像の観測の両方を考慮すると、眼球運動は以下ので推定される。 Considering both the observation of the distance image and the observation of the normal image, the eye movement is estimated as follows.

ここでも、qは距離画像と光学画像の重みを表すパラメータである(0≦q≦1)。 Again, q is a parameter representing the weight of the distance image and the optical image (0 ≦ q ≦ 1).

また、頭部姿勢の場合と同様に、このような距離画像、あるいは距離画像と光学画像についてのフィッテイングの計算は、たとえば、「Levenberg-Marquardt法」などのようなアルゴリズムを用いることで計算することができる。   In addition, as in the case of the head posture, such a distance image, or the fitting calculation for the distance image and the optical image is calculated by using an algorithm such as “Levenberg-Marquardt method”, for example. be able to.

CPU2040は、続いて、推定された眼球運動および視線方向の推定結果に基づいて、光学画像上に視線方向を重畳して表示する(S120)。   Subsequently, the CPU 2040 superimposes and displays the gaze direction on the optical image based on the estimated eye movement and gaze direction estimation results (S120).

処理が終了していなければ(S122でN)、kの値を1だけインクリメントして(S124)処理は、ステップS104に復帰する。   If the process has not ended (N in S122), the value of k is incremented by 1 (S124), and the process returns to step S104.

以上説明したように、本実施の形態では、距離画像センサによって得られる高解像度の眼球距離画像情報に基づいて眼球運動(視線方向)を推定する。距離画像を用いることで、2次元画像上の眼球あるいは顔面表面の輝度値の個人差や照明条件に大きく依存することなく安定して形状情報を得ることができる。また、2次元画像に比べてより多くの情報が得られるため推定精度の向上が可能となる。   As described above, in the present embodiment, eye movement (gaze direction) is estimated based on high-resolution eyeball distance image information obtained by the distance image sensor. By using the distance image, it is possible to stably obtain shape information without greatly depending on individual differences in brightness values of the eyeball or face surface on the two-dimensional image and illumination conditions. Further, since more information can be obtained compared to the two-dimensional image, the estimation accuracy can be improved.

また、頭部全体の観測や通常の画像センサによって得られる輝度画像を併用することで、推定精度を向上させることが可能となる。   In addition, the estimation accuracy can be improved by using the entire head and the luminance image obtained by a normal image sensor.

なお、以上の説明では、光学画像または距離画像として頭部の画像が取得され、それに基づいて、目領域を抽出するものとして説明したが、たとえば、頭部が固定されているなど、あらかじめ目領域が特定される場合には上記目領域抽出の処理を省略することができる。   In the above description, the head image is acquired as the optical image or the distance image, and the eye region is extracted based on the acquired image. However, for example, the eye region is fixed in advance, for example, the head is fixed. Can be omitted, the eye region extraction process can be omitted.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

20 視線方向の推定装置、30.1〜30.n カメラ、2010 コンピュータ本体、2020 光学ディスクドライブ、2030 光学ディスクドライブ、2040 CPU、2050 バス、2060 ROM、2070 RAM、2080 ハードディスク、2100 キーボード、2110 マウス、2120 ディスプレイ、2210 メモリカード、5602 画像キャプチャ処理部、5604 画像データ記録処理部、5606 距離画像キャプチャ処理部、5608 距離画像データ記録処理部、5610 頭部比較処理部、5612.1,5612.2 目領域抽出部、5614 眼球比較処理部、5616 眼球運動視線方向推定部、5616 表示制御部。   20 Gaze direction estimation device, 30.1-30. n Camera, 2010 computer main body, 2020 optical disk drive, 2030 optical disk drive, 2040 CPU, 2050 bus, 2060 ROM, 2070 RAM, 2080 hard disk, 2100 keyboard, 2110 mouse, 2120 display, 2210 memory card, 5602 image capture processing unit , 5604 Image data recording processing unit, 5606 Distance image capture processing unit, 5608 Distance image data recording processing unit, 5610 Head comparison processing unit, 56122.1, 56122.2 Eye region extraction unit, 5614 Eyeball comparison processing unit, 5616 Eyeball Motion gaze direction estimation unit, 5616 display control unit.

Claims (8)

被計測者の目領域を含む距離画像を取得するための距離画像センサと、
眼球3次元形状モデルを格納する記憶装置と、
前記距離画像から抽出された目領域の距離画像と前記眼球3次元形状モデルとのフィッティングに基づいて、眼球姿勢を算出して、視線方向を推定する視線方向推定手段とを備える、視線方向推定装置。
A distance image sensor for acquiring a distance image including an eye area of the measurement subject;
A storage device for storing a three-dimensional eyeball model;
A gaze direction estimation device comprising gaze direction estimation means for calculating an eyeball posture and estimating a gaze direction based on the fitting of the distance image of the eye region extracted from the distance image and the three-dimensional model of the eyeball .
前記記憶装置は、頭部3次元形状モデルを格納し、
前記距離画像センサにより取得された前記被計測者の頭部の距離画像と前記頭部3次元形状モデルとに基づいて、頭部姿勢を推定する頭部姿勢推定手段と、
前記頭部姿勢推定手段により推定された前記頭部姿勢から前記目領域の距離画像を抽出する目領域抽出手段とをさらに備える、視線方向推定装置。
The storage device stores a head three-dimensional shape model,
A head posture estimating means for estimating a head posture based on the distance image of the head of the measurement subject acquired by the distance image sensor and the three-dimensional shape model of the head;
A line-of-sight direction estimation device further comprising eye region extraction means for extracting a distance image of the eye region from the head posture estimated by the head posture estimation means.
前記被計測者の光学画像を取得するための撮影手段をさらに備え、
前記頭部姿勢推定手段は、前記撮影手段により取得された前記被計測者の頭部の光学画像と、前記頭部の距離画像とを統合して、前記頭部姿勢を推定する、請求項2記載の視線方向推定装置。
It further comprises a photographing means for obtaining an optical image of the measurement subject,
The head posture estimation unit estimates the head posture by integrating an optical image of the head of the measurement subject acquired by the photographing unit and a distance image of the head. The gaze direction estimation apparatus described.
前記視線方向推定手段は、前記撮影手段により取得された前記被計測者の目領域の光学画像と、前記目領域の距離画像とを統合して、前記視線方向を推定する、請求項3記載の視線方向推定装置。   The gaze direction estimation unit is configured to estimate the gaze direction by integrating an optical image of the eye area of the measurement subject acquired by the imaging unit and a distance image of the eye area. Gaze direction estimation device. 距離画像センサにより取得された距離画像により被計測者の視線方向を推定する方法であって、
距離画像センサにより前記被計測者の目領域を含む距離画像を取得するステップと、
演算装置が、記憶装置に格納された眼球3次元形状モデルと前記距離画像から抽出された目領域の距離画像とのフィッティングに基づいて、眼球姿勢を算出して、視線方向を推定するステップとを備える、視線方向推定方法。
A method for estimating a gaze direction of a person to be measured from a distance image acquired by a distance image sensor,
Obtaining a distance image including the eye area of the person to be measured by a distance image sensor;
A calculation device that calculates an eyeball posture based on a fitting between a three-dimensional eyeball model stored in a storage device and a distance image of an eye area extracted from the distance image, and estimates a gaze direction; A gaze direction estimation method provided.
前記記憶装置は、頭部3次元形状モデルを格納しており、
演算装置が、前記距離画像センサにより取得された前記被計測者の頭部の距離画像と前記頭部3次元形状モデルとに基づいて、頭部姿勢を推定するステップと、
演算装置が、推定された前記頭部姿勢から前記目領域の距離画像を抽出するステップとをさらに備える、請求項5記載の視線方向推定方法。
The storage device stores a head three-dimensional shape model,
A computing device that estimates a head posture based on the distance image of the head of the person to be measured acquired by the distance image sensor and the three-dimensional model of the head;
6. The gaze direction estimation method according to claim 5, further comprising a step of extracting a distance image of the eye area from the estimated head posture.
撮像装置により前記被計測者の光学画像を取得するためのステップと、
前記頭部姿勢を推定するステップは、前記撮影装置により取得された前記被計測者の頭部の光学画像と、前記頭部の距離画像とを統合して、前記頭部姿勢を推定するステップを含む、請求項6記載の視線方向推定方法。
A step for obtaining an optical image of the person to be measured by an imaging device;
The step of estimating the head posture includes the step of estimating the head posture by integrating the optical image of the head of the measurement subject acquired by the imaging device and the distance image of the head. The gaze direction estimation method according to claim 6.
前記視線方向を推定するステップは、前記撮影装置により取得された前記被計測者の目領域の光学画像と、前記目領域の距離画像とを統合して、前記視線方向を推定するステップを含む、請求項7記載の視線方向推定方法。   The step of estimating the line-of-sight direction includes the step of estimating the line-of-sight direction by integrating the optical image of the eye area of the measurement subject acquired by the imaging device and the distance image of the eye area. The gaze direction estimation method according to claim 7.
JP2014071746A 2014-03-31 2014-03-31 Line-of-sight direction estimation device and line-of-sight direction estimation method Pending JP2015194838A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014071746A JP2015194838A (en) 2014-03-31 2014-03-31 Line-of-sight direction estimation device and line-of-sight direction estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014071746A JP2015194838A (en) 2014-03-31 2014-03-31 Line-of-sight direction estimation device and line-of-sight direction estimation method

Publications (1)

Publication Number Publication Date
JP2015194838A true JP2015194838A (en) 2015-11-05

Family

ID=54433808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014071746A Pending JP2015194838A (en) 2014-03-31 2014-03-31 Line-of-sight direction estimation device and line-of-sight direction estimation method

Country Status (1)

Country Link
JP (1) JP2015194838A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017116662A1 (en) * 2015-12-28 2017-07-06 Artilux Corporation Eye gesture tracking
US9786715B2 (en) 2015-07-23 2017-10-10 Artilux Corporation High efficiency wide spectrum sensor
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
US9954016B2 (en) 2015-08-04 2018-04-24 Artilux Corporation Germanium-silicon light sensing apparatus
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10564718B2 (en) 2015-08-04 2020-02-18 Artilux, Inc. Eye gesture tracking
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10777692B2 (en) 2018-02-23 2020-09-15 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10886311B2 (en) 2018-04-08 2021-01-05 Artilux, Inc. Photo-detecting apparatus
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
TWI743148B (en) * 2016-07-15 2021-10-21 光程研創股份有限公司 Eye gesture tracking computer implement method, eye gesture tracking systems and apparatus
WO2023010301A1 (en) * 2021-08-04 2023-02-09 华为技术有限公司 Line-of-sight detection method and apparatus, and eyeball model modeling method and apparatus
US11630212B2 (en) 2018-02-23 2023-04-18 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
CN116052261A (en) * 2022-05-31 2023-05-02 荣耀终端有限公司 Sight estimation method and electronic equipment
CN116958945A (en) * 2023-08-07 2023-10-27 北京中科睿途科技有限公司 Intelligent cabin-oriented driver sight estimating method and related equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2012518501A (en) * 2009-02-26 2012-08-16 カール・ツアイス・ビジョン・ゲーエムベーハー Method and apparatus for determining eyeball fulcrum position

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2012518501A (en) * 2009-02-26 2012-08-16 カール・ツアイス・ビジョン・ゲーエムベーハー Method and apparatus for determining eyeball fulcrum position

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吉永 智明、長屋 茂喜: ""事前校正不要な注視位置計測システムの試作"", 映像情報メディア学会 2006年年次大会講演予稿集, JPN6018007040, 1 June 2006 (2006-06-01), JP, pages 1 - 2, ISSN: 0003748275 *
岡 兼司、外3名: ""超小型ステレオカメラによる車載向け顔向き視線検出技術の開発"", 画像ラボ, vol. 21, no. 2, JPN6018007038, 10 February 2010 (2010-02-10), JP, pages 56 - 60, ISSN: 0003848205 *
松本 吉央、外2名: ""リアルタイム視線検出・動作認識システムの開発"", 電子情報通信学会技術研究報告, vol. 99, no. 450, JPN6018007036, 20 November 1999 (1999-11-20), JP, pages 9 - 14, ISSN: 0003848204 *

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10269862B2 (en) 2015-07-23 2019-04-23 Artilux Corporation High efficiency wide spectrum sensor
US9786715B2 (en) 2015-07-23 2017-10-10 Artilux Corporation High efficiency wide spectrum sensor
US10615219B2 (en) 2015-07-23 2020-04-07 Artilux, Inc. High efficiency wide spectrum sensor
US11335725B2 (en) 2015-07-23 2022-05-17 Artilux, Inc. High efficiency wide spectrum sensor
US10269838B2 (en) 2015-08-04 2019-04-23 Artilux Corporation Germanium-silicon light sensing apparatus
US10964742B2 (en) 2015-08-04 2021-03-30 Artilux, Inc. Germanium-silicon light sensing apparatus II
US11755104B2 (en) 2015-08-04 2023-09-12 Artilux, Inc. Eye gesture tracking
US10256264B2 (en) 2015-08-04 2019-04-09 Artilux Corporation Germanium-silicon light sensing apparatus
US10756127B2 (en) 2015-08-04 2020-08-25 Artilux, Inc. Germanium-silicon light sensing apparatus
US10056415B2 (en) 2015-08-04 2018-08-21 Artilux Corporation Germanium-silicon light sensing apparatus
US9954016B2 (en) 2015-08-04 2018-04-24 Artilux Corporation Germanium-silicon light sensing apparatus
US11756969B2 (en) 2015-08-04 2023-09-12 Artilux, Inc. Germanium-silicon light sensing apparatus
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10564718B2 (en) 2015-08-04 2020-02-18 Artilux, Inc. Eye gesture tracking
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10685994B2 (en) 2015-08-04 2020-06-16 Artilux, Inc. Germanium-silicon light sensing apparatus
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10770504B2 (en) 2015-08-27 2020-09-08 Artilux, Inc. Wide spectrum optical sensor
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10886312B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US11579267B2 (en) 2015-11-06 2023-02-14 Artilux, Inc. High-speed light sensing apparatus
US10795003B2 (en) 2015-11-06 2020-10-06 Artilux, Inc. High-speed light sensing apparatus
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US11747450B2 (en) 2015-11-06 2023-09-05 Artilux, Inc. High-speed light sensing apparatus
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10310060B2 (en) 2015-11-06 2019-06-04 Artilux Corporation High-speed light sensing apparatus
US10353056B2 (en) 2015-11-06 2019-07-16 Artilux Corporation High-speed light sensing apparatus
US11749696B2 (en) 2015-11-06 2023-09-05 Artilux, Inc. High-speed light sensing apparatus II
US11131757B2 (en) 2015-11-06 2021-09-28 Artilux, Inc. High-speed light sensing apparatus
US11637142B2 (en) 2015-11-06 2023-04-25 Artilux, Inc. High-speed light sensing apparatus III
CN108475109B (en) * 2015-12-28 2022-02-01 光程研创股份有限公司 Eye posture tracking
WO2017116662A1 (en) * 2015-12-28 2017-07-06 Artilux Corporation Eye gesture tracking
CN108475109A (en) * 2015-12-28 2018-08-31 奥特逻科集团 Eyes Attitude Tracking
TWI758231B (en) * 2016-07-15 2022-03-11 光程研創股份有限公司 Eye gesture tracking system
TWI743148B (en) * 2016-07-15 2021-10-21 光程研創股份有限公司 Eye gesture tracking computer implement method, eye gesture tracking systems and apparatus
US11630212B2 (en) 2018-02-23 2023-04-18 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
US10777692B2 (en) 2018-02-23 2020-09-15 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US11329081B2 (en) 2018-04-08 2022-05-10 Artilux, Inc. Photo-detecting apparatus
US10886311B2 (en) 2018-04-08 2021-01-05 Artilux, Inc. Photo-detecting apparatus
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
WO2023010301A1 (en) * 2021-08-04 2023-02-09 华为技术有限公司 Line-of-sight detection method and apparatus, and eyeball model modeling method and apparatus
CN116052261A (en) * 2022-05-31 2023-05-02 荣耀终端有限公司 Sight estimation method and electronic equipment
CN116958945A (en) * 2023-08-07 2023-10-27 北京中科睿途科技有限公司 Intelligent cabin-oriented driver sight estimating method and related equipment
CN116958945B (en) * 2023-08-07 2024-01-30 北京中科睿途科技有限公司 Intelligent cabin-oriented driver sight estimating method and related equipment

Similar Documents

Publication Publication Date Title
JP2015194838A (en) Line-of-sight direction estimation device and line-of-sight direction estimation method
US11762462B2 (en) Eye-tracking using images having different exposure times
US11675432B2 (en) Systems and techniques for estimating eye pose
CN109791605B (en) Adaptive parameters in image regions based on eye tracking information
US10802583B2 (en) Methods and apparatus for retinal retroreflection imaging
CN107004275B (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
US11829523B2 (en) Systems and methods for anatomy-constrained gaze estimation
KR20180115285A (en) Spherical specular tracking of cornea to create eye model
KR101909006B1 (en) Image registration device, image registration method, and image registration program
JP2019519859A (en) System and method for performing gaze tracking
CN109696954B (en) Sight tracking method, device, equipment and storage medium
JP2019500660A (en) Eye tracking using structured light
CN104809424B (en) Method for realizing sight tracking based on iris characteristics
WO2018076202A1 (en) Head-mounted display device that can perform eye tracking, and eye tracking method
WO2019028152A1 (en) Eye tracking using time multiplexing
JP7030317B2 (en) Pupil detection device and pupil detection method
WO2019010959A1 (en) Method and device for determining sight line, and computer readable storage medium
US20160247322A1 (en) Electronic apparatus, method and storage medium
KR20210122271A (en) Eye tracking devices and methods
CN113260299A (en) System and method for eye tracking
CN111524175A (en) Depth reconstruction and eye movement tracking method and system for asymmetric multiple cameras
KR101817436B1 (en) Apparatus and method for displaying contents using electrooculogram sensors
JP2017091190A (en) Image processor, image processing method, and program
WO2023027881A1 (en) Hybrid gaze tracking system
WO2023049088A1 (en) Eye tracking using coherence-based measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180309

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180808