JP2002282210A - Method and apparatus for detecting visual axis - Google Patents

Method and apparatus for detecting visual axis

Info

Publication number
JP2002282210A
JP2002282210A JP2001089886A JP2001089886A JP2002282210A JP 2002282210 A JP2002282210 A JP 2002282210A JP 2001089886 A JP2001089886 A JP 2001089886A JP 2001089886 A JP2001089886 A JP 2001089886A JP 2002282210 A JP2002282210 A JP 2002282210A
Authority
JP
Japan
Prior art keywords
pupil
eye
face
detecting
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001089886A
Other languages
Japanese (ja)
Other versions
JP4729188B2 (en
Inventor
Hitoshi Hongo
仁志 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001089886A priority Critical patent/JP4729188B2/en
Publication of JP2002282210A publication Critical patent/JP2002282210A/en
Application granted granted Critical
Publication of JP4729188B2 publication Critical patent/JP4729188B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device for detecting the visual axis capable of detecting the visual axis appropriately in a wide interior space without having the device worn by a subject of the detection. SOLUTION: Each personal computer 14 for a camera judges whether the face on the front view is being caught in a prescribed angle range based on the estimated angle of the face, and after normalization of the size of the pupil region in the eye region in the image data satisfying the condition for the judgement, the center of the eye and the center of the pupil are calculated, and the quantity of divergence between them is calculated. After that, a main personal computer 16 compares the plural quantities of divergence as the results of the operation and determines that the visual axis is directed to a video camera with the smallest quantity of divergence based on the comparison.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、視線検出方法及び
その装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze detection method and apparatus.

【0002】[0002]

【従来の技術】従来より、人物の視線や動作など、人間
をセンシングして得られる情報と、物体センシングによ
り構築された周辺環境とから、その人の要望を察知し、
その人の意図に適したサービスを提供することが提案さ
れている。これらを実現するためには、人間とその周辺
環境をセンシングし、その人が何を見て、どのような動
作を行っているかを知ることが重要なこととなる。この
とき、視線情報はその人が注目している物又は、その人
の意図や状況を推定するのに欠かせない情報の1つであ
る。
2. Description of the Related Art Conventionally, a person's request is sensed from information obtained by sensing a person, such as a line of sight and movement of a person, and a surrounding environment constructed by object sensing.
It has been proposed to provide a service suitable for the intention of the person. In order to realize these, it is important to sense a person and its surrounding environment, and to know what the person is seeing and what kind of operation is being performed. At this time, the line-of-sight information is one of information that the person is paying attention to or information that is indispensable for estimating the intention and situation of the person.

【0003】視線を検出する視線検出方法としては、以
下のようなものが知られている。即ち、視線検出用光源
を有するゴーグル型の視線検出装置を検出対象者の頭部
に装着させ、前記光源から赤外光を眼部に照射する。そ
して、視線検出装置内に設けられた受光センサが眼部
(瞳孔と角膜)にて反射する反射光を受光し、その反射
光に基づいて視線を検出する。
[0003] The following are known as eye gaze detection methods for detecting the eye gaze. That is, a goggle-type line-of-sight detection device having a line-of-sight detection light source is mounted on the head of the detection target person, and the light source irradiates the eye with infrared light. Then, a light receiving sensor provided in the eye gaze detecting device receives the reflected light reflected by the eyes (pupil and cornea), and detects the eye gaze based on the reflected light.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
ような視線検出方法では、頭部(眼部)にいちいちゴー
グル型の装置を装着しなくてはならず、非常に煩わしい
という問題があった。また、通常ゴーグル型の視線検出
装置は、検出した視線に基づいて所定の処理や制御を行
う制御用コンピュータ等に有線接続されているため、移
動範囲が規制され、広い室内空間等では使用できないと
いう問題があった。
However, the above-described gaze detection method has a problem that a goggle type device must be mounted on the head (eye), which is very troublesome. In addition, since the goggle-type gaze detection device is usually wiredly connected to a control computer or the like that performs predetermined processing and control based on the detected gaze, the movement range is restricted, and it cannot be used in a large indoor space or the like. There was a problem.

【0005】本発明は上記問題点を解決するためになさ
れたものであり、その目的は、装置を検出対象者に装着
させることなく、広い室内空間でも好適に視線を検出す
ることができる視線検出方法及びその装置を提供するこ
とにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide a gaze detection device capable of suitably detecting a gaze even in a large indoor space without mounting the device on a person to be detected. It is an object of the present invention to provide a method and an apparatus thereof.

【0006】[0006]

【課題を解決するための手段】上記問題点を解決するた
めに、請求項1に記載の発明は、所定ポイントから検出
対象者を撮像する撮像手段と、撮像手段が撮像した画像
データから、検出対象者の顔領域検出を行い、検出した
顔領域に基づいて顔向き推定を行う顔向き推定手段と、
顔向き推定手段が推定した顔向きが所定の角度範囲を含
む正面顔であるか否かを判定する判定手段と、判定手段
が正面顔であると判定した画像データにおける正面顔の
目領域を検出する目領域検出手段と、目領域検出手段が
検出した目領域において、同目領域内の第1所定部位と
第2所定部位との距離を計測する距離計測手段と、距離
計測手段が計測した距離に基づいて視線を推定する視線
推定手段とを備えたことを要旨とする。
According to a first aspect of the present invention, there is provided an imaging apparatus for detecting an object to be detected from a predetermined point, and detecting image data from image data captured by the imaging unit. A face direction estimating means for detecting a face area of the target person and estimating a face direction based on the detected face area;
Determining means for determining whether the face direction estimated by the face direction estimating means is a frontal face including a predetermined angle range, and detecting an eye area of the frontal face in the image data determined by the determining means to be a frontal face Eye area detecting means, a distance measuring means for measuring a distance between a first predetermined part and a second predetermined part in the eye area detected by the eye area detecting means, and a distance measured by the distance measuring means Gaze estimating means for estimating the gaze based on the gist.

【0007】請求項2に記載の発明は、請求項1におい
て、前記目領域内における瞳中心を検出する瞳検出手段
を更に備え、前記第1所定部位は瞳中心であることを要
旨とする。
According to a second aspect of the present invention, in the first aspect, a pupil detecting means for detecting a pupil center in the eye region is further provided, and the first predetermined portion is a pupil center.

【0008】請求項3に記載の発明は、請求項1又は請
求項2において、前記目領域内における瞳孔中心を検出
する瞳孔検出手段を更に備え、前記第2所定部位は、瞳
孔中心であることを要旨とする。
According to a third aspect of the present invention, in the first or second aspect, the apparatus further comprises pupil detection means for detecting a pupil center in the eye area, and the second predetermined portion is a pupil center. Is the gist.

【0009】請求項4に記載の発明は、請求項1又は請
求項2において、前記目領域における重心位置を検出す
る重心検出手段を更に備え、前記第2所定部位は目領域
の重心であることを要旨とする。
According to a fourth aspect of the present invention, in the first or second aspect, the apparatus further comprises a center of gravity detecting means for detecting a position of a center of gravity in the eye region, wherein the second predetermined portion is a center of gravity of the eye region. Is the gist.

【0010】請求項5に記載の発明は、所定ポイントか
ら検出対象者を撮像する撮像行程と、撮像した画像デー
タから、検出対象者の顔領域検出を行い、検出した顔領
域に基づいて顔向き推定を行う顔向き推定行程と、推定
した顔向きが所定の角度範囲を含む正面顔であるか否か
を判定する判定行程と、正面顔であると判定した画像デ
ータにおける正面顔の目領域を検出する目領域検出行程
と、検出した目領域において、同目領域内の第1所定部
位と第2所定部位との距離を計測する距離計測行程と、
計測した距離に基づいて視線を推定する視線推定行程と
を備えたことを要旨とする。
[0010] According to a fifth aspect of the present invention, an image capturing step of capturing an image of a person to be detected from a predetermined point, a face area of the person to be detected is detected from the captured image data, and a face orientation is detected based on the detected face area. A face direction estimating step for estimating, a determining step of determining whether the estimated face direction is a front face including a predetermined angle range, and an eye area of the front face in the image data determined to be the front face. An eye region detection process for detecting, and a distance measurement process for measuring a distance between a first predetermined portion and a second predetermined portion in the detected eye region in the detected eye region;
A gaze estimation process for estimating the gaze based on the measured distance is provided.

【0011】請求項6に記載の発明は、請求項5におい
て、前記目領域内における瞳中心を検出する瞳検出行程
を更に含み、前記第1所定部位は瞳中心であることを要
旨とする。
The invention according to claim 6 is the invention according to claim 5, further comprising a pupil detection step of detecting a pupil center in the eye area, wherein the first predetermined portion is a pupil center.

【0012】請求項7に記載の発明は、請求項5又は請
求項6において、前記目領域内における瞳孔中心を検出
する瞳孔検出行程を更に含み、前記第2所定部位は、瞳
孔中心であることを要旨とする。
According to a seventh aspect of the present invention, in the fifth or sixth aspect, the method further includes a pupil detection step of detecting a pupil center in the eye region, wherein the second predetermined portion is a pupil center. Is the gist.

【0013】請求項8に記載の発明は、請求項5又は請
求項6において、前記目領域における重心位置を検出す
る重心検出行程を更に含み、前記第2所定部位は目領域
の重心であることを要旨とする。
According to an eighth aspect of the present invention, in the fifth or sixth aspect, the method further includes a center of gravity detecting step of detecting a center of gravity position in the eye region, wherein the second predetermined portion is a center of gravity of the eye region. Is the gist.

【0014】(作用)請求項1の発明によれば、所定ポ
イントから撮像手段が撮像した画像データから、顔向き
推定手段にて顔向きが推定され、判定手段にてその顔向
きが所定角度範囲を含む正面顔か否かが判定される。そ
して、距離計測手段にて、正面顔と判定された画像デー
タにおける目領域内の第1所定部位と第2所定部位の距
離が計測され、視線推定手段にてその距離に基づいて視
線は検出される。
According to the first aspect of the present invention, the face direction is estimated by the face direction estimating means from the image data picked up by the image pick-up means from the predetermined point, and the face direction is determined by the judging means in the predetermined angle range. It is determined whether or not the face is a front face. Then, the distance measuring means measures the distance between the first predetermined part and the second predetermined part in the eye area in the image data determined as the frontal face, and the gaze is detected by the gaze estimating means based on the distance. You.

【0015】請求項2の発明によれば、瞳中心が用いら
れて、視線推定手段にて視線の推定が行われる。請求項
3の発明によれば、瞳中心に加えて、瞳孔中心が用いら
れて視線推定手段にて視線の推定が行われる。
According to the second aspect of the present invention, the line of sight is estimated by the line of sight estimating means using the pupil center. According to the third aspect of the present invention, the gaze is estimated by the gaze estimating means using the pupil center in addition to the pupil center.

【0016】請求項4の発明によれば、瞳中心に加え
て、目領域の重心が用いられて視線推定手段にて視線の
推定が行われる。請求項5の発明によれば、所定ポイン
トから撮像行程で撮像した画像データから、顔向き推定
行程で顔向きが推定され、判定行程でその顔向きが所定
角度範囲を含む正面顔か否かが判定される。そして、距
離計測行程で正面顔と判定された画像データにおける目
領域内の第1所定部位と第2所定部位の距離が計測さ
れ、視線推定行程でその距離に基づいて視線は検出され
る。
According to the fourth aspect of the present invention, the line of sight is estimated by the line of sight estimating means using the center of gravity of the eye region in addition to the center of the pupil. According to the fifth aspect of the present invention, a face orientation is estimated in a face orientation estimation process from image data captured in an imaging process from a predetermined point, and it is determined whether or not the face orientation is a front face including a predetermined angle range in a determination process. Is determined. Then, the distance between the first predetermined part and the second predetermined part in the eye area in the image data determined to be the front face in the distance measurement step is measured, and the line of sight is detected based on the distance in the line of sight estimation step.

【0017】請求項6の発明によれば、瞳中心が用いら
れて、視線推定行程では視線の推定が行われる。請求項
7の発明によれば、瞳中心に加えて、瞳孔中心が用いら
れて視線推定行程では視線の推定が行われる。
According to the sixth aspect of the present invention, the sight line is estimated in the sight line estimation process using the pupil center. According to the invention of claim 7, the gaze is estimated in the gaze estimation process using the pupil center in addition to the pupil center.

【0018】請求項8の発明によれば、瞳中心に加え
て、目領域の重心が用いられて視線推定行程では視線の
推定が行われる。
According to the invention of claim 8, the line of sight is estimated in the line of sight estimation process using the center of gravity of the eye region in addition to the center of the pupil.

【0019】[0019]

【発明の実施の形態】以下、本発明の視線検出装置を具
体化した一実施の形態を図1〜図10を参照して説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment embodying a gaze detecting apparatus according to the present invention will be described below with reference to FIGS.

【0020】本実施形態の視線検出装置10は、複数台
の電気機器17(例えば、テレビ、オーディオ、エアコ
ン等)をオンオフ等の制御をする場合に、視線検出装置
10が検出した視線上の電気機器17に対して対応する
コマンド信号を付与するためのものである。
The gaze detecting device 10 according to the present embodiment, when controlling a plurality of electric devices 17 (for example, a television, an audio system, an air conditioner, etc.) to turn on / off, etc. This is for giving a corresponding command signal to the device 17.

【0021】例えば、テレビがオフ状態(又はオン状
態)の際に、テレビが配置されている方向に視線が向け
られた際に、その視線を検出して、コマンド信号として
オン信号(又はオフ信号)を付与する。
For example, when the television is turned off (or turned on) and a line of sight is turned in the direction in which the television is arranged, the line of sight is detected and an on signal (or off signal) is detected as a command signal. ).

【0022】視線検出装置10は、撮像手段としての複
数台(本実施形態では4台)のビデオカメラ(CCDカ
メラ)11、カメラ用パソコン14、メインパソコン1
6等を備えている。前記ビデオカメラ11は、複数台の
電気機器17(例えば、テレビ、オーディオ、エアコン
等)が配置された地点と同一箇所に配置されている。本
実施形態ではカメラ用パソコン14が顔向き推定手段、
判定手段、目領域検出手段、瞳孔検出手段、及び瞳検出
手段に相当し、メインパソコン16が視線推定手段に相
当する。また、ビデオカメラ11は任意の位置に配置さ
れており、各ビデオカメラ11の位置が所定ポイントに
相当する。
The eye-gaze detecting device 10 includes a plurality of (four in the present embodiment) video cameras (CCD cameras) 11 as imaging means, a camera personal computer 14, and a main personal computer 1.
6 and so on. The video camera 11 is arranged at the same place where a plurality of electric devices 17 (for example, television, audio, air conditioner, etc.) are arranged. In this embodiment, the camera personal computer 14 is a face direction estimating unit,
The main personal computer 16 corresponds to the determining means, the eye area detecting means, the pupil detecting means, and the pupil detecting means, and the main personal computer 16 corresponds to the gaze estimating means. The video cameras 11 are arranged at arbitrary positions, and the position of each video camera 11 corresponds to a predetermined point.

【0023】各ビデオカメラ11には、カメラ用パソコ
ン14がそれぞれ接続されている。カメラ用パソコン1
4には、ビデオカメラ11で撮影された個々のフレーム
(画像データ)が、ビデオレートのカラー画像(640
×480)として入力されるようになっている。
A camera personal computer 14 is connected to each video camera 11. Camera PC 1
4, each frame (image data) photographed by the video camera 11 is a video image color image (640).
× 480).

【0024】カメラ用パソコン14はメインパソコン1
6に接続されており、メインパソコン16は、各カメラ
用パソコン14との通信をイーサネット(登録商標)を
介したソケット通信で行うようにしている。また、ネッ
トワーク・タイムサーバシステムが用いられており、メ
インパソコン16がタイムサーバとして設定され、各カ
メラ用パソコン14の時刻がメインパソコン16に合わ
されるようになっている。又、メインパソコン16は、
各電気機器17(例えば、テレビ、オーディオ、エアコ
ン等)に電気的に接続されており、視線検出装置10の
視線検出結果に応じてオンオフ制御する。すなわち、現
在の電気機器17の状態に応じたコマンド信号を出力す
る。例えば、電気機器17がオン状態のときには、コマ
ンド信号としてオフ信号が、オフ状態のときには、コマ
ンド信号としてオン信号が出力される。なお、メインパ
ソコン16と各電気機器17を有線接続せずに、赤外線
でコントロールしてもよく、つまり無線で制御する態様
をとってもよい。
The camera personal computer 14 is the main personal computer 1
The main personal computer 16 communicates with each camera personal computer 14 by socket communication via Ethernet (registered trademark). In addition, a network time server system is used. The main personal computer 16 is set as a time server, and the time of each camera personal computer 14 is adjusted to the main personal computer 16. Also, the main personal computer 16
It is electrically connected to each of the electric devices 17 (for example, a television, an audio, an air conditioner, and the like), and performs on / off control according to a gaze detection result of the gaze detection device 10. That is, a command signal corresponding to the current state of the electric device 17 is output. For example, when the electric device 17 is on, an off signal is output as a command signal, and when it is off, an on signal is output as a command signal. It should be noted that the main personal computer 16 and each electric device 17 may be controlled by infrared rays without being connected by wire, that is, may be controlled by wireless.

【0025】(作用)以下、本実施形態の視線検出装置
10の作用について説明する。まず、視線検出装置10
が行う視線検出の概要を説明する。
(Operation) The operation of the visual line detection device 10 of the present embodiment will be described below. First, the gaze detection device 10
An outline of gaze detection performed by the user will be described.

【0026】各ビデオカメラ11は、検出対象者Hを撮
像し、各カメラ用パソコン14に入力する。各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行い、続いて肌色領域抽出、顔向き推定を行い、顔
向き推定結果が所定条件を満たすか否かを判定し、条件
を満たす画像データから目領域32を検出する。そし
て、検出された目領域32から、瞳の大きさを正規化
し、瞳の中心部位(瞳中心)C1及び瞳内の瞳孔の位置
(瞳孔中心)C2を算出し(図9参照)、2点間の距離
を算出(計測)する。カメラ用パソコン14はその距離
の演算結果をメインパソコン16に送信し、メインパソ
コン16は、その距離の大小を比較することで複数のビ
デオカメラ11のうち何れのビデオカメラ11に視線を
送っているか、即ち視線を検出する。
Each video camera 11 captures an image of the person H to be detected and inputs the captured image to the personal computer 14 for each camera. Each camera personal computer 14 captures an image from the video camera 11, subsequently performs skin color region extraction and face orientation estimation, determines whether or not the face orientation estimation result satisfies a predetermined condition, and sets image data that satisfies the condition. The eye area 32 is detected from. Then, from the detected eye region 32, the size of the pupil is normalized, and the center part of the pupil (pupil center) C1 and the position of the pupil in the pupil (pupil center) C2 are calculated (see FIG. 9). The distance between them is calculated (measured). The camera personal computer 14 transmits the calculation result of the distance to the main personal computer 16, and the main personal computer 16 compares the magnitude of the distance to determine which of the plurality of video cameras 11 is sending the line of sight. That is, the line of sight is detected.

【0027】以下、図2のフローチャートを参照して詳
細に説明する。メインパソコン16からカメラ用パソコ
ン14へ、開始要求信号が送信されるとこのフローチャ
ートは開始される。そして、メインパソコン16からカ
メラ用パソコン14へ、終了要求信号が送信されるま
で、S1〜S11の処理が繰り返し行われる。
The details will be described below with reference to the flowchart of FIG. This flowchart is started when a start request signal is transmitted from the main personal computer 16 to the camera personal computer 14. Then, the processing of S1 to S11 is repeatedly performed until an end request signal is transmitted from the main personal computer 16 to the camera personal computer 14.

【0028】ステップ(以下「S」と略す)1におい
て、まず、カメラ用パソコン14は、ビデオカメラ11
からの画像のキャプチャを行うか否かの判定を行う。即
ち、本実施形態では、ビデオカメラ11からの画像のキ
ャプチャは所定間隔(例えば0.3秒)毎に行われるよ
うになっており、各カメラ用パソコン14は、その時刻
か否かを判定する。そして、画像をキャプチャする時刻
であると判断した場合は(S1がYES)、各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行う(S2)。一方、カメラ用パソコン14が画像
をキャプチャする時刻ではないと判断した場合は(S1
がNO)、この判定を繰り返す。なお、各カメラ用パソ
コン14の時刻はメインパソコン16に合わされている
ため、各カメラ用パソコン14は、同時刻に画像のキャ
プチャを行うようになっている。
In step (hereinafter abbreviated as “S”) 1, first, the camera personal computer 14
It is determined whether or not to capture an image from. That is, in the present embodiment, capture of an image from the video camera 11 is performed at predetermined intervals (for example, 0.3 seconds), and each camera personal computer 14 determines whether or not that time is reached. . If it is determined that it is time to capture an image (S1 is YES), each camera personal computer 14 captures an image from the video camera 11 (S2). On the other hand, when the camera personal computer 14 determines that it is not time to capture an image (S1).
Is NO), this determination is repeated. Since the time of each camera personal computer 14 is set to the time of the main personal computer 16, each camera personal computer 14 captures an image at the same time.

【0029】(顔領域検出)各カメラ用パソコン14
は、ビデオカメラ11からのフレーム(画像データ、例
えば図3参照)をキャプチャした後、顔領域検出を行
う。顔領域検出は、色情報を用いた公知の肌色基準値に
よる手法を用いている。本実施形態では、均等知覚色空
間の1つであるCIE L*u*v 表色系を用いている。
(Face area detection) Personal computer 14 for each camera
Performs face area detection after capturing a frame (image data, for example, see FIG. 3) from the video camera 11. The face area detection uses a method based on a known skin color reference value using color information. In this embodiment, the CIE L * u * v color system, which is one of the uniform perceived color spaces, is used.

【0030】まず、入力された画像データから、画像の
全領域に亘り、U,V座標値による2次元色ヒストグラ
ムを求め、予め定めた肌色有効範囲内のピーク値(度数
が最大の値)を肌色基準値とする。その基準値からの色
差に対して公知の判別分析法を適用して閾値を決定し、
その閾値に基づいて肌色領域とその他の領域に2値化す
る(図4参照)。本実施形態では、検出対象者Hが一人
の場合を想定しているため、複数の肌色領域が検出され
た場合には、各カメラ用パソコン14は最大領域を顔領
域31と判定する(S3)。すなわち、抽出された複数
の肌色領域にて、画素数(面積)を求め、最大面積Sma
x の領域を顔領域31とする。なお、以下の説明におい
て、前記U,V座標値は、説明の便宜上UV値又はU
値,V値というときもある。
First, a two-dimensional color histogram based on U and V coordinate values is obtained from the input image data over the entire area of the image, and a peak value (the maximum frequency) within a predetermined effective skin color range is determined. The skin color reference value is used. A threshold value is determined by applying a known discriminant analysis method to the color difference from the reference value,
Based on the threshold value, the image is binarized into a skin color area and other areas (see FIG. 4). In the present embodiment, it is assumed that there is only one detection target person H. Therefore, when a plurality of skin color areas are detected, each camera personal computer 14 determines the maximum area as the face area 31 (S3). . That is, the number of pixels (area) is determined in the plurality of extracted skin color areas, and the maximum area Sma is calculated.
The area x is a face area 31. In the following description, the U and V coordinate values are referred to as UV values or U
Value, V value.

【0031】(顔向き推定)次に、S4において、各カ
メラ用パソコン14は対応するビデオカメラ11から得
た画像データに基づいて顔向き推定を行う。
(Estimation of Face Direction) Next, in S 4, each camera personal computer 14 estimates a face direction based on image data obtained from the corresponding video camera 11.

【0032】本実施形態では、顔向き推定は、4方向面
特徴抽出した結果を線形判別分析により、顔向きの判別
空間を作成する方法で行っている。4方向面特徴抽出で
は、画像データの濃淡値の勾配により各画素での4方向
(縦、横、右斜め45度、左斜め45度)のベクトル場
を求め、方向別に分割したエッジ画像を得る。得られた
エッジ画像は方向性を持った濃淡画像となる。
In the present embodiment, the face orientation is estimated by a method of creating a face orientation discrimination space by linear discriminant analysis of the results of the four-way surface feature extraction. In the four-direction surface feature extraction, a vector field in each of four directions (vertical, horizontal, diagonally right 45 degrees, diagonally left 45 degrees) is obtained for each pixel based on the gradient of the gray value of the image data, and an edge image divided for each direction is obtained. . The obtained edge image becomes a shaded image having directionality.

【0033】具体的には、S3において入力した画像デ
ータからPrewitt オペレータを用いて、微分フィルタと
してのプレヴィットフィルタ処理を行い、水平(横)、
垂直(縦)、右上がり45度(右斜め45度)、右下が
り45度(左斜め45度)の4方向のそれぞれのエッジ
画像を生成する。これらのエッジ画像を、以下、方向面
という。次に、これらの4方向面のそれぞれの画像を顔
領域31で正規化し、8×8に低解像度化して、各方向
面の画素の濃淡値を特徴量(以下、特徴ベクトルとい
う。)として抽出する。
Specifically, a prewitt filter process as a differential filter is performed from the image data input in S3 using a Prewitt operator, and horizontal (horizontal),
Edge images in four directions of vertical (vertical), rising 45 degrees (45 degrees to the right), and falling 45 degrees (45 degrees to the left) are generated. These edge images are hereinafter referred to as direction planes. Next, the images of these four directions are normalized by the face area 31 and the resolution is reduced to 8 × 8, and the gray value of the pixel in each direction is extracted as a feature value (hereinafter, referred to as a feature vector). I do.

【0034】この特徴ベクトルは4つの方向面に分けて
から解像度を低くしているため、入力画像の解像度を直
接低くする場合よりも、高解像度でエッジ情報が保持さ
れる。その結果、位置ずれや、形状変化の影響を受けに
くく、かつ計算コストを削減して処理の高速化が可能と
なる。
Since the resolution of this feature vector is reduced after being divided into four directional planes, the edge information is held at a higher resolution than when the resolution of the input image is directly reduced. As a result, it is hard to be affected by the displacement and the shape change, and the processing cost can be reduced and the processing speed can be increased.

【0035】次に、各カメラ用パソコン14は線形判別
分析を行う。なお、線形判別分析は、抽出された特徴量
(特徴ベクトル:xi)が、どのクラスに属するかを判
別するためのものであり、クラス内の分散が小さく、各
クラスの平均特徴ベクトルが互いに離れるような判別空
間を構成すると高い判別力が得られる。図5は判別分析
に係るクラスを示した概念図である。
Next, each camera personal computer 14 performs a linear discriminant analysis. The linear discriminant analysis is for discriminating to which class the extracted feature amount (feature vector: xi) belongs, and the variance within the class is small, and the average feature vectors of each class are separated from each other. By configuring such a discrimination space, a high discrimination power can be obtained. FIG. 5 is a conceptual diagram showing classes related to discriminant analysis.

【0036】本実施形態では、予め、学習データに基づ
いた係数行列Aが各カメラ用パソコン14の記憶装置
(図示しない)に記憶されている。なお、学習データ
は、複数の検出対象者Hである人物を撮像して得た画像
データに基づいたデータである。すなわち、図7に示す
ように、光軸を室内中心に向けるように等角度間隔(本
実施形態では22.5度間隔)で放射状に配置された1
6台のビデオカメラ11により、16方向から得た画像
データを得て、上記と同様に顔領域検出と、同顔領域3
1における4方向面特徴抽出を行い、特徴ベクトルxを
求める。
In this embodiment, the coefficient matrix A based on the learning data is stored in advance in a storage device (not shown) of each camera personal computer 14. The learning data is data based on image data obtained by imaging a plurality of detection target persons H. That is, as shown in FIG. 7, 1 is radially arranged at equal angular intervals (22.5 degrees in the present embodiment) so that the optical axis is directed toward the center of the room.
Image data obtained from sixteen directions is obtained by the six video cameras 11, and face area detection and face area
The feature vector x is obtained by performing the four-way surface feature extraction in Step 1.

【0037】x={x1,x2,……x256} なお、16台のビデオカメラ11を使用する代わりに、
例えば、1台のビデオカメラ11を使用して、検出対象
者Hが室内中心を中心に等角度毎に回転するたびに撮像
し、そのときの画像データを学習用データに使用しても
良い。
X = {x1, x2,..., X256} Note that instead of using 16 video cameras 11,
For example, one video camera 11 may be used to capture an image each time the detection target person H rotates at equal angles around the center of the room, and the image data at that time may be used as the learning data.

【0038】この特徴ベクトルxから判別空間の特徴ベ
クトルy(=Ax)へ線形写像する係数行列Aが求めら
れており、かつ各クラス(本実施形態では学習データを
取り込むときに使用した22.5度間隔に配置したビデ
オカメラ11に応じた16のクラス)が生成され、クラ
スの平均特徴ベクトルyj が算出されている。そして、
前記係数行列Aと、各クラスの平均特徴ベクトルyj の
データが、予め各カメラ用パソコン14の記憶装置に格
納されている。
A coefficient matrix A that linearly maps from the feature vector x to the feature vector y (= Ax) in the discriminant space has been obtained, and each class (in this embodiment, 22.5 16 classes corresponding to the video cameras 11 arranged at intervals of degrees are generated, and the average feature vector yj of the classes is calculated. And
The data of the coefficient matrix A and the average feature vector yj of each class are stored in the storage device of each camera personal computer 14 in advance.

【0039】なお、本実施形態では、クラス番号jは、
0、22.5、45、67.5、90、112.5、1
35、157.5、180、−157.5、−135、
−112.5、−90、−67.5、−45、−22.
5の等差となる16の値である。図7に示すように、各
クラス番号(数値)はカメラ用パソコン14に係るビデ
オカメラ11の光軸(カメラ方向)に対する相対顔方向
(相対的な顔向き)とのなす角度と一致する。図7は検
出対象者Hを中心に22.5度間隔で16方向に配置し
たビデオカメラ11の配置を示し、各カメラから検出対
象者Hを撮像した場合の、各カメラから得られる画像デ
ータに対するクラス付与の内容を示している。同図にお
いて、例えば−22.5が付与されたカメラから検出対
象者Hを撮像した画像データには、クラス−22.5が
付与される。本実施形態では、相対顔方向に係るクラス
番号0度が、正面顔を撮像した場合としている。なお、
「−」は、図7において、当該ビデオカメラ11の光軸
から反時計回り方向の角度を示す。
In this embodiment, the class number j is
0, 22.5, 45, 67.5, 90, 112.5, 1
35, 157.5, 180, -157.5, -135,
-112.5, -90, -67.5, -45, -22.
It is a value of 16 which is an equal difference of 5. As shown in FIG. 7, each class number (numerical value) coincides with an angle between the optical axis (camera direction) of the video camera 11 of the camera personal computer 14 and the relative face direction (relative face direction). FIG. 7 shows the arrangement of the video cameras 11 arranged in 16 directions at intervals of 22.5 degrees around the detection target H. When the detection target H is imaged from each camera, the video cameras 11 correspond to image data obtained from each camera. This shows the content of class assignment. In the figure, for example, a class -22.5 is assigned to image data obtained by imaging the detection target person H from a camera to which -22.5 is assigned. In the present embodiment, the case where the front face is imaged is the class number 0 degrees related to the relative face direction. In addition,
"-" Indicates an angle in the counterclockwise direction from the optical axis of the video camera 11 in FIG.

【0040】そして、未知データの識別を行う線形判別
分析では、前記係数行列Aに基づいて、未知データから
抽出した4方向面特徴に係る特徴ベクトルxi を写像変
換し、特徴ベクトルyi (=Axi )を生成する。次
に、生成された特徴ベクトルyi と、各クラスの平均特
徴ベクトルyj とのユークリッド距離の2乗である距離
(以下、2乗距離という)Dijを、以下の式(1)で演
算し、2乗距離Dijが最小値となるクラスを決定するこ
とにより、パターン認識を行う(図6参照)。その後、
最小値を含む下位3つの2乗距離Dijの値に対応したク
ラスを用いて以下の式(2)にて、カメラ方向(ビデオ
カメラ11の光軸γが向く方向、図1参照)と相対顔方
向(光軸γに対する相対的な顔向き)βとのなす角度F
を推定する。なお、図6中のDjは、iが省略されてお
り、本明細書中では、Dijに相当する。
In the linear discriminant analysis for identifying the unknown data, the feature vector xi relating to the four-directional surface features extracted from the unknown data is mapped based on the coefficient matrix A, and the feature vector yi (= Axi) is obtained. Generate Next, a distance (hereinafter referred to as a square distance) Dij which is a square of the Euclidean distance between the generated feature vector yi and the average feature vector yj of each class is calculated by the following equation (1). Pattern recognition is performed by determining the class in which the riding distance Dij has the minimum value (see FIG. 6). afterwards,
The camera direction (the direction in which the optical axis γ of the video camera 11 is oriented; see FIG. 1) and the relative face are calculated by the following equation (2) using the class corresponding to the values of the lower three square distances Dij including the minimum value. Angle F with the direction (relative face direction to the optical axis γ) β
Is estimated. Note that i is omitted from Dj in FIG. 6 and corresponds to Dij in the present specification.

【0041】Dij=|yi −yj |2 …(1)Dij = | yi-yj | 2 (1)

【0042】[0042]

【数1】 なお、式(2)において、iはクラス番号を示し、本実
施形態ではn=3を想定している。このため、最小値を
含む下位3つの2乗距離Dijに対応したクラス番号が、
最小値に対応するクラス番号から順にiに代入される。
θは各クラスにおける顔向きの相対角度(カメラ方向に
対する相対顔方向のなす角度=クラス番号)を示す。ま
た、式(2)中において、2乗距離Dijはj が省略され
ている。
(Equation 1) In Expression (2), i indicates a class number, and in the present embodiment, n = 3 is assumed. Therefore, the class number corresponding to the lower three square distances Dij including the minimum value is:
It is assigned to i in order from the class number corresponding to the minimum value.
θ indicates the relative angle of the face direction in each class (the angle formed by the relative face direction with respect to the camera direction = class number). In Equation (2), j is omitted from the square distance Dij.

【0043】(顔向き判定)S5においては、各カメラ
用パソコン14はS4で行った顔向き推定の結果を利用
して、相対顔方向においてその推定された顔向きの角度
が所定角度(本実施形態では±20度)範囲内であるか
否かを判定する。そして、所定角度内であれば(S5が
YES)、S6に進む。なお、この推定された角度が所
定角度(例えば±20度)範囲内であるか否かという条
件を、本実施形態では所定条件ということがある。
(Face Direction Determination) In step S5, each camera personal computer 14 uses the result of the face direction estimation performed in step S4 to set the estimated face direction in the relative face direction to a predetermined angle (this embodiment). It is determined whether it is within the range of ± 20 degrees in the embodiment. If the angle is within the predetermined angle (S5: YES), the process proceeds to S6. In the present embodiment, the condition of whether or not the estimated angle is within a predetermined angle (for example, ± 20 degrees) may be referred to as a predetermined condition.

【0044】このとき、ビデオカメラ11は、一定間隔
毎に配置していないため、相対顔方向の角度Fが所定角
度(±20度)内である画像データ、換言すれば、前述
した所定条件を満たす画像データは1つとは限らない。
従って、本実施形態では、相対顔方向の角度Fが所定角
度内の正面顔を撮像したカメラ11が2つあり、ビデオ
カメラ11A及びビデオカメラ11Bで捉えた画像デー
タが視線が向けられた候補、即ち、所定条件を満たし、
後述する目領域検出の対象として判断されたものとし
て、以下の説明を続ける。なお、推定された顔向きの角
度Fが所定条件を満たしていない(S5がNO)と判定
したカメラ用パソコン14は、今回の画像データについ
ては、以下のステップを行わず、このフローチャートを
終了する。
At this time, since the video cameras 11 are not arranged at regular intervals, the image data in which the angle F of the relative face direction is within a predetermined angle (± 20 degrees), in other words, the predetermined conditions described above are satisfied. The number of image data to be satisfied is not limited to one.
Therefore, in the present embodiment, there are two cameras 11 that have imaged the frontal face with the relative face direction angle F within a predetermined angle, and the image data captured by the video camera 11A and the video camera 11B are candidates for which the eyes are directed, That is, a predetermined condition is satisfied,
The following description will be continued assuming that the eye area has been determined as an eye area detection target described later. The camera personal computer 14 that has determined that the estimated face orientation angle F does not satisfy the predetermined condition (NO in S5) does not perform the following steps for the current image data, and ends this flowchart. .

【0045】(視線検出)次のS6〜S10の概要を説
明すると、ビデオカメラ11A及びビデオカメラ11B
におけるカメラ用パソコン14は、顔領域31の中から
目領域32を検出する(図9参照)。そして、瞳領域3
5を検出すると共に、その瞳領域35の大きさを正規化
し、さらにそこから瞳孔領域36を検出し、瞳中心C1
と瞳孔中心C2を算出して両位置間の距離を演算(計
測)する。そして、その距離の演算結果をメインパソコ
ン16に送信する。メインパソコン16はビデオカメラ
11A,11Bの各カメラ用パソコン14から受信した
前記距離の演算結果を比較して視線を検出(推定)す
る。本実施形態では、瞳中心C1が第1所定部位、瞳孔
中心C2が第2所定部位にそれぞれ相当する。
(Line-of-sight detection) The outline of the following S6 to S10 will be described. The video camera 11A and the video camera 11B
The camera personal computer 14 detects the eye area 32 from the face area 31 (see FIG. 9). And pupil area 3
5, the size of the pupil region 35 is normalized, and the pupil region 36 is further detected therefrom.
And the pupil center C2 are calculated, and the distance between both positions is calculated (measured). Then, the calculation result of the distance is transmitted to the main personal computer 16. The main personal computer 16 detects (estimates) the line of sight by comparing the distance calculation results received from the camera personal computers 14 of the video cameras 11A and 11B. In the present embodiment, the pupil center C1 corresponds to a first predetermined part, and the pupil center C2 corresponds to a second predetermined part.

【0046】(目領域検出)さて、S6において、ま
ず、カメラ用パソコン14は、画像データについて肌色
基準値を再算出し、肌色領域を抽出する。抽出された肌
色領域のうち、最大領域を顔領域31と判定する。
(Detection of Eye Area) In S6, first, the camera personal computer 14 recalculates the skin color reference value for the image data and extracts the skin color area. Of the extracted skin color regions, the largest region is determined to be the face region 31.

【0047】カメラ用パソコン14は、その顔領域31
に基づき、4方向面特徴と色差面特徴を用いたテンプレ
ートマッチング手法により、それぞれ目領域32、並び
に口領域を検出する。
The camera personal computer 14 has its face area 31
, An eye region 32 and a mouth region are detected by a template matching method using a four-way surface feature and a color difference surface feature.

【0048】ところで、今回の画像データの1つ前に本
フローチャートを用いて処理された画像データにおい
て、このS6で目領域32及び口領域が検出されていた
場合は、前回の検出結果に基づいて、今回得られた顔領
域31を所定領域削除し、顔領域31が前記所定領域分
狭められた探索範囲として設定されるようになってい
る。そして、今回の画像データに関しては、前記探索範
囲が用いられ、テンプレートマッチング手法により目領
域32及び口領域の検出が行われる。なお、テンプレー
トマッチングを行った結果、前記探索範囲に対して目領
域32及び口領域が検出されなかった場合は、再度、顔
領域31に対して両領域の検出が行われるようになって
いる。
By the way, if the eye area 32 and the mouth area are detected in S6 in the image data processed by using this flowchart immediately before the current image data, based on the previous detection result. The face area 31 obtained this time is deleted by a predetermined area, and the face area 31 is set as a search range narrowed by the predetermined area. The search range is used for the current image data, and the eye region 32 and the mouth region are detected by the template matching method. When the eye region 32 and the mouth region are not detected in the search range as a result of performing the template matching, the detection of both regions is performed again on the face region 31.

【0049】ここで、前記テンプレートマッチング手法
について説明する。この手法は、得られた画像データか
ら、前述した4方向面特徴抽出にて4方向面特徴(方向
面)、及びU,V座標値による色差面特徴を抽出し、肌
色領域抽出で得られた肌色領域(顔領域31)又は探索
範囲に対して、右目、左目、口の各テンプレートを用い
て類似度を計算する。
Here, the template matching method will be described. According to this method, a four-directional surface feature (directional surface) and a color difference surface feature based on U and V coordinate values are extracted from the obtained image data by the above-described four-directional surface feature extraction, and obtained by skin color region extraction. The similarity is calculated for the skin color area (face area 31) or the search range using the right eye, left eye, and mouth templates.

【0050】なお、前記色差面特徴は、肌色基準値から
のU値の差、及びV値の差を示すものである。また、前
記テンプレートとは、予め、右目、左目、口の画像を複
数枚用意し、4方向面特徴及び色差面特徴を抽出した画
像データを、所定比率で縮小し、横幅を所定ピクセル
(例えば32ピクセル)に揃え、大きさの正規化を行
う。そして、4方向面特徴に関しては、エッジ方向情報
を4方向に分解し、さらに、4方向面特徴及び色差面特
徴に対してガウシャンフィルタで平滑化し、各画像デー
タを8×8の解像度に変換したものである。このテンプ
レートは、記憶装置(図示しない)に記憶されている。
The color difference plane feature indicates a difference between the U value and the V value from the skin color reference value. In addition, the template means that a plurality of images of the right eye, the left eye, and the mouth are prepared in advance, the image data obtained by extracting the four-way surface features and the color difference surface features is reduced at a predetermined ratio, and the width is set to a predetermined pixel (for example, 32 Pixels) and normalize the size. Regarding the four-directional surface features, the edge direction information is decomposed into four directions, and the four-directional surface features and the color difference surface features are smoothed by a Gaussian filter, and each image data is converted to an 8 × 8 resolution. It was done. This template is stored in a storage device (not shown).

【0051】そして、前記テンプレートTと画像データ
(入力画像)Iとの4方向面特徴の類似度aを以下の式
(3)で算出し、色差面特徴の類似度bを以下の式
(4)で算出する。
Then, the similarity a of the four-way plane feature between the template T and the image data (input image) I is calculated by the following equation (3), and the similarity b of the chrominance plane feature is calculated by the following equation (4). ).

【0052】[0052]

【数2】 (3)、(4)式中、Iは入力画像を示し、Tはテンプ
レートを示す。i、jは、1〜m、1〜nの値であり、
m×n画素のテンプレート及び入力画像に対応してい
る。(x,y)は入力画像の左上座標を示す。また、
(4)式中Tu,TvはテンプレートのUV値、Iu,
Ivは画像データのUV値を示し、Umax ,Vmax はU
V値の最大範囲を示す。本実施形態では、CIE L*u*v 表
色系を用いており、このCIELUV表色系において、
処理の高速化及び記憶装置の空間を節約するため、Uma
x =256,Vmax =256としている。
(Equation 2) In the expressions (3) and (4), I indicates an input image, and T indicates a template. i and j are values of 1 to m and 1 to n,
It corresponds to a template of m × n pixels and an input image. (X, y) indicates the upper left coordinates of the input image. Also,
(4) where Tu and Tv are the UV values of the template, Iu,
Iv indicates the UV value of the image data, and Umax and Vmax
Indicates the maximum range of the V value. In this embodiment, the CIE L * u * v color system is used, and in this CIELUV color system,
To speed up processing and save storage space, Uma
x = 256 and Vmax = 256.

【0053】次いで、これらの式(3),(4)で算出
した、各類似度a,bに基づいて、以下の式(5)によ
り、最終的な類似度cを算出する。 c=Wa ×a+Wb ×b …(5) (5)式中Wa,Wbは、重み付けとして、各類似度
a,bに掛け合わせられる所定の定数であり、Wa +W
b =1を満たしている。なお、本実施形態では、Wa =
Wb =0.5としている。
Next, based on the similarities a and b calculated by the equations (3) and (4), the final similarity c is calculated by the following equation (5). c = Wa × a + Wb × b (5) In the equation (5), Wa and Wb are predetermined constants to be multiplied by the similarities a and b as weightings, and Wa + W
b = 1 is satisfied. In this embodiment, Wa =
Wb is set to 0.5.

【0054】その演算結果を元に、前記類似度cが予め
設定された閾値以上の箇所を、目の候補領域とする。そ
して、入力画像(画像データ)には、左上座標が予め付
与されており、その座標に基づき目、口の位置関係が把
握できる。従って、その座標に基づいて、例えば、目は
口より上にある、右目と左目の配置等、目、口の大まか
な位置関係(座標位置)を満たし、最も類似度cの高い
組み合わせを目領域32並びに口領域として決定する。
この結果、顔領域31の中で目領域32が検出される。
Based on the calculation result, a portion where the similarity c is equal to or larger than a predetermined threshold value is set as an eye candidate region. The input image (image data) is given upper left coordinates in advance, and the positional relationship between the eyes and the mouth can be grasped based on the coordinates. Therefore, based on the coordinates, for example, the eye satisfies the rough positional relationship (coordinate position) between the eyes and the mouth, such as the right eye and the left eye, and the combination having the highest similarity c is determined as the eye area. 32 and the mouth area.
As a result, the eye region 32 is detected in the face region 31.

【0055】(瞳検出)次にS7において、検出された
目領域32からカメラ用パソコン14は瞳の中心C1を
検出する瞳検出を行う。なお、本実施形態では、S6に
て検出された目領域32のうち何れか一方(例えば右
目)の目領域32について、以下に説明する瞳検出及び
瞳孔検出を行う。
(Pupil Detection) Next, in S7, the camera personal computer 14 performs pupil detection for detecting the center C1 of the pupil from the detected eye area 32. In the present embodiment, pupil detection and pupil detection described below are performed on one of the eye regions 32 (for example, the right eye) among the eye regions 32 detected in S6.

【0056】まず、目領域画像の彩度値ヒストグラムを
作成して、公知の判別分析法を適用し、顔領域31を目
領域32と肌領域(顔領域の目領域32以外の領域)と
に分離する。一般的に、肌領域の彩度は高く、目領域3
2の彩度は低い。このため、この分離処理はその特性を
利用している。次いで、前記目領域画像の輝度ヒストグ
ラムを作成して、公知の判別分析法を適用し、分離され
た目領域32を、瞳領域35と白目領域34とに分割す
る。
First, a chroma histogram of an eye area image is created, and a known discriminant analysis method is applied to convert the face area 31 into an eye area 32 and a skin area (an area other than the eye area 32 of the face area). To separate. Generally, the saturation of the skin area is high and the eye area 3
The saturation of 2 is low. For this reason, this separation process utilizes its characteristics. Next, a luminance histogram of the eye area image is created, and a known discriminant analysis method is applied to divide the separated eye area 32 into a pupil area 35 and a white eye area 34.

【0057】その後、瞳領域35の検出結果を元に、瞳
領域35を縮小又は拡大し、所定の大きさに正規化す
る。そして、瞳領域35に対して円形状の補完を行う。
この際、前述したように、彩度値ヒストグラム及び輝度
ヒストグラムにそれぞれ判別分析法を適用して分割する
ことで得られた瞳領域35内には図8(a)に示すよう
に、瞼による陰影35aの存在が考えられる。このと
き、通常、画像の濃淡値を8ビットで表した場合、濃淡
値0が黒、濃淡値256が白となる。従って、領域分割
結果における濃淡値0(黒色)の領域に対して、水平射
影ヒストグラムを作成し(図8(b)参照)、同ヒスト
グラムにおいて縦軸方向の上部に示されるように、極端
なピークをもつ部分を予め設定された閾値に基づいて削
除する。つまり、瞼による陰影35aの部分は該ヒスト
グラム上でピークとして現れ、それを削除することで、
図8(c)に示すような、瞳領域35のみが抽出され
る。なお、本実施形態では、縦軸方向は、図8(a)〜
(c)及び図9において上下方向を示し、横軸方向は、
図8(a)〜(c)及び図9において左右方向を示す。
Thereafter, based on the detection result of the pupil region 35, the pupil region 35 is reduced or enlarged and normalized to a predetermined size. Then, circular interpolation is performed on the pupil region 35.
At this time, as described above, in the pupil region 35 obtained by applying the discriminant analysis method to each of the chroma value histogram and the luminance histogram and dividing the pupil region 35, as shown in FIG. The existence of 35a is considered. At this time, when the grayscale value of the image is usually represented by 8 bits, the grayscale value 0 is black and the grayscale value 256 is white. Therefore, a horizontal projection histogram is created for an area having a gray value of 0 (black) in the area division result (see FIG. 8B), and as shown in the upper part of the histogram in the vertical axis direction, an extreme peak is obtained. Is deleted based on a preset threshold. That is, the portion of the shade 35a due to the eyelid appears as a peak on the histogram, and by deleting it,
As shown in FIG. 8C, only the pupil region 35 is extracted. Note that, in the present embodiment, the direction of the vertical axis corresponds to FIGS.
(C) and FIG. 9, the vertical direction is shown, and the horizontal axis direction is
8 (a) to 8 (c) and FIG. 9 show the left and right directions.

【0058】次に、目領域32に対して、白目領域34
と瞳領域35の濃淡の違いを利用して、Prewitt オペレ
ータを用い図8(c)に示す瞳領域35のエッジ画像を
生成することで、輪郭(エッジ)を抽出する。その後、
その輪郭を構成する点群に対して公知のハフ変換を用い
て瞳領域35の円方程式を求める。この結果、前記円方
程式から瞳中心C1が検出される(図9参照)。
Next, with respect to the eye region 32, the white eye region 34
The contour (edge) is extracted by generating an edge image of the pupil region 35 shown in FIG. afterwards,
A circle equation of the pupil region 35 is obtained by using a well-known Hough transform for the point group forming the contour. As a result, the pupil center C1 is detected from the circular equation (see FIG. 9).

【0059】(瞳孔検出)次いで、S8において、検出
された瞳領域35からカメラ用パソコン14は瞳孔の中
心C2を検出する瞳孔検出を行う。このとき、瞳孔領域
36は非常に小さいため、瞳領域34までを検出してい
た画像データでは、瞳孔と虹彩の濃淡の違いを判別して
エッジ抽出を行うことができず、これに伴い瞳孔中心C
2を検出できない。このため、ビデオカメラ11A,1
1Bがズームアップされ、図9に示すように、目領域3
2を拡大した画像データが取得される。
(Pupil Detection) Next, in S8, the camera personal computer 14 performs pupil detection for detecting the center C2 of the pupil from the detected pupil area 35. At this time, since the pupil region 36 is very small, in the image data that has been detected up to the pupil region 34, it is not possible to discriminate the difference in shading between the pupil and the iris and perform edge extraction. C
2 cannot be detected. Therefore, the video cameras 11A, 1
1B is zoomed up, and as shown in FIG.
2 is acquired.

【0060】そして、瞳領域35(虹彩)と瞳孔領域3
6の濃淡の違いを利用して、Prewitt オペレータを用
い、瞳孔領域36のエッジ画像を生成することで、輪郭
(エッジ)を抽出する。その後、瞳の大きさに基づいて
瞳孔の大きさを推定し(例えば、瞳の1/3〜1/
5)、その推定結果を利用して、前記輪郭を構成する点
群に対して公知のハフ変換にて瞳孔領域36の円方程式
を求める。このとき、瞳には、様々なものが映し出され
るため、前記Prewitt オペレータによる瞳孔領域36の
エッジ抽出の際には、瞳孔領域36以外の輪郭(エッ
ジ)が検出されるおそれがある。このため、瞳中心C1
近辺で検出されたエッジのみを用い、瞳孔領域36の検
出精度を高めている。そして、前記円方程式から瞳孔中
心C2が検出される(図9参照)。
Then, the pupil region 35 (iris) and the pupil region 3
The contour (edge) is extracted by generating an edge image of the pupil region 36 using the Prewitt operator using the difference in shading of No. 6. Thereafter, the size of the pupil is estimated based on the size of the pupil (for example, 1/3 to 1/1 of the pupil).
5) Using the estimation result, a circle equation of the pupil region 36 is obtained by a well-known Hough transform for the point group forming the contour. At this time, since various things are projected on the pupil, when the Prewitt operator extracts an edge of the pupil region 36, a contour (edge) other than the pupil region 36 may be detected. For this reason, the pupil center C1
The detection accuracy of the pupil region 36 is increased by using only the edges detected in the vicinity. Then, the pupil center C2 is detected from the circular equation (see FIG. 9).

【0061】(視線決定(カメラ決定))次いで、S9
において、図9に示すように、カメラ用パソコン14は
演算された瞳中心C1及び瞳孔中心C2から、両位置間
の距離、即ち、瞳中心C1に対する瞳孔中心C2のズレ
量を算出(計測)する。そして、算出したズレ量の結果
を各カメラ用パソコン14は、メインパソコン16に送
信する。なお、各カメラ用パソコン14の時刻はメイン
パソコン16に合わされているため、各カメラ用パソコ
ン14から送信されるズレ量はそれぞれ同時刻にキャプ
チャした画像データから算出されたものになっている。
(Gaze determination (camera determination)) Then, S9
In FIG. 9, as shown in FIG. 9, the camera personal computer 14 calculates (measures) a distance between the calculated pupil center C1 and the pupil center C2, that is, a shift amount of the pupil center C2 with respect to the pupil center C1. . Then, each camera personal computer 14 transmits the result of the calculated shift amount to the main personal computer 16. Since the time of each camera personal computer 14 is adjusted to the time of the main personal computer 16, the shift amount transmitted from each camera personal computer 14 is calculated from the image data captured at the same time.

【0062】S10において、メインパソコン16は、
ビデオカメラ11Aのカメラ用パソコン14から受信し
たズレ量と、ビデオカメラ11Bのカメラ用パソコン1
4から受信したズレ量とを比較し、視線が向けられてい
るビデオカメラを決定する。このとき前記ズレ量が小さ
い方を視線が向けられているビデオカメラとする。視線
が決定すると、メインパソコン16は、視線が向けられ
たビデオカメラに対応する電気機器17へコマンド信号
を出力する(S11)。このようにして視線は検出され
る。
At S10, the main personal computer 16
The displacement amount received from the camera personal computer 14 of the video camera 11A and the camera personal computer 1 of the video camera 11B
Then, the video camera to which the line of sight is pointed is determined by comparing the deviation amount received from No. 4. At this time, the one with the smaller displacement is regarded as the video camera to which the line of sight is directed. When the line of sight is determined, the main personal computer 16 outputs a command signal to the electric device 17 corresponding to the video camera to which the line of sight is directed (S11). The line of sight is thus detected.

【0063】従って、上記実施形態によれば、以下のよ
うな効果を得ることができる。 (1)上記実施形態では、カメラ用パソコン14は、推
定した顔向きの角度に基づいて、画像データが所定角度
範囲内の正面顔を捉えているか否かを判定し、その条件
を満たす画像データの目領域32における瞳領域35の
大きさを正規化した後に、瞳中心C1と瞳孔中心C2を
算出し、両位置のズレ量を算出する。そして、メインパ
ソコン16は、各ビデオカメラ11A,11Bに対応し
たそれぞれのズレ量を比較し、そのズレ量が最も小さい
ビデオカメラ11Aに視線を向けているという視線推定
を行う。このため、従来と異なり、頭部に装置を装着す
ることなく、広い室内空間でも好適に視線を検出でき
る。また、正面顔を撮像するビデオカメラが複数存在す
る場合でも、ズレ量の比較により、視線が向けられてい
るカメラを正確に推定できる。
Therefore, according to the above embodiment, the following effects can be obtained. (1) In the above embodiment, the camera personal computer 14 determines whether the image data captures a frontal face within a predetermined angle range based on the estimated face orientation angle, and determines whether the image data satisfy the condition. After normalizing the size of the pupil region 35 in the eye region 32, the pupil center C1 and the pupil center C2 are calculated, and the amount of deviation between both positions is calculated. Then, the main personal computer 16 compares the respective shift amounts corresponding to the respective video cameras 11A and 11B, and performs a gaze estimation that the gaze is directed to the video camera 11A having the smallest shift amount. For this reason, unlike the related art, it is possible to preferably detect the line of sight even in a large indoor space without mounting the device on the head. Further, even when there are a plurality of video cameras for imaging the frontal face, it is possible to accurately estimate the camera to which the line of sight is directed by comparing the deviation amounts.

【0064】(2)上記実施形態では、瞳孔検出を目領
域32を拡大した画像データを取得した上で行った。こ
のため、瞳孔と虹彩の濃淡の違いを確実に判別すること
ができ、好適に瞳孔検出を実現できる。
(2) In the above embodiment, pupil detection is performed after acquiring image data in which the eye region 32 is enlarged. For this reason, the difference between the pupil and the iris can be reliably determined, and pupil detection can be suitably performed.

【0065】(3)上記実施形態では、視線を検出する
ために行う瞳孔検出を、ズームアップしたビデオカメラ
11で捉えた画像データに対して、Prewitt オペレータ
を用いて輪郭(エッジ)を抽出し、さらにその点群に対
してハフ変換を行うことで実現した。このため、例えば
各ビデオカメラ11に光源を設け、その光源からそれぞ
れ赤外光を照射し、瞳領域35(瞳孔)から反射した反
射光に基づいて、瞳孔中心C2を検出する場合と異な
り、赤外光が乱れ飛び合い、赤外光同士がノイズとなる
という問題が発生することはなく、簡便に瞳孔中心C2
の検出ができる。
(3) In the above embodiment, pupil detection for detecting a line of sight is performed by extracting a contour (edge) using image data captured by the zoomed-up video camera 11 using a Prewitt operator. Furthermore, the point group was realized by performing Hough transform. Therefore, for example, unlike the case where a light source is provided in each video camera 11 and each light source irradiates infrared light to detect the pupil center C2 based on the reflected light reflected from the pupil region 35 (pupil), There is no problem that external light is disturbed and jumps and infrared light becomes noise, and the pupil center C2 can be easily obtained.
Can be detected.

【0066】(4)上記実施形態では、視線を検出する
ために、瞳中心C1を検出し、更に瞳孔中心C2を検出
する。そして、視線の最終判断において、瞳中心C1と
瞳孔中心C2とのズレ量に基づいて、どのビデオカメラ
に視線を向けているかを決定した。このため、目領域3
2内における他の部位同士のズレ量を元に視線を検出す
る場合と異なり、最も正確に視線の方向を検出できる。
(4) In the above embodiment, in order to detect the line of sight, the pupil center C1 is detected, and further the pupil center C2 is detected. Then, in the final determination of the line of sight, it was determined which video camera the line of sight was directed to based on the amount of deviation between the pupil center C1 and the pupil center C2. Therefore, the eye area 3
Unlike the case where the line of sight is detected based on the amount of displacement between the other parts in 2, the direction of the line of sight can be detected most accurately.

【0067】(5)上記実施形態では、瞳孔検出に際し
て、瞳中心C1近辺で検出されたエッジのみを用いて、
ハフ変換で瞳孔領域36の円方程式を求めている。通
常、瞳孔は、瞳中心C1の近辺に位置することが多いた
め瞳孔領域36の検出精度を高めることができる。
(5) In the above embodiment, the pupil is detected by using only the edges detected near the pupil center C1.
The circular equation of the pupil region 36 is obtained by the Hough transform. Usually, the pupil is often located near the pupil center C1, so that the detection accuracy of the pupil region 36 can be improved.

【0068】なお、上記実施形態は以下のように変更し
てもよい。 ・上記実施形態において、瞳孔検出を以下のような手法
で行ってもよい。即ち、赤外光を照射するための光源を
ビデオカメラ11に備える。赤外光を用いた場合、瞳孔
領域は白く映し出される。このとき、輝度の高い範囲が
瞳孔領域36に相当し、輝度の低い範囲が虹彩領域に相
当する。そして、閾値に基づく2値化により、瞳孔領域
36(輝度の高い(明るい)範囲)を検出する。そし
て、前記瞳孔領域36の重心を算出し、その重心を瞳孔
中心C2とする。なお、この際も、瞳孔領域36を好適
に捉えるためにビデオカメラ11によるズームアップは
行われる。
The above embodiment may be modified as follows. In the above embodiment, pupil detection may be performed by the following method. That is, the video camera 11 is provided with a light source for irradiating infrared light. When infrared light is used, the pupil region appears white. At this time, the range with high luminance corresponds to the pupil region 36, and the range with low luminance corresponds to the iris region. Then, the pupil region 36 (high-brightness (bright) range) is detected by binarization based on the threshold. Then, the center of gravity of the pupil region 36 is calculated, and the center of gravity is set as the pupil center C2. Also at this time, the zoom-up by the video camera 11 is performed in order to appropriately capture the pupil region 36.

【0069】このようにした場合、瞳領域35に赤外光
が照射されるタイミングはメインパソコン16によって
制御される。即ち、S4において、各カメラ用パソコン
14で推定された相対顔方向の角度Fがメインパソコン
16に入力され、その角度Fが所定条件を満たしている
か否かの判断(S5の処理)がメインパソコン16で行
われる。そして、メインパソコン16は所定条件を満た
しているカメラ用パソコン14に対して制御信号を出力
し、所定のビデオカメラ11A,11Bにおいて、各光
源から順次赤外光を照射させるとともに、そのカメラ1
1A,11Bに対応するカメラ用パソコン14にS6〜
S9の処理を再び行わせる。なお、メインパソコン16
から制御信号出力されなかったカメラ用パソコン14に
ついては、今回の画像データに関してはS6以降の処理
は行わない。
In this case, the timing at which the pupil region 35 is irradiated with infrared light is controlled by the main personal computer 16. That is, in S4, the angle F of the relative face direction estimated by each camera personal computer 14 is input to the main personal computer 16, and it is determined whether the angle F satisfies a predetermined condition (the process of S5). 16 is performed. Then, the main personal computer 16 outputs a control signal to the camera personal computer 14 that satisfies the predetermined condition, and the predetermined video cameras 11A and 11B sequentially emit infrared light from each light source, and the camera 1
S6 ~ on the camera personal computer 14 corresponding to 1A, 11B
The process of S9 is performed again. The main PC 16
For the camera personal computer 14 for which no control signal was output from, the processing after S6 is not performed for the current image data.

【0070】このようにしても、各ビデオカメラ11
A,11Bの光源からタイミングが制御された赤外光が
照射されるため、赤外光が乱れ飛び合い、赤外光同士が
ノイズとなることはなく、簡便に瞳孔中心C2の検出が
できる。また、赤外光により、瞳領域内において瞳孔領
域を明確に判別できる。この場合、メインパソコン16
が判定手段に相当する。
Even in this case, each video camera 11
Since the infrared light whose timing is controlled is emitted from the light sources A and 11B, the infrared light is not disturbed and jumps, and the infrared light does not become noise, so that the pupil center C2 can be easily detected. Further, the pupil region can be clearly distinguished within the pupil region by the infrared light. In this case, the main personal computer 16
Corresponds to the determination means.

【0071】・また、赤外光を用いた場合でも、瞳孔領
域36を、Prewitt オペレータを用いたエッジ抽出及び
ハフ変換にて瞳孔中心C2を検出してもよい。 ・上記実施形態では、視線の最終判断は、瞳中心C1と
瞳孔中心C2とのズレ量に基づいて行われたが、瞳中心
C1又は瞳孔中心C2の代わりに瞳領域35における他
の部位を用いて、ズレ量を求めてもよい。
Also, even when infrared light is used, the pupil area 36 may be detected by the edge extraction and Hough transform using the Prewitt operator to detect the pupil center C2. In the above-described embodiment, the final determination of the line of sight is performed based on the amount of deviation between the pupil center C1 and the pupil center C2, but other parts in the pupil region 35 are used instead of the pupil center C1 or the pupil center C2. Then, the shift amount may be obtained.

【0072】・上記実施形態では、メインパソコン16
と各カメラ用パソコン14との通信をイーサネットを介
したソケット通信にて行っていたが、無線電波にて行っ
てもよい。
In the above embodiment, the main personal computer 16
Although the communication with the camera personal computer 14 is performed by socket communication via Ethernet, the communication may be performed by wireless radio waves.

【0073】・上記実施形態では、瞳領域35の円方程
式の算出をハフ変換で行ったが、以下の手法で行っても
よい。即ち、Prewitt オペレータを用いて抽出された輪
郭を構成する点群から公知の4点サンプリング法で4点
をサンプリングする。そして、その4点を用いて、公知
の最小二乗法によって瞳領域35の円方程式を求める。
In the above embodiment, the calculation of the circular equation of the pupil region 35 is performed by the Hough transform, but it may be performed by the following method. That is, four points are sampled from a group of points constituting the contour extracted using the Prewitt operator by a known four-point sampling method. Then, using the four points, a circle equation of the pupil region 35 is obtained by a known least square method.

【0074】・上記実施形態では、S7及びS8におけ
る瞳検出、瞳孔検出を、S6において検出された目領域
32のうち何れか一方の目領域32について行ったが、
右・左、両方の目領域32に対して行ってもよい。この
場合、各目領域32において算出されたズレ量の平均値
が算出され、その値が、各画像データのズレ量とされ、
比較される。このようにすれば、片目について、ズレ量
を算出する場合と比較して、高精度に視線検出を行うこ
とができる。
In the above embodiment, the pupil detection and the pupil detection in S7 and S8 are performed on one of the eye regions 32 detected in S6.
This may be performed on both the right and left eye regions 32. In this case, the average value of the shift amounts calculated in each eye region 32 is calculated, and the value is used as the shift amount of each image data.
Be compared. In this way, it is possible to perform the gaze detection with higher accuracy than in the case of calculating the shift amount for one eye.

【0075】・上記実施形態では、視線検出を瞳中心C
1と瞳孔中心C2のズレ量に基づいて行ったが、瞳孔中
心C2の代わりに、図10に示すように、目領域32の
重心C3を用いてもよい。この場合、S6において、目
領域32が検出された後に、その目領域32を拡大又は
縮小して所定の大きさに正規化し、その正規化後の目領
域32に対して、重心C3を求める。そして、S9にお
いて、瞳中心C1と目領域32の重心C3とのズレ量を
算出し、視線を推定する。このようにすれば、瞳孔中心
C2を利用する場合と比較して、ビデオカメラ11をズ
ームアップする必要なしに視線検出ができる。即ち、瞳
孔を検出できない低解像度の画像データからでも簡単な
演算でズレ量を求めることができる。なお、このように
した場合、S8は必要なくなる。
In the above embodiment, the line of sight is detected at the pupil center C
Although it was performed based on the amount of deviation between 1 and the pupil center C2, the center of gravity C3 of the eye region 32 may be used instead of the pupil center C2 as shown in FIG. In this case, after the eye region 32 is detected in S6, the eye region 32 is enlarged or reduced to normalize it to a predetermined size, and the center of gravity C3 is obtained for the normalized eye region 32. Then, in S9, the amount of deviation between the pupil center C1 and the center of gravity C3 of the eye region 32 is calculated, and the line of sight is estimated. In this way, it is possible to detect the line of sight without having to zoom up the video camera 11 as compared with the case where the pupil center C2 is used. That is, the amount of deviation can be obtained by simple calculation from low-resolution image data in which a pupil cannot be detected. In this case, S8 becomes unnecessary.

【0076】・上記実施形態では、複数台のビデオカメ
ラ11が所定角度内の正面顔を撮像したとして、各カメ
ラ用パソコン14で算出された瞳中心C1と瞳孔中心C
2とのズレ量をメインパソコン16が比較することで、
視線を検出したが、ズレ量同士の比較ではなく、閾値と
の比較で視線を検出してもよい。すなわち、例えば、1
台のビデオカメラ11に対応するカメラ用パソコン14
のみが、相対顔方向の角度Fが所定角度内であると判断
した場合は、メインパソコン16はカメラ用パソコン1
4から送信されたズレ量と予め設定された閾値とを比較
する。そして、前記閾値を超えた場合に、検出対象者H
がビデオカメラ11に視線を向けているという視線検出
を行う。
In the above embodiment, the pupil centers C1 and pupil centers C1 calculated by the camera personal computers 14 are determined on the assumption that the plurality of video cameras 11 image the front face within a predetermined angle.
The main PC 16 compares the amount of deviation from the value of
Although the line of sight has been detected, the line of sight may be detected not by comparing the amounts of deviation but by comparing with a threshold value. That is, for example, 1
Camera personal computer 14 corresponding to one video camera 11
If only the personal computer 16 determines that the angle F of the relative face direction is within a predetermined angle, the main personal computer 16
4 is compared with a preset threshold value. When the threshold value is exceeded, the detection target person H
Is looking at the video camera 11.

【0077】このようにしても、好適に視線検出を行う
ことができる。また、複数のカメラ用パソコン14から
ズレ量がメインパソコン16に送信された場合でも、各
ズレ量をそれぞれ閾値と比較して視線検出を行うことも
可能である。また、上記実施形態では、複数台のビデオ
カメラ11を設置したが、1台でもよい。
Even in such a case, it is possible to preferably perform the gaze detection. Further, even when the displacement amounts are transmitted from the plurality of camera personal computers 14 to the main personal computer 16, it is possible to detect the line of sight by comparing each displacement amount with a threshold value. In the above embodiment, a plurality of video cameras 11 are installed, but one video camera 11 may be installed.

【0078】次に、上記実施形態及び各別例から把握で
きる技術的思想について、それらの効果と共に以下に記
載する。 (1)請求項1乃至請求項4のうちいずれか1項の視線
検出装置において、前記所定ポイントは複数あり、前記
判定手段が複数の画像データを正面顔であると判定した
際は、前記視線推定手段は、距離計測手段が計測した距
離を比較することで視線を検出する視線検出装置。この
ようにすれば、複数のポイントから検出対象者を撮像し
た場合でも、好適に視線検出を行うことができる。
Next, technical ideas that can be grasped from the above-described embodiment and other examples will be described below together with their effects. (1) In the eye-gaze detecting device according to any one of claims 1 to 4, there are a plurality of the predetermined points, and when the judging means judges that a plurality of image data is a frontal face, the gaze is detected. The estimating means is a gaze detecting device that detects a gaze by comparing distances measured by the distance measuring means. In this way, even when the detection target person is imaged from a plurality of points, it is possible to preferably perform the gaze detection.

【0079】(2)請求項3に記載の視線検出装置にお
いて、前記瞳孔検出手段による瞳孔検出は、前記撮像手
段が検出対象者の目領域を拡大撮像した画像データに基
づいて行われる視線検出装置。このようにすれば、簡便
に瞳孔検出を実現できる。
(2) In the eye-gaze detecting device according to claim 3, the pupil detection by the pupil detecting means is performed based on image data obtained by enlarging and capturing the eye area of the detection target by the imaging means. . In this way, pupil detection can be easily realized.

【0080】[0080]

【発明の効果】以上詳述したように、請求項1の発明に
よれば、装置を検出対象者に装着させることなく、広い
室内空間でも好適に視線を検出することができる。
As described above in detail, according to the first aspect of the present invention, it is possible to detect a line of sight suitably even in a large indoor space without mounting the apparatus on a detection target person.

【0081】請求項2の発明によれば、請求項1の発明
の効果に加えて、第1所定部位を、瞳中心とすることで
視線推定手段は視線の推定を好適に実現できる。請求項
3の発明によれば、請求項1又は請求項2の発明の効果
に加えて、第2所定部位を、瞳孔中心とすることで視線
推定手段は視線の推定を的確にできる。
According to the invention of claim 2, in addition to the effect of the invention of claim 1, by setting the first predetermined portion as the pupil center, the gaze estimating means can suitably realize the gaze estimation. According to the third aspect of the invention, in addition to the effects of the first or second aspect, the gaze estimating means can accurately estimate the gaze by setting the second predetermined portion as the center of the pupil.

【0082】請求項4の発明によれば、請求項1又は請
求項2の発明の効果に加えて、第2所定部位を、目領域
の重心とすることで視線推定手段は低解像度の画像デー
タからも視線の推定を好適に実現できる。
According to the fourth aspect of the present invention, in addition to the effects of the first or second aspect of the present invention, the line-of-sight estimating means uses the second predetermined portion as the center of gravity of the eye region so that the line-of-sight estimating means Therefore, it is possible to suitably realize the gaze estimation.

【0083】請求項5の発明によれば、請求項1と同様
の効果を奏す。請求項6の発明によれば、請求項5の発
明の効果に加えて、第2所定部位を、瞳中心とすること
で視線推定行程において視線の推定を好適に実現でき
る。
According to the fifth aspect of the invention, the same effect as that of the first aspect is obtained. According to the invention of claim 6, in addition to the effect of the invention of claim 5, by setting the second predetermined portion as the center of the pupil, it is possible to suitably realize the gaze estimation in the gaze estimation process.

【0084】請求項7の発明によれば、請求項5又は請
求項6の発明の効果に加えて、第1所定部位を、瞳孔中
心とすることで視線推定行程において視線の推定を的確
にできる。
According to the seventh aspect of the present invention, in addition to the effects of the fifth or sixth aspect of the present invention, by setting the first predetermined portion as the center of the pupil, the gaze can be accurately estimated in the gaze estimation process. .

【0085】請求項8の発明によれば、請求項5又は請
求項6の発明の効果に加えて、第2所定部位を、目領域
の重心とすることで視線推定行程において低解像度の画
像データからも視線の推定を好適に実現できる。
According to the eighth aspect of the present invention, in addition to the effect of the fifth or sixth aspect, the second predetermined portion is set as the center of gravity of the eye region, so that low-resolution image data can be obtained in the line-of-sight estimation process. Therefore, it is possible to suitably realize the gaze estimation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る実施形態の視線検出装置の構成を
示すブロック図。
FIG. 1 is a block diagram showing a configuration of a gaze detection device according to an embodiment of the present invention.

【図2】同じくフローチャート。FIG. 2 is also a flowchart.

【図3】ビデオカメラが撮像した画像データの説明図。FIG. 3 is an explanatory diagram of image data captured by a video camera.

【図4】肌色基準で抽出した画像データの説明図。FIG. 4 is an explanatory diagram of image data extracted on the basis of skin color.

【図5】判別分析に係るクラスを示した概念図。FIG. 5 is a conceptual diagram showing classes related to discriminant analysis.

【図6】パターン認識の概念図。FIG. 6 is a conceptual diagram of pattern recognition.

【図7】ビデオカメラの光軸(カメラ方向)と相対顔方
向とのなす角度に対する学習データ取得の説明図。
FIG. 7 is an explanatory diagram of learning data acquisition for an angle between an optical axis (camera direction) of a video camera and a relative face direction.

【図8】(a)、(c)は瞳検出を示す説明図、(b)
は瞳検出における水平射影ヒストグラムを示す説明図。
FIGS. 8A and 8C are explanatory diagrams showing pupil detection, and FIGS.
FIG. 4 is an explanatory diagram showing a horizontal projection histogram in pupil detection.

【図9】目領域を示した説明図。FIG. 9 is an explanatory diagram showing an eye area.

【図10】別の実施形態における目領域を示した説明
図。
FIG. 10 is an explanatory diagram showing an eye region according to another embodiment.

【符号の説明】[Explanation of symbols]

H…検出対象者、C1…瞳中心、C2…瞳孔中心、11
…ビデオカメラ(撮像手段)、14…カメラ用パソコン
(顔向き推定手段、判定手段、目領域検出手段、瞳孔検
出手段、瞳検出手段)、16…メインパソコン(視線推
定手段)、31…顔領域、32…目領域。
H: person to be detected, C1: pupil center, C2: pupil center, 11
... video camera (imaging means), 14 ... camera personal computer (face direction estimating means, determining means, eye area detecting means, pupil detecting means, pupil detecting means), 16 ... main personal computer (gaze estimating means), 31 ... face area , 32 ... eye area.

フロントページの続き Fターム(参考) 5B057 AA20 BA02 BA13 CA01 CA08 CA13 CA16 CE06 CE09 DA08 DA20 DB03 DB06 DB09 DC03 DC06 DC08 DC16 DC32 5L096 AA02 AA09 BA08 CA05 EA35 FA34 FA37 FA60 FA67 JA03 JA09 Continued on the front page F term (reference) 5B057 AA20 BA02 BA13 CA01 CA08 CA13 CA16 CE06 CE09 DA08 DA20 DB03 DB06 DB09 DC03 DC06 DC08 DC16 DC32 5L096 AA02 AA09 BA08 CA05 EA35 FA34 FA37 FA60 FA67 JA03 JA09

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 所定ポイントから検出対象者を撮像する
撮像手段と、 撮像手段が撮像した画像データから、検出対象者の顔領
域検出を行い、検出した顔領域に基づいて顔向き推定を
行う顔向き推定手段と、 顔向き推定手段が推定した顔向きが、所定の角度範囲を
含む正面顔であるか否かを判定する判定手段と、 判定手段が正面顔であると判定した画像データにおける
正面顔の目領域を検出する目領域検出手段と、 目領域検出手段が検出した目領域において、同目領域内
の第1所定部位と第2所定部位との距離を計測する距離
計測手段と、 距離計測手段が計測した距離に基づいて視線を推定する
視線推定手段とを備えたことを特徴とする視線検出装
置。
An image pickup means for picking up an image of a detection target person from a predetermined point, and a face for detecting a face area of the detection target person from image data picked up by the image pickup means and estimating a face direction based on the detected face area. Direction estimating means; determining means for determining whether or not the face direction estimated by the face direction estimating means is a frontal face including a predetermined angle range; and a front face in the image data determined by the determining means to be a frontal face. An eye area detecting means for detecting an eye area of the face; a distance measuring means for measuring a distance between a first predetermined part and a second predetermined part in the eye area detected by the eye area detecting means; A gaze estimating unit for estimating a gaze based on the distance measured by the measuring unit;
【請求項2】 前記目領域内における瞳中心を検出する
瞳検出手段を更に備え、前記第1所定部位は瞳中心であ
ることを特徴とする請求項1に記載の視線検出装置。
2. The eye-gaze detecting device according to claim 1, further comprising pupil detecting means for detecting a pupil center in the eye area, wherein the first predetermined portion is a pupil center.
【請求項3】 前記目領域内における瞳孔中心を検出す
る瞳孔検出手段を更に備え、前記第2所定部位は、瞳孔
中心であることを特徴とする請求項1又は請求項2に記
載の視線検出装置。
3. The eye gaze detection according to claim 1, further comprising a pupil detection unit that detects a pupil center in the eye area, wherein the second predetermined part is a pupil center. apparatus.
【請求項4】 前記目領域における重心位置を検出する
重心検出手段を更に備え、前記第2所定部位は目領域の
重心であることを特徴とする請求項1又は請求項2に記
載の視線検出装置。
4. The eye gaze detection according to claim 1, further comprising a center of gravity detecting means for detecting a position of a center of gravity in the eye region, wherein the second predetermined portion is a center of gravity of the eye region. apparatus.
【請求項5】 所定ポイントから検出対象者を撮像する
撮像行程と、 撮像した画像データから検出対象者の顔領域検出を行
い、検出した顔領域に基づいて顔向き推定を行う顔向き
推定行程と、 推定した顔向きが所定の角度範囲を含む正面顔であるか
否かを判定する判定行程と、 正面顔であると判定した画像データにおける正面顔の目
領域を検出する目領域検出行程と、 検出した目領域において、同目領域内の第1所定部位と
第2所定部位との距離を計測する距離計測行程と、 計測した距離に基づいて視線を推定する視線推定行程と
を備えたことを特徴とする視線検出方法。
5. An imaging step of imaging a detection target person from a predetermined point, a face direction estimation step of detecting a face area of the detection target person from captured image data and estimating a face direction based on the detected face area. A determination step of determining whether the estimated face orientation is a front face including a predetermined angle range; an eye area detection step of detecting an eye area of the front face in the image data determined to be a front face; In the detected eye area, a distance measurement step for measuring a distance between the first predetermined part and the second predetermined part in the same eye area, and a gaze estimation step for estimating a gaze based on the measured distance are provided. A featured gaze detection method.
【請求項6】 前記目領域内における瞳中心を検出する
瞳検出行程を更に含み、前記第1所定部位は瞳中心であ
ることを特徴とする請求項5に記載の視線検出方法。
6. The gaze detection method according to claim 5, further comprising a pupil detection step of detecting a pupil center in the eye area, wherein the first predetermined portion is a pupil center.
【請求項7】 前記目領域内における瞳孔中心を検出す
る瞳孔検出行程を更に含み、前記第2所定部位は、瞳孔
中心であることを特徴とする請求項5又は請求項6に記
載の視線検出方法。
7. The eye gaze detection according to claim 5, further comprising a pupil detection step of detecting a pupil center in the eye region, wherein the second predetermined portion is a pupil center. Method.
【請求項8】 前記目領域における重心位置を検出する
重心検出行程を更に含み、前記第2所定部位は目領域の
重心であることを特徴とする請求項5又は請求項6に記
載の視線検出装置。
8. The eye gaze detection according to claim 5, further comprising a center-of-gravity detecting step of detecting a center-of-gravity position in the eye region, wherein the second predetermined portion is a center of gravity of the eye region. apparatus.
JP2001089886A 2001-03-27 2001-03-27 Gaze detection device Expired - Fee Related JP4729188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001089886A JP4729188B2 (en) 2001-03-27 2001-03-27 Gaze detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001089886A JP4729188B2 (en) 2001-03-27 2001-03-27 Gaze detection device

Publications (2)

Publication Number Publication Date
JP2002282210A true JP2002282210A (en) 2002-10-02
JP4729188B2 JP4729188B2 (en) 2011-07-20

Family

ID=18944748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001089886A Expired - Fee Related JP4729188B2 (en) 2001-03-27 2001-03-27 Gaze detection device

Country Status (1)

Country Link
JP (1) JP4729188B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177315A (en) * 2002-11-28 2004-06-24 Alpine Electronics Inc Apparatus for detecting direction of line of vision, dialog system using it, and driving support system
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program
JP2005267258A (en) * 2004-03-18 2005-09-29 Nara Institute Of Science & Technology Facial information measuring system
JP2007013480A (en) * 2005-06-29 2007-01-18 Fujifilm Holdings Corp Monitoring system, monitoring method, and monitoring program
CN100342388C (en) * 2003-07-18 2007-10-10 万众一 Intelligent control method for visual tracking
JP2008217335A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Image sorting device, method, and program
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2010282339A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Image processor for correcting position of pupil in eye, image processing method, image processing program and printer
JP2012038106A (en) * 2010-08-06 2012-02-23 Canon Inc Information processor, information processing method and program
WO2012039139A1 (en) 2010-09-24 2012-03-29 パナソニック株式会社 Pupil detection device and pupil detection method
JP2012216180A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
US8345922B2 (en) 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP2015231458A (en) * 2014-06-10 2015-12-24 株式会社エンファシス Device for transmitting signal by detecting visual line
JP2019103664A (en) * 2017-12-13 2019-06-27 オムロン株式会社 State estimation apparatus, and method and program therefor
JP2021061048A (en) * 2021-01-05 2021-04-15 日本電気株式会社 Information processing device, information processing method, and program
CN113052064A (en) * 2021-03-23 2021-06-29 北京思图场景数据科技服务有限公司 Attention detection method based on face orientation, facial expression and pupil tracking

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298015A (en) * 1992-04-23 1993-11-12 Matsushita Electric Ind Co Ltd Glance detecting system and information processing system
JPH06274269A (en) * 1993-03-24 1994-09-30 Nissan Motor Co Ltd Visual line input device
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
JPH1091325A (en) * 1996-09-13 1998-04-10 Toshiba Corp Gaze detection system
JPH11175246A (en) * 1997-12-12 1999-07-02 Toshiba Corp Sight line detector and method therefor
JP2000331190A (en) * 1999-05-20 2000-11-30 Atr Media Integration & Communications Res Lab Virtual transformation device
JP2001101429A (en) * 1999-09-28 2001-04-13 Omron Corp Method and device for observing face, and recording medium for face observing processing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298015A (en) * 1992-04-23 1993-11-12 Matsushita Electric Ind Co Ltd Glance detecting system and information processing system
JPH06274269A (en) * 1993-03-24 1994-09-30 Nissan Motor Co Ltd Visual line input device
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
JPH1091325A (en) * 1996-09-13 1998-04-10 Toshiba Corp Gaze detection system
JPH11175246A (en) * 1997-12-12 1999-07-02 Toshiba Corp Sight line detector and method therefor
JP2000331190A (en) * 1999-05-20 2000-11-30 Atr Media Integration & Communications Res Lab Virtual transformation device
JP2001101429A (en) * 1999-09-28 2001-04-13 Omron Corp Method and device for observing face, and recording medium for face observing processing

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177315A (en) * 2002-11-28 2004-06-24 Alpine Electronics Inc Apparatus for detecting direction of line of vision, dialog system using it, and driving support system
CN100342388C (en) * 2003-07-18 2007-10-10 万众一 Intelligent control method for visual tracking
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program
JP2005267258A (en) * 2004-03-18 2005-09-29 Nara Institute Of Science & Technology Facial information measuring system
JP4565445B2 (en) * 2004-03-18 2010-10-20 国立大学法人 奈良先端科学技術大学院大学 Face information measurement system
JP2007013480A (en) * 2005-06-29 2007-01-18 Fujifilm Holdings Corp Monitoring system, monitoring method, and monitoring program
JP2008217335A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Image sorting device, method, and program
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
US8345922B2 (en) 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP2010282339A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Image processor for correcting position of pupil in eye, image processing method, image processing program and printer
JP2012038106A (en) * 2010-08-06 2012-02-23 Canon Inc Information processor, information processing method and program
WO2012039139A1 (en) 2010-09-24 2012-03-29 パナソニック株式会社 Pupil detection device and pupil detection method
JP2012068937A (en) * 2010-09-24 2012-04-05 Panasonic Corp Pupil detection device and pupil detection method
CN103119623A (en) * 2010-09-24 2013-05-22 松下电器产业株式会社 Pupil detection device and pupil detection method
US8983235B2 (en) 2010-09-24 2015-03-17 Panasonic Intellectual Property Corporation Of America Pupil detection device and pupil detection method
JP2012216180A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
JP2015231458A (en) * 2014-06-10 2015-12-24 株式会社エンファシス Device for transmitting signal by detecting visual line
JP2019103664A (en) * 2017-12-13 2019-06-27 オムロン株式会社 State estimation apparatus, and method and program therefor
JP2021061048A (en) * 2021-01-05 2021-04-15 日本電気株式会社 Information processing device, information processing method, and program
JP7103443B2 (en) 2021-01-05 2022-07-20 日本電気株式会社 Information processing equipment, information processing methods, and programs
CN113052064A (en) * 2021-03-23 2021-06-29 北京思图场景数据科技服务有限公司 Attention detection method based on face orientation, facial expression and pupil tracking
CN113052064B (en) * 2021-03-23 2024-04-02 北京思图场景数据科技服务有限公司 Attention detection method based on face orientation, facial expression and pupil tracking

Also Published As

Publication number Publication date
JP4729188B2 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
US6526161B1 (en) System and method for biometrics-based facial feature extraction
JP4729188B2 (en) Gaze detection device
CN109086724B (en) Accelerated human face detection method and storage medium
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US20190220685A1 (en) Image processing apparatus that identifies object and method therefor
JPH0944685A (en) Face image processor
JP2013089252A (en) Video processing method and device
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
US7164784B2 (en) Edge chaining using smoothly-varying stereo disparity
JP2003070742A (en) Device and method to detect visual line
KR20140095333A (en) Method and apparratus of tracing object on image
JP2021503139A (en) Image processing equipment, image processing method and image processing program
JP4203279B2 (en) Attention determination device
KR20200113743A (en) Method and apparatus for estimating and compensating human's pose
JP2018120283A (en) Information processing device, information processing method and program
JP3377743B2 (en) Mobile object identification device
JP2004301607A (en) Moving object detection device, moving object detection method, and moving object detection program
Spremolla et al. RGB-D and thermal sensor fusion-application in person tracking
CN114092572A (en) Clothing color analysis method, system, storage medium and computer equipment
JP4390487B2 (en) Head region extraction device
KR100543706B1 (en) Vision-based humanbeing detection method and apparatus
CN113689365B (en) Target tracking and positioning method based on Azure Kinect
CN111783580B (en) Pedestrian identification method based on human leg detection
CN111339840B (en) Face detection method and monitoring system
CN113128320A (en) Face living body detection method and device based on TOF camera and electronic equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050315

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110418

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350