JP2005327072A - Eye tracking apparatus - Google Patents

Eye tracking apparatus Download PDF

Info

Publication number
JP2005327072A
JP2005327072A JP2004144452A JP2004144452A JP2005327072A JP 2005327072 A JP2005327072 A JP 2005327072A JP 2004144452 A JP2004144452 A JP 2004144452A JP 2004144452 A JP2004144452 A JP 2004144452A JP 2005327072 A JP2005327072 A JP 2005327072A
Authority
JP
Japan
Prior art keywords
eye
detected
unit
face image
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004144452A
Other languages
Japanese (ja)
Other versions
JP4506272B2 (en
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Kinya Iwamoto
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004144452A priority Critical patent/JP4506272B2/en
Publication of JP2005327072A publication Critical patent/JP2005327072A/en
Application granted granted Critical
Publication of JP4506272B2 publication Critical patent/JP4506272B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an eye tracking apparatus capable of satisfactorily returning to an eye tracking process when eye tracking fails. <P>SOLUTION: The eye tracking apparatus includes a position relation decision section 43d for comparing an eye-nose distance obtained when tracking by mistakenly regarding a face portion other than eyes of an object person as eye with an eye-nose distance detected from an overall image in a succeeding process. At the time of the above comparison, the position relation decision section 43d uses a frequency distribution of the eye-nose distance generated by a frequency distribution generation section 43b. The position relation decision section 43d decides that the eye detected from the overall image is incorrect when the above two eye-nose distances are at similar places in the distribution, and that the eye detected from the overall image is correctly detected when the two distances are at different places in the distribution. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、眼追跡装置に関する。   The present invention relates to an eye tracking device.

従来、運転者の顔全体を撮像して得られた顔画像全体から眼を検出し、検出後には眼の存在する可能性が高い局所領域から眼を検出して追跡していく装置が知られている。この装置では、一度眼を検出した後には局所領域から眼を検出して追跡していくため、処理速度の向上が図れるという利点がある。また、運転者が眼鏡を着用していたとしても、眼周辺の局所領域から眼を検出して追跡するため、局所領域内に眼鏡のフレーム部分が入りにくくなり、眼鏡による誤追跡の影響を軽減できるという利点がある(特許文献1参照)。   Conventionally, there is known a device that detects an eye from a whole face image obtained by imaging the entire face of the driver, and detects and tracks the eye from a local region where the eye is likely to exist after the detection. ing. This apparatus has an advantage that the processing speed can be improved because the eye is detected and tracked from the local area after the eye is detected once. In addition, even if the driver is wearing spectacles, the eye is detected and tracked from the local area around the eye, making it difficult for the frame portion of the spectacle to enter the local area, reducing the effects of mistracking by spectacles. There exists an advantage that it can do (refer patent document 1).

また、顔画像入力手段により運転者の顔画像を入力し、その顔画像内から眉、眼、鼻、口等の顔の特徴点を抽出することにより、顔の傾き角を求める顔画像処理装置が知られている。この装置では、顔の傾き角を求めることにより、眼球存在領域を精度良く設定できることとなっている。(特許文献2参照)
また、眼の画像だけでなく、眼周辺画像も追跡することにより、眼を喪失したときに眼の周辺画像から眼を認識することで、眼画像追跡を精度良く行う眼画像追跡装置が知られている。また、この装置では、眼のみでなく、鼻との相対位置を利用することで、眼画像の追跡精度の向上を図っている(特許文献3参照)。
特開平7−181012号公報 特開平9−35070号公報 特開平11−66320号公報
Further, a face image processing device that obtains a face inclination angle by inputting a driver's face image by a face image input means and extracting facial feature points such as eyebrows, eyes, nose, and mouth from the face image. It has been known. In this apparatus, the eyeball presence region can be set with high accuracy by obtaining the tilt angle of the face. (See Patent Document 2)
Also, an eye image tracking device that accurately tracks an eye image by recognizing not only an eye image but also an eye periphery image to recognize the eye from the eye periphery image when the eye is lost is known. ing. Further, in this apparatus, the tracking accuracy of the eye image is improved by using the relative position with respect to the nose as well as the eye (see Patent Document 3).
Japanese Patent Laid-Open No. 7-181012 JP-A-9-35070 Japanese Patent Laid-Open No. 11-66320

しかしながら、特許文献1に記載の装置では、誤って眉などを眼であるとして追跡する可能性がある。すなわち、局所領域の画像内において、眼と眉とは非常に似た特徴を有しており、区別が困難であるため、誤追跡を招くこととなる。   However, in the apparatus described in Patent Document 1, there is a possibility that the eyebrows are mistakenly tracked as being eyes. In other words, in the image of the local region, the eyes and the eyebrows have very similar characteristics and are difficult to distinguish, leading to erroneous tracking.

また、特許文献2に記載の装置では、眉、眼、鼻、口等の複数の顔部位を同時検出する必要があることから、現在のコンピュータの処理能力では、リアルタイムに眼を追跡していくことが困難である。このため、この装置では、リアルタイムに眼を追跡しようとする場合、処理を粗く行わなければならず、粗く行うことによって眼の誤追跡を招く可能性がある。   Further, in the apparatus described in Patent Document 2, since it is necessary to simultaneously detect a plurality of face parts such as eyebrows, eyes, nose, and mouth, the current computer processing capability tracks the eyes in real time. Is difficult. For this reason, in this apparatus, when the eye is to be tracked in real time, the processing must be performed roughly, and this may cause erroneous eye tracking.

さらに、特許文献3に記載の装置では、眼と鼻との相対位置を利用しているが、眼と鼻との相対位置は個人差が大きく、個人情報の記録などにより個人差の影響を軽減することとしないと、眼の誤追跡を招くこととなる。   Furthermore, in the apparatus described in Patent Document 3, the relative position between the eyes and the nose is used. However, the relative position between the eyes and the nose has a large individual difference, and the influence of the individual difference is reduced by recording personal information. Failure to do so will lead to eye mistracking.

このように、従来装置は、誤追跡を防ぎ切れていない。このため、従来装置では、誤追跡の発生時に、眼の追跡に関して復帰を図るべく、再度眼を検出し直すこととなるが、この検出についても、正確に眼を検出できるとは限らず、再び誤追跡してしまう可能性があり、眼の追跡処理への復帰が円滑に行われているといえない。   As described above, the conventional apparatus does not prevent mistracking. For this reason, in the conventional device, when an erroneous tracking occurs, the eye is detected again in order to recover the eye tracking. However, this detection is not always possible and the eye cannot be accurately detected. There is a possibility of erroneous tracking, and it cannot be said that the return to the eye tracking process is smoothly performed.

本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、眼の追跡に失敗したときに、眼の追跡処理への復帰を良好に行うことが可能な眼追跡装置を提供することにある。   The present invention has been made in order to solve such a conventional problem, and the object of the present invention is to satisfactorily return to eye tracking processing when eye tracking fails. Is to provide a simple eye tracking device.

本発明に係る眼追跡装置は、撮像装置により連続的に撮像された被撮像者の顔画像から眼を追跡するの顔画像から眼を追跡するものである。この眼追跡装置は、被撮像者の顔画像を撮像した信号を顔画像データとして得る顔画像取得手段と、顔画像取得手段からの顔画像データに基づいて、眼と眼以外の第2顔部位との双方について、顔画像上の座標を検出する座標検出手段とを備えている。また、眼追跡装置は、座標検出手段により検出された双方の座標から、眼と第2顔部位との座標の特徴量を計算する位置関係計算手段と、位置関係計算手段により時系列的に検出された複数の特徴量を所定条件に従って区分する区分手段とを有している。さらに、眼追跡装置は、区分判断手段と、位置関係判定手段とを具備している。そして、区分判断手段は、被撮像者の眼以外の顔部位を誤って眼であるとして追跡していた場合、誤って追跡していたときに位置関係計算手段により計算される特徴量、及び、誤って追跡した後に眼を検出したときに位置関係計算手段により計算される特徴量の双方が、区分手段により区分された特徴量の区分のうちいずれに属するかを判断する構成となっている。また、位置関係判定手段は、区分判断手段により判断された双方の属する区分が異なる場合に、検出した追跡対象を眼であると決定する構成となっている。   The eye tracking device according to the present invention tracks an eye from a face image of tracking an eye from a face image of a person to be imaged continuously captured by an imaging device. The eye tracking device includes a face image acquisition unit that obtains a signal obtained by capturing a face image of the person to be imaged as face image data, and a second face part other than the eyes based on the face image data from the face image acquisition unit. And coordinate detecting means for detecting coordinates on the face image. In addition, the eye tracking device detects in time series the positional relationship calculating means for calculating the feature amount of the coordinates of the eye and the second face part from both coordinates detected by the coordinate detecting means, and the positional relationship calculating means. And classifying means for classifying the plurality of feature quantities according to a predetermined condition. Further, the eye tracking device includes a classification determination unit and a positional relationship determination unit. Then, the classification determination means, when the face portion other than the eye of the person being imaged is tracked as being an eye by mistake, the feature amount calculated by the positional relationship calculation means when the tracking is erroneously tracked, and The configuration is such that when the eye is detected after being tracked by mistake, both of the feature amounts calculated by the positional relationship calculation means belong to which of the feature amount categories classified by the classification means. Further, the positional relationship determining means is configured to determine that the detected tracking target is an eye when both the classifications determined by the classification determining means are different.

本発明によれば、顔画像データから眼と眼以外の第2顔部位との座標の特徴量を計算し、それを時系列的に検出して得られる複数の特徴量を所定条件(例えば特徴量の大きさ)に従って区分している。このため、同様の特徴量は、同じ区分とされることとなる。   According to the present invention, a feature amount of coordinates between the eyes and the second face part other than the eyes is calculated from the face image data, and a plurality of feature amounts obtained by detecting the feature amounts in time series are determined as predetermined conditions (for example, features) It is classified according to the size of the quantity. For this reason, similar feature amounts are classified into the same category.

そして、被撮像者の眼を誤って追跡した場合、すなわち誤って眉などを眼であるとして追跡した場合、そのときの特徴量が、いずれの区分に属するかを判断している。また、誤って追跡した後に眼を検出したときの特徴量が、いずれの区分に属するかを判断している。このため、誤った追跡の際、及びその後の検出の際について属する区分を判断できる。   Then, when the eye of the person to be imaged is mistakenly tracked, that is, when the eyebrow is mistakenly tracked as being an eye, it is determined to which classification the feature amount at that time belongs. In addition, it is determined to which category the feature amount when the eye is detected after being tracked by mistake belongs. For this reason, it is possible to determine the classification to which the wrong tracking is performed and the subsequent detection.

次いで、判断された双方の属する区分が異なる場合に、検出した追跡対象を眼であると決定している。ここで、誤って眉などを眼であるとして追跡した場合と、正確に眼を追跡している場合とでは、特徴量が異なることとなる。故に、新たに眼を検出したときの区分が、眉などを誤って追跡したときの区分と同じであるときには、検出時においても眉などを検出したと判断でき、眉などを誤って追跡したときの区分と異なるときには、検出時においても眼を正確に検出したと判断できる。   Next, when the determined classifications are different, the detected tracking target is determined to be an eye. Here, when the eyebrow is mistakenly tracked as being an eye, and when the eye is tracked accurately, the feature amount is different. Therefore, when the category when a new eye is detected is the same as the category when the eyebrow is tracked incorrectly, it can be determined that the eyebrow is detected at the time of detection, and the eyebrow is tracked incorrectly. If it is different from the category, it can be determined that the eye has been accurately detected even at the time of detection.

従って、眼の追跡に失敗したときに、眼の追跡処理への復帰を良好に行うことができる。   Therefore, when eye tracking fails, it is possible to satisfactorily return to eye tracking processing.

以下、本発明の好適な実施形態を図面に基づいて説明する。なお、以下の実施形態では、眼追跡装置を車両に搭載した場合を例に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the following embodiments, a case where the eye tracking device is mounted on a vehicle will be described as an example.

図1は、本発明の実施形態に係るの眼追跡装置1のハード構成図である。同図に示すように、本実施形態の眼追跡装置1は、撮像装置により連続的に撮像された被撮像者の顔画像から眼を追跡するの顔画像から眼を追跡するものである。そして、眼追跡装置1は、眼の追跡に失敗した場合、眼を再度検出して追跡処理に復帰する際に、前回以前の追跡時のデータを利用して、追跡処理への復帰を良好に行うものである。なお、以下では、被撮像者として車両運転者を撮像する場合を例に説明する。   FIG. 1 is a hardware configuration diagram of an eye tracking device 1 according to an embodiment of the present invention. As shown in the figure, the eye tracking device 1 of this embodiment tracks an eye from a face image of tracking an eye from a face image of a person to be imaged continuously captured by an imaging device. When the eye tracking device 1 fails to track the eye, when the eye is detected again and the tracking process is restored, the eye tracking device 1 uses the data at the time of the previous tracking to improve the return to the tracking process. Is what you do. In the following, a case where a vehicle driver is imaged as an imaged person will be described as an example.

この眼追跡装置1は、カメラ10と眼検出装置20とを備えている。カメラ10は、運転者の正面やや下方に設置され、運転者の顔を撮影し、得られたビデオ信号を出力するものである。眼検出装置20は、カメラ10からのビデオ信号を入力し、運転者の眼及び第2顔部位の座標を求めるものである。ここで、第2顔部位とは、眼以外の顔部位をいい、例えば鼻や口などをいうものである。なお、本実施形態においては、以下、第2顔部位として、鼻(特に鼻孔)を例に説明する。また、眼検出装置20は、運転者の眼及び鼻の座標を求めると、眼鼻座標信号を出力するものである。   The eye tracking device 1 includes a camera 10 and an eye detection device 20. The camera 10 is installed slightly in front of the driver, captures the driver's face, and outputs the obtained video signal. The eye detection device 20 receives the video signal from the camera 10 and obtains the coordinates of the driver's eyes and the second face part. Here, the second facial part refers to a facial part other than the eyes, such as a nose or a mouth. In the present embodiment, the nose (particularly the nostril) will be described below as an example of the second facial part. The eye detection device 20 outputs an eye-nose coordinate signal when the coordinates of the driver's eyes and nose are obtained.

図2は、図1に示した眼検出装置20の詳細を示すデータフローダイアグラムである。同図に示すように、眼検出装置20は、顔画像取得部(顔画像取得手段)30、顔部位検出部40、顔部位追跡部50、及び眼鼻座標信号出力部60を備えている。   FIG. 2 is a data flow diagram showing details of the eye detection apparatus 20 shown in FIG. As shown in the figure, the eye detection device 20 includes a face image acquisition unit (face image acquisition means) 30, a face part detection unit 40, a face part tracking unit 50, and an eye-nose coordinate signal output unit 60.

顔画像取得部30は、運転者の顔画像を撮像したカメラ10からのビデオ信号を顔画像データとして得るものである。詳しくは、顔画像取得部30は、ビデオ信号により入力されるデータをキャプチャし、装置20内の記憶領域にディジタル画像として格納するものである。この格納されたディジタル画像が顔画像である。   The face image acquisition unit 30 acquires a video signal from the camera 10 that has captured the driver's face image as face image data. Specifically, the face image acquisition unit 30 captures data input by a video signal and stores it as a digital image in a storage area in the apparatus 20. This stored digital image is a face image.

顔部位検出部40は、装置1の起動時や、眼の誤追跡後に、眼及び鼻の座標を顔画像全体から検出するものである。ここで、本実施形態の顔部位検出部40は、運転者の眼の座標として、両眼の座標を検出ものとする。   The face part detection unit 40 detects the coordinates of the eyes and the nose from the entire face image when the apparatus 1 is started up or after erroneous eye tracking. Here, the face part detection unit 40 of the present embodiment detects the coordinates of both eyes as the coordinates of the driver's eyes.

顔部位追跡部50は、顔部位検出部40により検出された眼及び鼻の座標に基づいて、全体画像よりも小さい極小領域を顔画像から抽出するものである。また、顔部位追跡部50は、抽出した極小領域から眼及び鼻の座標を、パターンマッチングによる方法や、形状認識による方法によって、特定して追跡していくものである。このように、顔部位追跡部50は、極小領域から眼及び鼻を特定するため、精度良く且つ実時間で眼及び鼻を追跡できることとなっている。   The face part tracking unit 50 extracts a minimal region smaller than the entire image from the face image based on the eye and nose coordinates detected by the face part detection unit 40. Further, the face part tracking unit 50 identifies and tracks the coordinates of the eyes and nose from the extracted minimal region by a pattern matching method or a shape recognition method. As described above, the face part tracking unit 50 identifies the eye and nose from the minimal region, and therefore can accurately track the eye and nose in real time.

眼鼻座標信号出力部60は、顔部位検出部40及び顔部位追跡部50により検出・追跡された眼及び鼻の座標を、眼鼻座標信号として出力するものである。具体的に、眼鼻座標信号出力部60は、例えば眼の開閉眼検出装置や脇見検出装置などに接続され、これら装置に眼鼻座標信号を出力する構成となっている。このため、眼鼻座標信号は、開閉眼検出装置や脇見検出装置などにより、運転者の居眠りや脇見などを検出するのに利用されることとなる。   The eye-nose coordinate signal output unit 60 outputs the eye and nose coordinates detected and tracked by the face part detection unit 40 and the face part tracking unit 50 as an eye-nose coordinate signal. Specifically, the eye-nose coordinate signal output unit 60 is connected to, for example, an eye opening / closing eye detection device or a side-view detection device, and is configured to output an eye-nose coordinate signal to these devices. For this reason, the eye-nose coordinate signal is used to detect a driver's drowsiness or looking aside by using an open / closed eye detection device, a look-ahead detection device, or the like.

なお、上記の顔部位検出部40及び顔部位追跡部50は、装置20内の記憶領域に記憶される処理状態の情報を読み込んで、処理を実行する構成となっている。ここで、処理状態は図3に示すようになっている。図3は処理状態の説明図である。   The face part detection unit 40 and the face part tracking unit 50 are configured to read processing state information stored in a storage area in the apparatus 20 and execute processing. Here, the processing state is as shown in FIG. FIG. 3 is an explanatory diagram of the processing state.

処理状態とは、眼追跡装置1の現在の状態を表すものである。具体的に処理状態は、眼が正確に追跡されているときには「追跡中」となり、眼の追跡に失敗したときには「再検出」となる。また、眼鼻を画像全体から検出したときには「検出」となり、眼鼻を画像全体から検出しているが、未だ検出に至っていないときには「検出中」となる。   The processing state represents the current state of the eye tracking device 1. Specifically, the processing state is “tracking” when the eye is accurately tracked, and “redetection” when the eye tracking fails. When the ocular nose is detected from the entire image, the detection is “detection”. When the ocular nose is detected from the entire image, but is not yet detected, the detection is “detecting”.

より詳しくは、眼の追跡の失敗として、誤って眉などを眼であるとして追跡していた場合、処理状態は「再検出(誤追跡)」となり、眼を追跡していたにも関わらず、例えば運転者が後方を視認して眼が撮像できなくなったことにより、眼を追跡できなくなった場合、処理状態は「再検出(通常)」となる。   More specifically, if the eye tracking has been mistakenly tracked as an eye as a failure to track the eye, the processing status will be “redetection (mistracking)”, For example, when the driver cannot visually track the eyes by visually recognizing the rear, the processing state becomes “redetection (normal)”.

この処理状態は、図3に示すように、眼の追跡が正確に行われている限り、「追跡中」を維持するようになっている。また、処理状態は、「追跡中」となっているときに、誤って眉などを追跡すると「追跡中」から「再検出(誤追跡)」に遷移するようになっている。さらに、「追跡中」となっているときに、眼が撮像できなくなったとすると「追跡中」から「再検出(通常)」に遷移するようになっている。   As shown in FIG. 3, this processing state is maintained as “tracking” as long as the eye is accurately tracked. Further, when the processing state is “tracking” and the eyebrow is tracked by mistake, the processing state shifts from “tracking” to “redetection (mistracking)”. Further, if the eye cannot be imaged when “tracking” is set, the state is changed from “tracking” to “redetection (normal)”.

また、処理状態は、「再検出(誤追跡)」及び「再検出(通常)」の後に、「検出中」に遷移するようになっている。そして、「検出中」の状態で、画像全体から眼鼻が検出されたときには「検出」に遷移し、検出されないときには「検出中」を維持するようになっている。また、処理状態が「検出」のときには、画像全体から検出した眼鼻が正確に検出されたのであれば、処理状態は「検出」から「追跡中」に遷移し、眼鼻が正確に検出されていない、即ち再度眉を眼として検出したなどであれば、処理状態は「検出」から「検出中」に戻るようになっている。   In addition, the processing state transitions to “being detected” after “redetection (false tracking)” and “redetection (normal)”. In the “detecting” state, when an ocular nose is detected from the entire image, transition is made to “detection”, and when it is not detected, “detecting” is maintained. In addition, when the processing state is “detection”, if the ocular nose detected from the entire image is accurately detected, the processing state transits from “detection” to “tracking”, and the ocular nose is accurately detected. If, for example, the eyebrow is detected again as an eye, the processing state returns from “detection” to “detecting”.

ここで、顔部位検出部40は、処理状態として、「検出」「検出中」「再検出(誤追跡)」及び「再検出(通常)」を示す信号を入力したときに、作動して処理を行う構成となっている。一方、顔部位追跡部50は、処理状態として、「追跡中」を示す信号を入力したときに、作動して処理を行う構成となっている。なお、処理状態「追跡中」において顔部位検出部40は、データ収集処理(後述する眼鼻間距離度数分布の生成処理)については、実行する構成となっている。   Here, the face part detection unit 40 operates and processes when a signal indicating “detection”, “detecting”, “redetection (false tracking)”, and “redetection (normal)” is input as the processing state. It is the composition which performs. On the other hand, the face part tracking unit 50 is configured to operate and perform processing when a signal indicating “tracking” is input as the processing state. In the processing state “tracking”, the face part detection unit 40 is configured to execute a data collection process (an interocular distance frequency distribution generation process described later).

以上の構成により、本装置1では、顔部位が正確に追跡できているときには、顔部位追跡部50により極小領域から眼及び鼻が追跡され、眼の追跡に失敗したときには、顔部位検出部40により画像全体から眼及び鼻が検出される。そして、本装置1は、眼の追跡に失敗した場合、顔部位検出部40が正確に眼を検出したか否かを判断して、正確に検出されているときには処理状態を「検出」から「追跡中」に遷移させ、眼の追跡処理に復帰させる構成となっている。すなわち、本装置1は、眼の追跡に復帰するまでに、追跡対象が眼であることを確認して目の追跡処理に戻る構成となっている。一方、本装置1は、眼が正確に検出されていないには処理状態を「検出」から「検出中」に戻し、眼の追跡処理に復帰させず、再度眼を検出する構成となっている。   With the above configuration, in the present apparatus 1, when the face part can be accurately tracked, the face part tracking unit 50 tracks the eyes and nose from the minimal area, and when the eye tracking fails, the face part detection unit 40 Thus, the eyes and nose are detected from the entire image. Then, when the eye tracking fails, the apparatus 1 determines whether or not the face part detection unit 40 has accurately detected the eye, and when the eye is correctly detected, the processing state is changed from “detection” to “ It is configured to shift to “tracking” and return to the eye tracking process. That is, the apparatus 1 is configured to confirm that the tracking target is an eye and return to the eye tracking process before returning to eye tracking. On the other hand, the apparatus 1 is configured to return the processing state from “detection” to “detecting” when the eye is not accurately detected, and detect the eye again without returning to the eye tracking process. .

図4は、図2に示した顔部位検出部40の詳細を示すデータフローダイアグラムである。同図に示すように、顔部位検出部40は、鼻座標検出部(座標検出手段)41、眼座標検出部(座標検出手段)42、及び眼鼻座標決定部43を備えている。   FIG. 4 is a data flow diagram showing details of the face part detection unit 40 shown in FIG. As shown in the figure, the face part detection unit 40 includes a nose coordinate detection unit (coordinate detection unit) 41, an eye coordinate detection unit (coordinate detection unit) 42, and an eye nose coordinate determination unit 43.

鼻座標検出部41は、処理状態が「検出中」のときに、顔画像取得部30からの顔画像データに基づいて、顔画像上における鼻の座標を検出するものである。また、眼座標検出部42は、処理状態が「検出中」のときに、顔画像取得部30からの顔画像データに基づいて、顔画像上における眼の座標を検出するものである。ここで、眼座標検出部42は、運転者が眼鏡等を着用している場合、眼鏡等の影響により眼の検出が困難となるが、第2顔部位としての鼻座標が検出されているときには、鼻座標を利用することにより、眼座標を検出する構成となっている。具体的に眼座標検出部42は、眼の垂直二等分線下に鼻がある等の条件によって、眼を検出する際の保証とすることができる。   The nose coordinate detection unit 41 detects the coordinates of the nose on the face image based on the face image data from the face image acquisition unit 30 when the processing state is “being detected”. The eye coordinate detection unit 42 detects eye coordinates on the face image based on the face image data from the face image acquisition unit 30 when the processing state is “being detected”. Here, when the driver wears glasses or the like, the eye coordinate detection unit 42 makes it difficult to detect the eyes due to the influence of the glasses or the like, but when the nose coordinates as the second face part are detected. The eye coordinates are detected by using the nose coordinates. Specifically, the eye coordinate detection unit 42 can guarantee the detection of an eye according to a condition such as a nose being under the perpendicular bisector of the eye.

眼鼻座標決定部43は、処理状態が「検出」のときに、鼻座標検出部41及び眼座標検出部42により検出された鼻座標及び眼座標から、眼鼻座標を決定するものである。また、眼鼻座標決定部43は、処理状態が「検出」の場合、鼻座標検出部41及び眼座標検出部42により検出された鼻座標及び眼座標が正しく検出されたかを判断する構成となっている。このとき、眼鼻座標決定部43は、処理状態が「再検出(誤追跡)」又は「再検出(通常)」のときに、過去の眼鼻座標から、再度眼鼻座標を決定する。そして、眼鼻座標決定部43は、過去の眼鼻座標から特徴量を取得し、この特徴量との関係により、鼻座標及び眼座標が正しく検出されたかを判断することとなる。   The eye-nose coordinate determination unit 43 determines the eye-nose coordinates from the nose coordinates and the eye coordinates detected by the nose coordinate detection unit 41 and the eye coordinate detection unit 42 when the processing state is “detection”. In addition, when the processing state is “detection”, the eye-nose coordinate determination unit 43 is configured to determine whether the nose coordinates and the eye coordinates detected by the nose coordinate detection unit 41 and the eye coordinate detection unit 42 are correctly detected. ing. At this time, when the processing state is “re-detection (false tracking)” or “re-detection (normal)”, the eye-nose coordinate determination unit 43 determines the eye-nose coordinates again from the past eye-nose coordinates. Then, the eye-nose coordinate determination unit 43 acquires the feature amount from the past eye-nose coordinate, and determines whether the nose coordinate and the eye coordinate are correctly detected based on the relationship with the feature amount.

図5は、図4に示した眼鼻座標決定部43の詳細を示すデータフローダイアグラムである。同図に示すように、眼鼻座標決定部43は、位置関係計算部(位置関係計算手段)43a、度数分布生成部43b、クラス判定部43c、及び位置関係判定部(位置関係判定手段)43dを有している。   FIG. 5 is a data flow diagram showing details of the eye-nose coordinate determination unit 43 shown in FIG. As shown in the figure, the eye-nose coordinate determination unit 43 includes a positional relationship calculation unit (positional relationship calculation unit) 43a, a frequency distribution generation unit 43b, a class determination unit 43c, and a positional relationship determination unit (positional relationship determination unit) 43d. have.

位置関係計算部43aは、処理状態が「検出」の場合に、鼻座標検出部41及び眼座標検出部42により検出された双方の座標から、眼と鼻との座標の特徴量を計算するものである。ここで、本実施形態において特徴量とは、例えば画像上における眼と鼻との距離が該当する。従って、本実施形態における位置関係計算部43aは、眼鼻間距離を計算するものといえる。   The positional relationship calculation unit 43a calculates the feature amount of the coordinates between the eyes and the nose from the coordinates detected by the nose coordinate detection unit 41 and the eye coordinate detection unit 42 when the processing state is “detection”. It is. Here, in this embodiment, the feature amount corresponds to, for example, the distance between the eye and the nose on the image. Therefore, it can be said that the positional relationship calculation unit 43a in the present embodiment calculates the interocular distance.

度数分布生成部43bは、位置関係計算部43aにより検出された眼鼻間距離のデータを時系列的に収集して、収集した複数の眼鼻間距離のデータから度数分布を生成するものである。ここで、度数分布とは、複数の眼鼻間距離データの集合データであって、眼鼻間距離の検出回数を示す分布データである。具体的に眼鼻間距離の度数分布は、眼鼻間距離の画素数が「95」であるときに度数(検出回数)が「180」であり、眼鼻間距離の画素数が「135」であるときに度数(検出回数)が「52」であるなどの情報を有するデータ構造となっている。   The frequency distribution generation unit 43b collects the data of the interocular distance detected by the positional relationship calculation unit 43a in time series, and generates the frequency distribution from the collected data of the interocular distances. . Here, the frequency distribution is a collection of a plurality of interocular distance data, and is distribution data indicating the number of times the interocular distance is detected. Specifically, in the frequency distribution of the interocular distance, when the interocular distance pixel number is “95”, the frequency (number of detections) is “180”, and the interocular distance pixel number is “135”. The data structure has information such that the frequency (number of detections) is “52”.

クラス判定部43cは、度数分布生成部43bにより生成された度数分布を所定条件に従って区分するものである。具体的に、クラス判定部43cは、眼鼻間距離度数分布の元となる複数の眼鼻間距離のデータを所定条件に従って区分するものである。ここで、所定条件とは、例えば特徴量の大きさが挙げられる。すなわち、クラス判定部43cは、収集した複数の眼鼻間距離のデータを所定の大きさ毎に区分することとなる。なお、所定条件は、これに限らず、他のもの、例えば後述する傾きを基準とするものであってもよい。   The class determination unit 43c classifies the frequency distribution generated by the frequency distribution generation unit 43b according to a predetermined condition. Specifically, the class determination unit 43c classifies a plurality of interocular distance data, which is the basis of the interocular distance frequency distribution, according to a predetermined condition. Here, the predetermined condition includes, for example, the size of the feature amount. That is, the class determination unit 43c classifies the collected data of the distance between the eyes and nose for each predetermined size. Note that the predetermined condition is not limited to this, and may be another one, for example, one based on an inclination described later.

また、クラス判定部43cは、眼の追跡に失敗したときの眼鼻間距離と、失敗後に再度画像全体から眼を検出したときの眼鼻間距離とが、いずれの区分に属するかを判定するものである。すなわち、クラス判定部43cは、処理状態が「再検出(誤追跡)」又は「再検出(通常)」のときの眼鼻間距離と、処理状態「検出」のときの眼鼻間距離とがいずれの区分に属するかを判定するものである。さらに、クラス判定部43cは、判定した区分の情報を出力する構成とされている。   In addition, the class determination unit 43c determines in which category the interocular distance when the eye tracking fails and the interocular distance when the eye is detected again from the entire image after the failure belong to. Is. That is, the class determining unit 43c determines the distance between the nose when the processing state is “redetection (false tracking)” or “redetection (normal)” and the interocular distance when the processing state is “detection”. It is determined which category it belongs to. Furthermore, the class determination unit 43c is configured to output the determined classification information.

ここで、上記クラス判定部43cは、具体的に以下の構成となっている。図6は、図5に示したクラス判定部43cの詳細を示すデータフローダイアグラムである。同図に示すように、クラス判定部43cは、ラベリング部(区分手段)43c1とクラス判断部(区分判断手段)43c2とを具備している。   Here, the class determination unit 43c specifically has the following configuration. FIG. 6 is a data flow diagram showing details of the class determination unit 43c shown in FIG. As shown in the figure, the class determination unit 43c includes a labeling unit (classification unit) 43c1 and a class determination unit (classification determination unit) 43c2.

ラベリング部43c1は、位置関係計算部43aにより時系列的に検出された複数の特徴量を所定条件に従って区分するものである。具体的にラベリング部43c1は、縦軸を度数とし、横軸を眼鼻間距離の画素数とした場合に、その傾きによって眼鼻間距離度数分布を区分していくものである。また、ラベリング部43c1は、度数分布を区分し、区分したそれぞれをラベルリングするものである。すなわち、ラベリング部43c1は、区分したそれぞれをL(n)なるラベルとし(nは1以上の整数)、これらの集合であるラベルデータL(1)〜L(n)を、クラス判断部43c2に出力するものである。   The labeling unit 43c1 classifies a plurality of feature amounts detected in time series by the positional relationship calculation unit 43a according to a predetermined condition. Specifically, the labeling unit 43c1 classifies the interocular distance frequency distribution according to the inclination when the vertical axis is the frequency and the horizontal axis is the number of pixels of the interocular distance. The labeling unit 43c1 divides the frequency distribution and labels each of the divided distributions. That is, the labeling unit 43c1 sets each of the divided labels as L (n) (n is an integer equal to or greater than 1), and the label data L (1) to L (n), which is a set of these, is sent to the class determination unit 43c2. Output.

クラス判断部43c2は、眼の追跡に失敗したときの眼鼻間距離と、失敗後に再度画像全体から眼を検出したときの眼鼻間距離とが、いずれのラベル(区分)に属するかを判断するものである。すなわち、クラス判断部43c2は、処理状態が「再検出(誤追跡)」又は「再検出(通常)」のときの眼鼻間距離と、処理状態「検出」のときの眼鼻間距離とが、いずれのラベル(区分)に属するかを判断するものである。そして、クラス判断部43c2は、例えば眼の追跡に失敗したときの眼鼻間距離が、例えばラベルL(3)に属し、追跡失敗後に画像全体から得られた眼鼻間距離がラベルL(2)に属するなどを判断するものである。   The class determination unit 43c2 determines which label (classification) the interocular distance when the eye tracking fails and the interocular distance when the eye is detected again from the entire image after the failure belong to. To do. That is, the class determining unit 43c2 determines the distance between the nose when the processing state is “redetection (false tracking)” or “redetection (normal)” and the interocular distance when the processing state is “detection”. Which label (category) it belongs to is determined. Then, the class determining unit 43c2 determines that the distance between the eyes and nose when, for example, the eye tracking fails belongs to, for example, the label L (3), and the distance between the eyes and nose obtained from the entire image after the tracking failure is the label L (2 ) And the like.

再度、図5を参照する。位置関係判定部43dは、クラス判断部43c2が判断した区分に基づいて、鼻座標検出部41及び眼座標検出部42により検出された鼻座標及び眼座標が正しく検出されたか否かを判断するものである。また、位置関係判定部43dは、鼻座標及び眼座標が正しく検出されていない場合、処理状態を「検出」とし、再度の鼻座標及び眼座標の検出をさせるものである。さらに、位置関係判定部43dは、鼻座標及び眼座標が正しく検出されている場合、処理状態を「追跡中」とし、追跡処理に移行させると共に、眼鼻座標を決定して、眼鼻座標を図2に示した眼鼻座標信号出力部60に出力するものである。   Reference is again made to FIG. The positional relationship determination unit 43d determines whether or not the nose coordinates and the eye coordinates detected by the nose coordinate detection unit 41 and the eye coordinate detection unit 42 are correctly detected based on the classification determined by the class determination unit 43c2. It is. In addition, the positional relationship determination unit 43d sets the processing state to “detection” when the nose coordinates and the eye coordinates are not correctly detected, and detects the nose coordinates and the eye coordinates again. Further, when the nose coordinates and the eye coordinates are correctly detected, the positional relationship determination unit 43d sets the processing state to “tracking”, shifts to the tracking process, determines the eye nose coordinates, and sets the eye nose coordinates. This is output to the eye-nose coordinate signal output unit 60 shown in FIG.

次に、眼追跡装置1の動作の概略について図1〜図14を参照して説明する。まず、処理状態が「追跡中」である場合、図1及び図2に示すように、眼追跡装置1では、カメラ10により運転者の顔画像が撮影され、ビデオ信号が眼検出装置20の顔画像取得部30に入力される(S11)。そして、顔画像取得部30は、記憶領域に顔画像データを記憶させると、顔画像データを出力する(S12)。そして、顔部位検出部40及び顔部位追跡部50は、顔画像データを入力する(S13,S14)
このとき、顔部位検出部40及び顔部位追跡部50は、装置20内の記憶領域に記憶される処理状態の情報を読み込む(S15,S16)。ここで、処理状態は「追跡中」であるため、顔部位追跡部50は、眼の追跡処理を実行することとなる。
Next, an outline of the operation of the eye tracking device 1 will be described with reference to FIGS. First, when the processing state is “tracking”, as shown in FIGS. 1 and 2, in the eye tracking device 1, the driver's face image is captured by the camera 10, and the video signal is the face of the eye detection device 20. The image is input to the image acquisition unit 30 (S11). Then, when the face image data is stored in the storage area, the face image acquisition unit 30 outputs the face image data (S12). Then, the face part detection unit 40 and the face part tracking unit 50 input face image data (S13, S14).
At this time, the face part detection unit 40 and the face part tracking unit 50 read the processing state information stored in the storage area in the apparatus 20 (S15, S16). Here, since the processing state is “tracking”, the face part tracking unit 50 executes the eye tracking process.

この際、顔部位追跡部50は、前回処理において求められた眼鼻座標のデータを読み込む(S17)。そして、顔部位追跡部50は、読み込んだ眼鼻座標に基づいて顔画像から極小領域を抽出する。その後、顔部位追跡部50は、極小領域から、パターンマッチングや、形状認識により、眼鼻を特定して眼を追跡していく。そして、顔部位追跡部50は、眼鼻を正確に特定した場合、処理状態「追跡中」の信号を出力することとなる(S18)。   At this time, the face part tracking unit 50 reads the data of the eye-nose coordinates obtained in the previous process (S17). Then, the face part tracking unit 50 extracts a minimal region from the face image based on the read eye-nose coordinates. Thereafter, the face part tracking unit 50 traces the eye from the minimal region by specifying the eye nose by pattern matching or shape recognition. Then, when the ocular nose is accurately identified, the face part tracking unit 50 outputs a signal indicating the processing state “tracking” (S18).

また、顔部位追跡部50は、特定した眼鼻座標のデータを出力し(S19)、眼鼻座標信号出力部60は、そのデータを読み込む(S20)。そして、眼鼻座標信号出力部60は、開閉眼検出装置や脇見検出装置などに眼鼻座標信号を出力することとなる(S21)。   Further, the face part tracking unit 50 outputs the data of the identified ocular nose coordinates (S19), and the ocular nose coordinate signal output unit 60 reads the data (S20). Then, the eye-nose coordinate signal output unit 60 outputs the eye-nose coordinate signal to the open / close eye detection device, the side-view detection device, or the like (S21).

一方、顔部位追跡部50は、眼鼻を正確に特定できない場合、処理状態「再検出」の信号を出力することとなる(S18)。ここで、顔部位追跡部50は、例えば、追跡対象の縦幅を検出して眼の開閉を判断し、一定時間(およそ3秒)以上の閉眼が続く場合、眼以外の顔部位(眉など)を誤って追跡したと判断して処理状態「再検出(誤追跡)」の信号を出力する(S18)。また、顔部位追跡部50は、この他に、一定時間以上(およそ1分)閉眼にならない場合や、眼の上に眉毛にあたる物体を検出できない場合にも、眼以外の顔部位(眉など)を誤って追跡したと判断して処理状態「再検出(誤追跡)」の信号を出力する(S18)。そして、本装置1は、処理状態が「再検出(誤追跡)」であるときの処理を実行することとなる。   On the other hand, when the eye part and nose cannot be accurately identified, the face part tracking unit 50 outputs a signal indicating the processing state “redetection” (S18). Here, the face part tracking unit 50 detects the opening / closing of the eye by detecting the vertical width of the tracking target and, for example, when the eyes are closed for a certain time (approximately 3 seconds) or longer, the face part other than the eyes (such as eyebrows) ) Is output in error, and a signal indicating the processing state “redetection (mistracking)” is output (S18). In addition to this, the face part tracking unit 50 also has face parts other than the eyes (such as eyebrows) even when the eyes are not closed for a certain period of time (approximately 1 minute) or when an object corresponding to eyebrows cannot be detected on the eyes. Is detected and the processing state “redetection (mistracking)” signal is output (S18). And this apparatus 1 will perform the process when a process state is "redetection (false tracking)."

さらに、顔部位追跡部50は、手及びハンドルが顔に重なったり、運転者が後ろを振り返ったりした場合など、眼を正確に追跡していたものの、眼自体の撮像されなくなったことにより眼を追跡できなくなったときには、処理状態「再検出(通常)」の信号を出力する(S18)。そして、本装置1は、処理状態が「再検出(通常)」であるときの処理を実行することとなる。   Further, the face part tracking unit 50 tracks the eyes accurately, such as when the hand and handle overlap the face, or the driver looks back, but the eyes are not captured because the eyes themselves are no longer imaged. When tracking becomes impossible, a signal indicating the processing state “redetection (normal)” is output (S18). Then, the apparatus 1 executes processing when the processing state is “redetection (normal)”.

次に、処理状態が「再検出(誤追跡)」であるときの動作の概略を説明する。図2に示すように、顔部位検出部40は、処理状態「再検出(誤追跡)」の信号を入力すると(S15)、追跡に失敗したときの前回の眼鼻座標データを読み込む(S22)。すなわち、図3及び図4に示すように、眼鼻座標決定部43内の位置関係計算部43aが、処理状態「再検出(誤追跡)」の信号を入力すると(S31、S51)、追跡失敗時の眼鼻座標データを読み込む(S32、S52)。   Next, an outline of the operation when the processing state is “redetection (false tracking)” will be described. As shown in FIG. 2, when the signal of the processing state “re-detection (mistracking)” is input (S15), the face part detection unit 40 reads the previous ophthalmic nose coordinate data when tracking fails (S22). . That is, as shown in FIGS. 3 and 4, when the positional relationship calculation unit 43a in the eye-nose coordinate determination unit 43 inputs a signal of the processing state “redetection (mistracking)” (S31, S51), tracking failure The eye nose coordinate data is read (S32, S52).

そして、位置関係計算部43aは、失敗時の眼鼻座標データから、眼鼻間距離を求める。次いで、位置関係計算部43aは、眼鼻間距離のデータを出力する(S53)。その後、度数分布生成部43bは、眼鼻間距離のデータを入力する(S54)。そして、度数分布生成部43bは、眼鼻間距離度数分布を生成する。このとき、度数分布生成部43bは、まず、眼鼻間距離のデータから、階級を求める。図7は、眼鼻間距離度数分布の一例を示す説明図である。同図に示す度数分布では、階級が20画素毎に設定されている。そして、度数分布生成部43bは、失敗時の眼鼻間距離がいずれかの階級に該当するか否かを判断する。例えば度数分布生成部43bは、画素数120〜140の階級に該当するなどを求めることとなる。次いで、度数分布生成部43bは、求めた階級の情報を出力する(S55)。   And the positional relationship calculation part 43a calculates | requires the interocular distance from the eye-nose coordinate data at the time of failure. Next, the positional relationship calculation unit 43a outputs data on the distance between the eyes and nose (S53). Thereafter, the frequency distribution generation unit 43b inputs the data of the interocular distance (S54). Then, the frequency distribution generation unit 43b generates an interocular distance frequency distribution. At this time, the frequency distribution generation unit 43b first obtains a class from the interocular distance data. FIG. 7 is an explanatory diagram illustrating an example of the interocular distance frequency distribution. In the frequency distribution shown in the figure, the class is set for every 20 pixels. Then, the frequency distribution generation unit 43b determines whether the interocular distance at the time of failure corresponds to any class. For example, the frequency distribution generation unit 43b determines that it corresponds to a class having 120 to 140 pixels. Next, the frequency distribution generation unit 43b outputs the obtained class information (S55).

また、度数分布生成部43bは、階級を求めると、過去に生成した眼鼻間距離度数分布のデータを読み込む(S56)。そして、度数分布生成部43bは、図6に示す如く、先に求めた階級(例えば画素数120〜140の階級)について度数を追加し、最も古いデータが属する階級(例えば画素数80〜100の階級)から、その情報を消去する。そして、度数分布生成部43bは、新たな眼鼻間距離度数分布を生成して、このデータを出力する(S57)。   Further, when the frequency distribution generation unit 43b obtains the class, the frequency distribution generation unit 43b reads data of the interocular distance frequency distribution generated in the past (S56). Then, as shown in FIG. 6, the frequency distribution generation unit 43b adds the frequency to the previously obtained class (for example, a class having 120 to 140 pixels), and the class to which the oldest data belongs (for example, 80 to 100 pixels). Delete the information from (class). Then, the frequency distribution generation unit 43b generates a new interocular distance frequency distribution and outputs this data (S57).

次いで、クラス判定部43cは、処理状態「再検出(誤追跡)」の信号を入力し(S58)、更に、階級及び眼鼻間距離度数分布のデータを読み込む(S59、S60)。すなわち、図6に示すラベリング部43c1は、処理状態「再検出(誤追跡)」の信号を入力して(S71)、階級及び眼鼻間距離度数分布のデータを読み込む(S72、S73)。   Next, the class determination unit 43c inputs a signal indicating the processing state “redetection (false tracking)” (S58), and further reads the data of the class and the interocular distance frequency distribution (S59, S60). That is, the labeling unit 43c1 shown in FIG. 6 inputs a signal of the processing state “re-detection (false tracking)” (S71), and reads the data of the class and the interocular distance frequency distribution (S72, S73).

そして、ラベリング部43c1は、所定条件に従って眼鼻間距離度数分布を区分する。具体的に図7に示す例において、ラベリング部43c1は、各階級間の傾きが負から正に変化する階級で区分していき、区分したそれぞれをラベルL(1)〜L(3)とする。その後、ラベリング部43c1は、ラベルデータL(1)〜L(3)を出力する(S74)。   Then, the labeling unit 43c1 classifies the interocular distance frequency distribution according to a predetermined condition. Specifically, in the example illustrated in FIG. 7, the labeling unit 43c1 classifies each class by the class in which the slope between the classes changes from negative to positive, and sets each class as labels L (1) to L (3). . Thereafter, the labeling unit 43c1 outputs the label data L (1) to L (3) (S74).

また、クラス判断部43c2は、処理状態「再検出(誤追跡)」の信号を入力すると(S75)、階級のデータ及びラベルデータLを読み込む(S76、S77)。次いで、クラス判断部43c2は、図7に示す例の場合、度数分布生成部43bにより求められた階級が、いずれのラベルL(1)〜L(3)に属するか否かを判断する。そして、この場合のクラス判断部43c2は、例えば階級がラベルL(3)に属すると判断する。   Further, when the signal of the processing state “redetection (false tracking)” is input (S75), the class determination unit 43c2 reads the class data and the label data L (S76, S77). Next, in the example shown in FIG. 7, the class determination unit 43c2 determines which label L (1) to L (3) the class obtained by the frequency distribution generation unit 43b belongs to. In this case, the class determination unit 43c2 determines that the class belongs to the label L (3), for example.

その後、クラス判断部43c2は、ラベルL(3)をクラスcとし、このクラスcを前クラスpcとして登録する。次いで、クラス判断部43c2は、前クラスpcのデータを出力する(S61、S78)。そして、図5に示すように、位置関係判定部43dは、処理状態が「再検出(誤追跡)」である旨の信号を読み込んで(S68)、処理状態「検出中」の信号を出力することとなる(S63)。   Thereafter, the class determining unit 43c2 registers the label L (3) as the class c and registers the class c as the previous class pc. Next, the class determination unit 43c2 outputs the data of the previous class pc (S61, S78). Then, as shown in FIG. 5, the positional relationship determination unit 43d reads a signal indicating that the processing state is “redetection (false tracking)” (S68), and outputs a signal indicating that the processing state is “detecting”. (S63).

さらに、位置関係判定部43dは、前クラスpcのデータを読み込んで(S62)、記憶しておく。このように追跡失敗時のデータである前クラスpcのデータを記憶しておくことで、位置関係判定部43dは、後に画像全体から眼鼻を検出するときに、前クラスpcを眼が正確に検出されたか否かの基準とすることができる。   Further, the positional relationship determination unit 43d reads the data of the previous class pc (S62) and stores it. By storing the data of the previous class pc that is the data at the time of tracking failure in this way, the positional relationship determination unit 43d accurately determines the previous class pc when the eye nose is detected from the entire image later. It can be used as a reference whether or not it has been detected.

なお、処理状態が「再検出(通常)」であるときの処理は、基本的に「再検出(誤追跡)」と同じである。従って、上記と同様に、処理が行われることとなる。   Note that the processing when the processing state is “redetection (normal)” is basically the same as “redetection (false tracking)”. Accordingly, processing is performed in the same manner as described above.

次に、処理状態が「検出中」であるときの動作の概略を説明する。処理状態が「検出中」である場合、図1及び図2に示すように、眼追跡装置1では、カメラ10により運転者の顔画像が撮影され、ビデオ信号が眼検出装置20の顔画像取得部30に入力される(S11)。そして、顔画像取得部30は、記憶領域に顔画像データを記憶させると、顔画像データを出力する(S12)。そして、顔部位検出部40及び顔部位追跡部50は、顔画像データを入力する(S13,S14)
このとき、顔部位検出部40及び顔部位追跡部50は、装置20内の記憶領域に記憶される処理状態の情報を読み込む(S15,S16)。そして、処理状態が「検出中」であることから、顔部位検出部40は、眼の検出処理を実行することとなる。
Next, an outline of the operation when the processing state is “detecting” will be described. When the processing state is “detecting”, as shown in FIGS. 1 and 2, in the eye tracking device 1, the driver's face image is captured by the camera 10, and the video signal is acquired by the eye detection device 20. Input to the unit 30 (S11). Then, when the face image data is stored in the storage area, the face image acquisition unit 30 outputs the face image data (S12). Then, the face part detection unit 40 and the face part tracking unit 50 input face image data (S13, S14).
At this time, the face part detection unit 40 and the face part tracking unit 50 read the processing state information stored in the storage area in the apparatus 20 (S15, S16). Since the processing state is “being detected”, the face part detection unit 40 executes an eye detection process.

すなわち、図4に示す鼻座標検出部41及び眼座標検出部42は、処理状態「検出中」の信号を入力して(S33、S34)、鼻及び眼の座標を検出することとなる。このとき、鼻座標検出部41及び眼座標検出部42は、顔画像データを入力する(S35、S36)。   That is, the nose coordinate detection unit 41 and the eye coordinate detection unit 42 illustrated in FIG. 4 receive the processing state “detecting” signal (S33, S34), and detect the nose and eye coordinates. At this time, the nose coordinate detection unit 41 and the eye coordinate detection unit 42 input face image data (S35, S36).

そして、鼻座標検出部41は、図8〜図10に示すようにして、鼻の座標値を検出する。図8は、顔画像及びその顔画像から得られる鼻座標を示す説明図であり、(a)は、顔画像を示し、(b)は画像縦方向及び横方向の画素列に沿って抽出した抽出点を示し、(c)は、鼻の候補を示している。   And the nose coordinate detection part 41 detects the coordinate value of a nose as shown in FIGS. FIG. 8 is an explanatory diagram showing a face image and nose coordinates obtained from the face image, (a) shows the face image, and (b) is extracted along the pixel rows in the vertical and horizontal directions of the image. Extraction points are shown, and (c) shows nose candidates.

同図に示すように、鼻座標検出部41は、図8(a)に示すような顔画像を入力すると、顔画像の縦方向の画素列(縦ライン)に沿って画素の濃度を検出し、前記画素列における濃度の局所的な高まりごとに1個ずつの要素を定めて抽出点とする。また、鼻座標検出部41は、画像縦方向に抽出点を定めた後に、顔画像の横方向の画素列(横ライン)に沿って画素の濃度を検出し、前記画素列における濃度の局所的な高まりごとに1個ずつの要素を定めて抽出点とする。   As shown in the figure, when a face image as shown in FIG. 8A is input, the nose coordinate detection unit 41 detects the pixel density along the vertical pixel row (vertical line) of the face image. , One element is determined for each local increase in density in the pixel column and is used as an extraction point. Further, the nose coordinate detection unit 41 determines the pixel density along the horizontal pixel row (horizontal line) of the face image after setting the extraction point in the vertical direction of the image, and locally detects the density of the pixel row. One element is determined for each increase and is used as an extraction point.

図9及び図10は、画素列毎の各画素の濃度値(光量)を示すグラフであり、図9は、図8(a)に示す画像縦方向の画素列Yaの濃度値を示し、図10は、画像横方向の画素列Xaの濃度値を示している。   9 and 10 are graphs showing the density value (light quantity) of each pixel for each pixel column, and FIG. 9 shows the density value of the pixel column Ya in the image vertical direction shown in FIG. Reference numeral 10 denotes the density value of the pixel column Xa in the horizontal direction of the image.

まず、図9に示すように、濃度値は、鼻孔や口の部分で局所的に低下している。このため、鼻座標検出部41は、Yaラインについて、鼻孔及び口部分の画素を抽出点として定めることとなる。また、図10に示すように、濃度値は、双方の鼻孔部分で局所的に低下している。このため、鼻座標検出部41は、Xaラインについては、双方の鼻孔部分の画素を抽出点として定めることとなる。   First, as shown in FIG. 9, the density value locally decreases at the nostril and mouth. For this reason, the nose coordinate detection part 41 will determine the pixel of a nostril and a mouth part as an extraction point about Ya line. Moreover, as shown in FIG. 10, the density value locally decreases in both nostril portions. For this reason, the nose coordinate detection unit 41 determines pixels of both nostrils as extraction points for the Xa line.

このように、画像縦方向及び横方向に定めた抽出点を図4(b)に示している。また、鼻座標検出部41は、画像縦方向及び横方向に抽出点を定めると、画像縦方向の抽出点と横方向の抽出点との重複する点を、鼻孔の候補点とする。ここで、鼻孔は、通常画像横方向に2つ隣接するものである。このため、鼻座標検出部41は、画像横方向に2つのペアとなりうる候補点を鼻孔の候補として残し、他の候補点を削除する。これにより、鼻座標検出部41は、図8(c)に示す画像を取得して、鼻座標を検出することとなる。   The extraction points determined in the vertical and horizontal directions are shown in FIG. In addition, when the nose coordinate detection unit 41 determines extraction points in the vertical and horizontal directions of the image, a point where the vertical extraction point and the horizontal extraction point overlap is set as a nostril candidate point. Here, two nostrils are adjacent in the horizontal direction of the normal image. For this reason, the nose coordinate detection unit 41 leaves candidate points that can be two pairs in the horizontal direction of the image as candidates for nostrils, and deletes other candidate points. Thereby, the nose coordinate detection part 41 will acquire the image shown in FIG.8 (c), and will detect a nose coordinate.

なお、鼻座標の検出方法としては、この他に、特開2002−251617号公報に示されるように、鼻筋を検出することにより鼻の座標を求める方法等であってもよい。   In addition to this, as a method for detecting the nose coordinates, as disclosed in Japanese Patent Laid-Open No. 2002-251617, a method for obtaining the coordinates of the nose by detecting the nose muscles may be used.

以上にようにして鼻座標を求めると、鼻座標検出部41は、鼻座標のデータを出力する(S37)。また、眼座標検出部42は、図11〜図13に示すようにして、眼の座標値を検出する。図11は、顔画像の説明図であり、図12は、顔画像の一部領域を示す説明図であり、図13は、図11に示す画像縦方向の画素列Ybの濃度値を示すグラフである。   When the nose coordinates are obtained as described above, the nose coordinate detection unit 41 outputs nose coordinate data (S37). Moreover, the eye coordinate detection part 42 detects the coordinate value of an eye as shown in FIGS. 11 is an explanatory diagram of a face image, FIG. 12 is an explanatory diagram showing a partial area of the face image, and FIG. 13 is a graph showing the density value of the pixel column Yb in the image vertical direction shown in FIG. It is.

同図に示すように、眼座標検出部42は、図11に示すような顔画像を入力すると、顔画像の縦方向の画素列(縦ライン)に沿って画素の濃度を検出し、前記画素列における濃度の局所的な高まりごとに1個ずつの要素を定めて抽出点とする。そして、眼座標検出部42は、画像縦方向の画素列の全ラインについて抽出点を定める。   As shown in the figure, when a face image as shown in FIG. 11 is input, the eye coordinate detection unit 42 detects the pixel density along a vertical pixel row (vertical line) of the face image, and the pixel One element is determined for each local increase in concentration in the column and is used as an extraction point. Then, the eye coordinate detection unit 42 determines extraction points for all lines in the pixel column in the vertical direction of the image.

ここで、図12に示すように、画像縦方向の画素列Ybの濃度値は、眼や眼鏡枠や口の部分で局所的に低下している。このため、眼座標検出部42は、Ybラインについて、鼻眼や眼鏡枠や口部分の画素を抽出点として定めることとなる。   Here, as shown in FIG. 12, the density value of the pixel column Yb in the vertical direction of the image is locally reduced at the eye, the spectacle frame, and the mouth. For this reason, the eye coordinate detection part 42 will determine the pixel of a nose eye, a spectacles frame, and a mouth part as an extraction point about Yb line.

その後、眼座標検出部42は、抽出点を集合させた画素群を得る。ここで、眼は、横方向に延びる形状を為している。このため、図13に示す眼の画素群は、形状的に画像横方向に連なるものとなる。このため、眼座標検出部42は、様々な画素群から、画像横方向に連なる画素群を選択することで、眼の画素群を検出する。そして、眼座標検出部42は、検出した眼の画素群から、眼の座標値を取得する。   Thereafter, the eye coordinate detection unit 42 obtains a pixel group in which the extraction points are assembled. Here, the eye has a shape extending in the lateral direction. For this reason, the eye pixel group shown in FIG. 13 is continuous in the horizontal direction of the image in shape. For this reason, the eye coordinate detection unit 42 detects an eye pixel group by selecting a pixel group continuous in the horizontal direction of the image from various pixel groups. Then, the eye coordinate detection unit 42 acquires an eye coordinate value from the detected eye pixel group.

なお、眼鏡枠や口についても形状的に画像横方向に連なるものとなっているため、眼であると検出される可能性がある。そこで、本実施形態の眼座標検出部42は、特開平11−96379号公報に記載されるように、予め設定される眼の長さや、眼が左右対称であることを利用して、眼を特定して眼座標を検出する。   The eyeglass frame and mouth are also connected in the horizontal direction of the image in shape, and thus may be detected as eyes. In view of this, the eye coordinate detection unit 42 of the present embodiment, as described in Japanese Patent Laid-Open No. 11-96379, takes advantage of the preset eye length and the fact that the eyes are symmetrical. Identify and detect eye coordinates.

さらに、本実施形態の眼座標検出部42は、鼻座標検出部41からの鼻座標のデータを読み込む(S38)。そして、眼座標検出部42は、鼻座標検出部41により検出された鼻座標を利用して、眼を検出する。すなわち、眼座標検出部42は、眼の垂直二等分線下に鼻があることをもって、眼を特定する。   Furthermore, the eye coordinate detection unit 42 of the present embodiment reads the data of the nose coordinates from the nose coordinate detection unit 41 (S38). Then, the eye coordinate detection unit 42 detects an eye using the nose coordinates detected by the nose coordinate detection unit 41. That is, the eye coordinate detection unit 42 identifies the eye when the nose is below the perpendicular bisector of the eye.

以上のようにして、眼座標検出部42は、眼座標を検出する。そして、眼座標検出部42は、眼座標のデータを出力する(S39)。ここで、眼座標及び鼻座標を更に説明する。図14は、眼座標及び鼻座標の説明図である。なお、図14では、眼鼻の他に、眉を誤って眼であるとして検出したときの座標についても示している。   As described above, the eye coordinate detection unit 42 detects the eye coordinates. Then, the eye coordinate detection unit 42 outputs eye coordinate data (S39). Here, the eye coordinates and the nose coordinates will be further described. FIG. 14 is an explanatory diagram of eye coordinates and nose coordinates. Note that FIG. 14 also shows coordinates when the eyebrows are erroneously detected as an eye in addition to the nose.

同図に示す如く、右眼の眼座標は、X座標が250〜300画素、Y座標が200画素付近となっている。また、左眼の眼座標は、X座標が400〜450画素、Y座標が200画素付近となっている。さらに、右眉の座標は、X座標が230〜350画素、Y座標が150〜200画素付近となっている。また、左眉の座標は、X座標が380〜550画素、Y座標が100〜200画素付近となっている。   As shown in the figure, the eye coordinates of the right eye are about 250 to 300 pixels for the X coordinate and about 200 pixels for the Y coordinate. Further, the eye coordinates of the left eye are about 400 to 450 pixels for the X coordinate and about 200 pixels for the Y coordinate. Furthermore, the coordinates of the right eyebrow are about 230 to 350 pixels for the X coordinate and about 150 to 200 pixels for the Y coordinate. In addition, the left eyebrow coordinates are about 380 to 550 pixels for the X coordinate and about 100 to 200 pixels for the Y coordinate.

そして、鼻座標は、これら眼及び眉の垂直二等分線下に存在している。このため、上記した如く、眉を眼であるとして誤追跡してしまう可能性があるといえる。また、その一方で、眼の垂直二等分線下に鼻があることをもって眼を特定することの基準とできるともいえる。   And nose coordinates exist under the perpendicular bisector of these eyes and eyebrows. For this reason, as described above, it can be said that there is a possibility of mistracking the eyebrows as being eyes. On the other hand, it can be said that it can be a standard for specifying the eye by having the nose under the perpendicular bisector of the eye.

そして、眼鼻座標決定部43は、鼻座標及び眼座標のデータを入力する(S40、S41)。次いで、眼鼻座標決定部43は、処理状態「検出」の信号を出力する(S42)。その後、本装置1は、処理状態が「検出」であるときの処理を実行することとなる。   Then, the eye-nose coordinate determination unit 43 inputs the data of the nose coordinate and the eye coordinate (S40, S41). Next, the eye-nose coordinate determination unit 43 outputs a signal indicating the processing state “detection” (S42). Thereafter, the apparatus 1 executes processing when the processing state is “detection”.

なお、鼻座標及び眼座標のデータを入力できなかった場合、すなわち、鼻座標検出部41及び眼座標検出部42のいずれかが鼻座標又は眼座標を検出できなかった場合、眼鼻座標決定部43は処理状態「検出中」の信号を出力する(S42)。これにより、本装置1は「検出中」の処理状態を維持し、再度、処理状態が「検出中」であるときの処理を実行することとなる。   When nose coordinate and eye coordinate data cannot be input, that is, when either the nose coordinate detection unit 41 or the eye coordinate detection unit 42 cannot detect the nose coordinate or the eye coordinate, the eye nose coordinate determination unit 43 outputs a signal indicating that the processing state is “detecting” (S42). As a result, the apparatus 1 maintains the “detecting” processing state, and again executes the processing when the processing state is “detecting”.

次に、処理状態が「検出」であるときの動作の概略を説明する。図5に示すように、処理状態「検出」となると、位置関係計算部43aは、新たに検出した鼻座標及び眼座標のデータを入力する(S64)。そして、位置関係計算部43aは、これら鼻座標及び眼座標から眼鼻間距離を求め、そのデータを出力する(S53)。   Next, an outline of the operation when the processing state is “detection” will be described. As shown in FIG. 5, when the processing state is “detection”, the positional relationship calculation unit 43a inputs the newly detected nose coordinate and eye coordinate data (S64). And the positional relationship calculation part 43a calculates | requires the distance between eyes nose from these nose coordinates and eye coordinates, and outputs the data (S53).

その後、度数分布生成部43bは、眼鼻間距離のデータを入力し(S54)、上記したように、入力した眼鼻間距離の階級を求め、求めた階級の情報を出力する(S55)。また、度数分布生成部43bは、階級を求めると、過去に生成した眼鼻間距離度数分布のデータを読み込み(S56)、新たな眼鼻間距離度数分布を生成して、このデータを出力する(S57)。   After that, the frequency distribution generation unit 43b inputs the data of the interocular distance (S54), obtains the class of the inputted interocular distance as described above, and outputs the obtained class information (S55). Further, when the frequency distribution generation unit 43b obtains the class, it reads the data of the interocular distance frequency distribution generated in the past (S56), generates a new interocular distance frequency distribution, and outputs this data. (S57).

そして、図6に示すように、クラス判定部43cのラベリング部43c1は、処理状態「検出」の信号を入力して(S71)、階級及び眼鼻間距離度数分布のデータを読み込む(S72、S73)。   Then, as shown in FIG. 6, the labeling unit 43c1 of the class determination unit 43c inputs the processing state “detection” signal (S71), and reads the data of the class and interocular distance frequency distribution (S72, S73). ).

次いで、ラベリング部43c1は、所定条件に従って眼鼻間距離度数分布を区分し、ラベルデータL(1)〜L(3)を出力する(S74)。その後、クラス判断部43c2は、処理状態「検出」の信号を入力すると(S75)、階級のデータ及びラベルデータLを読み込む(S76、S77)。   Next, the labeling unit 43c1 classifies the interocular distance frequency distribution according to a predetermined condition, and outputs label data L (1) to L (3) (S74). Thereafter, when the signal of the processing state “detection” is input (S75), the class determination unit 43c2 reads the class data and the label data L (S76, S77).

そして、クラス判断部43c2は、度数分布生成部43bにより求められた階級が、いずれのラベルに属するか否かを判断し、判断したラベルをクラスcとする。次いで、クラス判断部43c2は、このクラスcを現クラスccとして登録し、現クラスccのデータを出力する(S65、S79)。その後、図5に示すように、位置関係判定部43dは、処理状態が「検出」である旨の信号と、現クラスccのデータを読み込む(S66、S68)。   Then, the class determination unit 43c2 determines which label the class obtained by the frequency distribution generation unit 43b belongs to, and sets the determined label as the class c. Next, the class determination unit 43c2 registers this class c as the current class cc, and outputs data of the current class cc (S65, S79). Thereafter, as shown in FIG. 5, the positional relationship determination unit 43d reads a signal indicating that the processing state is “detection” and data of the current class cc (S66, S68).

ここで、位置関係判定部43dには、処理状態「再検出(誤追跡)」又は「再検出(通常)」の処理において、前クラスpcが記憶されている。次に、処理状態が「再検出(誤追跡)」を経て「検出」に遷移してきた場合の処理を説明する。処理状態「再検出(誤追跡)」の処理を経た場合、位置関係判定部43dには、例えば眉を追跡したときのクラスcが、前クラスpcとして登録されている。従って、処理状態「検出」の時点では、眼を眉であるとして誤追跡したときの眼鼻間距離を反映した前クラスpcと、新たに検出し直した眼鼻間距離を反映した現クラスccとが得られていることとなる。   Here, in the positional relationship determination unit 43d, the previous class pc is stored in the processing of the processing state “redetection (false tracking)” or “redetection (normal)”. Next, a process when the processing state transits to “detection” through “redetection (false tracking)” will be described. When the processing state “redetection (false tracking)” is performed, the positional relationship determination unit 43d registers, for example, the class c when the eyebrow is tracked as the previous class pc. Therefore, at the time of the processing state “detection”, the previous class pc that reflects the interocular distance when the eye is mistracked as an eyebrow, and the current class cc that reflects the newly detected interocular distance. It will be obtained.

そして、位置関係判定部43dは、前クラスpcと前クラスpcとを比較する。ここで、処理状態が「再検出(誤追跡)」から「検出中」を経て「検出」に遷移してきた場合、現クラスccが前クラスpcと同じであるときには、位置関係判定部43dは、処理状態「検出中」の信号を出力する(S63)。そして、本装置1は、処理状態が「検出中」であるときの処理を実行することとなる。   Then, the positional relationship determination unit 43d compares the previous class pc with the previous class pc. Here, when the processing state transitions from “redetection (false tracking)” to “detection” via “detecting”, when the current class cc is the same as the previous class pc, the positional relationship determination unit 43d A signal indicating that the processing state is “detecting” is output (S63). And this apparatus 1 will perform the process when a process state is "detecting."

一方、処理状態が「再検出(誤追跡)」から「検出中」を経て「検出」にと遷移してきた場合で、現クラスccが前クラスpcと異なるときには、処理状態を「追跡中」にする。すなわち、「再検出(誤追跡)」を経ているため、現クラスccが前クラスpcと異なるということは、過去に誤追跡したときの眼鼻間距離と異なる距離から、眼を検出したこととなり、少なくとも誤追跡のときと同様の失敗をしていないといえる。このため、眼の検出は正確に行われたと判断でき、位置関係判定部43dは、処理状態「追跡中」の信号を出力する(S63、S23)。   On the other hand, when the processing state transitions from “redetection (false tracking)” to “detection” through “detecting” and the current class cc is different from the previous class pc, the processing state is set to “tracking”. To do. That is, since “re-detection (mistracking)” has been performed, the fact that the current class cc is different from the previous class pc means that the eye has been detected from a distance different from the interocular distance when mistracked in the past. It can be said that it has not made the same mistake as at the time of mistracking. For this reason, it can be determined that the eye has been detected accurately, and the positional relationship determination unit 43d outputs a signal indicating the processing state “tracking” (S63, S23).

そして、位置関係判定部43d(図4では眼鼻座標決定部43)は、眼鼻座標のデータを出力し(S43、S67)、図2に示す眼鼻座標信号出力部60は、眼鼻座標のデータを入力する(S20)。その後、眼鼻座標信号出力部60は、開閉眼検出装置や脇見検出装置などに眼鼻座標信号を出力することとなる(S21)。   Then, the positional relationship determination unit 43d (the eye-nose coordinate determination unit 43 in FIG. 4) outputs the data of the eye-nose coordinates (S43, S67), and the eye-nose coordinate signal output unit 60 shown in FIG. Is input (S20). Thereafter, the eye-nose coordinate signal output unit 60 outputs an eye-nose coordinate signal to an open / closed eye detection device, a side-view detection device or the like (S21).

なお、処理状態が「再検出(通常)」から「検出中」を経て「検出」に遷移してきた場合、現クラスccが前クラスpcと異なるときには、位置関係判定部43dは、処理状態「検出中」の信号を出力する(S63)。そして、本装置1は、処理状態が「検出中」であるときの処理を実行することとなる。   When the processing state transitions from “redetection (normal)” to “detection” through “detection”, when the current class cc is different from the previous class pc, the positional relationship determination unit 43d determines that the processing state “detection” A “medium” signal is output (S63). And this apparatus 1 will perform the process when a process state is "detecting."

一方、処理状態が「再検出(通常)」から「検出中」を経て「検出」に遷移してきた場合で、現クラスccが前クラスpcと同じであるときには、処理状態を「追跡中」にする。すなわち、「再検出(通常)」を経ているため、現クラスccが前クラスpcと同じということは、過去に正確に追跡していたときの眼鼻間距離と同じ距離から、眼を検出したこととなり、眼の検出は正確に行われたと判断できる。このため、位置関係判定部43dは、処理状態「追跡中」の信号を出力することとなる(S63、S23)。   On the other hand, when the processing state transitions from “redetection (normal)” to “detection” via “detecting” and the current class cc is the same as the previous class pc, the processing state is set to “tracking”. To do. In other words, since “re-detection (normal)” has passed, the fact that the current class cc is the same as the previous class pc means that the eye was detected from the same distance as the interocular distance when accurately tracking in the past. Therefore, it can be determined that the detection of the eyes has been performed accurately. For this reason, the positional relationship determination unit 43d outputs a signal indicating the processing state “tracking” (S63, S23).

このように、本装置1は、追跡失敗時の眼鼻間距離と、新たに顔画像から検出した眼鼻間距離との比較により、眼が正しく検出されたか否かを判断することによって、眼の追跡処理への復帰を良好に行うことができる。   As described above, the present apparatus 1 determines whether or not the eye is correctly detected by comparing the interocular distance at the time of tracking failure with the interocular distance newly detected from the face image. Can be satisfactorily returned to the tracking process.

次に、本装置1の各構成要素の処理内容をフローチャートに基づいて詳細に説明する。図15は、図5に示した位置関係計算部43aの詳細動作を示すフローチャートである。まず、位置関係計算部43aは、処理状態の信号を読み込んで、現在の処理状態がいずれに属するかを判断する(ST10)。ここで、処理状態が「検出」又は「追跡中」である場合、位置関係計算部43aは、眼座標及び鼻座標のデータを読み込む。そして、位置関係計算部43aは、眼座標から、右眼の座標値(rx,ry)及び左眼の座標値(lx,ly)を取得する。また、位置関係計算部43aは、鼻座標から、鼻の座標値(nx,ny)を取得する(ST11)。   Next, processing contents of each component of the apparatus 1 will be described in detail based on a flowchart. FIG. 15 is a flowchart showing a detailed operation of the positional relationship calculation unit 43a shown in FIG. First, the positional relationship calculation unit 43a reads a processing state signal and determines to which one the current processing state belongs (ST10). Here, when the processing state is “detection” or “tracking”, the positional relationship calculation unit 43a reads data of eye coordinates and nose coordinates. Then, the positional relationship calculation unit 43a acquires the coordinate values (rx, ry) for the right eye and the coordinate values (lx, ly) for the left eye from the eye coordinates. Further, the positional relationship calculation unit 43a acquires the coordinate value (nx, ny) of the nose from the nose coordinates (ST11).

また、処理状態が「再検出(誤追跡)」又は「再検出(通常)」である場合、位置関係計算部43aは、先の追跡失敗時における眼鼻座標のデータを読み込む。そして、位置関係計算部43aは、眼鼻座標から、右眼の座標値(rx,ry)、左眼の座標値(lx,ly)及び、鼻の座標値(nx,ny)を取得する(ST12)。   When the processing state is “re-detection (mistracking)” or “re-detection (normal)”, the positional relationship calculation unit 43a reads the data of the eye-nose coordinates at the time of the previous tracking failure. Then, the positional relationship calculation unit 43a obtains the right eye coordinate value (rx, ry), the left eye coordinate value (lx, ly), and the nose coordinate value (nx, ny) from the eye nose coordinates ( ST12).

次に、ステップST11又はST12の後、位置関係計算部43aは、以下の式1に基づいて、眼鼻間距離を計算する(ST12)。なお、Iは、眼鼻間距離を示している。
Next, after step ST11 or ST12, the positional relationship calculation unit 43a calculates the interocular distance based on the following equation 1 (ST12). Note that I indicates the interocular distance.

この眼鼻間距離Iは、具体的には図16に示すようになっている。図16は、眼鼻間距離Iの説明図であり、(a)は顔画像を示し、(b)は各顔部位と眼鼻間距離Iを示している。例えば、カメラ10により図16(a)の顔画像が取得され、鼻座標検出部41及び眼座標検出部42により、右眼A、左眼B及び鼻Cの座標値が取得されたとする。このとき、位置関係計算部43aは、右眼Aと左眼Bとの中心点Dを式(1)から求め、その中心点Dと鼻Cとの距離を求めて、眼鼻間距離Iとする。   Specifically, the interocular distance I is as shown in FIG. FIG. 16 is an explanatory diagram of the interocular distance I, where (a) shows the face image, and (b) shows the interocular distance I between each face part. For example, it is assumed that the face image of FIG. 16A is acquired by the camera 10, and the coordinate values of the right eye A, the left eye B, and the nose C are acquired by the nose coordinate detection unit 41 and the eye coordinate detection unit 42. At this time, the positional relationship calculation unit 43a obtains the center point D between the right eye A and the left eye B from the equation (1), obtains the distance between the center point D and the nose C, and calculates the interocular distance I and To do.

そして、眼鼻間距離Iを求めた後、位置関係計算部43aは、計算した眼鼻間距離Iの情報を度数分布生成部43bに出力することとなる。   And after calculating | requiring the interocular distance I, the positional relationship calculation part 43a will output the information of the calculated interocular distance I to the frequency distribution production | generation part 43b.

ところで、処理状態が「検出中」である場合、未だ眼や鼻の座標が検出されていないことから、位置関係計算部43aは眼鼻間距離Iに「NULL」に設定する(ST14)。そして、位置関係計算部43aは、「NULL」と設定した眼鼻間距離Iの情報を度数分布生成部43bに出力する。そして、位置関係計算部43aによる処理は終了する。   By the way, when the processing state is “detecting”, the coordinates of the eyes and nose have not been detected yet, so the positional relationship calculation unit 43a sets the interocular distance I to “NULL” (ST14). Then, the positional relationship calculation unit 43a outputs information about the interocular distance I set to “NULL” to the frequency distribution generation unit 43b. And the process by the positional relationship calculation part 43a is complete | finished.

次に、度数分布生成部43bの処理を説明する。図17は、図5に示した度数分布生成部43bの詳細動作を示すフローチャートである。まず、度数分布生成部43bは、眼鼻間距離Iのデータを読み込んで、眼鼻間距離Iが「NULL」であるか否かを判断する(ST20)。ここで、眼鼻間距離Iが「NULL」であると判断した場合(ST20:YES)、度数分布生成部43bは、階級dを「NULL」とする(ST21)。そして、度数分布生成部43bは、「NULL」と設定した階級dの情報をクラス判定部43cに出力し、度数分布生成部43bによる処理は終了する。   Next, processing of the frequency distribution generation unit 43b will be described. FIG. 17 is a flowchart showing a detailed operation of the frequency distribution generation unit 43b shown in FIG. First, the frequency distribution generation unit 43b reads data on the interocular distance I and determines whether or not the interocular distance I is “NULL” (ST20). Here, when it is determined that the interocular distance I is “NULL” (ST20: YES), the frequency distribution generation unit 43b sets the class d to “NULL” (ST21). Then, the frequency distribution generation unit 43b outputs the class d information set to “NULL” to the class determination unit 43c, and the processing by the frequency distribution generation unit 43b ends.

一方、眼鼻間距離Iが「NULL」でないと判断した場合(ST20:NO)、度数分布生成部43bは、最も古い階級のデータD(i)を、度数分布Hから消去する(ST22)。すなわち、図7を参照して説明したように、度数分布生成部43bは、画素数80〜100の階級のデータを消去したときと同様の処理を行う。   On the other hand, when determining that the interocular distance I is not “NULL” (ST20: NO), the frequency distribution generation unit 43b deletes the oldest class data D (i) from the frequency distribution H (ST22). That is, as described with reference to FIG. 7, the frequency distribution generation unit 43 b performs the same processing as when class data having 80 to 100 pixels is deleted.

その後、度数分布生成部43bは、眼鼻間距離Iの階級dを計算する(ST23)。ここで、階級はd=int(I/W)なる計算式で求められる。Wは階級間のデータの幅である。すなわち、Wは、図7でいうところの画素数20という幅を示すものである。   Thereafter, the frequency distribution generation unit 43b calculates a class d of the interocular distance I (ST23). Here, the class is obtained by a calculation formula d = int (I / W). W is the data width between classes. That is, W indicates a width of 20 pixels as shown in FIG.

なお、データ幅Wは、大きすぎると情報量が失われ、小さすぎると、不規則な凹凸を有する度数分布を得てしまうことから、適切な値とすることが望ましい。すなわち、データ幅Wを適切なものとし、階級の数をも適切とすることが望ましくなる。ここで、階級数については、スタージェスの公式に基づいて予め求めておくことができる。
Note that if the data width W is too large, the amount of information is lost. If the data width W is too small, a frequency distribution having irregular irregularities is obtained. That is, it is desirable that the data width W is appropriate and the number of classes is also appropriate. Here, the number of classes can be obtained in advance based on the Sturges formula.

ここで、Cは階級数であり、nはデータ数である。具体的に階級数Cは、以下の表1のようになる。
Here, C is a class number and n is the number of data. Specifically, the class number C is as shown in Table 1 below.

このように、度数分布生成部43bは、階級数Cを適切な数とし、これに基づいて階級のデータ幅Wを設定しておく。これにより、度数分布生成部43bは、適切な眼鼻間距離度数分布を生成することになる。   Thus, the frequency distribution generation unit 43b sets the class number C to an appropriate number, and sets the class data width W based on this. Thereby, the frequency distribution generation unit 43b generates an appropriate interocular distance frequency distribution.

次に、度数分布生成部43bは、計算した階級dを階級データDに加え、度数分布Hを更新する(ST24)。すなわち、図7を参照して説明したように、度数分布生成部43bは、画素数120〜140の階級のデータを追加したときと同様の処理を行う。   Next, the frequency distribution generation unit 43b adds the calculated class d to the class data D and updates the frequency distribution H (ST24). That is, as described with reference to FIG. 7, the frequency distribution generation unit 43 b performs the same process as when class data having 120 to 140 pixels is added.

これにより、得られた眼鼻間距離度数分布の一例を示す。図18は、眼鼻間距離度数分布の一例を示す説明図である。なお、図18では、データ幅Wを5画素としている。   Thereby, an example of the obtained interocular distance frequency distribution is shown. FIG. 18 is an explanatory diagram illustrating an example of the interocular distance frequency distribution. In FIG. 18, the data width W is 5 pixels.

同図に示すように、眼と鼻との距離は、約95画素付近で最も度数が高くなっている。これに対し、眉と鼻との距離は、約140画素付近で最も度数が高くなっている。すなわち、正確に眼が追跡されているときには、眼鼻間距離Iを計算すると、その値は約95画素となるのに対し、眉を誤って眼であると追跡しているときには、眼鼻間距離Iを計算すると、その値は約140画素となるといえる。度数分布生成部43bは、このような眼鼻間距離度数分布を生成して、クラス判定部43cにその情報を提供することとなる。なお、同図に示す全データとは、双方のデータを加算して得られるデータである。   As shown in the figure, the distance between the eyes and the nose is the highest in the vicinity of about 95 pixels. On the other hand, the distance between the eyebrows and the nose is the highest in the vicinity of about 140 pixels. That is, when the eye is accurately tracked, the interocular distance I is calculated to be about 95 pixels, whereas when the eyebrows are mistakenly tracked as the eye, When the distance I is calculated, the value is about 140 pixels. The frequency distribution generation unit 43b generates such an interocular distance frequency distribution and provides the information to the class determination unit 43c. In addition, all the data shown in the figure are data obtained by adding both data.

次に、クラス判定部43cのラベリング部43c1による詳細処理を説明する。図19は、図6に示したラベリング部43c1の詳細動作を示すフローチャートである。まず、ラベリング部43c1は、処理状態の信号を読み込んで、処理状態が「再検出(誤追跡)」又は「再検出(通常)」であるか否かを判断する(ST30)。   Next, detailed processing by the labeling unit 43c1 of the class determination unit 43c will be described. FIG. 19 is a flowchart showing a detailed operation of the labeling unit 43c1 shown in FIG. First, the labeling unit 43c1 reads a processing state signal and determines whether the processing state is “redetection (mistracking)” or “redetection (normal)” (ST30).

ここで、処理状態が「再検出(誤追跡)」及び「再検出(通常)」のいずれでもないと判断した場合(ST30:NO)、ラベリング部43c1による処理は終了する。一方、処理状態が「再検出(誤追跡)」又は「再検出(通常)」であると判断した場合(ST30:YES)、ラベリング部43c1は、階級dが「NULL」であるか否かを判断する(ST31)。   Here, when it is determined that the processing state is neither “re-detection (false tracking)” nor “re-detection (normal)” (ST30: NO), the process by the labeling unit 43c1 ends. On the other hand, when it is determined that the processing state is “redetection (false tracking)” or “redetection (normal)” (ST30: YES), the labeling unit 43c1 determines whether the class d is “NULL”. Judgment is made (ST31).

階級dが「NULL」であると判断した場合(ST31:YES)、ラベリング部43c1による処理は終了する。一方、階級dが「NULL」でないと判断した場合(ST31:NO)、ラベリング部43c1は、ラベルをクリアする。すなわち、図7で言えば、先の処理でラベルL(1)〜L(3)を設定していたときには、このラベルL(1)〜L(3)に関するデータを消去することとなる。また、ラベル番号Tに「1」を代入する(ST32)。   When it is determined that the class d is “NULL” (ST31: YES), the process by the labeling unit 43c1 ends. On the other hand, when it is determined that the class d is not “NULL” (ST31: NO), the labeling unit 43c1 clears the label. That is, in FIG. 7, when the labels L (1) to L (3) have been set in the previous process, the data relating to the labels L (1) to L (3) will be erased. Also, “1” is assigned to the label number T (ST32).

その後、ラベリング部43c1は、現在処理している階級と、隣接する次の階級との度数の差(傾き)pxを求める(ST33)。また、ラベリング部43c1は、隣接する階級の度数に差がない場合(傾きが0の場合)、前階級間の差oxを採用する。   Thereafter, the labeling unit 43c1 obtains the frequency difference (slope) px between the class currently being processed and the next class adjacent to it (ST33). Further, the labeling unit 43c1 employs the difference ox between the previous classes when there is no difference in the frequency of the adjacent classes (when the inclination is 0).

そして、ラベリング部43c1は、現在処理している階級の度数が、極小点をなしているときに、ラベル番号Tを更新する(ST34)。すなわち、ラベリング部43c1は、既にラベルL(2)まで設定しているのであれば、ラベル番号Tをインクリメントして、「3」とする。なお、ラベリング部43c1は、前階級間の差oxが「0」より小さく、且つ隣接する次の階級との度数の差pxが「0」より大きいときに、現在処理している階級の度数が、極小点をなしていると判断する。   Then, the labeling unit 43c1 updates the label number T when the frequency of the class currently being processed is a minimum point (ST34). That is, the labeling unit 43c1 increments the label number T to “3” if the label L (2) has already been set. The labeling unit 43c1 determines that the frequency of the currently processed class is higher when the difference ox between the previous classes is smaller than “0” and the frequency difference px between the adjacent next classes is larger than “0”. Judge that it has a minimum point.

次いで、ラベリング部43c1は、ステップST34において極小点であることが判断されると、ラベルを設定する(ST35)。このとき、ラベル番号Tが「3」であるとすると、ラベリング部43c1は、ラベルL(1),L(2)との重複部分がないように、現在処理している階級を含んで、ラベルL(3)を設定する。また、ラベリング部43c1は、現在処理している階級の度数が「0」である場合、現在処理している階級を含むことなく、ラベルを設定する。   Next, when it is determined in step ST34 that the point is a local minimum, the labeling unit 43c1 sets a label (ST35). At this time, if the label number T is “3”, the labeling unit 43c1 includes the class currently being processed so that there is no overlap with the labels L (1) and L (2), and the label Set L (3). The labeling unit 43c1 sets a label without including the currently processed class when the frequency of the currently processed class is “0”.

その後、ラベリング部43c1は、すべての階級について処理したか否かを判断する(ST36)。すべての階級について処理していないと判断した場合(ST36:NO)、ラベリング部43c1は処理をステップST33に戻す。一方、すべての階級について処理したと判断した場合(ST36:YES)、ラベルデータLをクラス判断部43c2に出力し、ラベリング部43c1による処理は終了する。   Thereafter, the labeling unit 43c1 determines whether or not all classes have been processed (ST36). If it is determined that all classes have not been processed (ST36: NO), the labeling unit 43c1 returns the process to step ST33. On the other hand, if it is determined that all classes have been processed (ST36: YES), the label data L is output to the class determining unit 43c2, and the process by the labeling unit 43c1 is terminated.

詳細にラベルデータLは、図20に示すようになる。図20は、ラベルデータのイメージを示す説明図である。同図に示す例では、眼鼻間距離度数分布に3つのラベルが付与されている。ここで、図20に示す例では、度数「0」となる階級が存在するため、その階級はいずれのラベルにも含まれていない。ラベリング部43c1は、このようなラベルデータLをクラス判断部43c2に出力することとなる。   Specifically, the label data L is as shown in FIG. FIG. 20 is an explanatory diagram showing an image of label data. In the example shown in the figure, three labels are assigned to the interocular distance frequency distribution. Here, in the example shown in FIG. 20, there is a class with the frequency “0”, so that class is not included in any label. The labeling unit 43c1 outputs such label data L to the class determination unit 43c2.

次に、クラス判断部43c2の詳細動作を説明する。図21は、図6に示したクラス判断部43c2の詳細動作を示すフローチャートである。同図に示すように、まず、クラス判断部43c2は、階級dのデータを読み込んで、階級dが「NULL」であるか否かを判断する(ST40)。ここで、階級dが「NULL」であると判断した場合(ST40:YES)、クラス判断部43c2による処理は終了する。   Next, the detailed operation of the class determination unit 43c2 will be described. FIG. 21 is a flowchart showing a detailed operation of the class determination unit 43c2 shown in FIG. As shown in the figure, first, the class determining unit 43c2 reads the data of the class d and determines whether or not the class d is “NULL” (ST40). Here, when it is determined that the class d is “NULL” (ST40: YES), the processing by the class determination unit 43c2 ends.

一方、階級dが「NULL」でないと判断した場合(ST40:NO)、クラス判断部43c2は、階級dが属するラベルをクラスcとする(ST41)。そして、クラス判断部43c2は、処理状態の信号を読み込んで、現在の処理状態がいずれに属するかを判断する(ST42)。   On the other hand, when it is determined that the class d is not “NULL” (ST40: NO), the class determination unit 43c2 sets the label to which the class d belongs to class c (ST41). Then, the class determining unit 43c2 reads the processing state signal and determines to which of the current processing state it belongs (ST42).

ここで、処理状態が「検出」である場合、クラス判断部43c2は、クラスcを現クラスccとして登録する(ST43)。また、処理状態が「再検出(誤追跡)」又は「再検出(通常)」である場合、クラス判断部43c2は、先の追跡失敗時における眼鼻間距離を反映したクラスcを前クラスpcとして登録する(ST44)。   Here, when the processing state is “detection”, the class determination unit 43c2 registers the class c as the current class cc (ST43). When the processing state is “redetection (false tracking)” or “redetection (normal)”, the class determination unit 43c2 sets the class c reflecting the interocular distance at the time of the previous tracking failure to the previous class pc. (ST44).

その後、クラス判断部43c2は、前クラスpc又は現クラスccのデータを位置関係判定部43dに出力する。そして、クラス判断部43c2による処理は終了する。さらに、処理状態が「検出中」又は「追跡中」である場合、クラス判断部43c2は、クラスcを登録することなく、図21に示す処理を終了させる。   Thereafter, the class determination unit 43c2 outputs the data of the previous class pc or the current class cc to the positional relationship determination unit 43d. And the process by the class judgment part 43c2 is complete | finished. Furthermore, when the processing state is “detecting” or “tracking”, the class determination unit 43c2 ends the processing illustrated in FIG. 21 without registering the class c.

図22は、図5に示した位置関係判定部43dの詳細動作を示すフローチャートである。まず、位置関係判定部43dは、処理状態の信号を読み込んで、処理状態がいずれに属するかをを判断する(ST50)。   FIG. 22 is a flowchart showing a detailed operation of the positional relationship determination unit 43d shown in FIG. First, the positional relationship determination unit 43d reads a processing state signal and determines which processing state it belongs to (ST50).

ここで、処理状態が「検出中」又は「追跡中」である場合、位置関係判定部43dによる処理は終了することとなる。一方、処理状態が「再検出(誤追跡)」又は「再検出(通常)」である場合、位置関係判定部43dは、内部状態を更新する(ST51)。このとき、位置関係判定部43dは、処理状態が「再検出(誤追跡)」であるときには、内部状態を「再検出(誤追跡)」とし、処理状態が「再検出(通常)」であるときには、内部状態を「再検出(通常)」とする。   Here, when the processing state is “being detected” or “tracking”, the processing by the positional relationship determination unit 43d ends. On the other hand, when the processing state is “redetection (false tracking)” or “redetection (normal)”, the positional relationship determination unit 43d updates the internal state (ST51). At this time, when the processing state is “redetection (false tracking)”, the positional relationship determination unit 43d sets the internal state to “redetection (mistracking)” and the processing state is “redetection (normal)”. In some cases, the internal state is “re-detection (normal)”.

その後、位置関係判定部43dは、処理状態を「検出中」とする(ST52)。その後、位置関係判定部43dは、リトライ回数を初期値とする(ST53)。次いで、位置関係判定部43dは、図22に示す処理を終了させ、本装置1は、処理状態を「検出中」の処理を行っていくこととなる。   Thereafter, the positional relationship determination unit 43d sets the processing state to “being detected” (ST52). Thereafter, the positional relationship determination unit 43d sets the number of retries as an initial value (ST53). Next, the positional relationship determination unit 43d ends the process illustrated in FIG. 22, and the apparatus 1 performs the process of “detecting” the process state.

ここで、リトライ回数とは、処理状態を「検出」から「検出中」に戻す上限回数をいう。すなわち、本装置1は、追跡失敗後に画像全体から眼鼻を検出し、この検出自体が誤りである可能性が高い場合(前クラスpcと現クラスccとを比較して望ましくない結果が得られた場合)に、処理状態を「検出」から「検出中」に戻すが、リトライ回数より多くの回数は、戻すことがないようになっている。   Here, the number of retries means the upper limit number of times for returning the processing state from “detected” to “detecting”. That is, the present apparatus 1 detects an eye-nose from the entire image after tracking failure, and when this detection itself is highly likely to be erroneous (an undesired result is obtained by comparing the previous class pc and the current class cc). In this case, the processing state is returned from “detected” to “detecting”, but the number of times more than the number of retries is not returned.

また、処理状態が「検出」である場合、位置関係判定部43dは、前クラスが「NULL」であるか否かを判断する(ST54)。ここで、前クラスが「NULL」である場合(ST54:YES)、すなわち装置1の起動時など、「再検出(誤追跡)」及び「再検出(通常)」のいずれをも経ていない場合、位置関係判定部43dは、眼座標及び鼻座標のデータ(図5の信号S69)に基づき、眼鼻座標を取得することとなる(ST62)。そして、位置関係判定部43dは、処理状態を「追跡中」とし(ST63)、図22に示す処理を終了させる。   If the processing state is “detection”, the positional relationship determination unit 43d determines whether or not the previous class is “NULL” (ST54). Here, when the previous class is “NULL” (ST54: YES), that is, when neither “re-detection (false tracking)” nor “re-detection (normal)” has passed, such as when the device 1 is started, The positional relationship determination unit 43d acquires the eye-nose coordinates based on the eye coordinate and nose coordinate data (signal S69 in FIG. 5) (ST62). Then, the positional relationship determination unit 43d sets the processing state to “tracking” (ST63), and ends the processing illustrated in FIG.

一方、前クラスが「NULL」でない場合(ST54:NO)、すなわち「再検出(誤追跡)」及び「再検出(通常)」のいずれかを少なくとも1回は経ているため、位置関係判定部43dは、内部状態を読み込んで、内部状態がいずれに属するかを判断することとなる(ST55)。   On the other hand, when the previous class is not “NULL” (ST54: NO), that is, any one of “re-detection (mistracking)” and “re-detection (normal)” has passed at least once. Reads the internal state and determines which internal state it belongs to (ST55).

ここで、内部状態が「再検出(通常)」である場合、位置関係判定部43dは、現クラスccと前クラスpcとが同じであるか否かを判断する(ST56)。そして、現クラスccと前クラスpcとが同じであると判断した場合(ST56:YES)、処理はステップST62に移行する。   Here, when the internal state is “redetection (normal)”, the positional relationship determination unit 43d determines whether or not the current class cc and the previous class pc are the same (ST56). If it is determined that the current class cc and the previous class pc are the same (ST56: YES), the process proceeds to step ST62.

すなわち、内部状態が「再検出(通常)」である場合、処理状態は、「追跡中」から「再検出(通常)」を経て「検出」に遷移したといえる。このため、前クラスpcは、正確に眼を検出していたときの眼鼻間距離Iを反映したものといえ、現クラスccが前クラスpcと同じであることは、全体画像から眼を正確に検出した可能性が高いといえる。よって、処理は、ステップST62に移行し、位置関係判定部43dは、眼座標及び鼻座標のデータから、眼鼻座標を取得することとなる(ST62)。そして、位置関係判定部43dは、処理状態を「追跡中」とする(S63)。これにより、本装置1は、追跡処理への復帰を良好としている。その後、位置関係判定部43dによる処理は終了する。   That is, when the internal state is “redetection (normal)”, it can be said that the processing state has transitioned from “tracking” to “detection” via “redetection (normal)”. For this reason, it can be said that the previous class pc reflects the interocular distance I when the eyes are accurately detected. The fact that the current class cc is the same as the previous class pc indicates that It is highly probable that they have been detected. Therefore, the process proceeds to step ST62, and the positional relationship determination unit 43d acquires the eye-nose coordinates from the eye coordinate and nose coordinate data (ST62). Then, the positional relationship determination unit 43d sets the processing state to “tracking” (S63). Thereby, this apparatus 1 makes favorable return to a tracking process. Thereafter, the processing by the positional relationship determination unit 43d ends.

また、現クラスccと前クラスpcとが同じでないと判断した場合(ST56:NO)、処理はステップST58に移行する。ここで、現クラスccが前クラスpcとが異なるということは、正確に眼を検出していたときの眼鼻間距離Iと異なる距離から、眼を検出したと言える。このため、全体画像から眼を正確に検出した可能性が低いといえ、位置関係判定部43dは、眼鼻座標を取得することなく、処理をステップST58に進める。   If it is determined that the current class cc and the previous class pc are not the same (ST56: NO), the process proceeds to step ST58. Here, if the current class cc is different from the previous class pc, it can be said that the eyes are detected from a distance different from the interocular distance I when the eyes are accurately detected. For this reason, it can be said that there is a low possibility that the eyes have been accurately detected from the entire image, and the positional relationship determination unit 43d advances the process to step ST58 without acquiring the eye-nose coordinates.

ステップST58において、位置関係判定部43dは、リトライ回数をディクリメントする(ST58)。そして、位置関係判定部43dは、処理状態を「検出中」とする(ST59)。これにより、本装置1は、再度、全体画像から眼鼻を検出することとなる。   In step ST58, the positional relationship determination unit 43d decrements the number of retries (ST58). Then, the positional relationship determination unit 43d sets the processing state to “being detected” (ST59). Thereby, this apparatus 1 will detect an ocular nose again from a whole image.

次いで、位置関係判定部43dは、リトライ回数が「0」となったか否かを判断する(ST60)。ここで、リトライ回数が「0」となっていないと判断した場合(ST60:NO)、位置関係判定部43dによる処理は終了する。   Next, the positional relationship determination unit 43d determines whether or not the number of retries is “0” (ST60). Here, when it is determined that the number of retries is not “0” (ST60: NO), the processing by the positional relationship determination unit 43d ends.

一方、リトライ回数が「0」となっていると判断した場合(ST60:YES)、位置関係判定部43dは、内部状態を「NULL」とする(ST61)。これにより、前述したステップST55において、強制的にステップST62に移行させるようにする。そして、正確に眼を検出できないまま、継続してしまうという事態を防止するようにしている。   On the other hand, when it is determined that the number of retries is “0” (ST60: YES), the positional relationship determination unit 43d sets the internal state to “NULL” (ST61). Thereby, in step ST55 mentioned above, it is forced to shift to step ST62. And it is trying to prevent the situation that it continues without being able to detect an eye correctly.

ところで、ステップST55において、内部状態が「再検出(誤追跡)」であると判断した場合、位置関係判定部43dは、現クラスccと前クラスpcとが異なるか否かを判断する(ST57)。そして、現クラスccと前クラスpcとが異なると判断した場合(ST57:YES)、処理はステップST62に移行する。   By the way, when it is determined in step ST55 that the internal state is “redetection (false tracking)”, the positional relationship determination unit 43d determines whether or not the current class cc and the previous class pc are different (ST57). . If it is determined that the current class cc and the previous class pc are different (ST57: YES), the process proceeds to step ST62.

すなわち、内部状態が「再検出(誤追跡)」である場合、処理状態は、「追跡中」から「再検出(追跡)」を経て「検出」に遷移したといえる。このため、前クラスpcは、眉などを誤って追跡していたときの眼鼻間距離Iを反映したものといえ、現クラスccが前クラスpcと異なることは、全体画像から眼を正確に検出した可能性が高いといえる。よって、処理は、ステップST62に移行し、位置関係判定部43dは、眼座標及び鼻座標のデータから、眼鼻座標を取得することとなる(ST62)。そして、位置関係判定部43dは、処理状態を「追跡中」とする(S63)。これにより、本装置1は、追跡処理への復帰を良好としている。その後、位置関係判定部43dによる処理は終了する。   That is, when the internal state is “redetection (false tracking)”, it can be said that the processing state has transitioned from “tracking” to “detection” via “redetection (tracking)”. For this reason, the previous class pc reflects the interocular distance I when the eyebrow is tracked by mistake, and the current class cc is different from the previous class pc. It can be said that there is a high probability of detection. Therefore, the process proceeds to step ST62, and the positional relationship determination unit 43d acquires the eye-nose coordinates from the eye coordinate and nose coordinate data (ST62). Then, the positional relationship determination unit 43d sets the processing state to “tracking” (S63). Thereby, this apparatus 1 makes favorable return to a tracking process. Thereafter, the processing by the positional relationship determination unit 43d ends.

また、現クラスccと前クラスpcとが異ならないと判断した場合(ST57:NO)、すなわち、現クラスccと前クラスpcとが同じであると判断した場合、処理はステップST58に移行する。ここで、現クラスccが前クラスpcとが同じということは、眉などを誤って追跡していたときの眼鼻間距離Iと同じ距離から、眼を検出したと言える。このため、全体画像から眼を正確に検出した可能性が低いといえ、位置関係判定部43dは、眼鼻座標を取得することなく、処理をステップST58に進める。そして、位置関係判定部43dは、上記と同様にして、ステップST58〜ST61の処理を実行し、図22に示す処理を終了させる。   If it is determined that the current class cc and the previous class pc are not different (ST57: NO), that is, if it is determined that the current class cc and the previous class pc are the same, the process proceeds to step ST58. Here, if the current class cc is the same as the previous class pc, it can be said that the eye is detected from the same distance as the interocular distance I when the eyebrow is tracked by mistake. For this reason, it can be said that there is a low possibility that the eyes have been accurately detected from the entire image, and the positional relationship determination unit 43d advances the process to step ST58 without acquiring the eye-nose coordinates. And the positional relationship determination part 43d performs the process of step ST58-ST61 similarly to the above, and complete | finishes the process shown in FIG.

このようにして、本実施形態に係る眼追跡装置1では、顔画像データから眼と眼以外の第2顔部位との座標の特徴量を計算し、それを時系列的に検出して得られる複数の特徴量を所定条件(例えば特徴量の大きさ)に従って区分している。このため、同様の特徴量は、同じ区分とされることとなる。   In this manner, the eye tracking device 1 according to the present embodiment obtains the feature amount of the coordinates between the eyes and the second face part other than the eyes from the face image data, and detects them in time series. A plurality of feature amounts are classified according to a predetermined condition (for example, the size of the feature amount). For this reason, similar feature amounts are classified into the same category.

そして、運転者の眼を誤って追跡した場合、すなわち誤って眉などを眼であるとして追跡した場合、そのときの特徴量が、いずれの区分に属するかを判断している。また、誤って追跡した後に眼を検出したときの特徴量が、いずれの区分に属するかを判断している。このため、誤った追跡の際、及びその後の検出の際について属する区分を判断できる。   When the driver's eyes are tracked incorrectly, that is, when the eyebrows are mistakenly tracked as being eyes, it is determined to which category the feature amount at that time belongs. In addition, it is determined to which category the feature amount when the eye is detected after being tracked by mistake belongs. For this reason, it is possible to determine the classification to which the wrong tracking is performed and the subsequent detection.

次いで、判断された双方の属する区分が異なる場合に、検出した追跡対象を眼であると決定している。ここで、誤って眉などを眼であるとして追跡した場合、正確に眼を追跡しているときと特徴量が異なることとなる。このため、眉追跡時には、正確に眼を追跡しているときと属する特徴量の区分が異なることとなる。故に、新たに検出したときの区分が、眉などを誤って追跡したときの区分と同じであるときには、検出時においても眉などを検出したと判断でき、眉などを誤って追跡したときの区分と異なるときには、検出時においても眼を正確に検出したと判断できる。   Next, when the determined classifications are different, the detected tracking target is determined to be an eye. Here, when the eyebrow is mistakenly tracked as an eye, the feature amount is different from when the eye is tracked accurately. For this reason, at the time of eyebrow tracking, the classification of the feature quantity belonging to the time when the eye is accurately tracked is different. Therefore, when the newly detected category is the same as the category when the eyebrow was tracked incorrectly, it can be determined that the eyebrow was detected at the time of detection, and the category when the eyebrow was tracked incorrectly If it is different from the above, it can be determined that the eye is accurately detected even at the time of detection.

従って、眼の追跡に失敗したときに、眼の追跡処理への復帰を良好に行うことができる。   Therefore, when eye tracking fails, it is possible to satisfactorily return to eye tracking processing.

また、運転者の眼を追跡していたにも関わらず眼を追跡できなくなった場合、すなわち、眼を追跡していたにも関わらず、例えば運転者が後方を視認して眼が撮像できなくなった場合、そのときの特徴量が、いずれの区分に属するかを判断している。また、追跡できなくなった後に眼を検出したときの特徴量が、いずれの区分に属するかを判断している。このため、追跡できなくなった際と、その後の検出の際との双方について、属する区分を判断できる。   In addition, when the driver's eyes have been tracked but the eyes can no longer be tracked, that is, the driver has been tracking the eyes, for example, the driver can not see the back and image the eyes. If it is determined, it is determined to which category the feature quantity at that time belongs. In addition, it is determined to which category the feature amount when the eye is detected after tracking becomes impossible. For this reason, it is possible to determine the classification to which both the case where tracking becomes impossible and the case where detection is performed thereafter.

そして、判断された双方の属する区分が同じである場合に、新たに検出した追跡対象を眼であると決定している。ここで、眼を追跡していたにも関わらず、例えば運転者が後方を視認して眼が撮像できなくなった場合とは、眼が追跡できなくなる前までは正確に眼を追跡していた場合といえる。このため、追跡できなくなったときの特徴量は、眼を正確に追跡していたときのと特徴量がほぼ同じとなる。故に、新たに眼を検出したときの区分が、眼が追跡できなくなったときの区分と異なるときには、検出時においても眉などを検出したと判断でき、眼が追跡できなくなったときの区分と同じになるときには、検出時においても眼を正確に検出したと判断できる。   Then, when both of the determined classifications are the same, the newly detected tracking target is determined to be an eye. Here, for example, when the driver is tracking the eye, for example, the driver can not capture the eye by visually recognizing the back. It can be said. For this reason, the feature amount when tracking becomes impossible is substantially the same as that when tracking the eye accurately. Therefore, if the category when the eye is newly detected is different from the category when the eye can no longer be tracked, it can be determined that the eyebrows have been detected at the time of detection, and the same as the category when the eye can no longer be tracked When it becomes, it can be determined that the eye has been accurately detected even at the time of detection.

従って、眼の追跡に失敗したときに、眼の追跡処理への復帰を一層良好に行うことができる。   Therefore, when the eye tracking fails, the return to the eye tracking process can be performed more satisfactorily.

また、第2顔部位として鼻及び口の少なくとも一方の座標を検出するので、光環境の変化等により影響を受けやすい眼(特に眼鏡をかけているときの眼)に比べて、安定的な鼻や口といった顔部位の座標を検出するため、特徴量の計算において光環境の影響を受けにくくすることができる。   In addition, since the coordinates of at least one of the nose and the mouth are detected as the second face part, the nose is more stable than eyes that are easily affected by changes in the light environment or the like (especially when wearing glasses). Since the coordinates of the facial parts such as the mouth and the mouth are detected, it is possible to reduce the influence of the light environment in the calculation of the feature amount.

また、特徴量として、画像上における眼と第2顔部位との距離を計算するので、画像中で検出される眼の絶対位置を用いる方法と比べ、運転者の姿勢変化があっても正しく眼を検出することができる。   In addition, since the distance between the eye and the second facial part on the image is calculated as the feature amount, the eye is correctly corrected even when the driver's posture changes compared to the method using the absolute position of the eye detected in the image. Can be detected.

次に、本発明の第2実施形態を説明する。第2実施形態に係る眼追跡装置2は、第1実施形態のものと同様であるが、新たに、眼鼻座標決定部43が、初期化処理部(被撮像者交代検出手段)43eを備える点で、第1実施形態のものと異なっている。   Next, a second embodiment of the present invention will be described. The eye tracking device 2 according to the second embodiment is the same as that of the first embodiment, but the eye-nose coordinate determination unit 43 is newly provided with an initialization processing unit (subjected person change detection means) 43e. This is different from the first embodiment.

図23は、図4に示した眼鼻座標決定部43の詳細を示すデータフローダイアグラムである。同図に示すように、眼鼻座標決定部43は、新たに、初期化処理部43eを備えている。   FIG. 23 is a data flow diagram showing details of the eye-nose coordinate determination unit 43 shown in FIG. As shown in the figure, the eye-nose coordinate determination unit 43 newly includes an initialization processing unit 43e.

初期化処理部43eは、車両の運転者が交代したことを検出するものである。また、初期化処理部43eは、運転者の交代したことを検出すると、眼鼻間距離度数分布を初期化するものである。すなわち、初期化処理部43eは、位置関係計算部43aが計算した複数の眼鼻間距離のデータからなる眼鼻間距離度数分布を初期化することとなる。また、初期化処理部43eは、眼鼻間距離度数分布の他に、前クラスpcを初期化するようにもなっている。以上より、初期化処理部43eは、運転者が交代したにもかかわらず、前の運転者のデータを利用して誤った処理をしないようにするものといえる。   The initialization processing unit 43e detects that the vehicle driver has changed. Moreover, the initialization process part 43e will initialize the distance frequency distribution between eyes and nose, if it detects that a driver | operator changed. That is, the initialization processing unit 43e initializes the interocular distance frequency distribution composed of a plurality of interocular distance data calculated by the positional relationship calculation unit 43a. Further, the initialization processing unit 43e is configured to initialize the previous class pc in addition to the interocular distance frequency distribution. From the above, it can be said that the initialization processing unit 43e prevents erroneous processing using the data of the previous driver, even though the driver has changed.

このような初期化処理部43eは、鼻座標及び眼座標のデータを随時読み込む(S90)。ここで、初期化処理部43eは、鼻座標及び眼座標のデータを読み込める限り、眼鼻間距離度数分布及び前クラスpcを初期化しない。   Such an initialization processing unit 43e reads data of nose coordinates and eye coordinates as needed (S90). Here, as long as the data of the nose coordinates and the eye coordinates can be read, the initialization processing unit 43e does not initialize the interocular distance frequency distribution and the previous class pc.

しかし、鼻座標及び眼座標のデータを一定時間連続して読み込めなくなると、初期化処理部43eは、運転者が運転席から離れたと判断する。そして、初期化処理部43eは、次に別の運転者が運転席に着座する可能性があることから、運転者の交代の可能性があると判断して、眼鼻間距離度数分布及び前クラスpcを初期化する(S91、S92)。   However, if the data of the nose coordinates and the eye coordinates cannot be read continuously for a certain period of time, the initialization processing unit 43e determines that the driver has left the driver's seat. Then, the initialization processing unit 43e determines that there is a possibility that the driver will change because another driver may be seated in the driver's seat next, and the interocular distance frequency distribution and the previous The class pc is initialized (S91, S92).

これにより、実際に別の運転者が運転席に着座したとしても、眼鼻間距離度数分布を再生成することとなり、誤った処理をしないようにすることができる。   As a result, even if another driver is actually seated in the driver's seat, the frequency distribution between the distances between the eyes and the nose is regenerated, and erroneous processing can be prevented.

このようにして、第2実施形態に係る眼追跡装置2によれば、第1実施形態と同様に、眼の追跡に失敗したときに、眼の追跡処理への復帰を良好に行うことができる。また、眼の追跡に失敗したときに、眼の追跡処理への復帰を一層良好に行うことができる。さらに、特徴量の計算において光環境の影響を受けにくくすることができ、運転者の姿勢変化があっても正しく眼を検出することができる。   In this way, according to the eye tracking device 2 according to the second embodiment, as in the first embodiment, when eye tracking has failed, it is possible to satisfactorily return to eye tracking processing. . In addition, when eye tracking fails, it is possible to perform better return to eye tracking processing. Furthermore, the calculation of the feature amount can be made less susceptible to the influence of the light environment, and the eye can be detected correctly even if the driver's posture changes.

さらに、第2実施形態によれば、運転者の交代の可能性を判断して複数の特徴量の情報を初期化、すなわち眼鼻間距離度数分布を初期化するので、運転者が交代したときに、以前の運転者の情報をもとに処理しないようにすることができる。従って、追跡処理への復帰を、運転者ごとに適切に行うことができる。   Furthermore, according to the second embodiment, the possibility of the driver's replacement is determined and information on a plurality of feature amounts is initialized, that is, the interocular distance frequency distribution is initialized. In addition, it is possible to avoid processing based on the previous driver information. Therefore, the return to the tracking process can be appropriately performed for each driver.

次に、本発明の第3実施形態を説明する。第3実施形態に係る眼追跡装置3は、第2実施形態のものと同様であるが、初期化処理部43eが運転者の交代の可能性を判断する方法が、第2実施形態のものと異なっている。   Next, a third embodiment of the present invention will be described. The eye tracking device 3 according to the third embodiment is the same as that of the second embodiment, but the method by which the initialization processing unit 43e determines the possibility of driver change is that of the second embodiment. Is different.

図24は、第3実施形態に係るの眼追跡装置3のハード構成図であり、図25は、図24に示した眼検出装置20の詳細を示すデータフローダイアグラムであり、図26は、図25に示した眼鼻座標決定部43の詳細を示すデータフローダイアグラムである。   FIG. 24 is a hardware configuration diagram of the eye tracking device 3 according to the third embodiment, FIG. 25 is a data flow diagram showing details of the eye detection device 20 shown in FIG. 24, and FIG. 26 is a data flow diagram showing details of the eye-nose coordinate determining unit 43 shown in FIG.

まず、図24に示すように、眼検出装置20は、新たに、車両信号を入力する構成となっている。ここで、車両信号としては、車速信号、シフトポジション信号、キースイッチ信号、メインスイッチ信号などが挙げられる。   First, as shown in FIG. 24, the eye detection device 20 is configured to newly input a vehicle signal. Here, examples of the vehicle signal include a vehicle speed signal, a shift position signal, a key switch signal, and a main switch signal.

また、図25及び図26に示すように、眼鼻座標決定部43の初期化処理部43eは、車両信号を入力する構成となっている。また、初期化処理部43eは、車両信号の状態に応じて、眼鼻間距離度数分布と前クラスpcを初期化するものである。   As shown in FIGS. 25 and 26, the initialization processing unit 43e of the eye-nose coordinate determination unit 43 is configured to input a vehicle signal. The initialization processing unit 43e initializes the interocular distance frequency distribution and the previous class pc according to the state of the vehicle signal.

このような初期化処理部43eは、車両信号を随時入力する(S44、S93)。そして、例えば、車両信号として、車速が「0」であることを一定時間継続して検出した場合や、シフトポジションがパーキングポジションにあることを一定時間継続して検出した場合に、車両から運転者が離れたと判断して、運転者の交代の可能性があると検出する。   Such an initialization processing unit 43e inputs vehicle signals as needed (S44, S93). For example, when it is detected as a vehicle signal that the vehicle speed is “0” continuously for a certain period of time, or when it is detected that the shift position is at the parking position for a certain period of time, the driver from the vehicle It is determined that there is a possibility that the driver will change.

また、初期化処理部43eは、メインスイッチが切られたことを検出した場合や、ドアの開閉スイッチ信号からドアの開閉を検出した場合に、車両から運転者が離れたと判断して、運転者の交代の可能性があると検出する。   In addition, the initialization processing unit 43e determines that the driver has left the vehicle when detecting that the main switch has been turned off or when detecting the opening / closing of the door from the door opening / closing switch signal. Detect that there is a possibility of alternation.

そして、初期化処理部43eは、運転者の交代の可能性があると検出した場合には、眼鼻間距離度数分布及び前クラスpcを初期化する(S91、S92)。これにより、第2実施形態と同様に、次回、別の運転者が運転席に着座したとしても、眼鼻間距離度数分布を再生成することから、誤った処理をしないようにすることができる。   If the initialization processing unit 43e detects that there is a possibility that the driver may change, the initialization processing unit 43e initializes the interocular distance frequency distribution and the previous class pc (S91, S92). As a result, similar to the second embodiment, even if another driver is seated in the driver's seat next time, the frequency distribution between the distances between the eyes and the nose is regenerated, so that erroneous processing can be prevented. .

このようにして、第3実施形態に係る眼追跡装置3によれば、第2実施形態と同様に、眼の追跡に失敗したときに、眼の追跡処理への復帰を良好に行うことができる。また、眼の追跡に失敗したときに、眼の追跡処理への復帰を一層良好に行うことができる。さらに、特徴量の計算において光環境の影響を受けにくくすることができ、運転者の姿勢変化があっても正しく眼を検出することができる。また、追跡処理への復帰を、運転者ごとに適切に行うことができる。   In this manner, according to the eye tracking device 3 according to the third embodiment, similarly to the second embodiment, when eye tracking fails, it is possible to satisfactorily return to the eye tracking process. . In addition, when eye tracking fails, it is possible to perform better return to eye tracking processing. Furthermore, the calculation of the feature amount can be made less susceptible to the influence of the light environment, and the eye can be detected correctly even if the driver's posture changes. In addition, the return to the tracking process can be appropriately performed for each driver.

さらに、第3実施形態によれば、車速信号、シフトポジション信号、キースイッチ信号、及びドアの開閉信号の少なくとも1つに基づいて、運転者の交代を検出するので、例えば自動車にあっては既存のデバイスを利用することで安価かつ確実に運転者の交代を検出することができる。   Furthermore, according to the third embodiment, since a driver's change is detected based on at least one of a vehicle speed signal, a shift position signal, a key switch signal, and a door opening / closing signal, for example, an existing vehicle By using this device, it is possible to detect the driver change at a low cost and with certainty.

次に、本発明の第4実施形態を説明する。第4実施形態に係る眼追跡装置4は、第3実施形態のものと同様であるが、初期化処理部43eが車両信号を入力するのに代えて、予め記憶した画像データに運転者の交代の可能性を判断する方法が、第3実施形態のものと異なっている。   Next, a fourth embodiment of the present invention will be described. The eye tracking device 4 according to the fourth embodiment is the same as that of the third embodiment, but instead of the initialization processing unit 43e inputting a vehicle signal, the driver's change is stored in the image data stored in advance. The method of determining the possibility of is different from that of the third embodiment.

すなわち、初期化処理部43eは、顔画像取得部30により取得された顔画像データと、記憶した画像データとの差分画像における差異が設定値以下であるか否かを判断する構成とされている。ここで、記憶した画像データとしては、例えば前回処理において顔画像取得部30により取得された顔画像データを用いるとよい。   That is, the initialization processing unit 43e is configured to determine whether or not the difference in the difference image between the face image data acquired by the face image acquisition unit 30 and the stored image data is equal to or less than a set value. . Here, as the stored image data, for example, the face image data acquired by the face image acquisition unit 30 in the previous process may be used.

概要を図27に示す。図27は、前回及び今回処理における顔画像データ、並びに、差分画像を示す説明図であって、(a)は運転者がいない場合の例を示し、(b)は運転者が着座しているときの例を示している。   An outline is shown in FIG. FIG. 27 is an explanatory diagram showing face image data and difference images in the previous and current processing, where (a) shows an example when there is no driver, and (b) shows that the driver is seated. An example of when.

まず、図27(a)に示すように、運転者が運転席から離れると、前回及び今回処理における顔画像データは同じとなる。このため、差分が得られなくなり、差分画像における差異が設定値以下となる。一方、図27(b)に示すように、運転者が運転席に着座している場合、前回と今回との処理における顔画像データは異なることとなる。このため、差分が得られ、差分画像における差異が設定値以上となる。   First, as shown in FIG. 27A, when the driver leaves the driver's seat, the face image data in the previous and current processing is the same. For this reason, the difference cannot be obtained, and the difference in the difference image is equal to or less than the set value. On the other hand, as shown in FIG. 27B, when the driver is seated in the driver's seat, the face image data in the previous process and the current process are different. For this reason, a difference is obtained and the difference in the difference image is equal to or greater than the set value.

このように、初期化処理部43eは、差分画像から運転者が着座しているか否かを判断し、運転者が着座していことを検出すると、運転者の交代の可能性があると検出する。そして、初期化処理部43eは、眼鼻間距離度数分布及び前クラスpcを初期化する。これにより、第3実施形態と同様に、次回、別の運転者が運転席に着座したとしても、眼鼻間距離度数分布を再生成することから、誤った処理をしないようにすることができる。   As described above, the initialization processing unit 43e determines whether or not the driver is seated from the difference image, and detects that the driver is seated when detecting that the driver is seated. . Then, the initialization processing unit 43e initializes the interocular distance frequency distribution and the previous class pc. Accordingly, as in the third embodiment, even if another driver is seated in the driver's seat next time, the frequency distribution between the distances between the eyes and the nose is regenerated, so that erroneous processing can be prevented. .

このようにして、第4実施形態に係る眼追跡装置4によれば、第3実施形態と同様に、眼の追跡に失敗したときに、眼の追跡処理への復帰を良好に行うことができる。また、眼の追跡に失敗したときに、眼の追跡処理への復帰を一層良好に行うことができる。さらに、特徴量の計算において光環境の影響を受けにくくすることができ、運転者の姿勢変化があっても正しく眼を検出することができる。また、追跡処理への復帰を、運転者ごとに適切に行うことができる。   In this way, according to the eye tracking device 4 according to the fourth embodiment, as in the third embodiment, when the eye tracking fails, it is possible to satisfactorily return to the eye tracking process. . In addition, when eye tracking fails, it is possible to perform better return to eye tracking processing. Furthermore, the calculation of the feature amount can be made less susceptible to the influence of the light environment, and the eye can be detected correctly even if the driver's posture changes. In addition, the return to the tracking process can be appropriately performed for each driver.

さらに、第4実施形態によれば、取得された顔画像データと、記憶した画像データとの差分画像における差異が設定値以下である場合に、運転者の交代の可能性を検出しているので、新しいデバイスを用いることなく、運転者の交代を検出することができる。   Furthermore, according to the fourth embodiment, when the difference in the difference image between the acquired face image data and the stored image data is equal to or less than the set value, the possibility of driver change is detected. The driver change can be detected without using a new device.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、各実施形態を組み合わせるようにしてもよいし、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。例えば、上記実施形態では、車両運転者を撮像する場合を例をに説明したが、これに限らず、助手席や後部席の乗員などを被撮像者として撮像するようにしてもよい。さらに、上記眼追跡装置1〜4を車両に搭載せず、他の乗り物に搭載するようにしてもよく、また、被撮像者の眼を追跡して被撮像者の視線移動を記録するテスト装置の類であってもよい。   As described above, the present invention has been described based on the embodiments. However, the present invention is not limited to the above-described embodiments, and the embodiments may be combined, and changes may be made without departing from the spirit of the present invention. May be added. For example, in the above-described embodiment, the case where the vehicle driver is imaged has been described as an example. However, the present invention is not limited to this, and a passenger seat or a passenger in the rear seat may be imaged as the imaged person. Further, the eye tracking devices 1 to 4 may be mounted on other vehicles without being mounted on the vehicle, and a test device that tracks the eye of the person to be imaged and records the eye movement of the person to be imaged. It may be of the kind.

本発明の実施形態に係るの眼追跡装置1のハード構成図である。1 is a hardware configuration diagram of an eye tracking device 1 according to an embodiment of the present invention. 図1に示した眼検出装置20の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the eye detection apparatus 20 shown in FIG. 処理状態の説明図である。It is explanatory drawing of a processing state. 図2に示した顔部位検出部の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the face part detection part shown in FIG. 図4に示した眼鼻座標決定部の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the ocular nose coordinate determination part shown in FIG. 図5に示したクラス判定部の詳細を示すデータフローダイアグラムである。6 is a data flow diagram showing details of the class determination unit shown in FIG. 5. 眼鼻間距離度数分布の一例を示す説明図である。It is explanatory drawing which shows an example of distance distribution between eye-nose distance. 顔画像及びその顔画像から得られる鼻座標を示す説明図であり、(a)は、顔画像を示し、(b)は画像縦方向及び横方向の画素列に沿って抽出した抽出点を示し、(c)は、鼻の候補を示している。It is explanatory drawing which shows the nose coordinate obtained from a face image and the face image, (a) shows a face image, (b) shows the extraction point extracted along the pixel row | line | column of an image vertical direction and a horizontal direction , (C) show nose candidates. 画素列毎の各画素の濃度値(光量)を示すグラフであり、図8(a)に示す画像縦方向の画素列Yaの濃度値を示している。It is a graph which shows the density value (light quantity) of each pixel for every pixel column, and has shown the density value of the pixel column Ya of the image vertical direction shown to Fig.8 (a). 画素列毎の各画素の濃度値(光量)を示すグラフであり、画像横方向の画素列Xaの濃度値を示している。It is a graph which shows the density value (light quantity) of each pixel for every pixel row, and has shown the density value of the pixel row Xa of the image horizontal direction. 顔画像の説明図である。It is explanatory drawing of a face image. 顔画像の一部領域を示す説明図である。It is explanatory drawing which shows the partial area | region of a face image. 図11に示す画像縦方向の画素列Ybの濃度値を示すグラフである。12 is a graph showing density values of a pixel row Yb in the image vertical direction shown in FIG. 11. 眼座標及び鼻座標の説明図である。It is explanatory drawing of an eye coordinate and a nose coordinate. 図5に示した位置関係計算部の詳細動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the positional relationship calculation part shown in FIG. 眼鼻間距離Iの説明図であり、(a)は顔画像を示し、(b)は各顔部位と眼鼻間距離Iを示している。It is explanatory drawing of the interocular distance I, (a) shows the face image, (b) shows each face part and the interocular distance I. 図5に示した度数分布生成部の詳細動作を示すフローチャートである。It is a flowchart which shows detailed operation | movement of the frequency distribution production | generation part shown in FIG. 眼鼻間距離度数分布の一例を示す説明図である。It is explanatory drawing which shows an example of distance distribution between eye-nose distance. 図6に示したラベリング部の詳細動作を示すフローチャートである。It is a flowchart which shows detailed operation | movement of the labeling part shown in FIG. ラベルデータのイメージを示す説明図である。It is explanatory drawing which shows the image of label data. 図6に示したクラス判断部の詳細動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the class determination part shown in FIG. 図5に示した位置関係判定部の詳細動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the positional relationship determination part shown in FIG. 図4に示した眼鼻座標決定部の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the ocular nose coordinate determination part shown in FIG. 第3実施形態に係るの眼追跡装置のハード構成図である。It is a hardware block diagram of the eye tracking apparatus which concerns on 3rd Embodiment. 図24に示した眼検出装置の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the eye detection apparatus shown in FIG. 図25に示した眼鼻座標決定部の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the ocular nose coordinate determination part shown in FIG. 前回及び今回処理における顔画像データ、並びに、差分画像を示す説明図であって、(a)は運転者がいない場合の例を示し、(b)は運転者が着座しているときの例を示している。It is explanatory drawing which shows the face image data in a last time process and this time process, and a difference image, Comprising: (a) shows the example when there is no driver, (b) shows the example when the driver is seated. Show.

符号の説明Explanation of symbols

1〜4…眼追跡装置
10…カメラ
20…眼検出装置
30…顔画像取得部(顔画像取得手段)
40…顔部位検出部
41…鼻座標検出部(座標検出手段)
42…眼座標検出部(座標検出手段)
43…眼鼻座標決定部
43a…位置関係計算部(位置関係計算手段)
43b…度数分布生成部
43c…クラス判定部
43c1…ラベリング部(区分手段)
43c2…クラス判断部(区分判断手段)
43d…位置関係判定部(位置関係判定手段)
43e…初期化処理部(被撮像者交代検出手段)
50…顔部位追跡部
60…眼鼻座標信号出力部

1-4 Eye tracking device 10 Camera 20 Eye detection device 30 Face image acquisition unit (face image acquisition means)
40 ... face part detection unit 41 ... nose coordinate detection unit (coordinate detection means)
42. Eye coordinate detection unit (coordinate detection means)
43 ... Eye-nose coordinate determination unit 43a ... Position relationship calculation unit (position relationship calculation means)
43b ... Frequency distribution generation unit 43c ... Class determination unit 43c1 ... Labeling unit (sorting means)
43c2 ... Class determination section (classification determination means)
43d ... Positional relationship determining unit (Positional relationship determining means)
43e... Initialization processing unit (photographed person change detection means)
50 ... Face part tracking unit 60 ... Eye-nose coordinate signal output unit

Claims (9)

撮像装置により連続的に撮像された被撮像者の顔画像から眼を追跡する眼追跡装置において、
被撮像者の顔画像を撮像した信号を顔画像データとして得る顔画像取得手段と、
前記顔画像取得手段からの顔画像データに基づいて、眼と眼以外の第2顔部位との双方について、顔画像上の座標を検出する座標検出手段と、
前記座標検出手段により検出された双方の座標から、眼と第2顔部位との座標の特徴量を計算する位置関係計算手段と、
前記位置関係計算手段により時系列的に検出された複数の特徴量を所定条件に従って区分する区分手段と、
被撮像者の眼以外の顔部位を誤って眼であるとして追跡していた場合、誤って追跡していたときに前記位置関係計算手段により計算される特徴量、及び、誤って追跡した後に眼を検出したときに前記位置関係計算手段により計算される特徴量の双方が、前記区分手段により区分された特徴量の区分のうちいずれに属するかを判断する区分判断手段と、
前記区分判断手段により判断された双方の属する区分が異なる場合に、検出した追跡対象を眼であると決定する位置関係判定手段と、
を備えることを特徴とする眼追跡装置。
In an eye tracking device that tracks eyes from a face image of a person to be imaged continuously captured by an imaging device,
Face image acquisition means for obtaining a signal obtained by capturing a face image of the person to be imaged as face image data;
Coordinate detection means for detecting coordinates on the face image for both the eyes and the second face part other than the eyes based on the face image data from the face image acquisition means;
A positional relationship calculating means for calculating a feature quantity of coordinates between the eye and the second face part from both coordinates detected by the coordinate detecting means;
Sorting means for sorting a plurality of feature quantities detected in time series by the positional relationship calculating means according to a predetermined condition;
When a face part other than the eye of the person to be imaged is tracked as an eye by mistake, the feature amount calculated by the positional relationship calculation means when the tracking is erroneously performed, and the eye after being tracked by mistake Classification determination means for determining which of the feature quantity categories classified by the classification means belong to both of the feature quantities calculated by the positional relationship calculation means when detecting
A positional relationship determination means for determining that the detected tracking target is an eye when both of the classifications determined by the classification determination means are different;
An eye tracking device comprising:
前記区分判断手段は、被撮像者の眼が顔画像データ内に存在しなくなったことにより、眼を追跡できなくなった場合に、追跡できなくなったときに前記位置関係計算手段により計算される特徴量、及び、追跡できなくなった後に眼を検出したときに前記位置関係計算手段により計算される特徴量の双方が、前記区分手段により区分された特徴量の区分のうちいずれに属するかを判断し、
前記位置関係判定手段は、前記区分判断手段により判断された双方の属する区分が同じとなる場合に、検出した追跡対象を眼であると決定する
ことを特徴とする請求項1に記載の眼追跡装置。
The classification determination unit is configured to calculate a feature amount calculated by the positional relationship calculation unit when the eye cannot be tracked because the eye of the person to be imaged is no longer present in the face image data. And determining whether both of the feature amounts calculated by the positional relationship calculation means when the eye is detected after being unable to be tracked belong to one of the feature amount categories classified by the classification means,
2. The eye tracking according to claim 1, wherein the positional relationship determination unit determines that the detected tracking target is an eye when both of the classifications determined by the category determination unit are the same. apparatus.
前記座標検出手段は、前記第2顔部位として鼻及び口の少なくとも一方の座標を検出することを特徴とする請求項1又は請求項2のいずれかに記載の眼追跡装置。   The eye tracking device according to claim 1, wherein the coordinate detecting unit detects coordinates of at least one of a nose and a mouth as the second face part. 前記位置関係計算手段は、眼と第2顔部位との座標の特徴量として、画像上における眼と第2顔部位との距離を計算することを特徴とする請求項1〜請求項3のいずれか1項に記載の眼追跡装置。   4. The positional relationship calculation means calculates a distance between the eye and the second face part on the image as a feature amount of coordinates between the eye and the second face part. The eye tracking device according to claim 1. 被撮像者の交代の可能性を検出して、前記位置関係計算手段により時系列的に検出された複数の特徴量の情報を初期化する被撮像者交代検出手段を更に備えることを特徴とする請求項1〜請求項4のいずれか1項に記載の眼追跡装置。   The apparatus further comprises a person-to-be-photographed person change detecting unit that detects a possibility of the person-to-be-photographed change and initializes information on a plurality of feature amounts detected in time series by the positional relationship calculating unit. The eye tracking device according to any one of claims 1 to 4. 前記顔画像取得手段は、車両運転者の顔画像を撮像した信号を顔画像データとして得るものであって、
前記被撮像者交代検出手段は、車速信号、シフトポジション信号、キースイッチ信号、及びドアの開閉信号の少なくとも1つに基づいて、被撮像者の交代の可能性を検出することを特徴とする請求項5に記載の眼追跡装置。
The face image acquisition means obtains a signal obtained by capturing a face image of a vehicle driver as face image data,
The image-captured person change detection means detects the possibility of the image-captured person changing based on at least one of a vehicle speed signal, a shift position signal, a key switch signal, and a door opening / closing signal. Item 5. The eye tracking device according to Item 5.
前記被撮像者交代検出手段は、前記顔画像取得手段により取得された顔画像データと、記憶した画像データとの差分画像における差異が設定値以下である場合に、被撮像者の交代の可能性を検出することを特徴とする請求項5に記載の眼追跡装置。   If the difference in the difference image between the face image data acquired by the face image acquisition unit and the stored image data is equal to or less than a set value, the imaging subject change detection unit may change the imaging subject The eye tracking device according to claim 5, wherein the eye tracking device is detected. 撮像装置により連続的に撮像された被撮像者の顔画像から眼を追跡する眼追跡装置において、
被撮像者の顔画像を撮像して得られる顔画像データに基づき、眼と眼以外の第2顔部位との双方について顔画像上の座標を検出し、これら座標から、眼と第2顔部位との座標の特徴量を計算し、検出した特徴量を時系列的に収集して、収集した複数の特徴量を所定条件に従って区分し、
被撮像者の眼以外の顔部位を誤って眼であるとして追跡していた場合に、誤って追跡していたときの特徴量、及び、誤って追跡した後に眼を検出したときの特徴量の双方が、いずれの区分に属するかを判断して、双方の属する区分が異なる場合に、検出した追跡対象を眼であると決定する
ことを特徴とする眼追跡装置。
In an eye tracking device that tracks eyes from a face image of a person to be imaged continuously captured by an imaging device,
Based on the face image data obtained by capturing the face image of the person to be imaged, coordinates on the face image are detected for both the eyes and the second face part other than the eyes, and the eyes and the second face part are detected from these coordinates. And calculate the feature quantity of the coordinates of and collect the detected feature quantity in time series, classify the collected feature quantities according to the predetermined condition,
If the face part other than the eye of the person being imaged was tracked as an eye by mistake, the feature amount when the eye was tracked incorrectly, and the feature amount when the eye was detected after being tracked incorrectly An eye tracking device, characterized by determining to which section both belong, and determining that the detected tracking target is an eye when the sections to which both belong are different.
撮像装置により連続的に撮像された被撮像者の顔画像から眼を追跡する眼追跡装置において、
被撮像者の顔画像を撮像して得られる顔画像データに基づき、眼と眼以外の第2顔部位との双方について顔画像上の座標を検出し、これら座標から、眼と第2顔部位との座標の特徴量を計算し、検出した特徴量を時系列的に収集して、収集した複数の特徴量を所定条件に従って区分し、
被撮像者の眼が顔画像データ内に存在しなくなったことにより、眼を追跡できなくなった場合に、追跡できなくなったときの特徴量、及び、追跡できなくなった後に眼を検出したときの特徴量の双方が、いずれの区分に属するかを判断して、双方の属する区分が同じとなる場合に、検出した追跡対象を眼であると決定する
ことを特徴とする眼追跡装置。
In an eye tracking device that tracks eyes from a face image of a person to be imaged continuously captured by an imaging device,
Based on the face image data obtained by capturing the face image of the person to be imaged, coordinates on the face image are detected for both the eyes and the second face part other than the eyes, and the eyes and the second face part are detected from these coordinates. And calculate the feature quantity of the coordinates of and collect the detected feature quantity in time series, classify the collected feature quantities according to the predetermined condition,
If the subject's eyes no longer exist in the face image data, and the eye cannot be tracked, the feature amount when the eye cannot be tracked and the feature when the eye is detected after the eye cannot be tracked An eye tracking device, characterized by determining to which category both quantities belong, and determining that the detected tracking target is an eye when the categories to which both belong are the same.
JP2004144452A 2004-05-14 2004-05-14 Eye tracking device Expired - Fee Related JP4506272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004144452A JP4506272B2 (en) 2004-05-14 2004-05-14 Eye tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004144452A JP4506272B2 (en) 2004-05-14 2004-05-14 Eye tracking device

Publications (2)

Publication Number Publication Date
JP2005327072A true JP2005327072A (en) 2005-11-24
JP4506272B2 JP4506272B2 (en) 2010-07-21

Family

ID=35473392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004144452A Expired - Fee Related JP4506272B2 (en) 2004-05-14 2004-05-14 Eye tracking device

Country Status (1)

Country Link
JP (1) JP4506272B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255766A (en) * 2008-04-17 2009-11-05 Suzuki Motor Corp Driver monitoring device
JP2011043921A (en) * 2009-08-19 2011-03-03 Canon Inc Image recognition device and image recognition method
JP2013205939A (en) * 2012-03-27 2013-10-07 Fujitsu Ltd User detection device, method and program
JP2020052773A (en) * 2018-09-27 2020-04-02 アイシン精機株式会社 Occupant monitoring apparatus, occupant monitoring method, and occupant monitoring program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09202154A (en) * 1996-01-29 1997-08-05 Mitsubishi Electric Corp Human figure condition detecting device
JP2001256512A (en) * 2000-03-09 2001-09-21 Nippon Telegr & Teleph Corp <Ntt> Method for virtual space communication and system device
JP2002254955A (en) * 2001-02-28 2002-09-11 Matsushita Electric Ind Co Ltd Travel warning guide device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09202154A (en) * 1996-01-29 1997-08-05 Mitsubishi Electric Corp Human figure condition detecting device
JP2001256512A (en) * 2000-03-09 2001-09-21 Nippon Telegr & Teleph Corp <Ntt> Method for virtual space communication and system device
JP2002254955A (en) * 2001-02-28 2002-09-11 Matsushita Electric Ind Co Ltd Travel warning guide device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255766A (en) * 2008-04-17 2009-11-05 Suzuki Motor Corp Driver monitoring device
JP2011043921A (en) * 2009-08-19 2011-03-03 Canon Inc Image recognition device and image recognition method
JP2013205939A (en) * 2012-03-27 2013-10-07 Fujitsu Ltd User detection device, method and program
JP2020052773A (en) * 2018-09-27 2020-04-02 アイシン精機株式会社 Occupant monitoring apparatus, occupant monitoring method, and occupant monitoring program
JP7173811B2 (en) 2018-09-27 2022-11-16 株式会社アイシン Occupant monitoring device, occupant monitoring method, and occupant monitoring program

Also Published As

Publication number Publication date
JP4506272B2 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
CN102722698B (en) Method and system for detecting and tracking multi-pose face
JP5077164B2 (en) Tracking device and tracking method
KR101490016B1 (en) Person image processing apparatus and person image processing method
JP4389956B2 (en) Face recognition device, face recognition method, and computer program
Ma et al. Robust precise eye location under probabilistic framework
JP4156430B2 (en) Face verification method and system using automatic database update method
JP5649425B2 (en) Video search device
KR100831122B1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4888217B2 (en) Person attribute estimation device
US8787629B2 (en) Image processing based on line-of-sight of a person
CN106169071B (en) A kind of Work attendance method and system based on dynamic human face and chest card recognition
JP4811259B2 (en) Gaze direction estimation apparatus and gaze direction estimation method
KR101363017B1 (en) System and methed for taking pictures and classifying the pictures taken
KR100296215B1 (en) Eye image tracking device
US7620216B2 (en) Method of tracking a human eye in a video image
US20090285456A1 (en) Method and system for measuring human response to visual stimulus based on changes in facial expression
Boehnen et al. A fast multi-modal approach to facial feature detection
JP3307354B2 (en) Personal identification method and apparatus and recording medium recording personal identification program
JP2004511862A (en) IDENTIFICATION SYSTEM AND METHOD USING IRIS AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING IDENTIFICATION PROGRAM FOR PERFORMING THE METHOD
Srisuk et al. A new robust face detection in color images
JP2011034244A (en) Image analysis apparatus, image analysis method and program
JP3063504B2 (en) Image data feature detection device
US20100177206A1 (en) Object detecting apparatus, image pickup apparatus, object detecting method, and program
CN114783037B (en) Object re-recognition method, object re-recognition apparatus, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees