JP2004254960A - Device and method for detecting direction of visual line - Google Patents

Device and method for detecting direction of visual line Download PDF

Info

Publication number
JP2004254960A
JP2004254960A JP2003049919A JP2003049919A JP2004254960A JP 2004254960 A JP2004254960 A JP 2004254960A JP 2003049919 A JP2003049919 A JP 2003049919A JP 2003049919 A JP2003049919 A JP 2003049919A JP 2004254960 A JP2004254960 A JP 2004254960A
Authority
JP
Japan
Prior art keywords
image
center
eye
iris
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003049919A
Other languages
Japanese (ja)
Other versions
JP4032994B2 (en
Inventor
Ryushi Funayama
竜士 船山
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2003049919A priority Critical patent/JP4032994B2/en
Publication of JP2004254960A publication Critical patent/JP2004254960A/en
Application granted granted Critical
Publication of JP4032994B2 publication Critical patent/JP4032994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and method by which the directions of visual lines can be detected accurately. <P>SOLUTION: An image corresponding point searching section 21 detects the characteristic part of the white portion of an eye from an image picked up by means of a stereo camera 1 and a three-dimensional coordinate calculating section 22 calculates the three-dimensional coordinates of the characteristic part. Then an eyeball center calculating section 23 calculates the center of the eyeball of the eye based on the calculated three-dimensional coordinates. On the other hand, the three-dimensional coordinate calculating section 22 detects the three-dimensional coordinates of the iris of the eye and estimates the center of the iris based on the detected three-dimensional coordinates. Thereafter, the calculating section 22 measures the direction of the visual line of the eye from the centers of the eyeball and iris. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、検出対象となる目の視線方向を検出する視線方向検出装置および視線方向検出方法に関する。
【0002】
【従来の技術】
自動車を運転する運転者などの視線方向を非接触で検出する技術として、従来、たとえば特開平7−167618号公報に開示された技術がある。この技術は、赤外線カメラと運転者の距離を計測し、赤外線カメラとの距離関係が既知の視線計測用カメラで運転者の眼球を撮影する。視線計測用カメラで撮影された眼球の角膜反射像、瞳孔中心等の位置から視線方向を算出するものである。
【0003】
【特許文献1】
特開平7−167618号公報(4頁右欄、図1)
【0004】
【発明が解決しようとする課題】
しかし、上記特許文献1に開示された技術では、視線計測用カメラで撮影された眼球の角膜反射像や瞳孔中心等から視線方向を求めるにすぎないものである。このため、正確な視線方向を求めているとは言い難いものであった。
【0005】
そこで、本発明の課題は、視線方向を容易かつ正確に検出することができる視線方向検出装置および視線方向検出方法を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決した本発明に係る視線検出装置は、検出対象となる目の視線方向を検出する視線方向検出装置において、目をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、第1撮像手段および第2撮像手段で撮像された第1画像および第2画像から、目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出手段と、第1画像および第2画像から、目における黒目部分の中心位置を検出する黒目中心検出手段と、眼球の中心位置と、黒目部分の中心位置とに基づいて、目の視線の方向を求める視線方向検出手段と、を有するものである。
【0007】
また、上記課題を解決した本発明に係る視線検出方法は、検出対象となる目の視線方向を検出する視線方向検出方法において、第1撮像手段および第2撮像手段によって、それぞれ検出対象を撮像する撮像工程と、第1撮像手段で撮像された第1画像と第2撮像手段で撮像された第2画像から、目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出工程と、第1画像および第2画像から、目における黒目部分の中心位置を検出する黒目中心検出工程と、眼球の中心位置と、黒目部分の中心位置とに基づいて、目の視線の方向を求める視線方向検出工程と、を備えることを特徴とするものである。
【0008】
本発明に係る視線方向検出装置および検出方法においては、眼球の中心位置と黒目の中心位置とを求め、両中心位置に基づいて視線方向を検出している。人の視線は、眼球の中心を始点として黒目の中心を通ると考えられる。このため、視線方向を正確に検出することができる。
【0009】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、各実施形態において、同一の機能を有する部分については同一の符号を付し、重複する説明は省略することがある。
【0010】
図1は、本発明の実施形態に係る視線検出装置のブロック構成図である。図1に示すように、本実施形態に係る視線検出装置Dは、たとえば自動車の運転席に設けられ、運転者の視線を検出するために用いられる。この視線検出装置Dは、ステレオカメラ1および画像処理装置2を有している。ステレオカメラ1は、第1撮像手段である第1撮像装置11および第2撮像手段である第2撮像装置12を備えている。第1撮像装置11および第2撮像装置12には、同期装置13が接続されており、それぞれ同期した状態で同一の対象物を撮像するようになっている。これらの第1撮像装置11および第2撮像装置12は、内部パラメータおよび相対的な位置関係は既知であり、同期装置13で同期が取られた状態で視線検出対象となる目を含む顔画像を撮像することができる。
【0011】
また、画像処理装置2は、画像間対応点探索部21、三次元座標算出部22、眼球中心算出部23、黒目中心推定部24、および視線方向計測部25を有している。画像間対応点探索部21は、第1撮像装置11および第2撮像装置12に接続されており、ステレオカメラ1における第1撮像装置11および第2撮像装置12に接続されている。第1撮像装置11は、撮像した画像(第1画像)を画像間対応点探索部21に出力し、第2撮像装置12は、撮像した画像(第2画像)を画像間対応点探索部21に出力する。画像間対応点探索部21では、第1画像と第2画像との間の対応点を探索する。
【0012】
三次元座標算出部22は、画像間対応点探索部21に接続されている。画像間対応点探索部21は、三次元座標算出部22に対応点を探索した第1画像および第2画像を出力する。三次元座標算出部22では、対応付けられた第1画像および第2画像における所定の点の三次元座標を算出する。また、三次元座標算出部22は、眼球中心算出部23および黒目中心推定部24に接続されている。眼球中心算出部23は、三次元座標算出部22から出力される所定の三次元座標に基づいて眼球の中心座標を算出する。また、黒目中心推定部24では、三次元座標算出部22から出力される所定の三次元座標に基づいて、黒目の中心となる黒目中心座標を算出する。
【0013】
さらに、眼球中心算出部23および黒目中心推定部24は、本発明の視線方向検出手段である視線方向計測部25に接続されており、それぞれ眼球中心座標および黒目中心座標を出力している。視線方向計測部25では、出力された眼球中心座標および黒目中心座標に基づいて、視線方向を検出している。
【0014】
以上の構成を有する本実施形態に係る視線検出方法について説明する。図2は、本実施形態に係る視線検出方法の手順を示すフローチャートである。図2に示すように、本実施形態に係る視線方向検出方法では、目周辺画像を取得する(S1)。目周辺画像は、あらかじめキャリブレーションされ、内部パラメータおよび相対的な位置関係が既知であるステレオカメラ1における第1撮像装置11および第2撮像装置12のそれぞれで同一の目の近傍を撮像することによって取得される。第1撮像装置11および第2撮像装置12は、それぞれ同期装置13に接続されており、両撮像装置11,12の同期が取られている。
【0015】
第1撮像装置11で撮像された目周辺画像である第1画像および第2撮像装置12で撮像された目周辺画像である第2画像は、画像処理装置2における画像間対応点探索部21にそれぞれ出力される。画像間対応点探索部21では、第1画像および第2画像から、第1画像および第2画像の間の対応付けを行う(S2)。第1画像および第2画像の間の対応付けは、たとえば黒目部分および白目部分について行い、黒目の対応付けは、黒目の輪郭を抽出して行う。
【0016】
そのため、まず、図3(a)に示す画像G中における白色に近い色の領域だけを抽出するように、画像を白で二値化してエッジ処理を施し、図3(b)に示すように白目を抽出した白色エッジ画像WGを生成する。この白色エッジ画像WGに対して、白色部分をわずかに膨張させる膨張処理を施し、図3(c)に示す白色膨張エッジ画像WEGを生成する。このような白での二値化処理を行う一方、図3(d)に示すように、黒色に近い色の領域だけを抽出するように、画像を黒で二値化してエッジ処理を施し、図3(d)に示すように黒目を抽出した黒色エッジ画像BGを生成する。この黒色エッジ画像BGに対して、白色部分を膨張させる膨張処理を施し、図3(e)に示す黒色膨張エッジ画像BEGを生成する。そして、それぞれ膨張処理を施して得られた白色膨張エッジ画像WEGおよび黒色膨張エッジ画像BEG間で、同じ座標同士の画素でAND演算を行う。その結果、図3(f)に示すように、有意となった画素が輪郭エッジとなるエッジ画像EGが生成される。
【0017】
次に、白目部分の対応付けについて説明する。白目眼球上には、本発明の白目の特徴部分となる多くの微細な血管が存在し、これらの血管の配置はランダムとなっているので、同じパターンの血管が張っていることはほとんどない。このことから、血管のパターン同士によって対応点を取ることができる。白目眼球の対応点の取り方について図4を参照して説明する。
【0018】
図4(a)は第1撮像装置11で撮像した目およびその周辺の画像の模式図、図4(b)は第2撮像装置12で撮像した目およびその周辺の画像の模式図である。図4(a)に示すように、第1撮像装置11で撮像した画像G1において、目Eの周辺には多数の血管B1,B2…が存在する。このうちのたとえば血管B1〜B3を含む矩形領域R1を指定し、この血管B1〜B3を含む矩形領域R1における参照パターンを検出する。
【0019】
この参照パターンに対して、第2撮像装置12で撮像した画像G2において、画像G1に指定された矩形領域R1の参照パターンにもっとも近い矩形領域を、下記(1)式を用いて探索する。この探索は、画像G1における矩形領域R1と画像G2における矩形領域の類似度(一致度)を算出することにより行われる。
【0020】
【数1】

Figure 2004254960
【0021】
そして、(1)式により、画像G2において、画像G1における矩形領域R1に一致し、または最も類似する矩形領域R2を探索することができる。
【0022】
こうして、黒目部分および白目部分のそれぞれの対応付けが済んだら、三次元座標算出部22において、黒目部分および白目部分の三次元座標を求める(S3)。これらの三次元座標は、黒目部分および白目部分の血管パターンの画像上での二次元座標と2台のカメラの相対的な位置関係から求められる。具体的には、下記(2)式および(3)式を満たす(X,Y,Z)を算出することによって求めることができる。
【0023】
【数2】
Figure 2004254960
【0024】
上記(2)式および(3)式により、黒目部分における輪郭エッジの三次元座標および白目部分における血管上における1つの平面上にない任意の4点の三次元座標を算出する。
【0025】
これらの三次元座標を求めたら、続いて、眼球中心算出部23において、眼球の中心を算出する(S4)。眼球の中心は、上記(2)式および(3)によって求めた血管上における1つの平面上にない任意の4点の三次元座標から求める。一般に球の式は下記(4)式で与えられる。
【0026】
【数3】
Figure 2004254960
【0027】
いま、眼球を球として考えると、眼球上の血管は、この球の表面に存在することになる。また、球の式を特定するためには、1つの平面上にない4点が与えられればよい。したがって、(2)式および(3)式によって求めた血管の三次元座標から、(4)式の定数a、b、c、rを求めることにより、眼球を示す球の中心座標(a、b、c)を得ることができる。
【0028】
こうして眼球の中心を求めたら、黒目中心推定部24において、黒目の中心の三次元座標を求める(S5)。ここで、黒目輪郭は円形(またはだ円形)を形成しているので、その中心は、下記(5)式に示すように、黒目輪郭上の点として計算した2点間の最大の点となる組の中心として算出できる。
【0029】
【数4】
Figure 2004254960
【0030】
こうして、黒目の中心を算出したら、視線方向の検出を行う(S6)。人の視線は、眼球の中心と黒目の中心を通る線に等しいと考えられる。このため、視線方向の検出は、下記(6)式によって行うことができる。
【0031】
視線方向=黒目中心座標−眼球中心座標 ・・・(6)
上記(6)式により、視線方向を検出することができる。このときの視線の始点は、眼球の中心となる。
【0032】
このように、本実施形態に係る視線検出方法では、眼球の中心位置と黒目の中心位置とを求め、両中心位置に基づいて視線方向を検出している。このため、視線方向を容易かつ正確に検出することができる。
【0033】
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態では、眼球の中心位置を求めるために、白目部分の特徴部分として血管を利用しているが、血管に代えて虹彩などを利用することができる。また、上記実施形態では、黒目の中心を求める際に、黒目輪郭上の点として計算した2点間の最大の点となる組の中心を黒目の中心としているが、たとえば黒目の形状をだ円に置き換えて、演算処理を施してだ円の中心を求めて、そのだ円の中心を黒目の中心とすることもできる。
【0034】
他方、上記実施形態では、視線検出装置を自動車に設ける例について説明したが、入力装置として使用することにより、パソコンや家電製品などをはじめあらゆる装置の指令デバイスとしても用いることができる。
【0035】
【発明の効果】
以上のとおり、本発明によれば、視線方向を容易かつ正確に検出することができる視線検出装置および視線検出方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る視線検出装置のブロック構成図である。
【図2】本実施形態に係る視線方向検出方法を示すフローチャートである。
【図3】(a)は撮像手段で撮像した目の模式図、(b)は(a)の画像を白色で二値化してエッジ処理した白色エッジ画像の模式図、(c)は(b)の白色部分を膨張させた膨張処理を施した白色膨張エッジ画像の模式図、(d)は(a)の画像を黒色で二値化してエッジ処理した黒色エッジ画像の模式図、(e)は(d)の白色部分を膨張させた膨張処理を施した黒色膨張エッジ画像の模式図、(f)は(c)の画像と(e)の画像をAND演算して得られたエッジ画像の模式図である。
【図4】(a)は第1撮像装置11で撮像した目およびその周辺の画像の模式図、(b)は第2撮像装置12で撮像した目およびその周辺の画像の模式図である。
【符号の説明】
1…ステレオカメラ、2…画像処理装置、11…第1撮像装置、12…第2撮像装置、13…同期装置、21…画像間対応点探索部、22…三次元座標算出部、23…眼球中心算出部、24…黒目中心推定部、25…視線方向計測部、B1〜B3…血管、D…視線検出装置、G,G1,G2…画像、WG…白色エッジ画像、WEG…白色膨張エッジ画像、BG…黒色エッジ画像、BEG…黒色膨張エッジ画像、E…目、EG…エッジ画像、R1,R2…矩形領域。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a gaze direction detection device and a gaze direction detection method for detecting a gaze direction of an eye to be detected.
[0002]
[Prior art]
2. Description of the Related Art As a technique for detecting the direction of a line of sight of a driver or the like of a car in a non-contact manner, there is a technique disclosed in, for example, Japanese Patent Application Laid-Open No. 7-167618. This technology measures the distance between an infrared camera and a driver, and photographs the driver's eyeball with a line-of-sight measurement camera whose distance relationship with the infrared camera is known. The gaze direction is calculated from the corneal reflection image of the eyeball photographed by the gaze measurement camera, the center of the pupil, and the like.
[0003]
[Patent Document 1]
JP-A-7-167618 (page 4, right column, FIG. 1)
[0004]
[Problems to be solved by the invention]
However, in the technique disclosed in Patent Document 1, the gaze direction is simply obtained from a corneal reflection image of an eyeball captured by a gaze measurement camera, the center of a pupil, and the like. For this reason, it has been difficult to say that an accurate gaze direction is required.
[0005]
Therefore, an object of the present invention is to provide a gaze direction detection device and a gaze direction detection method that can easily and accurately detect a gaze direction.
[0006]
[Means for Solving the Problems]
A gaze detection device according to the present invention that has solved the above-mentioned problems is a gaze direction detection device that detects a gaze direction of an eye to be detected, wherein the stereo camera includes a first imaging unit and a second imaging unit that respectively image the eyes. An eyeball center detecting means for detecting a characteristic portion of a white eye portion of an eye to obtain a center position of the eyeball from the first image and the second image picked up by the first image pickup means and the second image pickup means; A pupil center detecting unit that detects a center position of the iris part in the eye from the second image, a sight line direction detecting unit that determines a direction of the sight line of the eye based on the center position of the eyeball and the center position of the iris part, It has.
[0007]
Further, a gaze detection method according to the present invention that has solved the above-mentioned problem is a gaze direction detection method for detecting a gaze direction of an eye to be detected, wherein the first imaging unit and the second imaging unit respectively image the detection target. An image capturing step, and an eyeball center detecting step of detecting a characteristic portion of a white-eye portion of the eye to obtain a center position of the eyeball from the first image captured by the first image capturing unit and the second image captured by the second image capturing unit. And a pupil center detection step of detecting a pupil center position in the eye from the first image and the second image; and a direction of a line of sight of the eye based on the pupil center position and the pupil center position. A gaze direction detecting step.
[0008]
In the gaze direction detection device and the detection method according to the present invention, the center position of the eyeball and the center position of the iris are obtained, and the gaze direction is detected based on both center positions. The line of sight of a person is considered to pass through the center of the iris starting from the center of the eyeball. For this reason, the gaze direction can be accurately detected.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, the same reference numerals are given to portions having the same function, and overlapping description may be omitted.
[0010]
FIG. 1 is a block configuration diagram of a gaze detection device according to an embodiment of the present invention. As shown in FIG. 1, a line-of-sight detection device D according to the present embodiment is provided, for example, in a driver's seat of an automobile, and is used to detect the line of sight of a driver. This gaze detection device D has a stereo camera 1 and an image processing device 2. The stereo camera 1 includes a first imaging device 11 as a first imaging device and a second imaging device 12 as a second imaging device. A synchronization device 13 is connected to the first imaging device 11 and the second imaging device 12, and captures the same object in a synchronized state. The first imaging device 11 and the second imaging device 12 are capable of generating a face image including an eye to be a gaze detection target in a state where the internal parameters and the relative positional relationship are known and synchronized by the synchronization device 13. Images can be taken.
[0011]
Further, the image processing device 2 includes an inter-image corresponding point search unit 21, a three-dimensional coordinate calculation unit 22, an eyeball center calculation unit 23, an iris center estimation unit 24, and a gaze direction measurement unit 25. The inter-image corresponding point searching unit 21 is connected to the first imaging device 11 and the second imaging device 12, and is connected to the first imaging device 11 and the second imaging device 12 of the stereo camera 1. The first imaging device 11 outputs the captured image (first image) to the inter-image corresponding point searching unit 21, and the second imaging device 12 outputs the captured image (second image) to the inter-image corresponding point searching unit 21. Output to The inter-image corresponding point search unit 21 searches for a corresponding point between the first image and the second image.
[0012]
The three-dimensional coordinate calculation unit 22 is connected to the inter-image corresponding point search unit 21. The inter-image corresponding point search unit 21 outputs the first image and the second image for which corresponding points have been searched to the three-dimensional coordinate calculation unit 22. The three-dimensional coordinate calculation unit 22 calculates three-dimensional coordinates of a predetermined point in the associated first and second images. Further, the three-dimensional coordinate calculator 22 is connected to the eyeball center calculator 23 and the iris center estimator 24. The eyeball center calculator 23 calculates the center coordinates of the eyeball based on the predetermined three-dimensional coordinates output from the three-dimensional coordinate calculator 22. Further, the iris center estimating unit 24 calculates iris center coordinates that are the center of the iris based on the predetermined three-dimensional coordinates output from the three-dimensional coordinate calculating unit 22.
[0013]
Further, the eyeball center calculation unit 23 and the iris center estimation unit 24 are connected to the gaze direction measurement unit 25 which is the gaze direction detection unit of the present invention, and output the eyeball center coordinates and the iris center coordinates, respectively. The line-of-sight direction measuring unit 25 detects the line-of-sight direction based on the output eyeball center coordinates and iris center coordinates.
[0014]
A gaze detection method according to the present embodiment having the above configuration will be described. FIG. 2 is a flowchart illustrating a procedure of the gaze detection method according to the present embodiment. As shown in FIG. 2, in the gaze direction detecting method according to the present embodiment, an image around the eye is acquired (S1). The peripheral image of the eye is calibrated in advance, and the first imaging device 11 and the second imaging device 12 of the stereo camera 1 in which the internal parameters and the relative positional relationship are known are imaged in the vicinity of the same eye. Is obtained. The first imaging device 11 and the second imaging device 12 are each connected to a synchronization device 13 so that the two imaging devices 11 and 12 are synchronized.
[0015]
The first image, which is an eye peripheral image captured by the first imaging device 11, and the second image, which is an eye peripheral image captured by the second imaging device 12, are sent to the inter-image corresponding point searching unit 21 in the image processing device 2. Each is output. The inter-image corresponding point search unit 21 associates the first image and the second image from the first image and the second image (S2). The association between the first image and the second image is performed, for example, for the iris portion and the iris portion, and the iris association is performed by extracting the outline of the iris.
[0016]
Therefore, first, the image is binarized with white to perform edge processing so as to extract only a region of a color close to white in the image G shown in FIG. 3A, and as shown in FIG. A white edge image WG from which white eyes are extracted is generated. The white edge image WG is subjected to expansion processing for slightly expanding a white portion, and a white expanded edge image WEG shown in FIG. 3C is generated. While performing such binarization processing with white, as shown in FIG. 3D, the image is binarized with black so as to extract only a region of a color close to black, and edge processing is performed. As shown in FIG. 3D, a black edge image BG from which the iris is extracted is generated. The black edge image BG is subjected to expansion processing for expanding a white portion, and a black expanded edge image BEG shown in FIG. 3E is generated. Then, an AND operation is performed between pixels having the same coordinates between the white expanded edge image WEG and the black expanded edge image BEG obtained by performing the expansion processing. As a result, as shown in FIG. 3F, an edge image EG in which the significant pixel becomes the contour edge is generated.
[0017]
Next, the association of the white-eye portion will be described. On the white eyeball, there are many fine blood vessels which are characteristic portions of the white eye of the present invention, and since the arrangement of these blood vessels is random, blood vessels of the same pattern are hardly formed. From this, it is possible to obtain a corresponding point between the blood vessel patterns. How to obtain the corresponding points of the white eyeball will be described with reference to FIG.
[0018]
FIG. 4A is a schematic diagram of an eye and its surrounding image captured by the first imaging device 11, and FIG. 4B is a schematic diagram of an eye and its surrounding image captured by the second imaging device 12. As shown in FIG. 4A, in an image G1 captured by the first imaging device 11, a number of blood vessels B1, B2,... For example, a rectangular area R1 including the blood vessels B1 to B3 is designated, and a reference pattern in the rectangular area R1 including the blood vessels B1 to B3 is detected.
[0019]
With respect to this reference pattern, in the image G2 captured by the second imaging device 12, a rectangular area closest to the reference pattern of the rectangular area R1 specified in the image G1 is searched using the following equation (1). This search is performed by calculating the similarity (matching degree) between the rectangular area R1 in the image G1 and the rectangular area in the image G2.
[0020]
(Equation 1)
Figure 2004254960
[0021]
Then, according to the equation (1), it is possible to search the image G2 for a rectangular region R2 that matches or is most similar to the rectangular region R1 in the image G1.
[0022]
When the iris portion and the iris portion are associated with each other in this way, the three-dimensional coordinate calculation section 22 obtains the three-dimensional coordinates of the iris portion and the iris portion (S3). These three-dimensional coordinates are obtained from the two-dimensional coordinates on the image of the blood vessel pattern of the iris portion and the iris portion on the image and the relative positional relationship between the two cameras. Specifically, it can be obtained by calculating (X, Y, Z) T that satisfies the following equations (2) and (3).
[0023]
(Equation 2)
Figure 2004254960
[0024]
Using the above equations (2) and (3), the three-dimensional coordinates of the contour edge in the iris part and the three-dimensional coordinates of any four points not on one plane on the blood vessel in the white part are calculated.
[0025]
After obtaining these three-dimensional coordinates, the center of the eyeball is subsequently calculated by the eyeball center calculation unit 23 (S4). The center of the eyeball is obtained from the three-dimensional coordinates of any four points not on one plane on the blood vessel obtained by the above equations (2) and (3). Generally, the equation of a sphere is given by the following equation (4).
[0026]
[Equation 3]
Figure 2004254960
[0027]
Now, assuming that the eyeball is a sphere, the blood vessels on the eyeball exist on the surface of the sphere. In addition, in order to specify the equation of the sphere, it is only necessary to give four points that are not on one plane. Therefore, the center coordinates (a, b) of the sphere indicating the eyeball are obtained by obtaining the constants a, b, c, and r of the equation (4) from the three-dimensional coordinates of the blood vessel obtained by the equations (2) and (3). , C) can be obtained.
[0028]
After the center of the eyeball is obtained in this way, the iris center estimation unit 24 obtains the three-dimensional coordinates of the center of the iris (S5). Here, since the iris contour forms a circle (or ellipse), its center is the maximum point between two points calculated as points on the iris contour, as shown in the following equation (5). It can be calculated as the center of the set.
[0029]
(Equation 4)
Figure 2004254960
[0030]
When the center of the iris is calculated in this way, the gaze direction is detected (S6). The line of sight of a person is considered to be equal to the line passing through the center of the eyeball and the center of the iris. For this reason, the gaze direction can be detected by the following equation (6).
[0031]
Line-of-sight direction = iris center coordinates-eyeball center coordinates (6)
The line of sight direction can be detected by the above equation (6). The starting point of the line of sight at this time is the center of the eyeball.
[0032]
As described above, in the gaze detection method according to the present embodiment, the center position of the eyeball and the center position of the iris are obtained, and the gaze direction is detected based on both center positions. For this reason, the line of sight direction can be easily and accurately detected.
[0033]
As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to the above embodiments. For example, in the above-described embodiment, a blood vessel is used as a characteristic portion of the white-eye part in order to obtain the center position of the eyeball, but an iris or the like can be used instead of the blood vessel. In the above-described embodiment, when the center of the iris is determined, the center of the set that is the largest point between the two points calculated as the points on the iris contour is set as the center of the iris. And the center of the ellipse can be determined as the center of the iris by calculating the center of the ellipse.
[0034]
On the other hand, in the above-described embodiment, the example in which the line-of-sight detection device is provided in an automobile has been described.
[0035]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a gaze detection device and a gaze detection method capable of easily and accurately detecting a gaze direction.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of a gaze detection device according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a gaze direction detecting method according to the embodiment.
3A is a schematic diagram of an eye imaged by an imaging unit, FIG. 3B is a schematic diagram of a white edge image obtained by binarizing the image of FIG. (D) is a schematic diagram of a white expanded edge image subjected to an expansion process in which a white portion is expanded, (d) is a schematic diagram of a black edge image obtained by binarizing the image of (a) with black and performing edge processing, and (e). (D) is a schematic view of a black expanded edge image subjected to expansion processing in which a white portion is expanded, and (f) is an edge image obtained by performing an AND operation on the image of (c) and the image of (e). It is a schematic diagram.
4A is a schematic diagram of an eye and its surrounding image captured by a first imaging device 11, and FIG. 4B is a schematic diagram of an eye and its surrounding image captured by a second imaging device 12. FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Stereo camera, 2 ... Image processing apparatus, 11 ... 1st imaging apparatus, 12 ... 2nd imaging apparatus, 13 ... Synchronization apparatus, 21 ... Inter-image correspondence point search part, 22 ... 3D coordinate calculation part, 23 ... Eyeball Center calculation unit, 24: iris center estimation unit, 25: gaze direction measurement unit, B1 to B3: blood vessels, D: gaze detection device, G, G1, G2: image, WG: white edge image, WEG: white expanded edge image , BG: black edge image, BEG: black expanded edge image, E: eyes, EG: edge image, R1, R2: rectangular area.

Claims (2)

検出対象となる目の視線方向を検出する視線方向検出装置において、
前記目をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、
前記第1撮像手段および前記第2撮像手段で撮像された第1画像および第2画像から、前記目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出手段と、
前記第1画像および前記第2画像から、前記目における黒目部分の中心位置を検出する黒目中心検出手段と、
前記眼球の中心位置と、前記黒目部分の中心位置とに基づいて、前記目の視線の方向を求める視線方向検出手段と、
を有することを特徴とする視線方向検出装置。
In a gaze direction detection device that detects a gaze direction of an eye to be detected,
A stereo camera including a first imaging unit and a second imaging unit that respectively image the eyes;
An eyeball center detecting means for detecting a characteristic portion of a white eye portion in the eye from the first image and the second image picked up by the first image pickup means and the second image pickup means to obtain a center position of the eyeball;
An iris center detecting unit that detects a center position of an iris portion in the eye from the first image and the second image;
A line-of-sight direction detection unit that determines the direction of the line of sight of the eye based on the center position of the eyeball and the center position of the iris portion;
A gaze direction detecting device comprising:
検出対象となる目の視線方向を検出する視線方向検出方法において、
第1撮像手段および第2撮像手段によって、それぞれ前記検出対象を撮像する撮像工程と、
前記第1撮像手段で撮像された第1画像と前記第2撮像手段で撮像された第2画像から、前記目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出工程と、
前記第1画像および前記第2画像から、前記目における黒目部分の中心位置を検出する黒目中心検出工程と、
前記眼球の中心位置と、前記黒目部分の中心位置とに基づいて、前記目の視線の方向を求める視線方向検出工程と、
を備えることを特徴とする視線方向検出方法。
In a gaze direction detection method for detecting a gaze direction of an eye to be detected,
An imaging step of imaging the detection target by a first imaging unit and a second imaging unit, respectively;
An eyeball center detecting step of detecting a characteristic portion of a white eye portion of the eye to obtain a center position of the eyeball from a first image picked up by the first image pickup unit and a second image picked up by the second image pickup unit; ,
An iris center detecting step of detecting a center position of an iris portion in the eye from the first image and the second image;
A gaze direction detecting step of determining a gaze direction of the eye based on the center position of the eyeball and the center position of the iris portion;
A gaze direction detecting method, comprising:
JP2003049919A 2003-02-26 2003-02-26 Gaze direction detection device and gaze direction detection method Expired - Fee Related JP4032994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003049919A JP4032994B2 (en) 2003-02-26 2003-02-26 Gaze direction detection device and gaze direction detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003049919A JP4032994B2 (en) 2003-02-26 2003-02-26 Gaze direction detection device and gaze direction detection method

Publications (2)

Publication Number Publication Date
JP2004254960A true JP2004254960A (en) 2004-09-16
JP4032994B2 JP4032994B2 (en) 2008-01-16

Family

ID=33115500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003049919A Expired - Fee Related JP4032994B2 (en) 2003-02-26 2003-02-26 Gaze direction detection device and gaze direction detection method

Country Status (1)

Country Link
JP (1) JP4032994B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513168A (en) * 2004-09-22 2008-05-01 エルディート ゲゼルシャフト ミット ベシュレンクテル ハフツング Apparatus and method for specifying a gaze direction without contact
DE102009010614A1 (en) 2008-03-12 2009-10-08 Yazaki Corporation Vehicular display apparatus
DE102009024192A1 (en) 2008-06-09 2009-12-10 Yazaki Corp. System for an eye-level projected display
KR101020893B1 (en) 2009-06-16 2011-03-09 서울대학교산학협력단 Method of Measuring Displacement of Eyeball, Recording Media of the same and Apparatus of the same
JP2012029940A (en) * 2010-07-30 2012-02-16 Hiroshima City Univ Method and apparatus for measuring visual axis
KR101382772B1 (en) 2012-12-11 2014-04-08 현대자동차주식회사 Display system and method
WO2015066475A1 (en) * 2013-10-31 2015-05-07 The University of North Carlina at Chapel Hill Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
JP2019000136A (en) * 2017-06-09 2019-01-10 株式会社豊田中央研究所 Visual line measurement device and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513168A (en) * 2004-09-22 2008-05-01 エルディート ゲゼルシャフト ミット ベシュレンクテル ハフツング Apparatus and method for specifying a gaze direction without contact
DE102009010614A1 (en) 2008-03-12 2009-10-08 Yazaki Corporation Vehicular display apparatus
DE102009024192A1 (en) 2008-06-09 2009-12-10 Yazaki Corp. System for an eye-level projected display
KR101020893B1 (en) 2009-06-16 2011-03-09 서울대학교산학협력단 Method of Measuring Displacement of Eyeball, Recording Media of the same and Apparatus of the same
JP2012029940A (en) * 2010-07-30 2012-02-16 Hiroshima City Univ Method and apparatus for measuring visual axis
KR101382772B1 (en) 2012-12-11 2014-04-08 현대자동차주식회사 Display system and method
US9160929B2 (en) 2012-12-11 2015-10-13 Hyundai Motor Company Line-of-sight tracking system and method
WO2015066475A1 (en) * 2013-10-31 2015-05-07 The University of North Carlina at Chapel Hill Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
US10165176B2 (en) 2013-10-31 2018-12-25 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
JP2019000136A (en) * 2017-06-09 2019-01-10 株式会社豊田中央研究所 Visual line measurement device and program

Also Published As

Publication number Publication date
JP4032994B2 (en) 2008-01-16

Similar Documents

Publication Publication Date Title
CN107273846B (en) Human body shape parameter determination method and device
JP5466610B2 (en) Gaze estimation device
JP5791475B2 (en) Image processing apparatus, image processing method, and image processing program
JPWO2008007781A1 (en) Gaze direction detection device and gaze direction detection method
JP2001101429A (en) Method and device for observing face, and recording medium for face observing processing
JP2008140290A (en) Head position/attitude detector
CN110926330A (en) Image processing apparatus, image processing method, and program
JP6452235B2 (en) Face detection method, face detection device, and face detection program
CN109308462B (en) Finger vein and knuckle print region-of-interest positioning method
JP6942566B2 (en) Information processing equipment, information processing methods and computer programs
JP4032994B2 (en) Gaze direction detection device and gaze direction detection method
JP2008026998A (en) Obstacle location calculation system and method
JP2004030461A (en) Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon
JP6042146B2 (en) Object detection apparatus and object detection method
JP2006215743A (en) Image processing apparatus and image processing method
WO2020026677A1 (en) Detection device, processing device, detection method, and processing program
JP4140399B2 (en) Gaze direction detection device and gaze direction detection method
JP2007226726A (en) Thermal image processing apparatus
JP2005084012A (en) Skin shape measuring method and skin shape measuring device
JP2011134119A (en) Vehicle periphery monitoring device
JP3994954B2 (en) Object detection apparatus and object detection method
JPH0875454A (en) Range finding device
JP2004259043A (en) Direction detection device and direction detection method
JP2001116545A (en) Distance image calculator
JP2008146132A (en) Image detection device, program, and image detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4032994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees