JP2004254960A - Device and method for detecting direction of visual line - Google Patents
Device and method for detecting direction of visual line Download PDFInfo
- Publication number
- JP2004254960A JP2004254960A JP2003049919A JP2003049919A JP2004254960A JP 2004254960 A JP2004254960 A JP 2004254960A JP 2003049919 A JP2003049919 A JP 2003049919A JP 2003049919 A JP2003049919 A JP 2003049919A JP 2004254960 A JP2004254960 A JP 2004254960A
- Authority
- JP
- Japan
- Prior art keywords
- image
- center
- eye
- iris
- eyeball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、検出対象となる目の視線方向を検出する視線方向検出装置および視線方向検出方法に関する。
【0002】
【従来の技術】
自動車を運転する運転者などの視線方向を非接触で検出する技術として、従来、たとえば特開平7−167618号公報に開示された技術がある。この技術は、赤外線カメラと運転者の距離を計測し、赤外線カメラとの距離関係が既知の視線計測用カメラで運転者の眼球を撮影する。視線計測用カメラで撮影された眼球の角膜反射像、瞳孔中心等の位置から視線方向を算出するものである。
【0003】
【特許文献1】
特開平7−167618号公報(4頁右欄、図1)
【0004】
【発明が解決しようとする課題】
しかし、上記特許文献1に開示された技術では、視線計測用カメラで撮影された眼球の角膜反射像や瞳孔中心等から視線方向を求めるにすぎないものである。このため、正確な視線方向を求めているとは言い難いものであった。
【0005】
そこで、本発明の課題は、視線方向を容易かつ正確に検出することができる視線方向検出装置および視線方向検出方法を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決した本発明に係る視線検出装置は、検出対象となる目の視線方向を検出する視線方向検出装置において、目をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、第1撮像手段および第2撮像手段で撮像された第1画像および第2画像から、目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出手段と、第1画像および第2画像から、目における黒目部分の中心位置を検出する黒目中心検出手段と、眼球の中心位置と、黒目部分の中心位置とに基づいて、目の視線の方向を求める視線方向検出手段と、を有するものである。
【0007】
また、上記課題を解決した本発明に係る視線検出方法は、検出対象となる目の視線方向を検出する視線方向検出方法において、第1撮像手段および第2撮像手段によって、それぞれ検出対象を撮像する撮像工程と、第1撮像手段で撮像された第1画像と第2撮像手段で撮像された第2画像から、目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出工程と、第1画像および第2画像から、目における黒目部分の中心位置を検出する黒目中心検出工程と、眼球の中心位置と、黒目部分の中心位置とに基づいて、目の視線の方向を求める視線方向検出工程と、を備えることを特徴とするものである。
【0008】
本発明に係る視線方向検出装置および検出方法においては、眼球の中心位置と黒目の中心位置とを求め、両中心位置に基づいて視線方向を検出している。人の視線は、眼球の中心を始点として黒目の中心を通ると考えられる。このため、視線方向を正確に検出することができる。
【0009】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、各実施形態において、同一の機能を有する部分については同一の符号を付し、重複する説明は省略することがある。
【0010】
図1は、本発明の実施形態に係る視線検出装置のブロック構成図である。図1に示すように、本実施形態に係る視線検出装置Dは、たとえば自動車の運転席に設けられ、運転者の視線を検出するために用いられる。この視線検出装置Dは、ステレオカメラ1および画像処理装置2を有している。ステレオカメラ1は、第1撮像手段である第1撮像装置11および第2撮像手段である第2撮像装置12を備えている。第1撮像装置11および第2撮像装置12には、同期装置13が接続されており、それぞれ同期した状態で同一の対象物を撮像するようになっている。これらの第1撮像装置11および第2撮像装置12は、内部パラメータおよび相対的な位置関係は既知であり、同期装置13で同期が取られた状態で視線検出対象となる目を含む顔画像を撮像することができる。
【0011】
また、画像処理装置2は、画像間対応点探索部21、三次元座標算出部22、眼球中心算出部23、黒目中心推定部24、および視線方向計測部25を有している。画像間対応点探索部21は、第1撮像装置11および第2撮像装置12に接続されており、ステレオカメラ1における第1撮像装置11および第2撮像装置12に接続されている。第1撮像装置11は、撮像した画像(第1画像)を画像間対応点探索部21に出力し、第2撮像装置12は、撮像した画像(第2画像)を画像間対応点探索部21に出力する。画像間対応点探索部21では、第1画像と第2画像との間の対応点を探索する。
【0012】
三次元座標算出部22は、画像間対応点探索部21に接続されている。画像間対応点探索部21は、三次元座標算出部22に対応点を探索した第1画像および第2画像を出力する。三次元座標算出部22では、対応付けられた第1画像および第2画像における所定の点の三次元座標を算出する。また、三次元座標算出部22は、眼球中心算出部23および黒目中心推定部24に接続されている。眼球中心算出部23は、三次元座標算出部22から出力される所定の三次元座標に基づいて眼球の中心座標を算出する。また、黒目中心推定部24では、三次元座標算出部22から出力される所定の三次元座標に基づいて、黒目の中心となる黒目中心座標を算出する。
【0013】
さらに、眼球中心算出部23および黒目中心推定部24は、本発明の視線方向検出手段である視線方向計測部25に接続されており、それぞれ眼球中心座標および黒目中心座標を出力している。視線方向計測部25では、出力された眼球中心座標および黒目中心座標に基づいて、視線方向を検出している。
【0014】
以上の構成を有する本実施形態に係る視線検出方法について説明する。図2は、本実施形態に係る視線検出方法の手順を示すフローチャートである。図2に示すように、本実施形態に係る視線方向検出方法では、目周辺画像を取得する(S1)。目周辺画像は、あらかじめキャリブレーションされ、内部パラメータおよび相対的な位置関係が既知であるステレオカメラ1における第1撮像装置11および第2撮像装置12のそれぞれで同一の目の近傍を撮像することによって取得される。第1撮像装置11および第2撮像装置12は、それぞれ同期装置13に接続されており、両撮像装置11,12の同期が取られている。
【0015】
第1撮像装置11で撮像された目周辺画像である第1画像および第2撮像装置12で撮像された目周辺画像である第2画像は、画像処理装置2における画像間対応点探索部21にそれぞれ出力される。画像間対応点探索部21では、第1画像および第2画像から、第1画像および第2画像の間の対応付けを行う(S2)。第1画像および第2画像の間の対応付けは、たとえば黒目部分および白目部分について行い、黒目の対応付けは、黒目の輪郭を抽出して行う。
【0016】
そのため、まず、図3(a)に示す画像G中における白色に近い色の領域だけを抽出するように、画像を白で二値化してエッジ処理を施し、図3(b)に示すように白目を抽出した白色エッジ画像WGを生成する。この白色エッジ画像WGに対して、白色部分をわずかに膨張させる膨張処理を施し、図3(c)に示す白色膨張エッジ画像WEGを生成する。このような白での二値化処理を行う一方、図3(d)に示すように、黒色に近い色の領域だけを抽出するように、画像を黒で二値化してエッジ処理を施し、図3(d)に示すように黒目を抽出した黒色エッジ画像BGを生成する。この黒色エッジ画像BGに対して、白色部分を膨張させる膨張処理を施し、図3(e)に示す黒色膨張エッジ画像BEGを生成する。そして、それぞれ膨張処理を施して得られた白色膨張エッジ画像WEGおよび黒色膨張エッジ画像BEG間で、同じ座標同士の画素でAND演算を行う。その結果、図3(f)に示すように、有意となった画素が輪郭エッジとなるエッジ画像EGが生成される。
【0017】
次に、白目部分の対応付けについて説明する。白目眼球上には、本発明の白目の特徴部分となる多くの微細な血管が存在し、これらの血管の配置はランダムとなっているので、同じパターンの血管が張っていることはほとんどない。このことから、血管のパターン同士によって対応点を取ることができる。白目眼球の対応点の取り方について図4を参照して説明する。
【0018】
図4(a)は第1撮像装置11で撮像した目およびその周辺の画像の模式図、図4(b)は第2撮像装置12で撮像した目およびその周辺の画像の模式図である。図4(a)に示すように、第1撮像装置11で撮像した画像G1において、目Eの周辺には多数の血管B1,B2…が存在する。このうちのたとえば血管B1〜B3を含む矩形領域R1を指定し、この血管B1〜B3を含む矩形領域R1における参照パターンを検出する。
【0019】
この参照パターンに対して、第2撮像装置12で撮像した画像G2において、画像G1に指定された矩形領域R1の参照パターンにもっとも近い矩形領域を、下記(1)式を用いて探索する。この探索は、画像G1における矩形領域R1と画像G2における矩形領域の類似度(一致度)を算出することにより行われる。
【0020】
【数1】
【0021】
そして、(1)式により、画像G2において、画像G1における矩形領域R1に一致し、または最も類似する矩形領域R2を探索することができる。
【0022】
こうして、黒目部分および白目部分のそれぞれの対応付けが済んだら、三次元座標算出部22において、黒目部分および白目部分の三次元座標を求める(S3)。これらの三次元座標は、黒目部分および白目部分の血管パターンの画像上での二次元座標と2台のカメラの相対的な位置関係から求められる。具体的には、下記(2)式および(3)式を満たす(X,Y,Z)Tを算出することによって求めることができる。
【0023】
【数2】
【0024】
上記(2)式および(3)式により、黒目部分における輪郭エッジの三次元座標および白目部分における血管上における1つの平面上にない任意の4点の三次元座標を算出する。
【0025】
これらの三次元座標を求めたら、続いて、眼球中心算出部23において、眼球の中心を算出する(S4)。眼球の中心は、上記(2)式および(3)によって求めた血管上における1つの平面上にない任意の4点の三次元座標から求める。一般に球の式は下記(4)式で与えられる。
【0026】
【数3】
【0027】
いま、眼球を球として考えると、眼球上の血管は、この球の表面に存在することになる。また、球の式を特定するためには、1つの平面上にない4点が与えられればよい。したがって、(2)式および(3)式によって求めた血管の三次元座標から、(4)式の定数a、b、c、rを求めることにより、眼球を示す球の中心座標(a、b、c)を得ることができる。
【0028】
こうして眼球の中心を求めたら、黒目中心推定部24において、黒目の中心の三次元座標を求める(S5)。ここで、黒目輪郭は円形(またはだ円形)を形成しているので、その中心は、下記(5)式に示すように、黒目輪郭上の点として計算した2点間の最大の点となる組の中心として算出できる。
【0029】
【数4】
【0030】
こうして、黒目の中心を算出したら、視線方向の検出を行う(S6)。人の視線は、眼球の中心と黒目の中心を通る線に等しいと考えられる。このため、視線方向の検出は、下記(6)式によって行うことができる。
【0031】
視線方向=黒目中心座標−眼球中心座標 ・・・(6)
上記(6)式により、視線方向を検出することができる。このときの視線の始点は、眼球の中心となる。
【0032】
このように、本実施形態に係る視線検出方法では、眼球の中心位置と黒目の中心位置とを求め、両中心位置に基づいて視線方向を検出している。このため、視線方向を容易かつ正確に検出することができる。
【0033】
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態では、眼球の中心位置を求めるために、白目部分の特徴部分として血管を利用しているが、血管に代えて虹彩などを利用することができる。また、上記実施形態では、黒目の中心を求める際に、黒目輪郭上の点として計算した2点間の最大の点となる組の中心を黒目の中心としているが、たとえば黒目の形状をだ円に置き換えて、演算処理を施してだ円の中心を求めて、そのだ円の中心を黒目の中心とすることもできる。
【0034】
他方、上記実施形態では、視線検出装置を自動車に設ける例について説明したが、入力装置として使用することにより、パソコンや家電製品などをはじめあらゆる装置の指令デバイスとしても用いることができる。
【0035】
【発明の効果】
以上のとおり、本発明によれば、視線方向を容易かつ正確に検出することができる視線検出装置および視線検出方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る視線検出装置のブロック構成図である。
【図2】本実施形態に係る視線方向検出方法を示すフローチャートである。
【図3】(a)は撮像手段で撮像した目の模式図、(b)は(a)の画像を白色で二値化してエッジ処理した白色エッジ画像の模式図、(c)は(b)の白色部分を膨張させた膨張処理を施した白色膨張エッジ画像の模式図、(d)は(a)の画像を黒色で二値化してエッジ処理した黒色エッジ画像の模式図、(e)は(d)の白色部分を膨張させた膨張処理を施した黒色膨張エッジ画像の模式図、(f)は(c)の画像と(e)の画像をAND演算して得られたエッジ画像の模式図である。
【図4】(a)は第1撮像装置11で撮像した目およびその周辺の画像の模式図、(b)は第2撮像装置12で撮像した目およびその周辺の画像の模式図である。
【符号の説明】
1…ステレオカメラ、2…画像処理装置、11…第1撮像装置、12…第2撮像装置、13…同期装置、21…画像間対応点探索部、22…三次元座標算出部、23…眼球中心算出部、24…黒目中心推定部、25…視線方向計測部、B1〜B3…血管、D…視線検出装置、G,G1,G2…画像、WG…白色エッジ画像、WEG…白色膨張エッジ画像、BG…黒色エッジ画像、BEG…黒色膨張エッジ画像、E…目、EG…エッジ画像、R1,R2…矩形領域。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a gaze direction detection device and a gaze direction detection method for detecting a gaze direction of an eye to be detected.
[0002]
[Prior art]
2. Description of the Related Art As a technique for detecting the direction of a line of sight of a driver or the like of a car in a non-contact manner, there is a technique disclosed in, for example, Japanese Patent Application Laid-Open No. 7-167618. This technology measures the distance between an infrared camera and a driver, and photographs the driver's eyeball with a line-of-sight measurement camera whose distance relationship with the infrared camera is known. The gaze direction is calculated from the corneal reflection image of the eyeball photographed by the gaze measurement camera, the center of the pupil, and the like.
[0003]
[Patent Document 1]
JP-A-7-167618 (page 4, right column, FIG. 1)
[0004]
[Problems to be solved by the invention]
However, in the technique disclosed in
[0005]
Therefore, an object of the present invention is to provide a gaze direction detection device and a gaze direction detection method that can easily and accurately detect a gaze direction.
[0006]
[Means for Solving the Problems]
A gaze detection device according to the present invention that has solved the above-mentioned problems is a gaze direction detection device that detects a gaze direction of an eye to be detected, wherein the stereo camera includes a first imaging unit and a second imaging unit that respectively image the eyes. An eyeball center detecting means for detecting a characteristic portion of a white eye portion of an eye to obtain a center position of the eyeball from the first image and the second image picked up by the first image pickup means and the second image pickup means; A pupil center detecting unit that detects a center position of the iris part in the eye from the second image, a sight line direction detecting unit that determines a direction of the sight line of the eye based on the center position of the eyeball and the center position of the iris part, It has.
[0007]
Further, a gaze detection method according to the present invention that has solved the above-mentioned problem is a gaze direction detection method for detecting a gaze direction of an eye to be detected, wherein the first imaging unit and the second imaging unit respectively image the detection target. An image capturing step, and an eyeball center detecting step of detecting a characteristic portion of a white-eye portion of the eye to obtain a center position of the eyeball from the first image captured by the first image capturing unit and the second image captured by the second image capturing unit. And a pupil center detection step of detecting a pupil center position in the eye from the first image and the second image; and a direction of a line of sight of the eye based on the pupil center position and the pupil center position. A gaze direction detecting step.
[0008]
In the gaze direction detection device and the detection method according to the present invention, the center position of the eyeball and the center position of the iris are obtained, and the gaze direction is detected based on both center positions. The line of sight of a person is considered to pass through the center of the iris starting from the center of the eyeball. For this reason, the gaze direction can be accurately detected.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, the same reference numerals are given to portions having the same function, and overlapping description may be omitted.
[0010]
FIG. 1 is a block configuration diagram of a gaze detection device according to an embodiment of the present invention. As shown in FIG. 1, a line-of-sight detection device D according to the present embodiment is provided, for example, in a driver's seat of an automobile, and is used to detect the line of sight of a driver. This gaze detection device D has a
[0011]
Further, the
[0012]
The three-dimensional
[0013]
Further, the eyeball
[0014]
A gaze detection method according to the present embodiment having the above configuration will be described. FIG. 2 is a flowchart illustrating a procedure of the gaze detection method according to the present embodiment. As shown in FIG. 2, in the gaze direction detecting method according to the present embodiment, an image around the eye is acquired (S1). The peripheral image of the eye is calibrated in advance, and the
[0015]
The first image, which is an eye peripheral image captured by the
[0016]
Therefore, first, the image is binarized with white to perform edge processing so as to extract only a region of a color close to white in the image G shown in FIG. 3A, and as shown in FIG. A white edge image WG from which white eyes are extracted is generated. The white edge image WG is subjected to expansion processing for slightly expanding a white portion, and a white expanded edge image WEG shown in FIG. 3C is generated. While performing such binarization processing with white, as shown in FIG. 3D, the image is binarized with black so as to extract only a region of a color close to black, and edge processing is performed. As shown in FIG. 3D, a black edge image BG from which the iris is extracted is generated. The black edge image BG is subjected to expansion processing for expanding a white portion, and a black expanded edge image BEG shown in FIG. 3E is generated. Then, an AND operation is performed between pixels having the same coordinates between the white expanded edge image WEG and the black expanded edge image BEG obtained by performing the expansion processing. As a result, as shown in FIG. 3F, an edge image EG in which the significant pixel becomes the contour edge is generated.
[0017]
Next, the association of the white-eye portion will be described. On the white eyeball, there are many fine blood vessels which are characteristic portions of the white eye of the present invention, and since the arrangement of these blood vessels is random, blood vessels of the same pattern are hardly formed. From this, it is possible to obtain a corresponding point between the blood vessel patterns. How to obtain the corresponding points of the white eyeball will be described with reference to FIG.
[0018]
FIG. 4A is a schematic diagram of an eye and its surrounding image captured by the
[0019]
With respect to this reference pattern, in the image G2 captured by the
[0020]
(Equation 1)
[0021]
Then, according to the equation (1), it is possible to search the image G2 for a rectangular region R2 that matches or is most similar to the rectangular region R1 in the image G1.
[0022]
When the iris portion and the iris portion are associated with each other in this way, the three-dimensional coordinate
[0023]
(Equation 2)
[0024]
Using the above equations (2) and (3), the three-dimensional coordinates of the contour edge in the iris part and the three-dimensional coordinates of any four points not on one plane on the blood vessel in the white part are calculated.
[0025]
After obtaining these three-dimensional coordinates, the center of the eyeball is subsequently calculated by the eyeball center calculation unit 23 (S4). The center of the eyeball is obtained from the three-dimensional coordinates of any four points not on one plane on the blood vessel obtained by the above equations (2) and (3). Generally, the equation of a sphere is given by the following equation (4).
[0026]
[Equation 3]
[0027]
Now, assuming that the eyeball is a sphere, the blood vessels on the eyeball exist on the surface of the sphere. In addition, in order to specify the equation of the sphere, it is only necessary to give four points that are not on one plane. Therefore, the center coordinates (a, b) of the sphere indicating the eyeball are obtained by obtaining the constants a, b, c, and r of the equation (4) from the three-dimensional coordinates of the blood vessel obtained by the equations (2) and (3). , C) can be obtained.
[0028]
After the center of the eyeball is obtained in this way, the iris
[0029]
(Equation 4)
[0030]
When the center of the iris is calculated in this way, the gaze direction is detected (S6). The line of sight of a person is considered to be equal to the line passing through the center of the eyeball and the center of the iris. For this reason, the gaze direction can be detected by the following equation (6).
[0031]
Line-of-sight direction = iris center coordinates-eyeball center coordinates (6)
The line of sight direction can be detected by the above equation (6). The starting point of the line of sight at this time is the center of the eyeball.
[0032]
As described above, in the gaze detection method according to the present embodiment, the center position of the eyeball and the center position of the iris are obtained, and the gaze direction is detected based on both center positions. For this reason, the line of sight direction can be easily and accurately detected.
[0033]
As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to the above embodiments. For example, in the above-described embodiment, a blood vessel is used as a characteristic portion of the white-eye part in order to obtain the center position of the eyeball, but an iris or the like can be used instead of the blood vessel. In the above-described embodiment, when the center of the iris is determined, the center of the set that is the largest point between the two points calculated as the points on the iris contour is set as the center of the iris. And the center of the ellipse can be determined as the center of the iris by calculating the center of the ellipse.
[0034]
On the other hand, in the above-described embodiment, the example in which the line-of-sight detection device is provided in an automobile has been described.
[0035]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a gaze detection device and a gaze detection method capable of easily and accurately detecting a gaze direction.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of a gaze detection device according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a gaze direction detecting method according to the embodiment.
3A is a schematic diagram of an eye imaged by an imaging unit, FIG. 3B is a schematic diagram of a white edge image obtained by binarizing the image of FIG. (D) is a schematic diagram of a white expanded edge image subjected to an expansion process in which a white portion is expanded, (d) is a schematic diagram of a black edge image obtained by binarizing the image of (a) with black and performing edge processing, and (e). (D) is a schematic view of a black expanded edge image subjected to expansion processing in which a white portion is expanded, and (f) is an edge image obtained by performing an AND operation on the image of (c) and the image of (e). It is a schematic diagram.
4A is a schematic diagram of an eye and its surrounding image captured by a
[Explanation of symbols]
DESCRIPTION OF
Claims (2)
前記目をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、
前記第1撮像手段および前記第2撮像手段で撮像された第1画像および第2画像から、前記目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出手段と、
前記第1画像および前記第2画像から、前記目における黒目部分の中心位置を検出する黒目中心検出手段と、
前記眼球の中心位置と、前記黒目部分の中心位置とに基づいて、前記目の視線の方向を求める視線方向検出手段と、
を有することを特徴とする視線方向検出装置。In a gaze direction detection device that detects a gaze direction of an eye to be detected,
A stereo camera including a first imaging unit and a second imaging unit that respectively image the eyes;
An eyeball center detecting means for detecting a characteristic portion of a white eye portion in the eye from the first image and the second image picked up by the first image pickup means and the second image pickup means to obtain a center position of the eyeball;
An iris center detecting unit that detects a center position of an iris portion in the eye from the first image and the second image;
A line-of-sight direction detection unit that determines the direction of the line of sight of the eye based on the center position of the eyeball and the center position of the iris portion;
A gaze direction detecting device comprising:
第1撮像手段および第2撮像手段によって、それぞれ前記検出対象を撮像する撮像工程と、
前記第1撮像手段で撮像された第1画像と前記第2撮像手段で撮像された第2画像から、前記目における白目部分の特徴部分を検出して眼球の中心位置を求める眼球中心検出工程と、
前記第1画像および前記第2画像から、前記目における黒目部分の中心位置を検出する黒目中心検出工程と、
前記眼球の中心位置と、前記黒目部分の中心位置とに基づいて、前記目の視線の方向を求める視線方向検出工程と、
を備えることを特徴とする視線方向検出方法。In a gaze direction detection method for detecting a gaze direction of an eye to be detected,
An imaging step of imaging the detection target by a first imaging unit and a second imaging unit, respectively;
An eyeball center detecting step of detecting a characteristic portion of a white eye portion of the eye to obtain a center position of the eyeball from a first image picked up by the first image pickup unit and a second image picked up by the second image pickup unit; ,
An iris center detecting step of detecting a center position of an iris portion in the eye from the first image and the second image;
A gaze direction detecting step of determining a gaze direction of the eye based on the center position of the eyeball and the center position of the iris portion;
A gaze direction detecting method, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003049919A JP4032994B2 (en) | 2003-02-26 | 2003-02-26 | Gaze direction detection device and gaze direction detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003049919A JP4032994B2 (en) | 2003-02-26 | 2003-02-26 | Gaze direction detection device and gaze direction detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004254960A true JP2004254960A (en) | 2004-09-16 |
JP4032994B2 JP4032994B2 (en) | 2008-01-16 |
Family
ID=33115500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003049919A Expired - Fee Related JP4032994B2 (en) | 2003-02-26 | 2003-02-26 | Gaze direction detection device and gaze direction detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4032994B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513168A (en) * | 2004-09-22 | 2008-05-01 | エルディート ゲゼルシャフト ミット ベシュレンクテル ハフツング | Apparatus and method for specifying a gaze direction without contact |
DE102009010614A1 (en) | 2008-03-12 | 2009-10-08 | Yazaki Corporation | Vehicular display apparatus |
DE102009024192A1 (en) | 2008-06-09 | 2009-12-10 | Yazaki Corp. | System for an eye-level projected display |
KR101020893B1 (en) | 2009-06-16 | 2011-03-09 | 서울대학교산학협력단 | Method of Measuring Displacement of Eyeball, Recording Media of the same and Apparatus of the same |
JP2012029940A (en) * | 2010-07-30 | 2012-02-16 | Hiroshima City Univ | Method and apparatus for measuring visual axis |
KR101382772B1 (en) | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | Display system and method |
WO2015066475A1 (en) * | 2013-10-31 | 2015-05-07 | The University of North Carlina at Chapel Hill | Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems |
JP2019000136A (en) * | 2017-06-09 | 2019-01-10 | 株式会社豊田中央研究所 | Visual line measurement device and program |
-
2003
- 2003-02-26 JP JP2003049919A patent/JP4032994B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513168A (en) * | 2004-09-22 | 2008-05-01 | エルディート ゲゼルシャフト ミット ベシュレンクテル ハフツング | Apparatus and method for specifying a gaze direction without contact |
DE102009010614A1 (en) | 2008-03-12 | 2009-10-08 | Yazaki Corporation | Vehicular display apparatus |
DE102009024192A1 (en) | 2008-06-09 | 2009-12-10 | Yazaki Corp. | System for an eye-level projected display |
KR101020893B1 (en) | 2009-06-16 | 2011-03-09 | 서울대학교산학협력단 | Method of Measuring Displacement of Eyeball, Recording Media of the same and Apparatus of the same |
JP2012029940A (en) * | 2010-07-30 | 2012-02-16 | Hiroshima City Univ | Method and apparatus for measuring visual axis |
KR101382772B1 (en) | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | Display system and method |
US9160929B2 (en) | 2012-12-11 | 2015-10-13 | Hyundai Motor Company | Line-of-sight tracking system and method |
WO2015066475A1 (en) * | 2013-10-31 | 2015-05-07 | The University of North Carlina at Chapel Hill | Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems |
US10165176B2 (en) | 2013-10-31 | 2018-12-25 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems |
JP2019000136A (en) * | 2017-06-09 | 2019-01-10 | 株式会社豊田中央研究所 | Visual line measurement device and program |
Also Published As
Publication number | Publication date |
---|---|
JP4032994B2 (en) | 2008-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273846B (en) | Human body shape parameter determination method and device | |
JP5466610B2 (en) | Gaze estimation device | |
JP5791475B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JPWO2008007781A1 (en) | Gaze direction detection device and gaze direction detection method | |
JP2001101429A (en) | Method and device for observing face, and recording medium for face observing processing | |
JP2008140290A (en) | Head position/attitude detector | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
CN109308462B (en) | Finger vein and knuckle print region-of-interest positioning method | |
JP6942566B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP4032994B2 (en) | Gaze direction detection device and gaze direction detection method | |
JP2008026998A (en) | Obstacle location calculation system and method | |
JP2004030461A (en) | Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon | |
JP6042146B2 (en) | Object detection apparatus and object detection method | |
JP2006215743A (en) | Image processing apparatus and image processing method | |
WO2020026677A1 (en) | Detection device, processing device, detection method, and processing program | |
JP4140399B2 (en) | Gaze direction detection device and gaze direction detection method | |
JP2007226726A (en) | Thermal image processing apparatus | |
JP2005084012A (en) | Skin shape measuring method and skin shape measuring device | |
JP2011134119A (en) | Vehicle periphery monitoring device | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JPH0875454A (en) | Range finding device | |
JP2004259043A (en) | Direction detection device and direction detection method | |
JP2001116545A (en) | Distance image calculator | |
JP2008146132A (en) | Image detection device, program, and image detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071015 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4032994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |