JP2008246004A - Pupil detection method - Google Patents

Pupil detection method Download PDF

Info

Publication number
JP2008246004A
JP2008246004A JP2007092485A JP2007092485A JP2008246004A JP 2008246004 A JP2008246004 A JP 2008246004A JP 2007092485 A JP2007092485 A JP 2007092485A JP 2007092485 A JP2007092485 A JP 2007092485A JP 2008246004 A JP2008246004 A JP 2008246004A
Authority
JP
Japan
Prior art keywords
image
pupil
difference
dark
bright
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007092485A
Other languages
Japanese (ja)
Other versions
JP5145555B2 (en
Inventor
Yoshinobu Ebisawa
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2007092485A priority Critical patent/JP5145555B2/en
Publication of JP2008246004A publication Critical patent/JP2008246004A/en
Application granted granted Critical
Publication of JP5145555B2 publication Critical patent/JP5145555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect the corneal reflection and the image of a facial region without depending on the optical environment in the periphery, and to improve the accuracy in detection of a pupil by preventing the irregularlity of the level of brightness in other areas than the pupil region in a difference image. <P>SOLUTION: The pupil detection method comprises: a fist step of transmitting the charge from a photoelectric conversion element to a first charge transmission part of an image sensor after the image sensor is exposed to the light in a first period while a subject is irradiated with a light source 21 by using image sensors C1 and C2; a second step of transmitting the charge from the photoelectric conversion element to a second charge transmission part after the image sensor is exposed to light while the light source is turned off in a second period continued from the first period; a third step of outputting the charge transmitted to the first and second charge transmission parts by using a shift register; and a fourth step of detecting the pupil by executing an image differencing process after obtaining a bright pupil image, an unilluminated image and a dark pupil image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、瞳孔検出方法に関するものである。   The present invention relates to a pupil detection method.

瞳孔検出技術は、瞳孔マウス、視線検出、顔方向検出、眠気検出などに有用であり、これまでに様々な技術として提案されている。それらの応用において、瞳孔検出技術を用いる理由は、近赤外線を顔に工夫して照射することにより、瞳孔が高ロバストかつ高精度に検出できるからである。具体的には、明瞳孔画像を得る光源と暗瞳孔画像を得る光源をビデオフレームに同期させて交互に点灯させて、交互に得られる明瞳孔画像と暗瞳孔画像を差分することで、背景を消滅させて瞳孔のみを浮き彫りにし、瞳孔を容易に検出することができるからである。   The pupil detection technique is useful for pupil mouse, gaze detection, face direction detection, drowsiness detection, and the like, and has been proposed as various techniques so far. In those applications, the reason for using the pupil detection technique is that the pupil can be detected with high robustness and high accuracy by irradiating the face with near infrared rays. Specifically, the light source for obtaining the bright pupil image and the light source for obtaining the dark pupil image are alternately turned on in synchronization with the video frame, and the background is obtained by subtracting the light pupil image and the dark pupil image obtained alternately. This is because the pupil can be easily detected by extinction and only the pupil is highlighted.

瞳孔を検出する際に明瞳孔画像と暗瞳孔画像を交互に得て、それを画像差分し、瞳孔を浮き彫りにしてから瞳孔を検出する方法は、周囲の光環境が変化する中での瞳孔検出において、有効かつ有望である。光源の設定法としては、明瞳孔画像を得るためにカメラの開口部に近いところに光源を並べ、暗瞳孔画像を得るためにカメラの開口部から離れた位置にLEDを並べ、それらをビデオのフィールドに同期させて交互に点灯させる方法(下記特許文献1参照)と、網膜反射量の異なる2種類の光源を用意し、それらをビデオのフィールドに同期させて交互に点灯させて、画像差分を行い差分画像から瞳孔を検出する方法(下記非特許文献1参照)がある。   When the pupil is detected, the bright pupil image and the dark pupil image are obtained alternately, and the difference between the images is used to detect the pupil after highlighting the pupil. The pupil detection is performed while the surrounding light environment changes. Is effective and promising. To set the light source, arrange the light source close to the camera opening to obtain the bright pupil image, and arrange the LEDs at a position away from the camera opening to obtain the dark pupil image, Prepare a method of alternately lighting in synchronization with the field (see Patent Document 1 below) and two types of light sources with different amounts of retinal reflection, and lighting them alternately in synchronization with the video field. There is a method of detecting the pupil from the difference image (see Non-Patent Document 1 below).

これまでに、容易に実現できる方法として、発明者らは、NTSC方式などのインターレースカメラを利用して、その奇数フィールドと偶数フィールドに明瞳孔画像と暗瞳孔画像を得えて、パソコンにそれらの画像を取り込んでから、差分、瞳孔検出をしてきた。また、明瞳孔画像もしくは暗瞳孔画像から角膜反射を検出してきた。ここで、それらの取得時間に1/60秒間のずれがあるため、その間(フィールド間)に顔が移動し、瞳孔にずれを生じると画像差分の効果が薄れ瞳孔検出が困難になることを防止するため、画像処理によって、それを補う方法も提案している(非特許文献2及び非特許文献3)。
特開2005−182247号公報 中島 彩、海老澤嘉伸、塗壁悠治,“2波長光源による瞳孔検出”,映像情報メディア学会論文誌,Vol.60, No. 12, pp.130-136 遠西昭和,塗壁悠治,海老澤嘉伸,“角膜反射を利用した瞳孔位置検出の高精度化”,2006年映像情報メディア学会年次大会,20-3,2006.9.1 海老澤嘉伸,塗壁悠治,柴田真一,“瞳孔と鼻孔の検出に基づく顔方向検出装置”,第12回画像センシングシンポジウム予稿集,pp.358-363, 2006.6.9
As a method that can be easily realized so far, the inventors have obtained a bright pupil image and a dark pupil image in the odd field and the even field using an interlace camera such as the NTSC system, and those images are stored in a personal computer. Since taking in, difference and pupil detection have been carried out. Further, corneal reflection has been detected from a bright pupil image or a dark pupil image. Here, since there is a 1/60 second gap in the acquisition time, if the face moves during that time (between fields) and the pupil is displaced, the effect of the image difference is diminished and the detection of the pupil is difficult. Therefore, a method of compensating for this by image processing has also been proposed (Non-Patent Document 2 and Non-Patent Document 3).
JP 2005-182247 A Aya Nakajima, Yoshinobu Ebizawa, Junji Kombe, “Pupil detection with two-wavelength light source”, Transactions of the Institute of Image Information and Television Engineers, Vol.60, No. 12, pp.130-136 Showa Tonishi, Shinji Nakabe, Yoshinobu Ebizawa, “High-precision pupil position detection using corneal reflection”, 2006 Annual Conference of the Institute of Image Information and Television Engineers, 20-3, 2006.9.1 Yoshinobu Ebisawa, Shinji Nakabe, Shinichi Shibata, “Face Direction Detection Device Based on Pupil and Nostril Detection”, Proc. Of the 12th Image Sensing Symposium, pp.358-363, 2006.6.9

しかしながら、上述したような従来技術では以下のような不都合がある場合があった。すなわち、顔が動くと、背景部が完全に消滅しないため、瞳孔が検出しづらくなる。特に、周囲が明るいとき、瞳孔は小さくなるために瞳孔に入射する近赤外光量が減るため、また、画像が飽和しないためにAGC(Automatic Gain Control)等を使用するため、結果的に差分画像における瞳孔部のレベルが低くなるため瞳孔は検出しづらくなる。画像差分を補う方法でも、その効果が鼻孔や角膜反射の検出精度に強く依存し、根本的な解決にはなりにくい。   However, the conventional techniques as described above may have the following disadvantages. That is, when the face moves, the background portion does not disappear completely, and the pupil is difficult to detect. In particular, when the surroundings are bright, the pupil becomes smaller, so the amount of near-infrared light incident on the pupil is reduced, and since the image is not saturated, AGC (Automatic Gain Control) is used, resulting in a differential image. Since the level of the pupil part at becomes low, the pupil is difficult to detect. Even in the method of compensating for the image difference, the effect depends strongly on the detection accuracy of the nostril and corneal reflection, and it is difficult to achieve a fundamental solution.

また、明瞳孔と暗瞳孔を得るための光源は取り付け位置が異なるのが一般的なため、また、仮に同じだとしても、両光源による照射パワーは画像全体において同じにするのは困難である。つまり、その光源の位置の違いによって、画像内に明瞳孔画像と暗瞳孔画像の画像内に瞳孔部以外にもレベル差が現れるため、差分画像において瞳孔が暗いと、このレベル差によって瞳孔検出が難しくなる。また、光源の位置の違いは、眼鏡において位置のずれとして現れ、単に差分をするだけでは互いに相殺されず、眼鏡反射が瞳孔検出の誤検出の原因となりやすい。眼鏡反射は、眼光レンズの前面と後面を何重にも反射し、瞳孔とあまり輝度レベルが違わないスポットにもなりやすく、瞳孔と区別するのが難しい場合がある。また、メガネフレームやレンズのエッジの部分は鋭角な部分であるため、2光源の位置の違いによる影響が顕著に出やすく、差分をしても像が残りやすい。従って、頭部が動かなくても、背景部が残り、瞳孔部のレベルが低いときには、瞳孔検出が困難である。このようなことは、単に、両光源の照明強度のバランスが取れていないときに同様に生じる。   In addition, since the light sources for obtaining the bright pupil and the dark pupil are generally mounted at different positions, even if they are the same, it is difficult to make the irradiation powers of both light sources the same in the entire image. In other words, due to the difference in the position of the light source, a level difference appears in the image other than the pupil portion in the bright pupil image and the dark pupil image. Therefore, if the pupil is dark in the difference image, pupil detection is performed by this level difference. It becomes difficult. Also, the difference in the position of the light source appears as a positional shift in the glasses, and if the difference is simply made, it will not cancel each other, and the reflection of the glasses tends to cause erroneous detection of pupil detection. The spectacle reflection reflects the front and back surfaces of the ophthalmic lens several times, tends to be a spot whose luminance level is not so different from the pupil, and may be difficult to distinguish from the pupil. In addition, since the edge portion of the spectacle frame or the lens is an acute angle portion, the influence due to the difference in the position of the two light sources is likely to be noticeable, and an image is likely to remain even if the difference is made. Therefore, even if the head does not move, when the background remains and the pupil level is low, pupil detection is difficult. Such a situation occurs similarly when the illumination intensity of both light sources is not balanced.

また、目が閉じていて瞳孔が検出できない場合と、顔がカメラフレームから外れて瞳孔が検出できないかが区別しなければならない場合に、単に瞳孔を検出しているだけだと区別しにくい。したがって、顔のおよその位置を検出すべきであるが、瞳孔を検出するカメラは白黒カメラであるため、顔領域を検出するのは困難である。   In addition, when the eyes are closed and the pupil cannot be detected, and when it is necessary to distinguish whether the face is out of the camera frame and the pupil cannot be detected, it is difficult to distinguish simply by detecting the pupil. Accordingly, the approximate position of the face should be detected. However, since the camera that detects the pupil is a black and white camera, it is difficult to detect the face area.

さらに、光源が角膜で反射したときに生じる角膜反射像は、視線検出などで使用されるが、太陽など輝度の高い物体が、角膜に写ったり、眼鏡レンズに写ったりすると、それらの妨害により、角膜反射が検出しにくくなる。   Furthermore, the cornea reflection image that is generated when the light source is reflected by the cornea is used for line-of-sight detection, etc., but when a bright object such as the sun is reflected in the cornea or in the spectacle lens, Corneal reflection is difficult to detect.

また、2台のカメラを同期駆動し、2つの波長の光源を同時に点灯させ、ダイクロイックミラーを利用して波長分離して、各カメラで明瞳孔画像と暗瞳孔画像を得る方法も考えられ、この方法では、両画像が同時に取り込めるため、上述の画像間のずれの問題がない。眼鏡反射についても、2波長の光源の位置のずれが小さいためほとんど問題がない。その一方で、カメラのAGC機能を用いると、互いのカメラのゲインが勝手に変化するため、差分の効果がうまく出ないという問題がある。   In addition, it is conceivable that two cameras are driven synchronously, light sources of two wavelengths are turned on simultaneously, wavelength separation is performed using a dichroic mirror, and a bright pupil image and a dark pupil image are obtained with each camera. In the method, since both images can be captured at the same time, there is no problem of the shift between the images. There is almost no problem with spectacle reflection because the positional deviation of the light source of two wavelengths is small. On the other hand, when the AGC function of the camera is used, there is a problem in that the difference effect is not achieved well because the gain of each camera changes arbitrarily.

また、網膜反射量の異なる2つの波長を中心波長とするようなバンドパスフィルタをイメージセンサのラインごとに取り付け、2波長の光源を同時に点灯させ、同時性を保つ方法も考えられるが、この方法では、ラインの物理的なずれによって、明瞳孔画像と暗瞳孔画像がずれた位置を撮影することになり、差分画像に眼鏡フレーム反射などが残りやすく瞳孔検出を難しくする。   Further, a method of attaching a band pass filter having two wavelengths having different retinal reflection amounts as the center wavelength for each line of the image sensor and simultaneously turning on the light sources of two wavelengths to keep the simultaneity can be considered. In this case, a position where the bright pupil image and the dark pupil image are shifted due to a physical shift of the line is photographed, and eyeglass frame reflection or the like tends to remain in the difference image, which makes it difficult to detect the pupil.

そこで、本発明は、かかる課題に鑑みて為されたものであり、周囲の光環境によらず角膜反射や顔領域画像を正確に検出できるとともに、差分画像における瞳孔部以外の輝度レベルのムラを抑えることで瞳孔の検出の精度を高めることが可能な瞳孔検出方法を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and can accurately detect a corneal reflection and a face region image regardless of the surrounding light environment, and can also detect unevenness in luminance levels other than the pupil portion in the difference image. An object of the present invention is to provide a pupil detection method capable of increasing the accuracy of pupil detection by suppressing the pupil.

上記課題を解決するため、本発明の瞳孔検出方法は、対象者の瞳孔を検出する瞳孔検出方法であって、1個の画素に対応して1つの光電変換素子を有するイメージセンサを用いて、第1の期間に明瞳孔画像又は暗瞳孔画像を得るための光源を対象者に照射した状態で、第1の期間にイメージセンサに露光した後に、露光によって蓄えられた電荷を光電変換素子から該光電変換素子に対応するイメージセンサの第1の電荷転送部に転送する第1ステップと、第1の期間に連続する第2の期間に光源を消灯させた状態で、第2の期間にイメージセンサに露光した後に、露光によって蓄えられた電荷を光電変換素子から該光電変換素子に対応する第1の電荷転送部とは異なる第2の電荷転送部に転送する第2ステップと、第1及び第2の電荷転送部に転送された電荷を第1及び第2の電荷転送部に接続されたシフトレジスタを用いて出力する第3ステップと、シフトレジスタの出力に基づいて明瞳孔画像、無照明画像、及び暗瞳孔画像を得た後に、画像差分処理を行うことによって瞳孔を検出する第4ステップと、を備える。   In order to solve the above problems, the pupil detection method of the present invention is a pupil detection method for detecting the pupil of the subject, using an image sensor having one photoelectric conversion element corresponding to one pixel, In a state in which the subject is irradiated with a light source for obtaining a bright pupil image or a dark pupil image in the first period, after the image sensor is exposed in the first period, the charge accumulated by the exposure is transferred from the photoelectric conversion element to the photoelectric conversion element. The first step of transferring to the first charge transfer portion of the image sensor corresponding to the photoelectric conversion element, and the image sensor in the second period with the light source turned off in the second period continuous to the first period A second step of transferring the charge accumulated by the exposure from the photoelectric conversion element to a second charge transfer unit different from the first charge transfer unit corresponding to the photoelectric conversion element; 2 charge transfer part A third step of outputting the transmitted charge using a shift register connected to the first and second charge transfer units; and a bright pupil image, an unilluminated image, and a dark pupil image based on the output of the shift register And a fourth step of detecting the pupil by performing image difference processing after obtaining.

第1のステップでは、第1の期間が所定の周期で所定回数繰り返された複数の期間に細分化され、複数の期間毎に第1の電荷転送部に電荷を転送し、第2のステップでは、第2の周期が所定の周期で所定回数繰り返された複数の期間に細分化され、複数の期間毎に第2の電荷転送部に電荷を転送し、第3ステップでは、第1の期間及び第2の期間の所定回数の繰り返しが終了後に第1及び第2の電荷転送部に転送された電荷を出力することが好ましい。   In the first step, the first period is subdivided into a plurality of periods repeated a predetermined number of times in a predetermined cycle, and charges are transferred to the first charge transfer unit for each of the plurality of periods. In the second step, The second period is subdivided into a plurality of periods repeated a predetermined number of times in a predetermined period, and charges are transferred to the second charge transfer unit for each of the plurality of periods. In the third step, the first period and It is preferable to output the charges transferred to the first and second charge transfer units after the predetermined number of repetitions of the second period are completed.

また、第4のステップでは、明瞳孔画像から無照明画像を画像差分することよって得られる差分画像、もしくは、暗瞳孔画像から無照明画像を画像差分することによって得られる差分画像から角膜反射を検出することも好ましい。   In the fourth step, corneal reflection is detected from a difference image obtained by subtracting an unilluminated image from a bright pupil image or a difference image obtained by subtracting an unilluminated image from a dark pupil image. It is also preferable to do.

また、第4のステップでは、明瞳孔画像から無照明画像を画像差分することよって得られる差分画像と暗瞳孔画像から無照明画像を画像差分することによって得られる差分画像とを乗算した画像から角膜反射を検出することも好ましい。   In the fourth step, the cornea is obtained by multiplying the difference image obtained by image difference of the non-illuminated image from the bright pupil image and the difference image obtained by image difference of the non-illuminated image from the dark pupil image. It is also preferable to detect reflection.

また、第4のステップでは、明瞳孔画像から無照明画像を画像差分することよって得られる差分後明瞳孔画像と、暗瞳孔画像から無照明画像を画像差分することよって得られる差分後暗瞳孔画像とを画像差分した再差分画像から、瞳孔を検出することも好ましい。   Further, in the fourth step, a post-difference bright pupil image obtained by subtracting the non-illuminated image from the bright pupil image and a post-difference dark pupil image obtained by subtracting the non-illuminated image from the dark pupil image. It is also preferable to detect the pupil from a re-difference image obtained by subtracting the two images.

また、再差分画像は、画像中の一部の領域において、差分後明瞳孔画像と差分後暗瞳孔画像の輝度バランスを補正した後に差分後明瞳孔画像から差分後暗瞳孔画像を差分して得られる輝度バランス補正後差分画像であることも好ましい。   A re-difference image is obtained by correcting the luminance balance between the post-difference bright pupil image and the post-difference dark pupil image in a partial area of the image and then subtracting the post-difference dark pupil image from the post-difference bright pupil image. It is also preferable to be a difference image after luminance balance correction.

また、輝度バランス補正後差分画像は、眼鏡反射を考慮して、差分後明瞳孔画像から差分後暗瞳孔画像を差分して得られる眼鏡反射用輝度バランス補正後差分画像であることも好ましい。   The difference image after luminance balance correction is preferably a difference image after correction for luminance balance for spectacle reflection obtained by subtracting the dark pupil image after difference from the bright pupil image after difference in consideration of spectacle reflection.

また、第4のステップでは、眼鏡反射用輝度バランス補正後差分画像を得るために、差分後明瞳孔画像と差分後暗瞳孔画像において眼鏡反射領域を除いて、輝度バランスをとるための係数を求めることも好ましい。   Also, in the fourth step, in order to obtain a difference image after correcting the luminance balance for spectacle reflection, a coefficient for balancing the luminance is obtained by excluding the spectacle reflection region in the post-difference bright pupil image and the post-difference dark pupil image. It is also preferable.

また、差分後明瞳孔画像もしくは差分後暗瞳孔画像と、無照明画像の輝度レベルの比から、周辺光強度を推定し、光源の発光量をさらに調整することも好ましい。   It is also preferable to further adjust the light emission amount of the light source by estimating the ambient light intensity from the ratio of the luminance level of the post-difference bright pupil image or the post-difference dark pupil image and the non-illuminated image.

また、第4のステップでは、差分後明瞳孔画像と差分後暗瞳孔画像より、所定の対象者の部位を追跡特徴点としたテンプレートマッチング法、もしくはテンプレートマッチング法を基本にしたワイヤフレーム法によって対象者の特徴点を検出することも好ましい。   Further, in the fourth step, the object is detected by a template matching method using a predetermined target person's part as a tracking feature point or a wire frame method based on the template matching method from the post-difference bright pupil image and the post-difference dark pupil image. It is also preferable to detect a person's feature point.

また、テンプレートマッチング法、もしくはテンプレートマッチング法を基本にしたワイヤフレーム法によって対象者の目の位置を特定して、再差分画像から瞳孔を検出することも好ましい。   It is also preferable to detect the pupil from the re-difference image by specifying the position of the eye of the subject by the template matching method or the wire frame method based on the template matching method.

本発明の瞳孔検出方法によれば、周囲の光環境によらず角膜反射や顔領域画像を正確に検出できるとともに、差分画像における瞳孔部以外の輝度レベルのムラを抑えることで瞳孔の検出の精度を高めることができる。   According to the pupil detection method of the present invention, it is possible to accurately detect a corneal reflection and a face area image regardless of the surrounding light environment, and to suppress unevenness in luminance levels other than the pupil portion in the difference image, thereby improving the accuracy of pupil detection. Can be increased.

以下、図面を参照しつつ本発明に係る瞳孔検出方法及び瞳孔検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of a pupil detection method and a pupil detection device according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.

(第1実施形態)
本実施形態は、ビデオカメラで瞳孔、角膜反射、目頭、目じりなどの顔の特徴点を高ロバストに検出するための方法と装置に関するものであり、特に周囲が明るく、瞳孔が小さい場合にでも瞳孔を検出できるようにする技術に関するものである。図1は、本発明の第1実施形態である瞳孔検出装置の配置例を示す光路図である。対物レンズ19、レンズ18、ミラーM1は光路形成手段を形成する。第1のカメラは、短波長(850nm)付近に中心波長を有するバンドパスフィルタF1、レンズ13、及びイメージセンサC1により構成され、第2のカメラは、長波長(950nm)付近に中心波長を有するバンドパスフィルタF2、レンズ14、及びイメージセンサC2により構成される。ミラーM1は、ハーフミラー又はダイクロイックミラーであり、2つのカメラの光軸上に配置されることにより、外見上2つのカメラの光軸がほぼ一致することを可能にするものである。レンズ19の前面には、2つのカメラの共通の開口部が形成され、開口部付近には開口部を囲むようにリング状の光源21が取り付けられている。
(First embodiment)
The present embodiment relates to a method and apparatus for highly robustly detecting facial feature points such as pupils, corneal reflections, eyes and eyes, and the like with a video camera, and particularly when the surroundings are bright and the pupils are small. It is related with the technique which enables it to detect. FIG. 1 is an optical path diagram showing an arrangement example of the pupil detection device according to the first embodiment of the present invention. The objective lens 19, the lens 18, and the mirror M1 form an optical path forming unit. The first camera includes a bandpass filter F1 having a center wavelength near the short wavelength (850 nm), the lens 13, and the image sensor C1, and the second camera has a center wavelength near the long wavelength (950 nm). The bandpass filter F2, the lens 14, and the image sensor C2 are included. The mirror M1 is a half mirror or a dichroic mirror, and is arranged on the optical axes of the two cameras, thereby allowing the optical axes of the two cameras to substantially coincide with each other. An opening common to the two cameras is formed on the front surface of the lens 19, and a ring-shaped light source 21 is attached in the vicinity of the opening so as to surround the opening.

図2には、図1の光源21を外側から見た平面図を示している。光源21は、対象者の顔に向けて照明光を照射するためのものであり、リング状の台座部22に2種類の発光
素子23a,23bが複数埋め込まれた構造を有している。光源21の台座部22は、開口部24の縁部に沿って開口部24の外側に位置するように取り付けられている。発光素子23aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、台座部22上において開口部24の縁に沿って等間隔でリング状に配設されている。また、発光素子23bは、出力光の中心波長が950nmの半導体発光素子であり、台座部22上において発光素子23aの外側に隣接して等間隔に2重リング状に配設され、発光素子23aの個数以上で設けられている。このとき、発光素子23a,23bの個数及び供給電流は、撮影対象である対象者の顔面での照度が同一になるように適切な個数及び値に設定されている。さらに、発光素子23a,23bは、図示しないカメラ用の制御装置からの制御信号により、それぞれ独立に発光タイミングを制御可能にされる。
FIG. 2 shows a plan view of the light source 21 of FIG. 1 viewed from the outside. The light source 21 is for irradiating illumination light toward the subject's face, and has a structure in which a plurality of two types of light emitting elements 23 a and 23 b are embedded in a ring-shaped pedestal portion 22. The pedestal 22 of the light source 21 is attached so as to be positioned outside the opening 24 along the edge of the opening 24. The light emitting element 23 a is a semiconductor light emitting element (LED) having a center wavelength of output light of 850 nm, and is arranged in a ring shape at equal intervals along the edge of the opening 24 on the pedestal portion 22. The light emitting element 23b is a semiconductor light emitting element having a center wavelength of output light of 950 nm, and is arranged in a double ring shape at equal intervals on the pedestal portion 22 adjacent to the outside of the light emitting element 23a. It is provided with more than the number. At this time, the number of light emitting elements 23a and 23b and the supply current are set to appropriate numbers and values so that the illuminance on the face of the subject who is the subject of photographing is the same. Further, the light emitting elements 23a and 23b can be independently controlled in light emission timing by a control signal from a camera control device (not shown).

光源21からの2種類の波長成分の光が、カメラの開口部内で共通の光軸をカメラの光軸にほぼ一致するように保った状態で、被験者の顔に向けて反射される。すなわち、顔の方から見ると光源21からの光は、カメラの共通光軸を含む開口部内から照射されることになる。これらの照明による明瞳孔像を含む顔の像と、暗瞳孔像を含む顔の像は、レンズ19、及びレンズ18を透過した後にミラーM1により分離される。そして、短波長成分を含む光は、バンドパスフィルタF1を透過して、レンズ13により短波長用イメージセンサC1上に結像される。一方、ミラーM1により反射分離された長波長成分を含む光は、
バンドパスフィルタF2を透過して、レンズ14により長波長用イメージセンサC2上に
結像される。
Light of two types of wavelength components from the light source 21 is reflected toward the subject's face in a state in which the common optical axis is kept substantially coincident with the optical axis of the camera in the opening of the camera. That is, when viewed from the face, the light from the light source 21 is irradiated from within the opening including the common optical axis of the camera. The face image including the bright pupil image and the face image including the dark pupil image by the illumination are separated by the mirror M 1 after passing through the lens 19 and the lens 18. Then, the light including the short wavelength component passes through the band pass filter F1 and is imaged on the short wavelength image sensor C1 by the lens 13. On the other hand, the light including the long wavelength component reflected and separated by the mirror M1 is
The light passes through the bandpass filter F2 and is imaged on the long wavelength image sensor C2 by the lens 14.

ここで、イメージセンサC1,C2の構成及び機能について以下に説明する。図3は、カメラのシャッタ、電荷転送、及び輝度レベル出力のタイミングを示すタイミングチャート図、図4〜7は、イメージセンサの概略構成を示す図である。   Here, the configuration and function of the image sensors C1 and C2 will be described below. FIG. 3 is a timing chart showing the timing of camera shutter, charge transfer, and luminance level output, and FIGS. 4 to 7 are diagrams showing a schematic configuration of the image sensor.

イメージセンサC1,C2は、図4に示すように光電変換素子とCCD(charge coupled device)ユニット(電荷転送部)とが2次元的に配列され、CCDユニットの最下行に1列のシフトレジスタが接続されて構成されている。詳細には、2次元的に配列されて画素ごとの電荷を蓄積する光電変換素子と、その光電変換素子の各ラインに対応してライン状に複数個配列されたCCDユニットとを備え、CCDユニットの各ラインの奇数番目のユニットには、対応する画素の光電変換素子が接続されている。また、各ラインの偶数番目のCCDユニットは、前段のCCDユニットと同じ光電変換素子に対応して設けられ、その光電変換素子に対応した電荷が前段のユニットから転送される。さらに、各ラインの最終行のCCDユニットには、それぞれ、1つのシフトレジスタが接続されている。そして、このイメージセンサC1,C2は以下のように制御されるように構成されている。すなわち、イメージセンサC1,C2では、シャッタオープンの期間を短くして(例えば、100μ秒)、連続して2フレーム画像を撮る(図3)。最初のシャッタが開いている期間(a)に、光源21を点灯させ、光電変換素子からの電荷を対応するCCDユニットに転送する(図4)。次のシャッタの開いている期間(b)は光源を点灯せず、同じ光電変換素子から電荷を同一のCCDユニットに転送する。これら2回の露光と電荷転送の間に、CCD列の1ユニット分だけ下に電荷を転送する。その後は、同CCD列を、下の方向に1ユニット分転送するたびに、最後(一番下)のシフトレジスタ列で右方向に転送、1ライン分の画像情報が出力される。結果的に、(a)の期間で得た画像と(b)の期間で得た同一ライン上の画像が交互に出力される。このように、2ライン分の画像情報でも、同一のライン上の画像情報を得ることができるため、NTSCのようにラインのずれにより、瞳孔を検出しにくくなることがない。これらの出力の直後に画像差分を行ってもよい。これにより、周囲の光による輝度レベル成分が除去され、光源の光による輝度成分だけを抽出できる。なお、この本実施形態では、1個の光電変換素子から1個のCCDユニットに転送したが(図5)、上下に並んでいる別々のCCDユニットのそれぞれに(a)の期間で得た電荷と(b)の期間で得た電荷とを転送してもよい(図6)。   In the image sensors C1 and C2, as shown in FIG. 4, photoelectric conversion elements and CCD (charge coupled device) units (charge transfer units) are two-dimensionally arranged, and a shift register of one column is arranged at the bottom row of the CCD units. Connected and configured. Specifically, the CCD unit includes a photoelectric conversion element that is two-dimensionally arranged and accumulates charges for each pixel, and a plurality of CCD units that are arranged in a line corresponding to each line of the photoelectric conversion element. The photoelectric conversion elements of the corresponding pixels are connected to the odd-numbered units in each line. The even-numbered CCD units in each line are provided corresponding to the same photoelectric conversion elements as the preceding CCD unit, and charges corresponding to the photoelectric conversion elements are transferred from the preceding unit. Further, one shift register is connected to each CCD unit in the last row of each line. The image sensors C1 and C2 are configured to be controlled as follows. That is, in the image sensors C1 and C2, the shutter open period is shortened (for example, 100 μsec), and two frame images are taken continuously (FIG. 3). During the period (a) when the first shutter is open, the light source 21 is turned on and the charge from the photoelectric conversion element is transferred to the corresponding CCD unit (FIG. 4). During the next shutter opening period (b), the light source is not turned on, and charges are transferred from the same photoelectric conversion element to the same CCD unit. Between these two exposures and charge transfer, charge is transferred down by one unit in the CCD row. Thereafter, each time the same CCD row is transferred in one unit in the lower direction, the last (bottom) shift register row is transferred in the right direction, and one line of image information is output. As a result, the image obtained in the period (a) and the image on the same line obtained in the period (b) are output alternately. Thus, since image information on the same line can be obtained even with image information for two lines, it is not difficult to detect a pupil due to a line shift unlike NTSC. Image difference may be performed immediately after these outputs. Thereby, the luminance level component due to the ambient light is removed, and only the luminance component due to the light of the light source can be extracted. In this embodiment, the charge is transferred from one photoelectric conversion element to one CCD unit (FIG. 5), but the charge obtained in the period (a) in each of the separate CCD units arranged vertically. And the charge obtained during the period (b) may be transferred (FIG. 6).

このようなイメージセンサを持つカメラC1,C2を2セット用意しこれらと光源21とを同期させて起動させることによって、各カメラで、各波長の光源を上記のように点灯させることで、各波長の光源のみによる光源の画像が得られる。もし、ここで、波長分離が完全にできない場合は、両方のカメラの同期を露光時間が重ならないようにずらせば良い。特に、片方のカメラでは、(a)のタイミングでは光源21を点灯させず、(b)のタイミングで光源21を点灯させるようにすれば、同期を遅らせる量は、この例で約100μ秒だけですむ。   By preparing two sets of cameras C1 and C2 having such an image sensor and activating them in synchronization with the light source 21, the light sources of the respective wavelengths are turned on as described above in each camera. An image of the light source using only the light source is obtained. If wavelength separation is not possible here, the synchronization of both cameras may be shifted so that the exposure times do not overlap. In particular, with one camera, if the light source 21 is not turned on at the timing (a) but the light source 21 is turned on at the timing (b), the amount of delay in synchronization is only about 100 μsec in this example. Mu

先述したように、従来の2つのカメラを使用する装置では、ある周囲の明るさで2つの光源の光量のバランスをとったとしても、周囲の明るさが変化すると、AGCの作用で、カメラごとに別々のゲインになる。そのために、各光源による輝度レベルも違ってきて、各波長の光源のみによる輝度レベル成分同士を差分しても、背景部を零にすることができない。仮にAGCを使用しなくとも、周囲光に含まれる波長成分が変化すれば(電球と蛍光灯でも大きく異なる)、同様のことが生じる。   As described above, in the conventional device using two cameras, even if the light intensity of the two light sources is balanced at a certain ambient brightness, if the ambient brightness changes, the AGC action Will have different gains. For this reason, the luminance level of each light source is also different, and the background portion cannot be made zero even if the luminance level components of only the light sources of the respective wavelengths are differentiated. Even if AGC is not used, the same thing occurs if the wavelength component contained in the ambient light changes (which differs greatly between a light bulb and a fluorescent lamp).

これを解決するために、明瞳孔画像を生じさせるカメラのほうの光源が点灯するときに得られる画像をIb(x,y)とし、光源が消灯しているときに得られる画像をI01(x,y)とする。また、暗瞳孔画像を生じさせるカメラのほうの光源が点灯するときに得られる画像をId(x,y)とし、光源が消灯しているときに得られる画像をI02(x,y)とする。すると、各カメラで光源の光のみによって生じる画像の輝度レベルの分布I1(x,y)、I2(x,y)は、下記式(1)及び(2);
I1(x,y)=Ib(x,y)-I01(x,y) …(1)
I2(x,y)=Id(x,y)-I02(x,y) …(2)
で算出できる。先述のように、I1(x,y)とI2(x,y)のバランスは一般に一致しないので以下のように輝度バランスが補正される。しかし、これらは類似した輝度分布を持つ画像であるため、輝度レベルヒストグラムの平均と標準偏差がほぼ同じになるように、変換すればよい。このヒストグラム均一化処理を両方に対して施してから、その後の処理を続ければよい。簡単には、I1(x,y)の平均値<I1>と、I2(x,y)の平均値<I2>を予め算出し、下記式(3);
<I1>=k・<I2> …(3)
となる値kを求める。その後、最終的な差分画像Is(x,y)を下記式(4)で求め、差分画像に適当な閾値を設けて2値化をすれば瞳孔が抽出できる。
Is(x, y)=I1(x, y)-k・I2(x, y) …(4)
To solve this, the image obtained when the light source of the camera that produces the bright pupil image is turned on is Ib (x, y), and the image obtained when the light source is turned off is I01 (x , y). Also, the image obtained when the light source of the camera that produces the dark pupil image is turned on is Id (x, y), and the image obtained when the light source is turned off is I02 (x, y) . Then, distributions I1 (x, y) and I2 (x, y) of image luminance levels generated only by light from the light source in each camera are represented by the following equations (1) and (2):
I1 (x, y) = Ib (x, y) -I01 (x, y)… (1)
I2 (x, y) = Id (x, y) -I02 (x, y)… (2)
It can be calculated by As described above, since the balance of I1 (x, y) and I2 (x, y) generally does not match, the luminance balance is corrected as follows. However, since these are images having a similar luminance distribution, they may be converted so that the average and standard deviation of the luminance level histogram are substantially the same. After this histogram equalization processing is performed on both, the subsequent processing may be continued. Briefly, an average value <I1> of I1 (x, y) and an average value <I2> of I2 (x, y) are calculated in advance, and the following formula (3);
<I1> = k ・ <I2>… (3)
A value k is obtained. Thereafter, the final difference image Is (x, y) is obtained by the following equation (4), and the pupil can be extracted by binarizing the difference image by providing an appropriate threshold value.
Is (x, y) = I1 (x, y) -k ・ I2 (x, y)… (4)

又は、除算画像Idiv(x,y)を下記式(5);
Idiv(x,y)= I1(x,y)/(k・I2(x,y)) …(5)
で画像の輝度レベル同士を除算することもできる。このとき、顔領域以外の背景画像は顔よりも遠くにあるため、I1(x,y),I2(x,y)ともに輝度レベルが低い。そのため、(5)式の割り算をすると背景画像は強いごま塩雑音が乗り、顔領域はほとんど零で満たされたなか瞳孔部だけが浮き上がる。背景部にごま塩雑音があるため、この画像から瞳孔のみを検出するには画像処理コストがかかる。
Or, the divided image Idiv (x, y) is expressed by the following equation (5);
Idiv (x, y) = I1 (x, y) / (k · I2 (x, y))… (5)
It is also possible to divide the luminance levels of the images. At this time, since the background image other than the face region is farther than the face, the luminance level is low for both I1 (x, y) and I2 (x, y). For this reason, when dividing (5), the background image is subjected to strong sesame salt noise, and only the pupil portion is lifted while the face area is almost filled with zero. Since there is sesame salt noise in the background, it takes image processing costs to detect only the pupil from this image.

そこで、次の方法で顔領域を求める。先述のように、背景部は遠くにあるために暗い。それを強調するように、I1(x,y)とI2(x,y)を乗算した画像Im(x,y)を下記式(6)により求める。
Im(x,y)=I1(x,y)・I2(x,y) …(6)
この画像の一次微分ヒストグラムなどを求めると、2つの山ができる。山の谷間を閾値とすると、顔領域が浮きぼりになる。この顔領域2値化画像と(5) 式で求めた画像の論理積演算をすると容易に背景部がほぼ完全に消える。さらに、得られた画像のヒストグラムを求め、輝度0から高いほうへ順に調べていき、度数がはじめて0となるときの輝度レベルを求めて、それを閾値として2値化すれば、瞳孔像が抽出できる。
Therefore, the face area is obtained by the following method. As mentioned above, the background is dark because it is far away. In order to emphasize this, an image Im (x, y) obtained by multiplying I1 (x, y) and I2 (x, y) is obtained by the following equation (6).
Im (x, y) = I1 (x, y) ・ I2 (x, y) (6)
If you find the first derivative histogram of this image, you will get two peaks. If the valley is a threshold, the face area will be highlighted. When the logical product operation of this face region binarized image and the image obtained by the equation (5) is performed, the background portion disappears almost completely. Further, a histogram of the obtained image is obtained, and the luminance is examined in order from 0 to 0. The luminance level when the frequency becomes 0 for the first time is obtained, and binarization is performed using this as a threshold value, thereby extracting a pupil image. it can.

図8は、輝度レベル0〜255、画像サイズ320×240の画像フレームを出力するNTSCのカメラに図2のタイプの2波長光源を取り付けて、闇黒下で奇数フィールドと偶数フィールドに各光源を点灯させたときのシミュレーション画像である。シャッタと光源の点灯時間は100μ秒であった。ここで、(a):I1(x,y),(b):I2(x,y)を擬似的に表現しており、(e)はIm(x,y)、(f)はIdiv(x,y)をあらわしており、論理積演算後の画像及び最終的に得られた瞳孔像が、それぞれ(h)、(i)である。また、(j)及び(k)のグラフはそれぞれ、画像(e)の一次微分ヒストグラム、画像(h)のヒストグラムである。また、図中右上の式は、(6)式に対応する具体的な計算式(画像(e)を生成する式)は、(e)={(c)×(d)}×0.001であり、は、(5)式に対応する具体的な計算式(画像(f)を生成する式)は、(f)={(c)×255÷(d)}−255である。   Figure 8 shows the NTSC camera that outputs an image frame with a brightness level of 0 to 255 and an image size of 320 x 240. A two-wavelength light source of the type shown in Fig. 2 is attached to each light source in the odd and even fields under darkness. It is a simulation image when it makes it light. The lighting time of the shutter and the light source was 100 μsec. Here, (a): I1 (x, y), (b): I2 (x, y) are expressed in a pseudo manner, (e) is Im (x, y), and (f) is Idiv ( x, y) are represented, and the image after the AND operation and the finally obtained pupil image are (h) and (i), respectively. Also, the graphs (j) and (k) are the first derivative histogram and the histogram of the image (h), respectively. In the upper right of the figure, the specific calculation formula corresponding to the formula (6) (the formula for generating the image (e)) is (e) = {(c) × (d)} × 0.001. The specific calculation formula (formula for generating the image (f)) corresponding to the formula (5) is (f) = {(c) × 255 ÷ (d)} − 255.

ここで、(g)の顔画像領域を現す画像の面積および重心、範囲などを求めることで、顔がカメラフレームに入っているどうかがわかる。顔がフレームに入っているどうかわかることは、2つの点で重要である。(1)車載用眠気検知装置などで、目の開閉を調べることは重要であり、瞳孔検出が利用できる。諸問題で瞳孔ができないときに、瞬きによるものか、顔がカメラフレームから出ているのかを判断し、ドライバーへの警告の有無に対応させる必要がある。(2)瞳孔や角膜反射は、顔領域内存在するため、顔領域内のそれらの誤検出を大幅に低減できる。
また、(6)式で求めた乗算画像では、I1(x,y)とI2(x,y)の両方で明るいところが強調されるため、この画像から角膜反射を検出できる。ただし、顔が光ったりするときもあり、単に最大値としては正しく求まらないことがあるため、先に検出できた瞳孔に近傍から明るい点として検出する。図9は、画像全体から2個の角膜反射像が検出できることを示している。(a)は図8の(e)、(b)は(a)の平滑化後(5x5画素)の画像、(c)は、((a)-10-(b))×10の演算によった。
Here, it is possible to determine whether or not the face is in the camera frame by obtaining the area, the center of gravity, and the range of the image showing the face image area of (g). Knowing whether a face is in a frame is important in two ways. (1) It is important to check the opening and closing of eyes with an in-vehicle drowsiness detection device or the like, and pupil detection can be used. When the pupil cannot be formed due to various problems, it is necessary to determine whether it is caused by blinking or whether the face is out of the camera frame, and to deal with whether or not there is a warning to the driver. (2) Since pupils and corneal reflection are present in the face area, their false detection in the face area can be greatly reduced.
In addition, in the multiplication image obtained by the equation (6), bright portions are emphasized by both I1 (x, y) and I2 (x, y), and therefore, corneal reflection can be detected from this image. However, since the face sometimes shines, the maximum value may not be obtained correctly. Therefore, it is detected as a bright spot from the vicinity of the previously detected pupil. FIG. 9 shows that two corneal reflection images can be detected from the entire image. (A) is an image of (e) and (b) of FIG. 8, and (a) is an image after smoothing (5 × 5 pixels). (C) is an operation of ((a) −10− (b)) × 10. I did.

なお、この方法は、暗闇で明瞳孔が非常に明るくなったときに、図8の(a)や(c)の明瞳孔画像では極端には瞳孔部が飽和状態になり、瞳孔部の内部に角膜反射が存在する場合には、消えてしまう。しかし、図8の(b)もしくは(d)の暗瞳孔画像では角膜反射は残るため、図8の(e)の積算画像から角膜反射を検出するのは有効である。   In this method, when the bright pupil becomes very bright in the dark, the pupil portion is extremely saturated in the bright pupil image shown in FIGS. If corneal reflection is present, it disappears. However, since the corneal reflection remains in the dark pupil image of FIG. 8B or 8D, it is effective to detect the corneal reflection from the integrated image of FIG.

本実施形態では、シャッタを100μ秒にしたため、光源が点灯しているときの画像と点灯していないときの画像には取得時間差が100μ秒となる。もし、カメラの感度が足りなければ、シャッタの時間を長くする必要があるが、これは短いほどよく、これが長いと、取得時間差も長くなるために、明瞳孔画像と暗瞳孔画像間で顔画像が移動したとき、瞳孔が移動するだけでなく顔の輪郭など輝度レベル変化の激しいところでは、差分画像においてエッジとして現れるため瞳孔が検出しにくくなる。そこで、図3において、一回だけ100μ秒だけ点灯させて、次の100μ秒だけ消灯させて、画像を取るのではなく、例えば、所定の期間が10μ秒ごとに必要回数だけ交互に光源の点滅を繰り返す複数の期間に細分化され、その交互に点滅する期間に合わせてシャッタを開くことを繰り返すこともできる。このとき、それに対応して光源が点灯しているときと消灯しているときとのそれぞれの細分化された10μ秒の期間で別々のCCDユニットに電荷転送するようにすればよい。最終的には、必要回数の点滅の期間が終了したときにCCDユニットからシフトレジスタを経由して電荷を輝度レベル信号として出力する。ただし、この場合は、イメージセンサにおける光電変換素子とCCDとの接続構成を図6にように、交互に繰り返されるタイミングで光電変換素子から2つのCCDに並列に電荷を転送できるようにする必要がある。   In this embodiment, since the shutter is set to 100 μsec, the difference in acquisition time between the image when the light source is lit and the image when the light source is not lit is 100 μsec. If the sensitivity of the camera is not sufficient, it is necessary to lengthen the shutter time, but it is better that the shutter time is short, and if this is long, the difference in acquisition time also becomes long, so the face image between the bright pupil image and the dark pupil image When the lens moves, not only the pupil moves, but also where the brightness level changes drastically, such as the outline of the face, it appears as an edge in the difference image, making it difficult to detect the pupil. Therefore, in FIG. 3, the light source is turned on only once for 100 μs and then turned off for the next 100 μs, and an image is not taken. For example, a predetermined period is blinked alternately every 10 μs as many times as necessary. It is also possible to subdivide into a plurality of periods in which the shutters are repeated and to repeatedly open the shutter in accordance with the alternately flashing periods. At this time, the charge may be transferred to separate CCD units in the subdivided 10 μsec period when the light source is turned on and when the light source is turned off. Finally, when the necessary number of flashing periods is completed, the charge is output as a luminance level signal from the CCD unit via the shift register. However, in this case, it is necessary to transfer charges from the photoelectric conversion element to the two CCDs in parallel at the timing of alternately repeating the connection configuration between the photoelectric conversion element and the CCD in the image sensor as shown in FIG. is there.

このような手法をとると、角膜反射の検出に関して次のような利点がある。視線を高精度に検出するためには、カメラに写る瞳孔中心と光源の角膜反射中心の相対位置関係から、およその視線検出ができる。それを厳密に実施するための方法について、提案者もすでに出願している(特開2005-185431号公報)。このとき、瞳孔抽出については、これまで述べてきた画像差分法を用いた方法を用いるのが望ましいことは、言うまでも無いが、角膜反射については、明瞳孔画像と暗瞳孔画像を得るための2セットの光源位置が大きくずれていないと、一部が重なり、相殺し合うため、角膜反射中心が正確に求まらない。2セットの光源を大きくずらすと、装置全体が大きくなることや、先述のように、明瞳孔画像と暗瞳孔画像間で輝度レベルにずれが出てくるために瞳孔検出にはふさわしくない。したがって、角膜反射を差分画像ではなく、明瞳孔画像か暗瞳孔画像から検出したほうがよい。しかしながら、これらの画像はいわば生画像であるため、周囲光に影響を受ける。特に顕著なのは、西日を直接顔に受けているような状態でのドライバーの視線を検出使用としたとき、太陽そのものが光源の角膜反射とそっくり同じに写ることがある。これでは、角膜反射と太陽との区別がつかず、正しい視線検出ができない。他にも、眼鏡レンズに太陽や明るい前方の風景が角膜反射検出を妨害する。上述のように、明瞳孔画像から暗瞳孔画像を差分しただけでは、太陽の像が消えると同時に角膜反射もほぼ消えてしまう。よって、角膜反射像は、明瞳孔画像から無照明画像を差分して得られる差分画像もしくは暗瞳孔画像から無照明画像を差分して得られる差分画像から検出する。これらの画像では、それぞれの光源による像だけが得られるため、太陽など周囲光の像は除去できるため、容易に角膜反射が検出できる。なお、図8の(a)と(b)は、無照明画像を差分した後の画像を表している。   Taking such a method has the following advantages with respect to detection of corneal reflection. In order to detect the line of sight with high accuracy, an approximate line of sight can be detected from the relative positional relationship between the pupil center reflected in the camera and the corneal reflection center of the light source. A proposal has already been filed for a method for strictly implementing the method (Japanese Patent Laid-Open No. 2005-185431). At this time, it is needless to say that the method using the image difference method described so far is preferably used for pupil extraction. However, for corneal reflection, a bright pupil image and a dark pupil image are obtained. If the positions of the two sets of light sources are not significantly deviated, they will overlap and cancel each other, so the corneal reflection center cannot be determined accurately. If the two sets of light sources are largely shifted, the entire apparatus becomes large, and as described above, the brightness level is shifted between the bright pupil image and the dark pupil image, so that it is not suitable for pupil detection. Therefore, it is better to detect the corneal reflection not from the difference image but from the bright pupil image or the dark pupil image. However, since these images are so-called raw images, they are affected by ambient light. Particularly noticeable is that when the driver's line of sight is detected directly on the face of the sun, the sun itself may appear exactly the same as the corneal reflection of the light source. This makes it impossible to distinguish between corneal reflection and the sun, and correct gaze detection cannot be performed. In addition, the sun or bright front scenery on the spectacle lens interferes with corneal reflection detection. As described above, merely by subtracting the dark pupil image from the bright pupil image, the sun image disappears and at the same time the corneal reflection disappears. Therefore, the cornea reflection image is detected from the difference image obtained by subtracting the non-illuminated image from the bright pupil image or the difference image obtained by subtracting the non-illuminated image from the dark pupil image. In these images, only images from the respective light sources can be obtained, so that images of ambient light such as the sun can be removed, so that corneal reflection can be easily detected. In addition, (a) and (b) of FIG. 8 represent images after the difference between the unilluminated images.

以下、本実施形態の瞳孔検出方法及び装置について、従来と比較した利点を中心に説明する。   Hereinafter, the pupil detection method and apparatus according to the present embodiment will be described with a focus on advantages compared with the prior art.

従来の光源の位置の違いを利用した瞳孔検出の場合でも、従来の2波長を利用した瞳孔検出の場合にも、2つの光源の光量バランスを画像上の輝度レベルを見ながら、ほぼ一致がするように光量合わせをする(図10(a))。それによって、差分画像においては、基本的に瞳孔以外の背景部の輝度レベルは0を示すため、背景部のノイズを考慮し、閾値を0よりも大きな値に設定すれば簡単に2値化によって瞳孔像が抽出できる。それに対して、光量バランスの狂いが原因で暗瞳孔画像のほうが明るい場合(ここでは、明瞳孔画像用の光源の光量が限界に達しており光量を上げるのは難しいため、暗瞳孔画像用の光源の光量を上げた例を示した。)、図10(c)のように、背景部のほとんどがマイナスに転じ、瞳孔像を抽出するための閾値領域が狭くなるので瞳孔検出が難しくなる傾向がある。また、逆に明瞳孔画像のほうが明るい場合は(ここでは、明瞳孔画像用の光源の光量が限界に達しており光量を上げるのは難しいため、暗瞳孔画像用の光源の光量を下げた例を示した。)、図10(b)のように、一見瞳孔部だけが飛び出るが、背景部の輝度レベルがわかっているわけではないので、閾値を低く設定しにくい。この例に示したように、差分画像において背景部に対して瞳孔の輝度レベルが極端に高いときには、あまり問題にならないが、低いとき(瞳孔が極端に小さいとき)は、大いに問題となり、最も適当な設定の仕方は、図10(a)のようにバランスが取れている状態であると言える。   Even in the case of the conventional pupil detection using the difference in the position of the light source and the conventional pupil detection using the two wavelengths, the light intensity balance of the two light sources is substantially matched while looking at the luminance level on the image. In this way, the light quantity is adjusted (FIG. 10A). Thereby, in the difference image, the luminance level of the background portion other than the pupil basically shows 0. Therefore, if the threshold value is set to a value larger than 0 in consideration of the noise of the background portion, the binarization can be easily performed. Pupil image can be extracted. On the other hand, if the dark pupil image is brighter due to an imbalance in the light amount balance (here, the light source for the bright pupil image has reached its limit and it is difficult to increase the amount of light, so the light source for the dark pupil image As shown in FIG. 10C, most of the background portion turns negative, and the threshold region for extracting the pupil image becomes narrower, so that the pupil detection tends to be difficult. is there. On the other hand, if the bright pupil image is brighter (in this example, the light amount of the light source for the bright pupil image has reached its limit and it is difficult to increase the light amount, an example in which the light amount of the light source for the dark pupil image is reduced) As shown in FIG. 10B, only the pupil part appears at first glance, but the luminance level of the background part is not known, so it is difficult to set the threshold value low. As shown in this example, in the difference image, when the luminance level of the pupil is extremely high with respect to the background portion, it is not a problem, but when it is low (when the pupil is extremely small), it becomes a big problem and the most appropriate. It can be said that such a setting method is a balanced state as shown in FIG.

また、2波長の光源を用いた検出方法の場合、周囲の明るさが0.0ルクス(暗闇中)から数万ルクスまでの範囲で瞳孔検出をするためには、カメラ側で自動ゲイン調節(AGC)機能を使用する必要がある。周囲が明るいときには、カメラのゲインが小さくなるため差分画像における瞳孔のレベルは小さくなる。また、周囲が明るいと瞳孔が収縮し、光源による入射光が減り、瞳孔は小さいだけでなく暗くなる。一般に、普通のカメラは波長によって感度が異なる。2台のカメラを用いた場合、両者のゲインが勝手に変化するため、ある明るさ(使用波長における)の中で、2波長の光源の光量バランスをとっても、周囲が明るいに場所に装置を移動すると、明瞳孔画像と暗瞳孔画像のバランスが大きくずれ、単に差分をするだけでは、瞳孔検出は困難である。   In the case of a detection method using a two-wavelength light source, automatic gain adjustment (AGC) is performed on the camera side in order to detect pupils in the range of ambient brightness from 0.0 lux (in the dark) to tens of thousands of lux. It is necessary to use the function. When the surroundings are bright, the gain of the camera is small, so the pupil level in the difference image is small. In addition, when the surroundings are bright, the pupil contracts and the incident light from the light source decreases, so that the pupil is not only small but also dark. In general, the sensitivity of an ordinary camera varies depending on the wavelength. When two cameras are used, the gain of both changes automatically. Therefore, even if the light intensity balance of two light sources is used at a certain brightness (at the wavelength used), the device is moved to a bright location. Then, the balance between the bright pupil image and the dark pupil image is greatly deviated, and it is difficult to detect the pupil only by making a difference.

光源の位置の違いによって明瞳孔画像と暗瞳孔画像を得る方法においては、明瞳孔画像と暗瞳孔画像を得るための光源は異なるため、画像上に異なるムラや傾向がどうしても存在する。したがって、画像差分を行っても背景部でも輝度レベルが一般に零にはならず、それに埋もれて瞳孔検出は難しい。ここで、位置の異なる2個の光源の顔面上での照射強度は、一般には、光源が小型であればあるほど一致しない。従って、差分画像において一部では差分値が零になっても、他の部分では零にならない。特に頭部の位置が変われば、なおさらである。   In the method of obtaining the bright pupil image and the dark pupil image by the difference in the position of the light source, since the light source for obtaining the bright pupil image and the dark pupil image is different, there are inevitably different irregularities and tendencies on the image. Therefore, even if the image difference is performed, the luminance level generally does not become zero even in the background portion, and it is buried in it and it is difficult to detect the pupil. Here, the irradiation intensity on the face of two light sources having different positions generally does not match as the light source becomes smaller. Therefore, even if the difference value becomes zero in some parts of the difference image, it does not become zero in other parts. This is especially true if the position of the head changes.

これに対して本実施形態による瞳孔検出方法及び装置によれば、これまでとイメージセンサとは異なり、画素ごとに同一の光電変換素子を用いて、ほんのわずかに時間の異なるタイミングで複数回受光し光電変換をし、外部に出力することにより、ほぼ取得タイミングが一致した明瞳孔画像、無照明画像、暗瞳孔画像を取得することを基本とする。無照明画像を明瞳孔画像や暗瞳孔画像から差分することにより、光源によって生ずる明暗成分だけを取り出すことができ、周囲の光環境によらず、角膜反射を正確に検出でき、顔領域画像も正確に抽出できる。さらに、差分した明瞳孔画像と差分した暗瞳孔画像から得られる再差分画像から瞳孔を検出する方法は、特に2波長光源を用いて波長分離する2台のカメラを用いた方法で、特に有用である。   On the other hand, according to the pupil detection method and apparatus according to the present embodiment, unlike conventional image sensors, the same photoelectric conversion element is used for each pixel, and light is received several times at slightly different timings. Basically, a bright pupil image, a non-illuminated image, and a dark pupil image with almost the same acquisition timing are obtained by performing photoelectric conversion and outputting the same to the outside. By subtracting the unilluminated image from the bright pupil image and dark pupil image, only the bright and dark components generated by the light source can be extracted, and the corneal reflection can be accurately detected regardless of the surrounding light environment, and the face area image is also accurate. Can be extracted. Furthermore, the method of detecting the pupil from the re-difference image obtained from the difference bright pupil image and the difference dark pupil image is particularly useful in a method using two cameras that perform wavelength separation using a two-wavelength light source. is there.

また、図2に示すような光源を用いることで、LEDの位置は異なるが、外側のLEDが点灯すると、その光が内側のLEDに乗り移り、差分画像において、眼鏡反射像が相殺される傾向があり、眼鏡反射の問題がほとんどなく、しかも、2波長1重リングに比較すると差分画像において瞳孔は強く浮き彫りになる。ここで、光源としては、図11のように2重リングにし、明瞳孔画像得るためのLEDを内側に配置し、暗瞳孔画像を得るためのLEDを外側に配置することで、波長差と位置の差を相乗効果的働くようにしてもよい。ただし、もし、カメラの感度やLEDのパワーの相違により、明瞳孔画像に比較して暗瞳孔画像が暗ければ、暗瞳孔画像用のLEDの数を図2のように増やすことが好ましい。さらに、光源としては、図12に示すように、1個のモールドの中に2種類の波長のLEDチップを入れることにより、リング状に1重にLEDを並べるだけの構成でもよい。この場合、小型に構成でき、光源の位置のずれを軽減かなり軽減できるため、画像差分をしたときに、眼鏡反射もほぼ完全に消去できる。しかし、波長の相違だけに頼る方法では、明瞳孔と暗瞳孔に小さなレベル差しかないため、やはり瞳孔が暗いと、そのレベル差だけに頼って瞳孔検出するのが難しい。この場合は、図2又は図11のような構成が好ましい。   In addition, by using a light source as shown in FIG. 2, the position of the LED is different, but when the outer LED is lit, the light is transferred to the inner LED, and the reflected image of the glasses tends to cancel out in the difference image. Yes, there is almost no problem of spectacle reflection, and the pupil is strongly embossed in the difference image compared to the two-wavelength single ring. Here, as a light source, a double ring is used as shown in FIG. 11, and an LED for obtaining a bright pupil image is arranged on the inner side, and an LED for obtaining a dark pupil image is arranged on the outer side. The difference may work synergistically. However, if the dark pupil image is darker than the bright pupil image due to differences in camera sensitivity and LED power, the number of LEDs for the dark pupil image is preferably increased as shown in FIG. Furthermore, as shown in FIG. 12, the light source may have a configuration in which LEDs are arranged in a ring shape by placing LED chips of two types of wavelengths in one mold. In this case, it can be configured in a small size, and the deviation of the position of the light source can be considerably reduced, so that the spectacle reflection can be almost completely eliminated when the image difference is made. However, in the method that relies only on the difference in wavelength, only a small level is placed between the bright pupil and the dark pupil, and therefore, when the pupil is dark, it is difficult to detect the pupil by relying only on the level difference. In this case, the configuration as shown in FIG. 2 or FIG. 11 is preferable.

図18には、本実施形態に係る瞳孔検出方法において生成された画像の一例を示す。図18(a)は、眼鏡なしの場合の暗瞳孔画像(生画像)、無照明画像、それらの差分画像、図18(b)は、眼鏡有りの場合の暗瞳孔画像(生画像)、無照明画像、それらの差分画像を示す。   FIG. 18 shows an example of an image generated by the pupil detection method according to this embodiment. FIG. 18A shows a dark pupil image (raw image) without glasses, a non-illuminated image, and a difference image thereof. FIG. 18B shows a dark pupil image (raw image) with glasses, no image. Illumination images and their difference images are shown.

(第2実施形態)
本発明の第2実施形態について説明する。第2実施形態に係る瞳孔検出方法における第1実施形態との相違点は、1台のカメラによって瞳孔を検出する点である。
(Second Embodiment)
A second embodiment of the present invention will be described. The difference from the first embodiment in the pupil detection method according to the second embodiment is that the pupil is detected by one camera.

具体的には、カメラ1台の場合には、1つの方法として、図3に示したカメラを利用して、図3(a)のときに明瞳孔用の光源を点灯させ、図3(b)のときに暗瞳孔用の光源を点灯させて、得られる差分画像から瞳孔検出することができる。この場合、光源の位置が異なる方法でも、2波長光源の場合でもほぼ同様に実施できる。2波長光源を使用しても、2台のカメラを使用した場合と異なり、AGCを使用しても、周囲の光は、(a)のときも(b)のときも同量の光が入射されるので、予め2波長光源の光量のバランスを一度とっておけば、その後はバランスが崩れることは基本的にはない。しかし、周囲光が強い中で角膜反射を検出する必要がある場合には、両方の光源を消したときの画像がほしい。それがあれば、光源が点灯しているときの画像から点灯していないときの画像を差分すれば、周囲光による輝度成分が消え、角膜反射は容易に検出できる。そのほかにも、周囲光によって顔に輝度レベルに強いムラがあるときにも、それを相殺し、光源の照明のみによる画像を得ることができ、その場合、その画像が大きく変化することが無いので、顔領域がいつも正しく検出できるし、それによって、顔がカメラ画像に入っているどうかが判断でき、さらに、顔以外のところを瞳孔や角膜反射があると誤検出することがなくなる。   Specifically, in the case of one camera, as one method, the light source for the bright pupil is turned on in FIG. 3A using the camera shown in FIG. ), The dark pupil light source is turned on, and the pupil can be detected from the obtained difference image. In this case, the method can be carried out in substantially the same manner even when the light source position is different or when the two-wavelength light source is used. Unlike the case of using a two-wavelength light source and using two cameras, the same amount of light is incident on the ambient light in both cases (a) and (b) even if AGC is used. Therefore, if the light quantity of the two-wavelength light source is balanced once in advance, the balance is not basically lost thereafter. However, if you need to detect corneal reflections in strong ambient light, you want an image with both light sources turned off. If there is, the luminance component due to the ambient light disappears and the corneal reflection can be easily detected by subtracting the image when not lit from the image when the light source is lit. In addition, even when there is strong unevenness in the brightness level on the face due to ambient light, it can be offset and an image can be obtained only by illumination of the light source, in which case the image does not change significantly. The face area can always be detected correctly, whereby it can be determined whether or not the face is included in the camera image, and there is no false detection when there is a pupil or corneal reflection other than the face.

これを実施するためには、図3〜7を拡張したイメージセンサで対応できる(図13及び図14)。ここで、明瞳孔用光源を点灯させた図13(a)の期間で得られる画像から光源を消灯したときの図13(b)の期間で得られる画像を差分すれば、明瞳孔用光源のみによる画像が得られる。また、暗瞳孔用光源を点灯させた図13(c)の期間で得られる画像から光源を消灯したときの図13(b)の期間で得られる画像を差分すれば、暗瞳孔用光源のみによる画像が得られる。このときのイメージセンサは、1つの光電変換素子に対応してその光電変換素子から異なる期間に電荷を転送可能な3つのCCDユニットがライン状に設けられたものを用いる(図14)。   In order to implement this, the image sensor which expanded FIG. 3-7 can respond (FIGS. 13 and 14). Here, if the image obtained in the period of FIG. 13B when the light source is turned off is subtracted from the image obtained in the period of FIG. 13A where the light source for the bright pupil is turned on, only the light source for the bright pupil is obtained. The image by is obtained. Further, if the image obtained in the period of FIG. 13B when the light source is turned off is subtracted from the image obtained in the period of FIG. 13C where the dark pupil light source is turned on, only the dark pupil light source is obtained. An image is obtained. In this case, an image sensor is used in which three CCD units that can transfer charges from one photoelectric conversion element in different periods corresponding to one photoelectric conversion element are provided in a line (FIG. 14).

このような瞳孔検出方法によれば、2光源の照射状況の違いによって単に明瞳孔画像から暗瞳孔画像を差分した差分画像上に生じる瞳孔部以外部の輝度レベルのムラを押さえることができ、結果的に瞳孔が小さい場合に瞳孔の輝度レベルが低くとも瞳孔を検出しやすくする。   According to such a pupil detection method, it is possible to suppress unevenness in the brightness level of the part other than the pupil part, which is generated on the difference image obtained by simply subtracting the dark pupil image from the bright pupil image due to the difference in the irradiation conditions of the two light sources. In particular, when the pupil is small, it is easy to detect the pupil even if the luminance level of the pupil is low.

(第3実施形態)
本発明の第3実施形態について説明する。第3実施形態に係る瞳孔検出方法における第2実施形態との相違点は、イメージセンサ上に設けられた2波長光源用のフィルターを用いる点である。
(Third embodiment)
A third embodiment of the present invention will be described. The difference in the pupil detection method according to the third embodiment from the second embodiment is that a filter for a two-wavelength light source provided on the image sensor is used.

すなわち、カメラ1台と2波長光源を使用する場合、1つの方法としてイメージセンサ上に2波長の光源によるそれぞれの像を選択的に透過させるフィルターを画素ごとに交互に取り付ける方法がある。このときゲインが全画素で同じあれば、瞳孔を検出するだけの用途であれば、2波長の光源を同時に点灯させ全画素を同時露光すればよい。そして、隣り合う同士の差分をし、差分画像から瞳孔を検出すればよい。しかし、角膜反射を容易に検出し、周囲光によって顔に輝度レベルに強いムラがあるときにもそれを相殺して光源の照明のみによる画像を得るためには、図16のようなイメージセンサを用いて、両方の光源を点灯させ露光し(図15(a))、CCDユニットに電荷を転送し、両方の光源を消灯させて露光し(図15(b))、CCDユニットに電荷を転送する。この方法では、明瞳孔用光源用のフィルターを通して明瞳孔用光源が点灯しているときの画像と点灯していないときの画像、暗瞳孔用光源用のフィルターを通して暗瞳孔用光源が点灯しているときの画像と点灯していないときの画像、計4通りの画像が得られる。後は、2カメラの場合と同様に考えればよい。このとき用いられるイメージセンサは、明瞳孔用の光電変換素子と暗瞳孔用の光電変換素子とがライン上において交互に設けられ、それぞれの光電変換素子に対応するCCDユニットがライン上に並んで2個ずつ設けられている。   That is, when one camera and a two-wavelength light source are used, as one method, there is a method of alternately attaching a filter that selectively transmits each image of the two-wavelength light source on the image sensor for each pixel. At this time, if the gain is the same for all the pixels, the light source of two wavelengths may be turned on simultaneously and all the pixels may be simultaneously exposed for the purpose of detecting the pupil. Then, the difference between adjacent ones is calculated, and the pupil may be detected from the difference image. However, in order to easily detect corneal reflection and cancel out even when the brightness level is strongly uneven on the face due to ambient light, an image sensor as shown in FIG. Use both light sources to turn on and expose (Fig. 15 (a)), transfer charges to the CCD unit, turn off both light sources and expose (Fig. 15 (b)), and transfer charges to the CCD unit To do. In this method, the image when the light source for the bright pupil is lit through the filter for the light source for the bright pupil, the image when the light source is not lit, and the light source for the dark pupil is lit through the filter for the light source for the dark pupil A total of four images can be obtained: an image when the light is not lit and an image when the light is not lit. The rest can be considered as in the case of two cameras. In the image sensor used at this time, the photoelectric conversion elements for the bright pupil and the photoelectric conversion elements for the dark pupil are alternately provided on the line, and the CCD units corresponding to the respective photoelectric conversion elements are arranged on the line. It is provided one by one.

なお、本発明は、前述した実施形態に限定されるものではない。例えば、以下のような処理を加えてもよい。   In addition, this invention is not limited to embodiment mentioned above. For example, the following processing may be added.

(画像のムラに対する変形例1)
光源の位置が異なると、一般に光源ごとに顔の上に別々の輝度レベル傾斜を持つ。もし光源が物理的に上下に並んでいるとすると、画像中の上下方向に輝度レベルが異なってくる場合が多い。その場合には、第1実施形態で述べた方法を画像の横方向のラインごとに行えばよい。もし、光源が左右に並んでいれば、縦方向のラインごとに行えばよい。斜めの場合も同様である。また、2波長光源でも、図2、図11、図12のような2波長光源においても、各波長においてムラが生じる(例えば画像の中央は明瞳孔画像が明るく、周囲は暗瞳孔のほうが明るいなど)ため、差分画像が画像全体にわたり零になることはない。ここでも、差分画像における瞳孔の輝度レベルが高いときには、あまり問題が無いが、瞳孔が暗いときには背景にムラがあることは瞳孔検出のロバスト性を低下させる。それを解決するためには、第1実施形態で述べた方法を画像の局所ごとに行えばよい。すなわち、図17において四角でくくった領域内を、全画像に見立てて解析を行う。そしてこの領域をこの画像全体内を最小1画素ずつ移動させて、領域ごとに結果を得て、領域の中央の一点の画素が瞳孔部かそうでないかを決定すればよい。
(Modification 1 for image unevenness)
If the position of the light source is different, generally each light source has a different brightness level gradient on the face. If the light sources are physically arranged vertically, the luminance level often varies in the vertical direction in the image. In that case, the method described in the first embodiment may be performed for each line in the horizontal direction of the image. If the light sources are arranged on the left and right, it may be performed for each line in the vertical direction. The same applies to an oblique case. In addition, even in the case of a two-wavelength light source, even in the case of a two-wavelength light source as shown in FIGS. 2, 11, and 12, unevenness occurs at each wavelength (for example, the bright pupil image is bright in the center of the image and the dark pupil is brighter in the surroundings). Therefore, the difference image does not become zero over the entire image. Again, there is not much problem when the pupil luminance level in the difference image is high, but when the pupil is dark, the presence of unevenness in the background reduces the robustness of pupil detection. In order to solve this, the method described in the first embodiment may be performed for each part of the image. That is, the analysis is performed by regarding the entire area enclosed by a square in FIG. 17 as an entire image. Then, it is only necessary to move this region within the entire image by one pixel at a minimum and obtain a result for each region to determine whether a pixel at the center of the region is a pupil portion or not.

(画像のムラに対する変形例2)
眼鏡反射多くの場合、強烈な大きなスポットとして写る。しかも、明瞳孔画像と暗瞳孔画像でまったく同じように現れるとは限らない。よって、眼鏡反射は、I1(x,y)とI2(x,y)のそれぞれの平均値I1とI2に異なった影響を与えるため、式(3)のkの値を求める処理、もしくはヒストグラム均一化処理に大きな影響を与える。そこで、(画像のムラに対する変形例1)における上記の処理において、I1(x,y)とI2(x,y)のそれぞれの画像において、輝度レベルの高いほうから例えば20%と低いほうから同%の画素を抽出して、該当する画素についてI1(x,y)とI2(x,y)の両方からを取り除いて(この画素数はこの例では20+20を超えるのが一般的であり、眼鏡反射部以外が取り除かれることも頻繁に起こる)、残りの画素から、kはヒストグラム均一化処理の変換パラメータを求める。このようにすることにより、正しい変換ができ、暗く小さい瞳孔が抽出されやすくなる。ただし、眼鏡反射は残るため、それに関しては、サイズや形状から瞳孔と区別して、図8の最後の2値化後に取り去る。なお、この方法は、暗闇で明瞳孔が非常に明るくなったときにも、これが取り除かれ、有効である。
(Modification 2 for image unevenness)
Eyeglass reflection In many cases, it appears as an intense big spot. Moreover, the bright pupil image and the dark pupil image do not always appear exactly the same. Therefore, the spectacle reflection has different effects on the average values I1 and I2 of I1 (x, y) and I2 (x, y), respectively. It has a great influence on the conversion process. Therefore, in the above-described processing in (Modification 1 for image unevenness), in each of the images I1 (x, y) and I2 (x, y), the same is applied from the higher luminance level, for example, 20%. % Pixels are extracted and the corresponding pixels are removed from both I1 (x, y) and I2 (x, y) (this number of pixels generally exceeds 20 + 20 in this example) In addition, the part other than the spectacle reflection part is frequently removed), and k obtains the conversion parameter of the histogram equalization process from the remaining pixels. By doing so, correct conversion can be performed, and a dark and small pupil can be easily extracted. However, since the spectacle reflection remains, it is distinguished from the pupil from the size and shape and removed after the final binarization in FIG. Note that this method is effective even when the bright pupil becomes very bright in the dark.

(光源の発光量調節と赤外線の顔面照射強度計測)
暗いところでは瞳孔が非常に大きくなるのが一般的であり、AGCのゲインも大きくなるため、瞳孔が飽和することがある。この場合、少なくとも、明瞳孔画像においては、角膜反射がつぶれて検出できないことがあり、問題が起こることがある。
(Adjusting the amount of light emitted from the light source and measuring the intensity of facial irradiation with infrared rays)
In a dark place, the pupil is generally very large, and the AGC gain is also large, so the pupil may be saturated. In this case, at least in the bright pupil image, the corneal reflection may be crushed and cannot be detected, which may cause a problem.

これまでに述べたように、AGCを用いているため、光源点灯時の画像からは、周囲の明るさがわかりにくい。しかし、無照明画像を利用すれば、無照明画像の顔領域内の平均輝度と無照明画像を差分した後の明瞳孔画像もしくは暗瞳孔画像の顔領域内の平均輝度の比から、顔面への太陽光(赤外線を含むため)の照射強度がおよそ推定できる。そして、周囲が暗いと判断した場合には、光源の電流量を調整することによって発光量を自動的に調整できる。たった、2段階に調整するだけでも、夜間と昼間で電流を変えることができ、十分な価値がある。   As described above, since AGC is used, the ambient brightness is difficult to understand from the image when the light source is turned on. However, if the non-illuminated image is used, the ratio of the average luminance in the face area of the bright pupil image or the dark pupil image after the difference between the average luminance in the face area of the non-illuminated image and the non-illuminated image is calculated. The irradiation intensity of sunlight (including infrared rays) can be estimated approximately. When it is determined that the surrounding is dark, the light emission amount can be automatically adjusted by adjusting the current amount of the light source. Just adjusting in two steps can change the current between night and day, and is well worth it.

(ワイヤフレーム法を用いた特徴点検出)
テンプレートマッチング法を利用して目尻、目頭、鼻の頭、口の左右の端等を特徴点として検出し、ステレオカメラを用いて、顔の3次元構造を取得し、この構造が常に顔にフィットするように構造を追跡させ、その構造の位置、方向から顔の方向や位置を検出するワイヤフレーム法がある。これを利用して顔方向だけでなく、黒目と白目の境界と瞳孔と黒目のエッジ、および、角膜反射を検出して視線を検出する装置が商品化されている(SeeingMachine社、faceLAB,http://www.seeingmachines.com/)。しかし、ワイヤフレーム法は、テンプレートマッチング法を利用しているため、周囲光環境変化に弱く、正しくフィッティングができなくなる。同装置においても、夜間、昼間区別なく使用するためには、顔を近赤外線で照明する必要がある。このような環境は、これまで述べた瞳孔検出法を大きく変わらない。よって、図4に示したようなイメージセンサを利用して、光源を点灯させたときと消灯したとき画像を連続的に取得し、前者の画像から後者の画像を差分することで、周囲光を除去した、光源のみによる画像が得られる。その画像をヒストグラム均一化すれば、AGCを使用していても、常の同一の画像が得られる。この画像に対して、目尻、目頭、鼻の頭、口の左右の端等の特徴点検出をして、ワイヤフレーム法を用いて、顔の構造を捉える。以上のように、周囲光による影響を除去することにより、高ロバストに特徴点が検出でき、それによって、正しくワイヤフレームを与えることができるさらに、これまで述べてきた画像差分を利用した瞳孔検出法を用いれば、瞳孔も角膜反射も容易に検出できる。つまり、これまでワイヤフレーム法では用いられることがなかった、2光源を用いて、これまで述べてきたように明瞳孔画像、暗瞳孔画像、無照明画像を得て、明瞳孔画像から無照明画像を差分して得る差分明瞳孔画像と暗瞳孔画像から無照明画像を差分して得る差分暗瞳孔画像のそれぞれから、目尻、目頭、鼻の頭、口の左右の端等の特徴点を捉え、ワイヤフレーム法にて顔を当てはめる。それにより、目の位置をロバストに捉え、目の部分に対して、差分明瞳孔画像から差分暗瞳孔画像を差分して得る再差分画像(もしくは除算画像)を得て、それから瞳孔部を抽出し、さらに差分明瞳孔画像と差分暗瞳孔画像の積算(加算画像でもよい)画像から角膜反射を得る。以上のように無照明画像を差分した画像を対象にワイヤフレーム法を施し、高ロバストに目の位置を検出し、その中で、瞳孔と角膜反射を検出することにより、従来のワイヤフレーム法では難しかった高精度の視線方向検出を実現できる。
(Feature point detection using wireframe method)
Using the template matching method, the corners of the eyes, the head of the nose, the left and right edges of the mouth, etc. are detected as feature points, and the stereo camera is used to obtain the three-dimensional structure of the face. This structure always fits the face. There is a wire frame method in which the structure is tracked in such a manner that the face direction and position are detected from the position and direction of the structure. A device that detects not only the face direction but also the boundary of the black and white eyes, the pupil and black eye edges, and the corneal reflection has been commercialized (SeeingMachine, faceLAB, http: //www.seeingmachines.com/). However, since the wire frame method uses the template matching method, the wire frame method is vulnerable to changes in the ambient light environment and cannot be correctly fitted. Even in this apparatus, it is necessary to illuminate the face with near infrared rays in order to use it at night and without distinction in the daytime. Such an environment does not greatly change the pupil detection method described so far. Therefore, by using an image sensor as shown in FIG. 4, when the light source is turned on and when the light source is turned off, images are continuously acquired, and the latter image is subtracted from the former image. An image with only the removed light source is obtained. If the image is made uniform in histogram, the same image as usual can be obtained even if AGC is used. Feature points such as the corners of the eyes, the head of the eyes, the head of the nose, and the left and right edges of the mouth are detected from this image, and the structure of the face is captured using the wire frame method. As described above, it is possible to detect feature points with high robustness by removing the influence of ambient light, thereby correctly providing a wire frame. Further, the pupil detection method using the image difference described so far Can easily detect pupils and corneal reflections. In other words, a bright pupil image, a dark pupil image, and an unilluminated image are obtained as described above by using two light sources that have not been used in the wire frame method until now, and an unilluminated image is obtained from the bright pupil image. From the difference bright pupil image obtained by subtracting the difference and the dark pupil image obtained by subtracting the unilluminated image from the dark pupil image, the feature points such as the corner of the eye, the head of the eye, the head of the nose, the left and right edges of the mouth are captured, Fit the face with the wire frame method. As a result, the eye position is captured robustly, and a re-difference image (or a divided image) obtained by subtracting the difference dark pupil image from the difference bright pupil image is obtained for the eye portion, and the pupil portion is extracted therefrom. Further, a corneal reflection is obtained from an integrated image (or an added image) of the differential bright pupil image and the differential dark pupil image. As described above, the wireframe method is applied to the image obtained by subtracting the non-illuminated image, and the eye position is detected with high robustness, and the pupil and corneal reflection are detected. It was possible to realize high-precision gaze direction detection that was difficult.

本発明の第1実施形態である瞳孔検出装置の配置例を示す光路図である。It is an optical path diagram which shows the example of arrangement | positioning of the pupil detection apparatus which is 1st Embodiment of this invention. 図1の光源の構成を示す平面図である。It is a top view which shows the structure of the light source of FIG. カメラのシャッタ、電荷転送、及び輝度レベル出力のタイミングを示すタイミングチャート図である。It is a timing chart figure which shows the timing of the shutter of a camera, charge transfer, and a luminance level output. 図1のイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of the image sensor of FIG. 図1のイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of the image sensor of FIG. 図1のイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of the image sensor of FIG. 図1のイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of the image sensor of FIG. NTSCのカメラに図2に示す光源を取り付けて、奇数フィールドと偶数フィールドに各光源を点灯させたときの画像処理結果を示す図である。FIG. 3 is a diagram showing an image processing result when the light source shown in FIG. 2 is attached to an NTSC camera and each light source is turned on in an odd field and an even field. 図8に示す画像から2個の角膜反射像が検出される様子を示す図である。It is a figure which shows a mode that two corneal reflection images are detected from the image shown in FIG. 暗瞳孔画像、明瞳孔画像、及び差分画像のレベルを示すグラフであり、(a)は、2つの光源の画像上の輝度レベルがほぼ一致がするように光量合わせをした場合、(b)は、暗瞳孔画像用の光源の光量を下げた場合、(c)は、暗瞳孔画像用の光源の光量を上げた場合のグラフである。It is a graph which shows the level of a dark pupil image, a bright pupil image, and a difference image, and (a) shows a case where the light intensity is adjusted so that the luminance levels on the images of the two light sources are substantially matched. When the light amount of the light source for the dark pupil image is decreased, (c) is a graph when the light amount of the light source for the dark pupil image is increased. 図2の光源の変形例を示す平面図である。It is a top view which shows the modification of the light source of FIG. 図2の光源の変形例を示す平面図である。It is a top view which shows the modification of the light source of FIG. 第2実施形態にかかる瞳孔検出方法において、カメラのシャッタ、電荷転送、及び輝度レベル出力のタイミングを示すタイミングチャート図である。In the pupil detection method concerning 2nd Embodiment, it is a timing chart figure which shows the timing of the shutter of a camera, charge transfer, and a luminance level output. 第2実施形態にかかるイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of the image sensor concerning 2nd Embodiment. 第3実施形態にかかる瞳孔検出方法において、カメラのシャッタ、電荷転送、及び輝度レベル出力のタイミングを示すタイミングチャート図である。In the pupil detection method concerning 3rd Embodiment, it is a timing chart figure which shows the timing of the shutter of a camera, charge transfer, and a luminance level output. 第3実施形態にかかるイメージセンサの概略構成を示す図である。It is a figure which shows schematic structure of the image sensor concerning 3rd Embodiment. 本発明の変形例において画像中の処理対象の領域を示すイメージ図である。It is an image figure which shows the area | region of the process target in an image in the modification of this invention. 本発明の瞳孔検出方法において生成された画像の一例を示す図であり、(a)は、眼鏡なしの場合の暗瞳孔画像(生画像)、無照明画像、それらの差分画像、(b)は、眼鏡有りの場合の暗瞳孔画像(生画像)、無照明画像、それらの差分画像を示す図である。It is a figure which shows an example of the image produced | generated in the pupil detection method of this invention, (a) is a dark pupil image (raw image) in the case of without glasses, an unilluminated image, those difference images, (b) is It is a figure which shows the dark pupil image (raw image) in the case with glasses, a non-illuminated image, and those difference images.

符号の説明Explanation of symbols

C1,C2…イメージセンサ、21…光源、F1,F2…バンドパスフィルタ、23a,23b…発光素子。
C1, C2 ... image sensor, 21 ... light source, F1, F2 ... band pass filter, 23a, 23b ... light emitting element.

Claims (11)

対象者の瞳孔を検出する瞳孔検出方法であって、
1個の画素に対応して1つの光電変換素子を有するイメージセンサを用いて、第1の期間に明瞳孔画像又は暗瞳孔画像を得るための光源を前記対象者に照射した状態で、前記第1の期間に前記イメージセンサに露光した後に、露光によって蓄えられた電荷を前記光電変換素子から該光電変換素子に対応する前記イメージセンサの第1の電荷転送部に転送する第1ステップと、
前記第1の期間に連続する第2の期間に前記光源を消灯させた状態で、前記第2の期間に前記イメージセンサに露光した後に、露光によって蓄えられた電荷を前記光電変換素子から該光電変換素子に対応する前記第1の電荷転送部とは異なる第2の電荷転送部に転送する第2ステップと、
前記第1及び第2の電荷転送部に転送された電荷を前記第1及び第2の電荷転送部に接続されたシフトレジスタを用いて出力する第3ステップと、
前記シフトレジスタの出力に基づいて明瞳孔画像、無照明画像、及び暗瞳孔画像を得た後に、画像差分処理を行うことによって瞳孔を検出する第4ステップと、
を備える瞳孔検出方法。
A pupil detection method for detecting a pupil of a subject,
Using the image sensor having one photoelectric conversion element corresponding to one pixel, the light source for obtaining a bright pupil image or a dark pupil image is irradiated to the subject in the first period, and A first step of transferring the charge accumulated by exposure to the first charge transfer section of the image sensor corresponding to the photoelectric conversion element after the image sensor is exposed to the period of 1;
In a state where the light source is turned off in a second period that is continuous with the first period, after the image sensor is exposed in the second period, charges accumulated by exposure are transferred from the photoelectric conversion element to the photoelectric conversion element. A second step of transferring to a second charge transfer unit different from the first charge transfer unit corresponding to the conversion element;
A third step of outputting the charges transferred to the first and second charge transfer units using a shift register connected to the first and second charge transfer units;
A fourth step of detecting a pupil by performing image difference processing after obtaining a bright pupil image, an unilluminated image, and a dark pupil image based on the output of the shift register;
A pupil detection method comprising:
前記第1のステップでは、前記第1の期間が所定の周期で所定回数繰り返された複数の期間に細分化され、前記複数の期間毎に前記第1の電荷転送部に電荷を転送し、
前記第2のステップでは、前記第2の周期が前記所定の周期で前記所定回数繰り返された複数の期間に細分化され、前記複数の期間毎に前記第2の電荷転送部に電荷を転送し、
前記第3ステップでは、前記第1の期間及び第2の期間の所定回数の繰り返しが終了後に前記第1及び第2の電荷転送部に転送された電荷を出力する、
瞳孔検出方法。
In the first step, the first period is subdivided into a plurality of periods repeated a predetermined number of times in a predetermined cycle, and charges are transferred to the first charge transfer unit for each of the plurality of periods,
In the second step, the second period is subdivided into a plurality of periods repeated the predetermined number of times in the predetermined period, and charges are transferred to the second charge transfer unit for each of the plurality of periods. ,
In the third step, after the predetermined number of repetitions of the first period and the second period are completed, the charges transferred to the first and second charge transfer units are output.
Pupil detection method.
前記第4のステップでは、明瞳孔画像から無照明画像を画像差分することよって得られる差分画像、もしくは、暗瞳孔画像から無照明画像を画像差分することによって得られる差分画像から角膜反射を検出する請求項1又は2記載の瞳孔検出方法。   In the fourth step, corneal reflection is detected from a difference image obtained by subtracting an unilluminated image from a bright pupil image or a difference image obtained by subtracting an unilluminated image from a dark pupil image. The pupil detection method according to claim 1 or 2. 前記第4のステップでは、明瞳孔画像から無照明画像を画像差分することよって得られる差分画像と暗瞳孔画像から無照明画像を画像差分することによって得られる差分画像とを乗算した画像から角膜反射を検出する請求項1又は2記載の瞳孔検出方法。   In the fourth step, corneal reflection is obtained from an image obtained by multiplying a difference image obtained by image difference of an unilluminated image from a bright pupil image and a difference image obtained by image difference of an unilluminated image from a dark pupil image. The pupil detection method according to claim 1 or 2, wherein: 前記第4のステップでは、明瞳孔画像から無照明画像を画像差分することよって得られる差分後明瞳孔画像と、暗瞳孔画像から無照明画像を画像差分することよって得られる差分後暗瞳孔画像とを画像差分した再差分画像から、瞳孔を検出する請求項1〜4のいずれか1項に記載の瞳孔検出方法。   In the fourth step, a post-difference bright pupil image obtained by subtracting an unilluminated image from a bright pupil image, and a post-difference dark pupil image obtained by subtracting an unilluminated image from a dark pupil image The pupil detection method according to any one of claims 1 to 4, wherein a pupil is detected from a re-difference image obtained by image difference. 前記再差分画像は、画像中の一部の領域において、前記差分後明瞳孔画像と前記差分後暗瞳孔画像の輝度バランスを補正した後に前記差分後明瞳孔画像から前記差分後暗瞳孔画像を差分して得られる輝度バランス補正後差分画像である、
請求項5記載の瞳孔検出方法。
The re-difference image is obtained by subtracting the post-difference dark pupil image from the post-difference bright pupil image after correcting the luminance balance between the post-difference bright pupil image and the post-difference dark pupil image in a partial region of the image. It is a difference image after luminance balance correction obtained by
The pupil detection method according to claim 5.
前記輝度バランス補正後差分画像は、眼鏡反射を考慮して、前記差分後明瞳孔画像から前記差分後暗瞳孔画像を差分して得られる眼鏡反射用輝度バランス補正後差分画像である、
請求項6記載の瞳孔検出方法。
The difference image after luminance balance correction is a difference image after correcting luminance balance for spectacle reflection obtained by subtracting the dark pupil image after difference from the bright pupil image after difference in consideration of spectacle reflection.
The pupil detection method according to claim 6.
前記第4のステップでは、前記眼鏡反射用輝度バランス補正後差分画像を得るために、差分後明瞳孔画像と差分後暗瞳孔画像において眼鏡反射領域を除いて、前記輝度バランスをとるための係数を求める、請求項7記載の瞳孔検出方法。   In the fourth step, in order to obtain a difference image after correcting the spectacle reflection luminance balance, a coefficient for balancing the luminance is obtained by excluding spectacle reflection areas in the post-difference bright pupil image and the post-difference dark pupil image. The pupil detection method according to claim 7 to be obtained. 前記差分後明瞳孔画像もしくは前記差分後暗瞳孔画像と、前記無照明画像の輝度レベルの比から、周辺光強度を推定し、光源の発光量をさらに調整する、
請求項5記載の瞳孔検出方法。
From the ratio of the brightness level of the post-difference bright pupil image or the post-difference dark pupil image and the non-illuminated image, the ambient light intensity is estimated, and the light emission amount of the light source is further adjusted.
The pupil detection method according to claim 5.
前記第4のステップでは、前記差分後明瞳孔画像と前記差分後暗瞳孔画像より、所定の対象者の部位を追跡特徴点としたテンプレートマッチング法、もしくは前記テンプレートマッチング法を基本にしたワイヤフレーム法によって前記対象者の特徴点を検出する、
請求項5記載の瞳孔検出方法。
In the fourth step, a template matching method using a predetermined subject portion as a tracking feature point based on the post-difference bright pupil image and the post-difference dark pupil image, or a wire frame method based on the template matching method Detecting feature points of the subject by
The pupil detection method according to claim 5.
前記テンプレートマッチング法、もしくは前記テンプレートマッチング法を基本にしたワイヤフレーム法によって前記対象者の目の位置を特定して、前記再差分画像から瞳孔を検出する、
請求項10記載の瞳孔検出方法。
The position of the subject's eyes is specified by the template matching method or the wire frame method based on the template matching method, and the pupil is detected from the re-difference image,
The pupil detection method according to claim 10.
JP2007092485A 2007-03-30 2007-03-30 Pupil detection method Active JP5145555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007092485A JP5145555B2 (en) 2007-03-30 2007-03-30 Pupil detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007092485A JP5145555B2 (en) 2007-03-30 2007-03-30 Pupil detection method

Publications (2)

Publication Number Publication Date
JP2008246004A true JP2008246004A (en) 2008-10-16
JP5145555B2 JP5145555B2 (en) 2013-02-20

Family

ID=39971665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007092485A Active JP5145555B2 (en) 2007-03-30 2007-03-30 Pupil detection method

Country Status (1)

Country Link
JP (1) JP5145555B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012024154A (en) * 2010-07-20 2012-02-09 Panasonic Corp Pupil detecting device and pupil detecting method
JP2012115505A (en) * 2010-12-01 2012-06-21 Fujitsu Ltd Visual line detection device and visual line detection method
KR101164786B1 (en) 2011-01-24 2012-07-11 주식회사 휴비츠 Method for evaluating contact lens fitting state
JP2012518501A (en) * 2009-02-26 2012-08-16 カール・ツアイス・ビジョン・ゲーエムベーハー Method and apparatus for determining eyeball fulcrum position
JP2012522594A (en) * 2009-04-01 2012-09-27 テイアサイエンス・インコーポレーテツド Ocular surface interference spectroscopy (OSI) apparatus, system and method for imaging, processing and / or displaying ocular tear film and / or measuring ocular tear film layer thickness
JP2014094186A (en) * 2012-11-09 2014-05-22 Jvc Kenwood Corp Visual line detector and visual line detection method
WO2014181775A1 (en) 2013-05-08 2014-11-13 国立大学法人静岡大学 Pupil detection light source device, pupil detection device and pupil detection method
US8888286B2 (en) 2009-04-01 2014-11-18 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US8915592B2 (en) 2009-04-01 2014-12-23 Tearscience, Inc. Apparatuses and methods of ocular surface interferometry (OSI) employing polarization and subtraction for imaging, processing, and/or displaying an ocular tear film
WO2016027627A1 (en) * 2014-08-22 2016-02-25 国立大学法人静岡大学 Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
US9339177B2 (en) 2012-12-21 2016-05-17 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
JP2016093253A (en) * 2014-11-12 2016-05-26 国立大学法人静岡大学 Control method for pupil detection light source apparatus
US20160379093A1 (en) * 2015-06-23 2016-12-29 Fujitsu Limited Detection method and system
US9642520B2 (en) 2009-04-01 2017-05-09 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
JP2017158828A (en) * 2016-03-10 2017-09-14 アルプス電気株式会社 Illumination imaging device and sight line detection device
US9795290B2 (en) 2013-11-15 2017-10-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics
US9888839B2 (en) 2009-04-01 2018-02-13 Tearscience, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
WO2018164104A1 (en) * 2017-03-08 2018-09-13 国立大学法人静岡大学 Eye image processing device
US10278587B2 (en) 2013-05-03 2019-05-07 Tearscience, Inc. Eyelid illumination systems and method for imaging meibomian glands for meibomian gland analysis
WO2020129138A1 (en) * 2018-12-18 2020-06-25 日本電気株式会社 Image processing device, image processing method, and storage medium
US10912516B2 (en) 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program
US11179035B2 (en) 2018-07-25 2021-11-23 Natus Medical Incorporated Real-time removal of IR LED reflections from an image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7142350B2 (en) * 2018-09-12 2022-09-27 株式会社トーメーコーポレーション Optometry equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261863A (en) * 1993-03-11 1994-09-20 Nissan Motor Co Ltd Sight line direction measuring instrument
JPH08185503A (en) * 1994-12-27 1996-07-16 Mitsubishi Electric Corp Image processor
JPH1156782A (en) * 1997-08-12 1999-03-02 Techno Works:Kk Detecting method of eyeball characteristic points by using two-light sources and differentiating means of image
JP2005182247A (en) * 2003-12-17 2005-07-07 National Univ Corp Shizuoka Univ Pointing device and method by pupil position detection
JP2006167256A (en) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ Pupil detecting apparatus
WO2007023798A1 (en) * 2005-08-23 2007-03-01 National University Corporation Shizuoka University Pupil detection device and pupil detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06261863A (en) * 1993-03-11 1994-09-20 Nissan Motor Co Ltd Sight line direction measuring instrument
JPH08185503A (en) * 1994-12-27 1996-07-16 Mitsubishi Electric Corp Image processor
JPH1156782A (en) * 1997-08-12 1999-03-02 Techno Works:Kk Detecting method of eyeball characteristic points by using two-light sources and differentiating means of image
JP2005182247A (en) * 2003-12-17 2005-07-07 National Univ Corp Shizuoka Univ Pointing device and method by pupil position detection
JP2006167256A (en) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ Pupil detecting apparatus
WO2007023798A1 (en) * 2005-08-23 2007-03-01 National University Corporation Shizuoka University Pupil detection device and pupil detection method

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012518501A (en) * 2009-02-26 2012-08-16 カール・ツアイス・ビジョン・ゲーエムベーハー Method and apparatus for determining eyeball fulcrum position
US10433724B2 (en) 2009-02-26 2019-10-08 Carl Zeiss Vision Gmbh Method and apparatus for determining the location of the ocular pivot point
US8840247B2 (en) 2009-02-26 2014-09-23 Carl Zeiss Vision Gmbh Method and apparatus for determining the location of the ocular pivot point
US9999346B2 (en) 2009-04-01 2018-06-19 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
US10004396B2 (en) 2009-04-01 2018-06-26 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US10582848B2 (en) 2009-04-01 2020-03-10 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US9693682B2 (en) 2009-04-01 2017-07-04 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US11259700B2 (en) 2009-04-01 2022-03-01 Tearscience Inc Ocular surface interferometry (OSI) for imaging, processing, and/or displaying an ocular tear film
JP2012522594A (en) * 2009-04-01 2012-09-27 テイアサイエンス・インコーポレーテツド Ocular surface interference spectroscopy (OSI) apparatus, system and method for imaging, processing and / or displaying ocular tear film and / or measuring ocular tear film layer thickness
US8888286B2 (en) 2009-04-01 2014-11-18 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US8915592B2 (en) 2009-04-01 2014-12-23 Tearscience, Inc. Apparatuses and methods of ocular surface interferometry (OSI) employing polarization and subtraction for imaging, processing, and/or displaying an ocular tear film
US9888839B2 (en) 2009-04-01 2018-02-13 Tearscience, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
US11771317B2 (en) 2009-04-01 2023-10-03 Tearscience, Inc. Ocular surface interferometry (OSI) for imaging, processing, and/or displaying an ocular tear film
US8746883B2 (en) 2009-04-01 2014-06-10 Tearscience, Inc. Ocular surface interferometery (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US10716465B2 (en) 2009-04-01 2020-07-21 Johnson & Johnson Vision Care, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
US9662008B2 (en) 2009-04-01 2017-05-30 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US9642520B2 (en) 2009-04-01 2017-05-09 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
EP2596746A4 (en) * 2010-07-20 2017-08-30 Panasonic Intellectual Property Corporation of America Pupil detection device and pupil detection method
JP2012024154A (en) * 2010-07-20 2012-02-09 Panasonic Corp Pupil detecting device and pupil detecting method
JP2012115505A (en) * 2010-12-01 2012-06-21 Fujitsu Ltd Visual line detection device and visual line detection method
KR101164786B1 (en) 2011-01-24 2012-07-11 주식회사 휴비츠 Method for evaluating contact lens fitting state
JP2014094186A (en) * 2012-11-09 2014-05-22 Jvc Kenwood Corp Visual line detector and visual line detection method
US9668647B2 (en) 2012-12-21 2017-06-06 Tearscience Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US10244939B2 (en) 2012-12-21 2019-04-02 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9339177B2 (en) 2012-12-21 2016-05-17 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9993151B2 (en) 2012-12-21 2018-06-12 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US10582849B2 (en) 2012-12-21 2020-03-10 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US10278587B2 (en) 2013-05-03 2019-05-07 Tearscience, Inc. Eyelid illumination systems and method for imaging meibomian glands for meibomian gland analysis
US11844586B2 (en) 2013-05-03 2023-12-19 Tearscience, Inc. Eyelid illumination systems and methods for imaging meibomian glands for meibomian gland analysis
US11141065B2 (en) 2013-05-03 2021-10-12 Tearscience, Inc Eyelid illumination systems and methods for imaging meibomian glands for meibomian gland analysis
JPWO2014181775A1 (en) * 2013-05-08 2017-02-23 国立大学法人静岡大学 Pupil detection light source device, pupil detection device, and pupil detection method
WO2014181775A1 (en) 2013-05-08 2014-11-13 国立大学法人静岡大学 Pupil detection light source device, pupil detection device and pupil detection method
US9898658B2 (en) 2013-05-08 2018-02-20 National University Corporation Shizuoka University Pupil detection light source device, pupil detection device and pupil detection method
US9795290B2 (en) 2013-11-15 2017-10-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics
US10512396B2 (en) 2013-11-15 2019-12-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics
WO2016027627A1 (en) * 2014-08-22 2016-02-25 国立大学法人静岡大学 Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
US10417782B2 (en) 2014-08-22 2019-09-17 National University Corporation Shizuoka University Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
JPWO2016027627A1 (en) * 2014-08-22 2017-06-08 国立大学法人静岡大学 Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face posture detection system, face posture detection Method and face posture detection program
JP2016093253A (en) * 2014-11-12 2016-05-26 国立大学法人静岡大学 Control method for pupil detection light source apparatus
US10147022B2 (en) * 2015-06-23 2018-12-04 Fujitsu Limited Detection method and system
US20160379093A1 (en) * 2015-06-23 2016-12-29 Fujitsu Limited Detection method and system
US10912516B2 (en) 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program
JP2017158828A (en) * 2016-03-10 2017-09-14 アルプス電気株式会社 Illumination imaging device and sight line detection device
WO2018164104A1 (en) * 2017-03-08 2018-09-13 国立大学法人静岡大学 Eye image processing device
JPWO2018164104A1 (en) * 2017-03-08 2020-01-23 国立大学法人静岡大学 Eye image processing device
US11179035B2 (en) 2018-07-25 2021-11-23 Natus Medical Incorporated Real-time removal of IR LED reflections from an image
US20220180656A1 (en) * 2018-12-18 2022-06-09 Nec Corporation Image processing device, image processing method, and storage medium
WO2020129138A1 (en) * 2018-12-18 2020-06-25 日本電気株式会社 Image processing device, image processing method, and storage medium
EP3900629A4 (en) * 2018-12-18 2022-04-13 NEC Corporation Image processing device, image processing method, and storage medium
US20220180655A1 (en) * 2018-12-18 2022-06-09 Nec Corporation Image processing device, image processing method, and storage medium
JPWO2020129138A1 (en) * 2018-12-18 2021-10-28 日本電気株式会社 Image processing equipment, image processing methods and programs
US11763598B2 (en) * 2018-12-18 2023-09-19 Nec Corporation Image processing device, image processing method, and storage medium
US11776312B2 (en) 2018-12-18 2023-10-03 Nec Corporation Image processing device, image processing method, and storage medium
US11776311B2 (en) 2018-12-18 2023-10-03 Nec Corporation Image processing device, image processing method, and storage medium
CN113453618A (en) * 2018-12-18 2021-09-28 日本电气株式会社 Image processing apparatus, image processing method, and storage medium
US11776310B2 (en) 2018-12-18 2023-10-03 Nec Corporation Image processing device, image processing method, and storage medium
US20220036046A1 (en) * 2018-12-18 2022-02-03 Nec Corporation Image processing device, image processing method, and storage medium
US12014572B2 (en) 2018-12-18 2024-06-18 Nec Corporation Image processing device, image processing method, and storage medium

Also Published As

Publication number Publication date
JP5145555B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
JP5145555B2 (en) Pupil detection method
JP5212927B2 (en) Face shooting system
WO2015029537A1 (en) Organ imaging apparatus
US9953428B2 (en) Digital camera unit with simultaneous structured and unstructured illumination
WO2016147272A1 (en) Living body detection device, living body detection method, and recording medium
US9898658B2 (en) Pupil detection light source device, pupil detection device and pupil detection method
US20200210733A1 (en) Enhanced video-based driver monitoring using phase detect sensors
KR102281149B1 (en) APPARATUS FOR TRACKING EYE POINT OPERABLE AT HIGH intensity of illumination AND LOW intensity of illumination AND METHOD THEREOF
US20160063334A1 (en) In-vehicle imaging device
JPH0782539B2 (en) Pupil imager
JP2917953B2 (en) View point position detection device
WO2018051681A1 (en) Line-of-sight measurement device
JP2008125619A (en) Pupil detection apparatus and pupil detection method
JP6957048B2 (en) Eye image processing device
EP3187100A1 (en) Line-of-sight detection device
JP6289439B2 (en) Image processing device
WO2010010926A1 (en) Feature-point tracking method and feature-point tracking device
JP2016051317A (en) Visual line detection device
JP5825588B2 (en) Blink measurement device and blink measurement method
JP2020140637A (en) Pupil detection device
JP2016051312A (en) Visual line detection device
US9906705B2 (en) Image pickup apparatus
US20200221000A1 (en) Camera system, vehicle and method for configuring light source of camera system
JP2008132160A (en) Pupil detecting device and pupil detecting method
JP2018173991A (en) Detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150