JP4491604B2 - Pupil detection device - Google Patents
Pupil detection device Download PDFInfo
- Publication number
- JP4491604B2 JP4491604B2 JP2004365546A JP2004365546A JP4491604B2 JP 4491604 B2 JP4491604 B2 JP 4491604B2 JP 2004365546 A JP2004365546 A JP 2004365546A JP 2004365546 A JP2004365546 A JP 2004365546A JP 4491604 B2 JP4491604 B2 JP 4491604B2
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- image
- camera
- light source
- cursor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、入力装置としてのマウスに代替できる瞳孔検出装置及び該装置を用いるポインティング装置に関する。特に、眼鏡をかけている被験者に対して、光源の眼鏡反射に邪魔されることなく瞳孔を検出するための装置に関するものである。 The present invention relates to a pupil detection device that can replace a mouse as an input device, and a pointing device using the device. In particular, the present invention relates to an apparatus for detecting a pupil for a subject wearing spectacles without being disturbed by reflection of spectacles of a light source.
これまでに視点(ユーザの視線方向)によるポインティングが種々提案されている。
しかし、視点によって、ポインティングする場合は、表示装置上のポインティングしたい場所へ視点を動かさなければならないが、見るべき位置を探索している間も、カーソル(ポインタ)が視点の位置に常に現れるため、カーソルを移動させたい位置にカーソルを移動させにくいという問題がある。また、視点位置にいつもカーソルが提示されることにより、それが視覚刺激となり、見たい対象が見にくいなどの問題がある。
頭部の運動によれば、見ているところとカーソルのでる位置は異なり、しかも、前方の表示装置上の必要なところに視線を向けながらも、周辺視でカーソルを見ながら目的の位置にカーソルを動かすことができる。
従来の頭部の動きによるポインティングシステムの例を次に示す。
非特許文献1に記載された技術(Eagle eyeと名づけられている)は、パソコンの横にビデオカメラを設置し、顔の画像を撮影しながら、画像処理により、予め指定する顔の一部をテンプレートマッチングにより追尾し、その動きに応じて、パソコン画面上のカーソルを動かす方式である。追尾対象としては、鼻の先、あごの先、黒眼などをためしている。しかし、テンプレートを更新しても、急減な周囲の明るさの変化などに対応しにくい可能性があり、また、追尾すべき対象が徐々にずれていくなどの問題も発生しやすい。
Various pointing methods based on the viewpoint (the direction of the user's line of sight) have been proposed so far.
However, when pointing depending on the viewpoint, the viewpoint must be moved to the location on the display device where you want to point, but the cursor (pointer) always appears at the position of the viewpoint while searching for the position to be viewed. There is a problem that it is difficult to move the cursor to the position where the cursor is to be moved. In addition, when a cursor is always presented at a viewpoint position, it becomes a visual stimulus, and there is a problem that it is difficult to see an object to be seen.
According to the movement of the head, the position where the cursor appears is different from the one you are looking at, and the cursor is at the target position while looking at the cursor in peripheral vision while looking at the necessary place on the front display device Can be moved.
An example of a conventional pointing system based on head movement is shown below.
The technology described in Non-Patent Document 1 (named “Eagle eye”) installs a video camera next to a personal computer and captures a part of the face specified in advance by image processing while capturing a face image. This is a method of tracking by template matching and moving the cursor on the personal computer screen according to the movement. As the tracking target, the tip of the nose, the tip of the chin, the black eye, etc. are tried. However, even if the template is updated, there is a possibility that it may be difficult to cope with a sudden decrease in ambient brightness, and problems such as a gradual shift in the target to be tracked are likely to occur.
本発明者は、これらの欠点を解消すべく瞳孔位置検出によるポインティング装置を提案している(特願2003−419110:2003年12月17日出願)。この技術は、不可視な赤外光源によって顔を照らし、ビデオカメラによって、顔の横幅全体が楽に入る拡大率で撮影し、ビデオカメラによって撮影される画像内の2つもしくは1つの瞳孔を直接検出する方式である。そして頭の動きによって生じる画像内の瞳孔の動きに合わせて、パソコン等のモニター上のカーソルを動かしたり、モニター上に表示されているメニューの選択をしたり、キーボードソフトを利用して文字を入力したり、複数のウインドウを切り替えたりすることができる。また、装置単独でマウスの左右ボタンの押下に相当する信号を発生することができ、他のクリック操作用入力補助装置の必要がない。
しかしながら、被験者(ユーザ、オペレータ)が眼鏡を使用しているとき、その眼鏡反射により瞳孔検出が妨害される場合がある。
However, when the subject (user, operator) is using glasses, pupil detection may be hindered by the reflection of the glasses.
本発明者は、視野の広い1台のカメラで、フレーム内の2個の瞳孔のそれぞれの位置を検出して、被験者が頭部運動を行うときに画像内を移動する瞳孔の移動に応じて、カーソル(ポインタ)を動かす手法を先の出願で提案した。この方法では、左右の瞳孔を区別して、片目を瞬間的に閉じた場合はマウスのクリック、また、片目を閉じた状態で頭部を動かした場合は、もう片方の瞳孔移動によってカーソルを動かし、それによりドラッグをすることを可能にした。この手法を実現するためには、瞳孔を検出しやすくする必要があった。そのために、カメラ(1)の開口(2)に近い光源(3)と遠い光源(4)をビデオのフィールドに同期させて交互に点灯させ(図2、3)、そのとき得られる明瞳孔画像(図1−a)と暗瞳孔画像(図1−b)を実時間で差分を行い、背景部をおよそ相殺させ、瞳孔部を浮き立たせた後に瞳孔を検出した(図1−c)。光源の配置例としてLED(発光ダイオード;5)を用いたものを図3に示している。この瞳孔検出法は、カメラの開口に近い光源のみを設けて明瞳孔画像を得て瞳孔を画像処理により検出する方法や、カメラの開口から遠くの光源のみを設けて暗瞳孔画像を得て画像処理により瞳孔を検出する方法に比較して、周囲の明るさなどに影響を受けにくく、格段に瞳孔が検出しやすい。さらに、画像が単純なため、画像処理量が大きく軽減できるなどにおいて有利である。 The inventor detects the position of each of the two pupils in the frame with a single camera having a wide field of view, and responds to the movement of the pupil that moves in the image when the subject performs head movement. In the previous application, a method of moving the cursor (pointer) was proposed. In this method, the left and right pupils are distinguished, the mouse is moved when one eye is momentarily closed, or the head is moved with one eye closed, and the cursor is moved by moving the other pupil. This made it possible to drag. In order to realize this method, it was necessary to make it easy to detect the pupil. For this purpose, the light source (3) close to the aperture (2) and the light source (4) near the aperture (2) of the camera (1) are alternately turned on in synchronization with the video field (FIGS. 2 and 3). The difference between (FIG. 1-a) and the dark pupil image (FIG. 1-b) was performed in real time, the background portion was approximately canceled out, and the pupil portion was lifted to detect the pupil (FIG. 1-c). FIG. 3 shows an example of the arrangement of light sources using LEDs (light emitting diodes; 5). In this pupil detection method, only a light source close to the camera aperture is provided to obtain a bright pupil image and the pupil is detected by image processing, or only a light source far from the camera aperture is provided to obtain a dark pupil image. Compared to the method of detecting the pupil by processing, it is less affected by the surrounding brightness and the like, and the pupil is much easier to detect. Furthermore, since the image is simple, it is advantageous in that the amount of image processing can be greatly reduced.
さらにこの瞳孔検出法では、被験者が視力矯正用の眼鏡やサングラスをしている場合にも、眼鏡反射の輝度は画像中において飽和するくらいに明るく他の部分と区別しやすいため、眼鏡反射の部分の輝度を下げてから画像差分をすることにより、眼鏡反射を画像処理の段階で除去することができる(図4)。図4(a)は、眼鏡反射が写っている明瞳孔画像、図4(b)は、眼鏡反射が写っている暗瞳孔画像、図4(c)は高輝度部分の輝度を落としてから差分をした画像である。しかし、眼鏡反射像が瞳孔に完全にかぶさってしまったときには、眼鏡反射により瞳孔がかき消されてしまうため、画像処理の段階で瞳孔を検出するのは不可能である。このような場合にも、光源の前に偏光フィルターを設置し、カメラの開口の前に前述の偏光フィルターとは偏光方向を垂直にした偏光フィルターを設置することによって、眼鏡反射をある程度除去できる。しかし、この際に眼鏡反射を完全に除去することは難しく、一部が残ると眼鏡反射像はかえって瞳孔に類似した画像となり、区別しにくくなる。 Furthermore, in this pupil detection method, even when the subject wears glasses or sunglasses for correcting vision, the spectacle reflection brightness is so bright that it is saturated in the image and easily distinguishable from other parts. By performing the image difference after lowering the brightness of the eyeglass, the reflection of the glasses can be removed at the image processing stage (FIG. 4). 4 (a) is a bright pupil image in which spectacle reflection is reflected, FIG. 4 (b) is a dark pupil image in which spectacle reflection is reflected, and FIG. 4 (c) is a difference after reducing the luminance of the high luminance part. It is an image with However, when the spectacle reflection image completely covers the pupil, the pupil is wiped out by spectacle reflection, and it is impossible to detect the pupil at the stage of image processing. Even in such a case, specular reflection can be removed to some extent by installing a polarizing filter in front of the light source and installing a polarizing filter in which the polarization direction is perpendicular to the polarizing filter described above in front of the opening of the camera. However, it is difficult to completely remove the spectacle reflection at this time, and if a part of the spectacle reflection remains, the spectacle reflection image becomes an image similar to the pupil, which is difficult to distinguish.
また、顔に一切のマーカーなどを取り付けず、視線の検出を行う場合は、光源の角膜反射像を参照点として、瞳孔の位置により視線方向を検出することがある。すなわち、カメラ画像中の瞳孔と角膜反射の相対座標から視線方向を推定する。角膜反射は眼鏡反射とサイズは異なるが性質は似ているため、偏光フィルターを用いると、眼鏡反射を除去すると角膜反射まで除去されてしまうため、使用できない。
もし、カメラ開口の近くに光源を配置することがなければ、たとえば、図5のようにカメラ(1)の開口から離れた左右の位置に1個ずつ光源(6)を設置しそれら交互に点灯させる方法がある。図5の7は眼鏡レンズ、8は角膜である。この場合、どちらかの光源の一方の眼鏡反射(10)が瞳孔(9)を隠したとしても、もう一方の光源の眼鏡反射が瞳孔を隠さない場合が多いので、眼鏡反射が瞳孔を隠していない方の画像を利用して瞳孔を検出することができる。しかし、前述のように、光源の一方をカメラの開口の近くにどうしても設置しなければならない場合は、この方法は使用できない。
In addition, when gaze detection is performed without attaching any markers or the like to the face, the gaze direction may be detected based on the position of the pupil using the corneal reflection image of the light source as a reference point. That is, the line-of-sight direction is estimated from the relative coordinates of the pupil and corneal reflection in the camera image. Since the corneal reflection is different in size from the spectacle reflection but has similar properties, the use of a polarizing filter cannot be used because the corneal reflection is removed when the spectacle reflection is removed.
If the light source is not arranged near the camera opening, for example, as shown in FIG. 5, one light source (6) is installed at left and right positions away from the camera (1) opening, and they are alternately lit. There is a way to make it. In FIG. 5, 7 is a spectacle lens, and 8 is a cornea. In this case, even if one eyeglass reflection (10) of either light source hides the pupil (9), the eyeglass reflection of the other light source often does not hide the pupil, so the eyeglass reflection hides the pupil. The pupil can be detected using the image that is not present. However, as mentioned above, this method cannot be used if one of the light sources must be installed near the camera aperture.
いま、図6のように、カメラ(1)を2台使用し、それぞれのカメラの開口付近に光源(6)を用意する。そして、これらの光源をビデオフレームもしくはフィールドに同期させて交互に点灯させる。右の光源が点灯しているときには、右のカメラでは明瞳孔画像(図6−d)が得られ、左のカメラでは暗瞳孔画像(図6−b)が得られる。逆に左の光源が点灯しているときには、右のカメラでは暗瞳孔画像(図6−e)が得られ左のカメラには明瞳孔画像(図6−c)が得られる。各カメラにおいて得られる明瞳孔画像と暗瞳孔画像を差分することによって、一般には前述のように差分画像において瞳孔が簡単に検出できる。しかし、眼鏡を装着している際には、図6のように、眼鏡レンズ(7)がある場合、眼鏡反射(10)が瞳孔(9)にかぶさることがある。その場合には、瞳孔は検出できない。この例では、右光源が点灯しているときには、左右両方のカメラ画像において瞳孔に眼鏡反射が重なっている。このような例では、左のカメラから得られる差分画像でも、右のカメラから得られる差分画像においても、眼鏡反射が瞳孔に重なっているために、両方のカメラにおいて瞳孔が検出できない。
次に、図7のように、2台のカメラを利用し、それぞれのカメラ(1)に開口に近い光源(3)と遠い光源(4)を取り付け、それらの光源を交互に点灯させることを考える。すると、1台のカメラについて、4個の眼鏡反射(10)が現れることになり、かえって瞳孔(9)が検出しにくくなる。
Now, as shown in FIG. 6, two cameras (1) are used, and a light source (6) is prepared near the opening of each camera. These light sources are alternately turned on in synchronization with the video frame or field. When the right light source is turned on, the right camera obtains a bright pupil image (FIG. 6D), and the left camera obtains a dark pupil image (FIG. 6B). Conversely, when the left light source is lit, a dark pupil image (FIG. 6E) is obtained with the right camera, and a bright pupil image (FIG. 6C) is obtained with the left camera. In general, the pupil can be easily detected in the difference image as described above by subtracting the bright pupil image and the dark pupil image obtained by each camera. However, when wearing spectacles, when there is a spectacle lens (7) as shown in FIG. 6, spectacle reflection (10) may cover the pupil (9). In that case, the pupil cannot be detected. In this example, when the right light source is turned on, the eyeglass reflection overlaps the pupil in both the left and right camera images. In such an example, the eyeglass reflection overlaps the pupil in both the difference image obtained from the left camera and the difference image obtained from the right camera, and therefore the pupil cannot be detected by both cameras.
Next, as shown in FIG. 7, two cameras are used, and a light source (3) close to the opening and a light source (4) near the opening are attached to each camera (1), and these light sources are turned on alternately. Think. Then, four eyeglass reflections (10) appear for one camera, and the pupil (9) becomes difficult to detect.
そこで、図8、図9に示すように、図7に示した方法と同様に、同期させて駆動する2台のカメラ(1)のそれぞれの開口部に近い位置と遠い位置に近赤外光源(3,4)を設置し、それらの光源をビデオのフィールド(フレーム)に同期させて交互に点灯させ、それぞれのカメラから得られる明瞳孔画像と暗瞳孔画像から、画像差分を基本とした画像処理により瞳孔を検出する。ここまでは図7に示した方法と同じである。本発明で提案する1つ目の解決法は、左カメラの近傍に取り付ける一対の光源と、右カメラの近傍に取り付ける一対の光源とで、波長の異なる光源を使用することによる。2つ目の解決法は、左の2個の光源がどちらかが点灯している間は、左のカメラで撮影し(左カメラの電子シャッターを開く)、右の2個の光源のどちらかが点灯している間に右のカメラで撮影する(右カメラの電子シャッターを開く)、というように、時分割の方法による。 Therefore, as shown in FIGS. 8 and 9, as in the method shown in FIG. 7, the near-infrared light source is located at a position near and far from the respective openings of the two cameras (1) driven in synchronization. (3, 4) are installed, their light sources are alternately turned on in synchronization with the video field (frame), and images based on image differences are obtained from the bright and dark pupil images obtained from each camera. The pupil is detected by processing. Up to this point, the method is the same as that shown in FIG. The first solution proposed in the present invention is based on the use of light sources having different wavelengths for a pair of light sources attached in the vicinity of the left camera and a pair of light sources attached in the vicinity of the right camera. The second solution is to take a picture with the left camera (open the electronic shutter of the left camera) while one of the two light sources on the left is lit. Shooting with the right camera while is lit (opening the electronic shutter of the right camera).
図8、図9に波長の異なる光源を用いる方法を示す。図7の方法と異なり、左カメラの近傍に取り付ける一対の光源と、右カメラの近傍に取り付ける一対の光源とで、波長の異なる光源を使用する。例えば、一方には中心波長が810nmの光源を使用し、もう一方は850nmの光源を使用する。そして、各カメラの開口部には、それぞれの光源と同じ中心波長を持つ、十分に狭帯域のバンドパスフィルター(11)を取り付け、互いの画像に干渉しあわないようにする。各光源の波長域がオーバーラップする場合には、光源の前にもバンドパスフィルターを取り付け、光源の波長域を狭くしてから、頭部に近赤外線を照射する。これにより、左右の光学系は独立し、互いに干渉しなくなる。なお、図8、図9においては、カメラ画像には、開口に近い光源に眼鏡反射像と開口から遠い光による眼鏡反射像が一枚の画像に同時に表現されている。 光源の点滅を制御する光源制御手段は図示されていない。
このほかに、異なる波長の光源に代えて、時分割駆動による光源制御も考えられる。
左の2個の光源のどちらかが点灯している間は、左のカメラで撮影し(左カメラの電子シャッターを開く)、右の2個の光源のどちらかが点灯している間に右のカメラで撮影する(右カメラの電子シャッターを開く)、というように、時分割の光源制御方法を採用することにより、波長制限とほぼ同様の効果が得られる。
8 and 9 show a method using light sources having different wavelengths. Unlike the method of FIG. 7, light sources having different wavelengths are used for a pair of light sources attached near the left camera and a pair of light sources attached near the right camera. For example, one uses a light source with a center wavelength of 810 nm and the other uses a light source with an 850 nm. Then, a sufficiently narrow band-pass filter (11) having the same center wavelength as each light source is attached to each camera opening so as not to interfere with each other's images. When the wavelength ranges of the respective light sources overlap, a band pass filter is attached in front of the light sources to narrow the wavelength range of the light sources, and the near infrared rays are irradiated to the head. Thereby, the left and right optical systems are independent and do not interfere with each other. In FIGS. 8 and 9, in the camera image, a spectacle reflection image by a light source close to the opening and a spectacle reflection image by light far from the opening are simultaneously expressed as one image. Light source control means for controlling blinking of the light source is not shown.
In addition, light source control by time-division driving can be considered instead of light sources having different wavelengths.
While one of the two light sources on the left is lit, take a picture with the left camera (open the electronic shutter of the left camera), and to the right while one of the two light sources on the right is lit By adopting a time-division light source control method such as shooting with a camera (opening the electronic shutter of the right camera), the same effect as wavelength limitation can be obtained.
これまで述べた方法では、基本的に、眼鏡反射像が瞳孔像に重なってしまった場合は、瞳孔が検出できないことは、これまでの方法とかわらない(図9の右カメラの画像)。ただし、確率的に、両方のカメラの画像において、同時に瞳孔が隠れてしまうことは、稀である。すなわち、瞳孔は、常に、2台のカメラの画像のうち、少なくともどちらか一方から検出できる。これを利用して、瞳孔マウスのロバスト性を高める。ここで、図8は、両方のカメラで同時に瞳孔が検出できる場合を示しており、図9は、被験者から向かって左のカメラでは瞳孔が検出でき、右のカメラでは検出できない例を示している。 In the method described so far, basically, when the spectacle reflection image overlaps the pupil image, the fact that the pupil cannot be detected is not different from the conventional method (image of the right camera in FIG. 9). However, probabilistically, it is rare that the pupils are hidden simultaneously in the images of both cameras. That is, the pupil can always be detected from at least one of the images of the two cameras. This is used to increase the robustness of the pupil mouse. Here, FIG. 8 shows a case in which the pupil can be detected simultaneously by both cameras, and FIG. 9 shows an example in which the pupil can be detected by the left camera from the subject and cannot be detected by the right camera. .
ここまで、2台のカメラによるものを述べたが、カメラを3台以上とすることにより、さらに眼鏡反射と瞳孔とが重なることを避け得ることは、自明である。
また、2台のカメラで捉えた顔画像から三角測量により、2つの瞳孔の3次元位置を検出することができる。さらに2つの顔画像のそれぞれにおいて検出される2つの瞳孔のそれぞれの周りを詳細に解析し、2つの正確な瞳孔中心と2つの角膜反射中心を検出し、2つの眼の視線を求めることができる。2本の視線の交点が視点であり、瞳孔の3次元位置と視線から三次元の視点の計測ができる。これにより求めた視点位置からカーソルの位置を制御する用途において、瞳孔や角膜反射を捉え、その3次元位置を測定する場合には、少なくとも2台のカメラで対象物を撮影することが必要であり、この場合には3台以上のカメラを配置する。
他に、被験者が広角度に頭を回転させる、もしくは頭を広範囲に動かす場合においても、カメラを多数台配置することが有効である。
Up to this point, two cameras have been described. However, it is self-evident that the use of three or more cameras can further prevent the eyeglass reflection and the pupil from overlapping.
In addition, the three-dimensional positions of the two pupils can be detected by triangulation from the face images captured by the two cameras. In addition, it is possible to analyze the surroundings of each of the two pupils detected in each of the two facial images in detail, detect two accurate pupil centers and two corneal reflection centers, and obtain two eye gazes. . The intersection of two lines of sight is the viewpoint, and a three-dimensional viewpoint can be measured from the three-dimensional position of the pupil and the line of sight. In the application to control the position of the cursor from the viewpoint position thus obtained, it is necessary to capture the object with at least two cameras when capturing the pupil and corneal reflection and measuring the three-dimensional position. In this case, three or more cameras are arranged.
In addition, it is effective to arrange a large number of cameras even when the subject rotates his head at a wide angle or moves his head over a wide range.
瞳孔の移動を検知し移動量情報を作成するに当り、(1)瞳孔の位置をカーソル位置とする(絶対量による制御と名づける)、(2)瞳孔の単位時間あたりの移動量を、カーソルの現在位置からの単位時間あたりの移動量とする(相対量による制御と名づける)、(3)瞳孔の原点からのずれに比例して、カーソルの単位時間あたりの移動量を生成する(積分量による制御と名づける)、の3つが考えられる。上記(1)は、旧来のジョイスティックに対応し、レバーの変位量に見合った量で、カーソル位置が決定される(絶対位置の制御)。上記(2)は現在のマウスやトラックボールに対応し、回転量に見合った量で、カーソルが移動する(相対位置の制御)。上記(3)は、現在のノートパソコンに見られるスティック状のコントローラに対応し、レバーの傾きが存在する間、カーソルは移動しつづける(積分による位置決定)。カーソルキーによるカーソルコントロールも、上記(3)に相当すると言えよう。 In detecting the movement of the pupil and creating the movement amount information, (1) the position of the pupil is set as the cursor position (named control by absolute amount), and (2) the movement amount of the pupil per unit time is determined by the cursor position. The amount of movement per unit time from the current position (named as control by relative amount). (3) The amount of movement of the cursor per unit time is generated in proportion to the deviation from the origin of the pupil (depending on the integral amount). 3) control). The above (1) corresponds to the conventional joystick, and the cursor position is determined by an amount corresponding to the displacement amount of the lever (control of the absolute position). (2) corresponds to the current mouse or trackball, and the cursor moves by an amount commensurate with the amount of rotation (control of the relative position). The above (3) corresponds to a stick-like controller found in current notebook personal computers, and the cursor continues to move while the lever is tilted (position determination by integration). It can be said that the cursor control by the cursor key corresponds to the above (3).
さらに用途によっては(4)位置情報の微分によりカーソルを移動させることも考えられる。実際の利用にあたっては、不感帯を設けたり、移動が大きいときには加速機能として多目の移動量を作成することもあるため、これらの混合となるものである。
瞳孔の移動を検知し移動量情報を作成する場合には、マウス・インタフェースを用いて他のシステムと接続するのか、ジョイスティック・インタフェースあるいは他のスティック・インタフェースを用いるのかによって、出力信号に対する考慮が必要であり、多種多様の変換形態があることが理解されよう。
Further, depending on the application, (4) it is conceivable to move the cursor by differentiation of position information. In actual use, a dead zone is provided, or when the movement is large, a large amount of movement may be created as an acceleration function.
When detecting pupil movement and creating movement amount information, it is necessary to consider the output signal depending on whether the mouse interface is used to connect to other systems, the joystick interface, or another stick interface. It will be understood that there are a wide variety of conversion modes.
接続インタフェースは、制御手段をPCIスロットに挿入する場合にはPCIバス・インタフェースによるものとし、外部アダプタとする場合にはUSBインタフェースによるものが好ましい。
さらには、パソコンそのものを制御手段として用いることも可能であり、その場合には、光源の照射(点滅)制御部分を分離して外部に設けることも考えられる。
所望により制御手段の制御機能を分割し、ソフトウエアで実行する部分、ハードウエアで実行する部分、パソコン自体で実行する部分、PCIボードで実行する部分など、適宜機能分散することが可能であることは、当業者であれば理解できよう。
The connection interface is preferably a PCI bus interface when the control means is inserted into the PCI slot, and is preferably a USB interface when an external adapter is used.
Furthermore, it is possible to use the personal computer itself as the control means, and in that case, it is conceivable to provide a light source irradiation (flashing) control part separately.
It is possible to divide the control function of the control means as desired, and to distribute functions as appropriate, such as a part executed by software, a part executed by hardware, a part executed by the personal computer itself, and a part executed by the PCI board. Will be understood by those skilled in the art.
瞳孔検出によりマウス代替とするには、左右の押下ボタンとの対応づけも重要である。
顔画像から検出される瞳孔の検出状態は、(a)両目が開いており、両瞳孔とも検出されている状態(右瞳孔検出、左瞳孔検出)、(b)右目のみが開いており、右瞳孔のみが検出されているとき(右瞳孔検出、左瞳孔非検出)、(c)左目のみが開いており、左瞳孔のみが検出されているとき、(右瞳孔非検出、左瞳孔検出)、(d)両目とも閉じており、両瞳孔とも検出されないとき(右瞳孔非検出、左瞳孔非検出)の4通りである。
汎用の2ボタンマウス信号から出力される情報は、マウスボタン情報(右ボタンのDOWN(押した状態)・UP(離した状態)と左ボタンのDOWN・UP)とカーソル移動情報(水平方向、垂直方向)である。
例えば、片目を1度閉じてから開けばクリック、また、片目を閉じながら頭部を動かせば、ドラッグが開始され、その後に閉じていた目を開けば、ドラッグが終了する。
そのために、右目の開閉と左目の開閉を、汎用2ボタンマウスの右ボタンのUP,DOWNと左ボタンのUP,DOWNに対応させる処理を行うものとする。この対応づけは左右入れ換えることも可能である。
ただし、瞬目(まばたき)により両目が閉じる場合は、それは被験者の意図ではないために例外的に扱う。通常、汎用マウスの両ボタンとも押している状態は利用されないので、両目が閉じている場合は、両ボタンとも逆にUPになっている状態とみなす。ただし、瞳孔移動量は零であるとする。これにより、両目が閉じられている場合は、マウスを何も操作していない状態(手を放している状態)に相当させることになる。このような状態は、両目が閉じている場合だけでなく、顔がカメラに映っていない場合も同様の扱いとする。
Correspondence with the left and right push buttons is also important for substituting the mouse with pupil detection.
The detection state of the pupil detected from the face image is as follows: (a) Both eyes are open and both pupils are detected (right pupil detection, left pupil detection), (b) Only the right eye is open, When only the pupil is detected (right pupil detection, left pupil non-detection), (c) When only the left eye is open and only the left pupil is detected (right pupil non-detection, left pupil detection), (d) There are four ways when both eyes are closed and both pupils are not detected (right pupil not detected, left pupil not detected).
Information output from a general-purpose two-button mouse signal includes mouse button information (down (pressed) for the right button), UP (released) and DOWN / UP for the left button) and cursor movement information (horizontal and vertical). Direction).
For example, if one eye is closed and then opened, clicking is performed, and if the head is moved while closing one eye, dragging is started, and if the eyes that are closed thereafter are opened, the dragging is terminated.
For this purpose, it is assumed that processing for opening and closing the right eye and opening and closing the left eye is made to correspond to UP and DOWN of the right button and UP and DOWN of the left button of the general-purpose two-button mouse. This correspondence can be interchanged between left and right.
However, if both eyes are closed by blinking, it is not the subject's intention and is treated as an exception. Normally, the state where both buttons of the general-purpose mouse are pressed is not used. Therefore, when both eyes are closed, it is considered that both buttons are UP. However, the pupil movement amount is assumed to be zero. Thus, when both eyes are closed, this corresponds to a state in which no mouse is operated (a state in which the hand is released). Such a situation is treated not only when both eyes are closed, but also when the face is not reflected in the camera.
(1)瞬きを行う場合、両瞳孔が非検出となるが、右と左の眼を閉じる際に、個人によって1〜2フレーム程ずれがある場合がある。これは、瞬き後の眼を開くときも同様である。このような場合、単に、両瞳孔の検出状態変化を汎用マウスの左右のボタンに対応させると、ちょうど左右のボタンを、少しだけ時間をずらして押したのと同じ状況となり、汎用のマウスでこれが起こると多くのアプリケーションソフトウェアは使用者の意図とは異なった動作をすることになる。
(2)また、速く頭が動くと、それに伴って瞳孔も速く動く、その際に瞳孔の画像がボケてピーク輝度値が低下するなどして、結果的に瞳孔が検出できないことがある。これは、両目を開いているとき(カーソルを単に動かしているとき)において、両瞳孔に関して、もしくは、片方の瞳孔に関してありうる。その場合、瞳孔の検出状態が変化したと判断すると、被験者の意図とは異なったボタン情報を出力してしまう。
上の(1)と(2)のような問題を防ぐために、次のような対処を行う。
現在の画像フレームから得られた瞳孔の検出状態(検出、非検出)が、前のフレームから別の状態に変化しても、変化後に同じ状態が数フレーム(例えば、3フレーム、100ms) 以上連続に続いたときに、はじめて変化後の瞳孔状態に一致するボタン情報を出力するものとする。
(1) When blinking, both pupils are not detected, but when the right and left eyes are closed, there may be a shift of one to two frames depending on the individual. This is the same when opening the eyes after blinking. In such a case, simply matching the changes in the detection state of both pupils to the left and right buttons of a general-purpose mouse results in the same situation as if the left and right buttons were pressed slightly at different times. When this happens, many application software will behave differently from the user's intention.
(2) Further, when the head moves quickly, the pupil also moves fast, and the pupil image may be blurred at that time, resulting in a decrease in peak luminance value. As a result, the pupil may not be detected. This can be for both pupils when eyes are open (when the cursor is simply moved) or for one pupil. In that case, if it is determined that the detection state of the pupil has changed, button information different from the intention of the subject is output.
In order to prevent the problems (1) and (2) above, the following measures are taken.
Even if the detection state (detection, non-detection) of the pupil obtained from the current image frame changes from the previous frame to another state, the same state continues for several frames (eg, 3 frames, 100 ms) after the change. It is assumed that the button information corresponding to the pupil state after the change is output for the first time.
顔画像からの瞳孔検出においては、両瞳孔が検出されているとき、各瞳孔のX座標から左右の瞳孔を判定する。したがって、両瞳孔が開いている状態から、どちらか一方の目が閉眼したときは、座標の比較から、左右どちらの瞳孔が検出状態から非検出状態に変化したかを判定するものとする。また、両目が閉眼した状態から片目から先に開く場合は、両目が開かれるまでは先に開いた目がどちらの目か分からないため、このような状態変化の場合には、両瞳孔が検出されるまで、瞳孔が左右どちらか判定せず、両瞳孔が検出されてから初めて両瞳孔の左右を区別する。したがって、以前に両瞳孔が非検出状態であった場合は、両瞳孔が検出されたと判定されるまでは、ボタン動作は左右ともUPのままの状態とし(両瞳孔が検出された後も、両瞳孔ともUPのまま)、カーソル移動は片目の瞳孔移動量に従うものとする。
一方で、片側の瞳孔のみ検出の状態から、他方の瞳孔のみの検出の状態に変移する場合がある。これは、ドラッグ中に片目を閉じていて、ドラッグ終了のときに、閉じていた目がちょうど開いたと判断されたときに、何らかの理由で開いていたほうの瞳孔が検出されなくなったときに生じる。しかし、片眼のみを閉じた状態から、反対側の片目のみを閉じた状態に使用者が意図的にすることはありえないと仮定し、本来検出されるはずのもう一方の瞳孔が何らかの理由で検出されそこなって片目が開いていた状態から両瞳孔検出状態に変化した、と判断する。その後は、検出されている瞳孔のみの移動に対応させてカーソル移動をさせる。
In pupil detection from a face image, when both pupils are detected, the left and right pupils are determined from the X coordinate of each pupil. Therefore, when either eye is closed from the state where both pupils are open, it is determined from the comparison of coordinates which of the left and right pupils has changed from the detection state to the non-detection state. Also, when opening from one eye to the other from a state where both eyes are closed, both eyes are detected in such a change of state because it is not known which eye is opened first until both eyes are opened. Until it is determined whether the pupil is left or right, the left and right of both pupils are distinguished only after both pupils are detected. Therefore, if both pupils have not been detected before, the button operation will remain UP on both the left and right until it is determined that both pupils have been detected (even after both pupils have been detected. It is assumed that the movement of the cursor follows the amount of movement of the pupil of one eye.
On the other hand, there may be a transition from a state where only one pupil is detected to a state where only the other pupil is detected. This occurs when one eye is closed during dragging, and when it is determined that the closed eye has just opened at the end of dragging, the pupil that is open for some reason is no longer detected. However, assuming that it is impossible for the user to intentionally change from the state where only one eye is closed to the state where only the other eye is closed, the other pupil that should be detected is detected for some reason. Accordingly, it is determined that the state has changed from the state in which one eye is open to the state in which both pupils are detected. Thereafter, the cursor is moved in correspondence with the movement of only the detected pupil.
両瞳孔が検出され続けているときは(単なるカーソル移動に相当)、連続するフレーム間における両瞳孔の重心移動量を瞳孔移動量とし、それをカーソル移動量へ対応させることが望ましい。片方の瞳孔のみが検出され続けているときは、連続するフレーム間における、検出されている瞳孔の移動量を、瞳孔移動量として、カーソル移動量に対応させる。なお、使用者(被験者)が頭部運動中に(必ずしも運動していなくてもよいが)、意図とは関係なく、両目を開いているつもりが、指定した数フレーム間より短い時間に片方の瞳孔しか検出できなかったときには(眼鏡反射が瞳孔像に重なったときなどにも起こる)、その間は、片方の瞳孔の移動量をカーソル移動量に対応させる。また、使用者が頭部運動中に(必ずしも運動していなくてもよいが)、意図とは関係なく、片目を開いているつもりが、指定した数フレーム間より短い時間に両瞳孔とも検出できなかったときには、その間は、瞳孔の移動はないものとし、カーソルは移動しないものとする。 When both pupils continue to be detected (corresponding to simple cursor movement), it is desirable to use the movement amount of the center of gravity of both pupils between successive frames as the pupil movement amount, and to correspond to the cursor movement amount. When only one pupil is continuously detected, the detected pupil movement amount between successive frames is made to correspond to the cursor movement amount as the pupil movement amount. Note that while the user (subject) does not have to move during the head movement, he / she intends to open both eyes regardless of his / her intention. When only the pupil can be detected (also occurs when the eyeglass reflection overlaps the pupil image, etc.), the movement amount of one pupil corresponds to the cursor movement amount during that time. In addition, it is possible to detect both pupils in a shorter time than the specified number of frames, although the user intends to open one eye regardless of the intention during the head movement (although it does not necessarily move). In the absence, the pupil does not move during that time, and the cursor does not move.
本来は、使用者がカーソルを動かそうとしているにもかかわらず、瞳孔が検出できなかった数フレーム間は瞳孔が移動しないことになる。この場合、カーソルが動かない状態で頭が回りきってしまうこともあり、使用者のその後の対処が面倒となる。そこで、瞳孔が検出できなかった数フレームの直前の(1フレーム前の)瞳孔位置と、直後の瞳孔位置の差を、瞳孔移動量として、カーソル移動量に対応させるものとする。
両瞳孔が連続して検出されていたときに、使用者の意図とは関係なく、その瞳孔が指定した数フレーム間より短い時間に両瞳孔が検出できなかった場合(頭部移動中に瞬目が生じた場合などが考えられる)も同様に対処する。ただし、片方の瞳孔が検出され続けている場合には、適用されず、その場合は、片方の瞳孔の移動量を、瞳孔移動量として、カーソル移動量に対応させる。
Although the user is trying to move the cursor, the pupil does not move during several frames in which the pupil cannot be detected. In this case, the head may turn around in a state where the cursor does not move, which makes it difficult for the user to deal with it later. Therefore, the difference between the pupil position immediately before (one frame before) and the pupil position immediately after the several frames where the pupil could not be detected is made to correspond to the cursor movement amount as the pupil movement amount.
When both pupils are detected continuously, if both pupils cannot be detected in a shorter period of time than the specified number of frames, regardless of the user's intention ( In the case of the occurrence of the However, this is not applied when one pupil is continuously detected. In this case, the movement amount of one pupil is made to correspond to the cursor movement amount as the pupil movement amount.
被験者が緊張したりすると、頭部が振動し、それに合わせて瞳孔も振動し、カーソルが振動してしまう。(これは、瞳孔検出に問題があるのではなく、頭部の動きでカーソルを動かそうとすること自体の問題)。これを、後で述べる方法によって解決する。はじめに、一般的に考えられる方法を述べる。
通常は、得られる瞳孔移動量とカーソル移動量の対応付けを
Cx=kx・Px ,
Cy=ky・Py
として対応付けることが考えられる。ここで、PxとPyは、それぞれ画像中の水平方向、垂直方向の瞳孔移動成分(正負あり)、Cx、Cyはパソコン画面中の水平方向、垂直方向のカーソル移動量である。また、kxとkyは被験者によって好みの値を選ぶための係数である。
When the subject is nervous, the head vibrates, the pupil vibrates accordingly, and the cursor vibrates. (This is not a problem with pupil detection, but the problem of trying to move the cursor with the movement of the head itself). This is solved by the method described later. First, a method that can be generally considered will be described.
Usually, the correspondence between the obtained pupil movement amount and cursor movement amount
Cx = kx · Px,
Cy = ky ・ Py
Can be associated with each other. Here, Px and Py are the horizontal and vertical pupil movement components (with positive and negative) in the image, respectively, and Cx and Cy are the horizontal and vertical cursor movement amounts in the personal computer screen. Kx and ky are coefficients for selecting a favorite value depending on the subject.
頭部を回転もしくは移動させて、カメラから見た瞳孔を移動させることにおいて、kx、kyを大きく設定すると、小さな頭部の動きでカーソルは大きく動くが、その代わり、頭部を被験者が止めているつもりでも、頭部の振動が原因でカーソルが振動してしまう。逆に、kx、kyを小さく設定すると、大きな頭部の運動を行わないと、カーソルを大きく動かすことができなくなる。できるだけ適当な値を選択しても、カーソルを希望の位置に合わせようしたときに、カーソルが振動して位置合わせが難しい。
解決法としては、
Cx=kx・Px・|Px|b−1 ,
Cy=ky・Py・|Py|b−1
と対応させることである。b>1のとき、前記の単純比例の場合より、Px、Pyの次数が高くなり、b=2のとき瞳孔移動量の二乗をカーソル移動量に対応させることになる。このような対応付けにより、瞳孔の振動はほぼ零に抑えられ、頭部の運動による瞳孔移動は強調される。ここでも、kx、kyは被験者の好みに合わせるものとする。このように、次数を高くすると、比較的すばやく頭部を動かした場合は、小さな頭部運動によってもカーソルは大きく移動し、逆に頭部をゆっくり動かす場合は、ほんの少しだけカーソルが移動できるようになる。したがって、カーソルを大きく動かしたいときも、希望の位置からカーソルがほんの少しずれているときに、それを希望の位置に合わせたいときにも、両方に適している。
In moving the pupil seen from the camera by rotating or moving the head, if kx and ky are set large, the cursor moves greatly with the movement of the small head, but instead, the subject stops the head. The cursor vibrates due to the vibration of the head even though he intends to be. Conversely, if kx and ky are set to a small value, the cursor cannot be moved greatly unless a large head movement is performed. Even if an appropriate value is selected as much as possible, when the cursor is moved to a desired position, the cursor vibrates and alignment is difficult.
As a solution,
Cx = kx · Px · | Px | b−1
Cy = ky · Py · | Py | b-1
Is to correspond. When b> 1, the orders of Px and Py are higher than in the case of the simple proportionality, and when b = 2, the square of the pupil movement amount is made to correspond to the cursor movement amount. By such association, pupil vibration is suppressed to almost zero, and pupil movement due to head movement is emphasized. Here again, kx and ky are set according to the subject's preference. In this way, when the order is increased, the cursor moves greatly even with a small head movement when the head is moved relatively quickly, and conversely, when the head is moved slowly, the cursor can move only slightly. become. Therefore, it is suitable for both when it is desired to move the cursor greatly and when the cursor is slightly displaced from the desired position and when it is desired to align it with the desired position.
しかし、b=2にしても、頭部の振動がカーソル移動に悪影響を与える場合は、いわゆる不感帯(dead zone)を設けて対処する。すなわち、Px,Pyが指定した閾値以下のときは、Px=0,Py=0(もしくは、Cx=0,Cy=0)とする。このようにすると不感帯の範囲の小さな頭部振動では、カーソルがまったく動かなくなる。
または、不感帯を設けた上で、不感帯の範囲内の小さな瞳孔移動の間は、すべての瞳孔移動の積分値を記録しておき、不感帯を超える大きな瞳孔移動があったときは、その積分値を使用して、カーソル移動をさせる。顔の向く方向によりカーソル制御を行う場合には、このようにすることによって、ほぼ顔の向いた方向にカーソルを瞬間的に向けることが可能である。
さらに、不感帯と、不感帯の境界を原点とする指数関数を用いれば、頭部の小さな振動ではカーソルが全く動かず、不感帯よりも頭部の移動が大きくなると徐々に動くようにすることができる。
However, even if b = 2, if the vibration of the head adversely affects the movement of the cursor, a so-called dead zone is provided. That is, when Px and Py are equal to or less than the specified threshold values, Px = 0 and Py = 0 (or Cx = 0 and Cy = 0) are set. In this way, the cursor does not move at all with a small head vibration in the dead zone range.
Or, after providing a dead zone, record the integral value of all pupil movements during small pupil movements within the dead zone range, and if there is a large pupil movement that exceeds the dead zone, set the integral value Use to move the cursor. When the cursor is controlled according to the direction in which the face is directed, the cursor can be instantaneously directed substantially in the direction in which the face is directed in this way.
Furthermore, if the dead zone and an exponential function with the dead zone boundary as the origin are used, the cursor does not move at all with a small vibration of the head, and can gradually move as the head moves larger than the dead zone.
クリックしたりドラッグを開始したりするとき、眼を開いた状態から、閉じる。また、ドラッグを終了するときは、眼を閉じた状態から開く。このように眼の開閉の短い時間に(例えば、2フレーム間)、一般に、人間は、注意しないと眼が動いてしまう。特別な処理をしないと、眼の動きに合わせてカーソルが移動してしまい、使用者の意図とは違う位置にカーソルが動くために、クリックやドラッグをしたい場所とは異なった場所をクリックやドラッグをしてしまうことになる。この問題を防ぐために、ちょうど使用者が目的の位置にカーソルを合わせて、眼を閉じる、もしくは、開こうとする時点でのカーソル位置の座標が入力情報となることが望ましい。そこで、例えば、常に最近の数フレームにわたるカーソル移動量を記録しておき、クリックもしくはドラッグの開始、終了が起こったと判断されたフレーム(これをフレームBとする)から、時間を数フレーム分だけ遡ったフレーム(フレームEとする)におけるカーソル位置にカーソルを戻すための処理を施す。すなわち、フレームBからフレームEまでの間の瞳孔移動量の積分値を、フレームBにおける瞳孔移動量から引いた値を、新たな瞳孔移動量に置き換えてカーソル移動に使用する。 When you click or start dragging, close your eyes from the open state. When the drag is finished, the eye is opened from the closed state. In this way, in a short time for opening and closing the eyes (for example, between two frames), generally, a human moves his eyes unless care is taken. If no special processing is performed, the cursor moves according to the movement of the eyes, and the cursor moves to a position different from the user's intention. Will end up. In order to prevent this problem, it is desirable that the coordinates of the cursor position at the time when the user moves the cursor to the target position and closes or opens the eyes become the input information. Therefore, for example, the amount of cursor movement over the recent several frames is always recorded, and the time is traced back by several frames from the frame where it is determined that the start or end of the click or drag has occurred (this is referred to as frame B). A process for returning the cursor to the cursor position in the frame (referred to as frame E) is performed. That is, the value obtained by subtracting the integral value of the pupil movement amount from frame B to frame E from the pupil movement amount in frame B is replaced with a new pupil movement amount and used for cursor movement.
片目の開閉の苦手な使用者もいる。そのような使用者についても、瞳孔マウスのボタン操作に相当する部分を他のボタン押し装置(汎用マウス、キーボードなどを含む)で代行させたり、併用させたりすることができる。例えば、大きなディスプレー上のカーソルを制御する場合に有用である。
また、瞳孔マウスと汎用の手動マウスを併用することも有用である。
汎用の手動マウスは細かいカーソル移動は得意であるが、大きなカーソル移動をするためには、手を大きく動かすか、何度か空に浮かせて位置を戻す必要があり、使用しにくい面がある。それに対して、瞳孔マウスにおいては、大きな頭の動き(回転)に対して、カーソルは素早く動く。そして、細かい作業については、瞳孔マウスが作用しないようにしておき、手動マウスによりカーソルを動かす。
Some users are not good at opening and closing one eye. For such a user, the part corresponding to the button operation of the pupil mouse can be substituted by another button pressing device (including a general-purpose mouse, a keyboard, etc.) or can be used in combination. For example, it is useful when controlling a cursor on a large display.
It is also useful to use a pupil mouse and a general-purpose manual mouse in combination.
A general-purpose manual mouse is good at fine cursor movement, but in order to move a large cursor, it is difficult to use it because it is necessary to move the hand greatly or to lift it back several times. On the other hand, in the pupil mouse, the cursor moves quickly for a large head movement (rotation). For fine work, the pupil mouse is kept from acting and the cursor is moved by the manual mouse.
さらに、大きなディスプレー上においてカーソルを見失うことがよくあり、使いにくい。瞳孔マウスを調整して、カーソルを頭の回転に合わせて大きく移動させるようにすれば、ほぼ頭の向いている方向にカーソルが移動させるようにできるので、カーソルを見つけやすくもなる。以上のことをするためには、不感帯を大きめに設定し、小さな瞳孔移動ではカーソルがまったく動かないように設定しておく。その上で、すべての瞳孔移動の積分値を記録しておき、再度、不感帯を超える大きな瞳孔移動があったときは、その積分値を使用して、瞳孔移動をさせる。このようにすることによって、ほぼ顔の向いた方向にカーソルを瞬間的に向けることが可能である。 In addition, the cursor is often lost on a large display, making it difficult to use. By adjusting the pupil mouse and moving the cursor to a large extent in accordance with the rotation of the head, the cursor can be moved in a direction almost facing the head, which makes it easier to find the cursor. In order to do the above, the dead zone is set to be large, and the cursor is set not to move at all with small pupil movement. Then, the integrated value of all pupil movements is recorded, and when there is a large pupil movement exceeding the dead zone again, the pupil value is moved using the integrated value. By doing so, it is possible to point the cursor instantaneously in the direction of the face.
ここまで、眼の閉状態をマウスボタン押下に直接対応づけるものとして、説明した。この場合には、片目の2度のまばたきによりOS(あるいはアプリケーションソフト)は、ダブルクリックとの判定を行い、それに対応する動作を実行する。一方で、片目を開いたまま頭部を移動し、ドラッグに相当する操作を行いがたいユーザがいる。これに対処するために、片目の2度のまばたきを検出したときには、マウスボタン押下状態でロックしたものと判定すれば、両目開眼状態でドラッグ操作が行える。
左右の眼の開閉情報をポインティングデバイスの左右の押しボタンスイッチの押下状態情報に対応づける手段における対応づけを、使用状況に応じて切換え可能に構成することにより、有用性は高まる。
また、他の形態として、片目まばたきの繰返し周期の弁別を行うことにより、たとえば早い周期での2度のまばたきはダブルクリックとし、遅い周期での2度のまばたきは押下ロックとすることも考えられる。さらには、3度のまばたきで押下ロックとするなど、ユーザの操作しやすい条件により、ロック状態を含めて種々のボタン押下信号を発生する変形が考えられる。
ここまで述べた瞳孔位置検出、瞳孔の有無によるまばたきの検出、瞳孔移動量からカーソル移動量への変換など画像処理及びマウス代替信号への変換機能を行う検出制御手段は図示されていない。
So far, the description has been given assuming that the closed state of the eye is directly associated with the mouse button press. In this case, the OS (or application software) determines that it is double-clicked by the second blink of one eye, and executes a corresponding operation. On the other hand, there is a user who is difficult to perform an operation corresponding to dragging by moving the head with one eye open. In order to cope with this, when the second blink of one eye is detected, if it is determined that the mouse button is locked in a pressed state, a drag operation can be performed with both eyes open.
Usefulness is enhanced by configuring the correspondence in the means for associating the opening / closing information of the left and right eyes with the pressing state information of the left and right push button switches of the pointing device in accordance with the use situation.
As another form, it is also possible to discriminate the repetition cycle of one-eye blinking, for example, to make two blinks in the early cycle double-click, and to make the second blink in the late cycle push-down lock. . Furthermore, a modification that generates various button press signals including the locked state is conceivable depending on conditions that are easy for the user to operate, such as a press lock with three blinks.
The detection control means for performing the functions of image processing and conversion to a mouse substitute signal such as pupil position detection, blink detection based on the presence or absence of the pupil, and conversion from the pupil movement amount to the cursor movement amount are not shown.
これまで、狭角のカメラで瞳孔を検出するものとして説明したが、狭角のカメラに代えて広角のカメラを使用することができる。
広角のカメラを使用した場合には、両目を撮影することにより、1台のカメラ画像から2個の瞳孔が検出される。各カメラ画像からは、瞳孔が容易に検出でき、閉眼も明確にわかり、しかも、どちらの目を閉じたかも分かる。しかし、眼鏡を装着している場合、眼鏡反射が原因で、2台のカメラ画像のどちらか一方で目を開いているにもかかわらず瞳孔が検出できない場合がある。
この場合の判定手法について以下に述べる。
1.2台のカメラの両方において、2つの瞳孔が検出されているときには、計4個の瞳孔のフレーム間の移動量の平均を、カーソルの移動量に反映させる。
2.2台のカメラの両方において、左瞳孔のみ、もしくは右瞳孔のみが検出された場合は、左目もしくは右目が開いており、右目もしくは左目は閉じたと判断する。
So far, it has been described that the pupil is detected by a narrow-angle camera, but a wide-angle camera can be used instead of the narrow-angle camera.
When a wide-angle camera is used, two pupils are detected from one camera image by photographing both eyes. From each camera image, the pupil can be easily detected, the closed eye can be clearly seen, and which eye is closed is also known. However, when wearing spectacles, the pupil may not be detected even though one of the two camera images has eyes open due to spectacle reflection.
The determination method in this case will be described below.
When the two pupils are detected in both of the 1.2 cameras, the average amount of movement between the four pupil frames is reflected in the movement amount of the cursor.
In both 2.2 cameras, when only the left pupil or only the right pupil is detected, it is determined that the left eye or the right eye is open and the right eye or the left eye is closed.
3.2台のカメラで、両瞳孔とも検出できない場合は、両目が閉じたと理解するが、これは、瞬目(まばたき)か、被験者がカメラの前にいない場合は、何も起こらなかったと判断する。
4.1台のカメラでは両瞳孔が検出され、もう1台のカメラでは、片方の瞳孔のみが検出された場合は、両目は開いていると判断して、計3個の瞳孔もしくは2台のカメラの両方で検出された瞳孔(計2個)の平均のフレーム間移動量を、カーソル移動量に反映させる。
5.1台のカメラでは、右瞳孔のみが検出され、もう一台のカメラでは、左瞳孔のみが検出された場合、両目は開いていると解釈し、これら計2個の瞳孔のフレーム間移動量の平均を、カーソル移動量に反映させる。
6.1台のカメラでは、右瞳孔もしくは左瞳孔が検出され、もう一台のカメラでは、両瞳孔とも検出されなかったとき、右目もしくは左目だけが開かれており、左目もしくは右目は閉じていると判断し、計1個の瞳孔のフレーム間移動量を、カーソル移動量に反映させる。
カメラ台数を増やすと、瞳孔の移動量も数多く得られる。この際に、瞳孔移動量の単純平均をカーソル移動に反映させるのでなく、求められた瞳孔移動量のうち最大と最小を除去して平均を求める、または奇数個のデータにあっては中央の値、偶数個にあっては中央の2つの平均を瞳孔移動量とするなど、統計的手法による考え方を導入することも考えられる。
3. If both cameras cannot detect both pupils, it is understood that both eyes are closed, but this is a blink or if the subject is not in front of the camera, it is determined that nothing has happened. To do.
4. If one camera detects both pupils and the other camera detects only one pupil, it is determined that both eyes are open and a total of three pupils or two The average inter-frame movement amount of the pupils (two in total) detected by both cameras is reflected in the cursor movement amount.
5. If one camera detects only the right pupil and the other camera detects only the left pupil, it interprets that both eyes are open and moves these two pupils between frames. The average amount is reflected in the amount of cursor movement.
6. With one camera, the right or left pupil is detected, and with the other camera, when neither pupil is detected, only the right or left eye is open and the left or right eye is closed The amount of movement of one pupil in total between frames is reflected in the amount of movement of the cursor.
Increasing the number of cameras can also increase the amount of pupil movement. At this time, instead of reflecting the simple average of the pupil movement amount to the cursor movement, the average is obtained by removing the maximum and minimum of the obtained pupil movement amounts, or in the case of an odd number of data, the center value In the case of an even number, it may be possible to introduce a statistical approach such as using the average of the two at the center as the pupil movement amount.
[眼球回転に伴うカーソル移動の除去に関して]
次に、眼球回転による影響の除去について述べる。
瞳孔マウスは、本来、頭部の移動に伴ってビデオカメラ画像中を移動する瞳孔の座標の時間的変化とカーソル移動を対応づけるものである。瞳孔移動とカーソル移動の対応づけのための係数(式は、別途述べている)を変えることにより、同じ瞳孔移動に対するカーソル移動の度合いが変化するのはもちろんであるが、ビデオカメラに顔を写す際の拡大率も上記係数と同様にカーソル移動に大きく影響を与える。
もし、かなり広い範囲で(たとえば、30cmx30cmx30cm)、頭部が動いても使用できるようにするためには、ビデオカメラの拡大率を小さくして、頭部が大きく動いても常に両瞳孔が検出できなければならない。それに対して、小さな首の動きで大きなカーソル移動をさせたい場合、たとえば首の動きも思いのままならない患者が使用するためには、小さな頭部運動でカーソルを滑らかに動作させなければならないために、前記係数を大きくするよりは、ビデオカメラの拡大率を大きくして使用するのが理想的であり、たとえば顔の横幅がカメラ画像の横幅に一致する程度に写す場合が考えられる。その場合、空間内で、拡大率が小さいときと同じ大きさの瞳孔移動が起こったとしても(同じ頭部運動をしたとしても)、カメラ画像中での瞳孔移動は、拡大率が小さい場合に対して大きいので、結果的に、小さな頭部運動でも、十分に大きなカーソル移動が得られる。
[Removal of cursor movement caused by eye rotation]
Next, removal of the effect of eyeball rotation will be described.
The pupil mouse originally associates the temporal change in the coordinates of the pupil moving in the video camera image with the movement of the head and the cursor movement. By changing the coefficient for associating pupil movement with cursor movement (the expression is described separately), the degree of cursor movement for the same pupil movement changes, but the face is shown on the video camera. Similarly to the above coefficient, the enlargement ratio at the time also greatly affects the cursor movement.
If you want to be able to use the head even if it moves in a fairly wide range (for example, 30cmx30cmx30cm), you can reduce the magnification of the video camera and always detect both pupils even if the head moves greatly. There must be. On the other hand, if you want to move a large cursor with a small neck movement, for example, for a patient who does not have the neck movement as desired, the cursor must move smoothly with a small head movement. Rather than increasing the coefficient, it is ideal to use a video camera with a larger enlargement factor. For example, the image may be captured so that the width of the face matches the width of the camera image. In that case, even if a pupil movement of the same size as in the case where the magnification rate is small (even if the same head movement) occurs in the space, the pupil movement in the camera image is performed when the magnification rate is small. As a result, a sufficiently large cursor movement can be obtained even with a small head movement.
しかし、拡大率を大きくすると、頭部の運動が無くとも、眼球運動によりカーソルが移動する現象が発生する。その理由は、頭部が静止していても、眼球回転に伴い瞳孔が動き、それがビデオカメラ画像中でも移動するためである。拡大率を小さくして使用する場合は、頭部を大きく動かすのが一般的であるため、頭部運動に起因する瞳孔移動が眼球回転に起因する瞳孔移動に比較して十分に小さく後者を無視できても、拡大率を大きくして使用する場合は、無視できなくなる。結果的に、被験者がパソコン画面上のいろいろな場所を観察するために頭部がまったく動かずとも、目を動かすたびにカーソルは小刻みに動くことになる。場合によって、これが被験者にとって不快に感じたり、誤操作の原因になる可能性もある。
そこで、その問題を解決する方法を以下に述べる。
図10に示すように、眼球(20)は中心のずれた2重球からなり、その一方を角膜球(23)とする目のモデルを考えることができる。今、通常、眼球の大きさは、カメラから眼球までの距離に比べ十分に小さいので、便利のためにカメラから無限遠に眼球があるとする。また、光源(6)がカメラ(1)の開口の中心にあるとする。図10(b)のように、視線(25)がカメラの方を向いていると、光源の角膜反射(24)は瞳孔(9)の中心付近に現れる(図10(b)右)。さらに角膜反射(24)と瞳孔中心(22)の延長線上には眼球回転中心(21)が存在する。ここで、図10(a)のように、視線がカメラからずれた位置に向いたとすると、角膜反射(24)と瞳孔中心(22)はずれる。さらに眼球回転中心(21)もずれる。
However, when the enlargement ratio is increased, a phenomenon occurs in which the cursor moves due to eye movement even if there is no movement of the head. The reason is that even if the head is stationary, the pupil moves with the eyeball rotation, and it moves even in the video camera image. When using with a small magnification, it is common to move the head greatly, so the pupil movement due to head movement is sufficiently small compared to the pupil movement due to eye rotation and the latter is ignored. Even if it can be done, it cannot be ignored if the enlargement ratio is increased. As a result, even if the subject does not move at all to observe various places on the personal computer screen, the cursor moves in small increments each time the eyes are moved. In some cases, this may make the subject feel uncomfortable or cause an erroneous operation.
A method for solving this problem is described below.
As shown in FIG. 10, the eyeball (20) is composed of a double sphere whose center is shifted, and an eye model in which one of them is a corneal sphere (23) can be considered. Now, since the size of the eyeball is usually sufficiently smaller than the distance from the camera to the eyeball, it is assumed that the eyeball is at infinity from the camera for convenience. Further, it is assumed that the light source (6) is at the center of the opening of the camera (1). When the line of sight (25) faces the camera as shown in FIG. 10 (b), the corneal reflection (24) of the light source appears near the center of the pupil (9) (right in FIG. 10 (b)). Further, an eyeball rotation center (21) exists on the extension line of the corneal reflection (24) and the pupil center (22). Here, as shown in FIG. 10A, when the line of sight is directed to a position deviated from the camera, the corneal reflection (24) and the pupil center (22) are off. Furthermore, the center of eyeball rotation (21) is also shifted.
ここで、頭部が動かない限り、眼球回転中心は、眼球が回転してもほとんど動かない。したがって、瞳孔の替わりに眼球回転中心の移動をカーソル移動に対応させれば、目が動いても頭部が動かない限りカーソルは動かないことになる。
しかし、眼球中心は画像中に写るわけではないので、位置を推定する必要がある。それについて、以下に述べる。まず、図10では、瞳孔はひとつしか表現していないが、一般には2個の瞳孔とも同時に写る。640×480画素程度や320×240画素程度の分解能のビデオカメラでは、顔の横幅が画像の横幅に一致する程度の拡大率、もしくはそれ以下の拡大率では、光源をカメラの開口部の周りに並べた場合にも、図11のように光源は、ひとつの光点として写る。
Here, as long as the head does not move, the center of eyeball rotation hardly moves even when the eyeball rotates. Therefore, if the movement of the center of eyeball rotation corresponds to the cursor movement instead of the pupil, the cursor will not move unless the head moves even if the eyes move.
However, since the center of the eyeball does not appear in the image, it is necessary to estimate the position. This is described below. First, in FIG. 10, only one pupil is represented, but generally two pupils are simultaneously captured. In a video camera having a resolution of about 640 × 480 pixels or 320 × 240 pixels, the light source is placed around the opening of the camera when the magnification of the face is equal to or smaller than the width of the image. Even when arranged, the light source appears as one light spot as shown in FIG.
今、図11のように、眼球回転中心から角膜中心までの距離をr、眼球回転中心から瞳孔中心までの距離をRとして、視線方向が、カメラの存在する方向からθだけずれているとする。ここで、視線は眼球回転中心と角膜球中心と瞳孔中心を通る直線であり、視線の先が被験者の見ている視点である。
このとき、カメラの方向から見たときの眼球回転中心から瞳孔中心までの距離をp、眼球回転中心から瞳孔中心までの距離をgとすると、
r=5.9mm、R=9.7mmであることが知られているので、それからk≒0.6と求まる。
Now, as shown in FIG. 11, assuming that the distance from the center of eyeball rotation to the center of the cornea is r and the distance from the center of eyeball rotation to the center of the pupil is R, the line-of-sight direction is deviated by θ from the direction in which the camera exists. . Here, the line of sight is a straight line passing through the center of eyeball rotation, the center of the corneal sphere, and the center of the pupil, and the point of the line of sight is the viewpoint viewed by the subject.
At this time, when the distance from the eyeball rotation center to the pupil center when viewed from the camera direction is p, and the distance from the eyeball rotation center to the pupil center is g,
Since it is known that r = 5.9 mm and R = 9.7 mm, k≈0.6 is obtained therefrom.
画像中では、推定する眼球回転中心をE(Xe,Ye)と置き、画像解析によって求まる瞳孔中心と角膜反射をそれぞれP(Xp,Yp),G(Xg、Yg)とすると、
よって、以下のように変形して、
を得る。(7)式を使用することにより、画像中の角膜反射座標(Xg,Yg)と瞳孔中心座標(Xp,Yp)から、眼球回転中心(Xe,Ye)を推定することができる。ここで、kの値は個人で異なるが、大きな違いがあるわけでないので、k=0.6を与える。瞳孔中心(Xp,Yp)のフレーム間移動をカーソル移動に対応させるのに比較すれば、眼球回転中心座標(Xe,Ye)を対応させたほうが、明らかに眼球運動(眼球回転)のカーソル移動への影響は小さくなる。もちろん、頭部を固定して、故意に眼球運動を起こさせることにより、次に述べる方法によりkを推定することは可能である。
Therefore, it is transformed as follows,
Get. By using the equation (7), the eyeball rotation center (Xe, Ye) can be estimated from the corneal reflection coordinates (Xg, Yg) and the pupil center coordinates (Xp, Yp) in the image. Here, the value of k is different for each individual, but since there is no significant difference, k = 0.6 is given. Compared to the movement of the pupil center (Xp, Yp) between frames corresponding to the cursor movement, the movement of the eye movement (eye rotation) clearly moves to the cursor movement when the eye rotation center coordinates (Xe, Ye) correspond. The effect of. Of course, it is possible to estimate k by the following method by fixing the head and intentionally causing eye movement.
(3) 式より、
以上のように、kを被験者ごとに実験的に求めても、はじめから適当な値(たとえば、0.6)を与えても良い。(7)式により眼球回転中心を求めて、瞳孔中心の替わりに眼球回転中心の移動に合わせてカーソルを動かす方法が、目の回転に依存せず、頭部の回転にのみ依存するカーソル制御ができる。
From equation (3)
As described above, k may be obtained experimentally for each subject, or an appropriate value (for example, 0.6) may be given from the beginning. The method of obtaining the eyeball rotation center by the equation (7) and moving the cursor in accordance with the movement of the eyeball rotation center instead of the pupil center is not dependent on the eye rotation, but the cursor control which depends only on the rotation of the head. it can.
しかし、頭部を大きく回転させた場合には、角膜反射がまぶたやまつげによって隠れたり、カメラに対する角度θが大き過ぎ角膜反射が現れず、代わりに白目が光ることがある。このような場合、カメラから角膜反射が観察できず、眼球回転中心を推定することができない。
そのような場合の処理について以下に述べる。
(i)連続する2枚のビデオフレーム画像において、両画像において角膜反射が写っている場合は、(8)式より
(ii)連続する2枚のビデオフレーム画像のうち、どちらか一方もしくは両方において、角膜反射が検出されなかったときは、2フレーム間の瞳孔中心移動(ΔXp,ΔYp)をカーソル移動に使用する。
However, when the head is rotated greatly, the corneal reflection may be hidden by the eyelids or eyelashes, or the angle θ with respect to the camera is too large, and the corneal reflection may not appear, and the white eye may shine instead. In such a case, corneal reflection cannot be observed from the camera, and the center of eyeball rotation cannot be estimated.
The processing in such a case will be described below.
(i) In two consecutive video frame images, if corneal reflection appears in both images,
(ii) When corneal reflection is not detected in one or both of two consecutive video frame images, pupil center movement (ΔXp, ΔYp) between two frames is used for cursor movement.
[瞳孔中心を高精度に検出するための画像処理に関して]
次に、瞳孔中心の検出精度の向上について述べる。
瞳孔の動きに対してカーソル移動を制御する場合、瞳孔中心を高分解能で検出することが望ましい。たとえば、一般に使用されるテンプレートマッティング法では、座標が1画素毎にしか得られないため、滑らかなカーソル移動は難しい。そこで、後で述べるような方法に瞳孔中心を高精度に検出するが、その前の画像処理における前提について述べる。
基本的には、全画像に対して同一の画像処理をして、瞳孔中心の高精度検出は難しい。しかも、全画像中には、瞳孔と特徴が類似した画像が現れることもあるため、それを誤認識しないようにしなければならない。
そこで、差分画像より輝度が明るい部分として瞳孔を一度検出したら(そのときの中心座標の高い精度は必要ない)、そこにウインドウを与え、次のフレームからはウインドウ内だけを瞳孔探索するようにする。それによって、ウインドウ以外の画像処理が必要なくなるため、ウインドウ内の画像処理演算に多くの時間をかけることができる。ウインドウサイズとしては、顔の縦全体がちょうど画像に入るくらいのサイズであれば、320×240画素の分解能の画像で、21×21画素程度の方形ウインドウを与えればよいし、顔の横全体がちょうど画像に入る程度であれば、25×25画素程度でもよい。いずれにしても、このウインドウのサイズは、頭部や瞳孔の動くスピードを考慮しなければならない。通常の1秒間に30フレームのビデオカメラ(NTSC方式)では、1フレームの時間に瞳孔が大きく動くため、次のフレームでの瞳孔位置をカルマンフィルターなどの予測モデルを利用して、予測した瞳孔位置を中心にした上記のウインドウを設定する必要がある。
[Regarding image processing to detect the pupil center with high accuracy]
Next, improvement in detection accuracy of the pupil center will be described.
When controlling the cursor movement with respect to the movement of the pupil, it is desirable to detect the center of the pupil with high resolution. For example, in a generally used template matting method, since coordinates can be obtained only for each pixel, smooth cursor movement is difficult. Thus, the center of the pupil is detected with high accuracy by the method described later, but the premise of the previous image processing will be described.
Basically, it is difficult to detect the center of the pupil with high accuracy by performing the same image processing on all images. In addition, since images having characteristics similar to those of the pupil may appear in all the images, it is necessary to prevent erroneous recognition.
Therefore, once the pupil is detected as a brighter part than the difference image (the high accuracy of the center coordinates at that time is not required), a window is provided there, and the pupil is searched only within the window from the next frame. . This eliminates the need for image processing other than that for the window, so that a large amount of time can be spent on image processing calculations within the window. As for the window size, if the entire length of the face is just enough to fit in the image, a rectangular window of about 21 × 21 pixels can be given with an image with a resolution of 320 × 240 pixels, and the entire width of the face is As long as it is just within the image, it may be about 25 × 25 pixels. In any case, the size of this window must take into account the speed at which the head and pupil move. In a normal video camera with 30 frames per second (NTSC system), the pupil moves greatly during the time of one frame, so the pupil position in the next frame is predicted using a prediction model such as a Kalman filter. It is necessary to set the above window centered on the.
さて、高精度の瞳孔中心の算出法について少し考察する。瞳孔中心を求める際に、差分画像の輝度を考慮した重心法により、瞳孔中心を求める方法が考えられる。重心法では、高分解能が期待できる。しかし、差分画像においても、図12(a)で示す例のように、瞳孔が中心にあり、その周囲にまぶたが観察されるような場合がある(差分画像を使用するため、まぶたに動きがあると、現れる)。このとき、単なる輝度重心を瞳孔中心として求めようとしても、どの範囲の画像の重心計算をすればよいかが問題となり、範囲の設定によっては大きな誤差に繋がったり、不安定な結果となりうる。したがって、単なる重心法は使用しにくい。さらに、図12(a)のような画像を2値化してから重心を求める方法も考えられるが、さらに精度に期待が持てない。
最近、円形に近い黒目の検出のために、分離度フィルタ(K.Fukui:"Edge extraction method based on separability of image features"、IEICE Trans. Inf. & Syst., Vol.E78-D, No.12, pp.1533-1538(1995)) が用いられることがある( M.Yuasa, O.Yamaguchi, K.Fukui:"Precise pupil contour detection based on minimizing the energy of pattern and edge"、IEICE Trans. Inf. & Syst., Vol.E87-D, No.1, pp.105-112 (2004), 川口 剛、モハメッド リゾン、日高大輔:"ハフ変換と分離度フィルタによる人物顔からの両目の検出"、信学論D-II, Vol.J84-DII, No.10, pp.2190-2200 (2001))。
この場合、図13のように、2重円状のマスクを用いて、内側の領域を領域1、外側の領域を領域2とし、画像中で分離度が最大になる座標を求める。しかし、分離度が最大になる座標を求めるという方法では画素単位の分解能でしか座標が検出できず、滑らかなカーソル移動に支障を来す。そこで、最大値を示す画素を中心に狭い範囲の重心を求める方法が考えられるが、対象が数ピクセルであることから、あまり分解能等に期待が持てない。範囲を広げると、重心に大きく影響する分離度値を示す画素が範囲内に存在する可能性があり、やはりあまり精度が期待できない。
Now, let us consider a little about how to calculate the pupil center with high accuracy. When determining the pupil center, a method of determining the pupil center by the center of gravity method considering the luminance of the difference image is conceivable. The center of gravity method can be expected to have high resolution. However, even in the difference image, as in the example shown in FIG. 12A, there is a case where the pupil is at the center and the eyelid is observed around the pupil (because the difference image is used, the eyelid moves. If there is, it appears). At this time, even if an attempt is made to obtain a mere luminance centroid as the center of the pupil, there is a problem as to which range of image centroid calculation should be performed. Therefore, the centroid method is difficult to use. Furthermore, a method of obtaining the center of gravity after binarizing the image as shown in FIG. 12A is conceivable, but further accuracy cannot be expected.
Recently, in order to detect black eyes close to a circle, a separation degree filter (K.Fukui: "Edge extraction method based on separability of image features", IEICE Trans. Inf. & Syst., Vol. E78-D, No. 12 , pp.1533-1538 (1995)) (M. Yuasa, O. Yamaguchi, K. Fukui: "Precise pupil contour detection based on minimizing the energy of pattern and edge", IEICE Trans. Inf. & Syst., Vol.E87-D, No.1, pp.105-112 (2004), Tsuyoshi Kawaguchi, Mohammed Lizon, Daisuke Hidaka: "Detection of both eyes from human face by Hough transform and separability filter", Science theory D-II, Vol.J84-DII, No.10, pp.2190-2200 (2001)).
In this case, as shown in FIG. 13, a double circle mask is used, and the inner region is defined as region 1 and the outer region is defined as region 2, and the coordinates that maximize the degree of separation in the image are obtained. However, the method of obtaining the coordinate with the maximum degree of separation can detect the coordinate only with the resolution of the pixel unit, and hinders smooth cursor movement. Therefore, a method of obtaining the center of gravity of a narrow range centering on the pixel showing the maximum value can be considered, but since the target is several pixels, the resolution and the like cannot be expected so much. When the range is widened, there is a possibility that a pixel showing a separation value that greatly affects the center of gravity exists in the range, and thus accuracy cannot be expected.
さらに、分離度フィルタは一般に多くの演算時間を必要とするなどの問題がある。そこで、以下のような手法をとる。
基本的に、差分画像において瞳孔が円形で半径が可変であり、周囲より輝度が高いという特徴を持つということを利用する。
差分画像の座標(x,y)における瞳孔特徴量P(x,y)を次式のように定義し、ウインドウ内について求める。
Basically, the fact that the pupil is circular and the radius is variable in the difference image and the brightness is higher than the surroundings is used.
The pupil feature P (x, y) at the coordinates (x, y) of the difference image is defined as the following equation, and is determined for the window.
さらに、ウインドウ内でP(x, y)の最大値を求め、それが閾値(経験値)を超えなかったときは瞳孔が存在しないと判断し、超えたときは瞳孔が存在すると判断する。この方法により、以前のフレームで存在した瞳孔が現在にフレームで消失した場合に、それを判断する。さらに、ウインドウを解除するきっかけ(トリガー)に利用する。瞳孔が存在すると判断されたら、最大値を示した座標を中心に一辺2Lm〜4Lmの程度の方形領域内におけるP(x, y)の重心を計算し、最終的な瞳孔中心とする。
しかし、[眼球回転に伴うカーソル移動の除去に関して]の項でも述べたように、ビデオカメラの拡大率が大きい場合には、放射状マスクの各ラインの長さは、中央を含めると5画素である。大きく写る瞳孔中心を正確に求めるためには、このラインの長さを長くすれば解決できるが、それでは、計算時間が長くなってしまう。それを解決するためには、図15のように、マスクの中心範囲に近いほうの画素の代わりに遠いほうの画素を増やし、結果的にマスクの画素数を変えないようにする。このような工夫によって、演算時間を増やさずにビデオカメラの拡大率に対応させることができる。
Further, the maximum value of P (x, y) is obtained within the window, and when it does not exceed the threshold value (experience value), it is determined that the pupil does not exist, and when it exceeds, it is determined that the pupil exists. By this method, when the pupil existing in the previous frame disappears in the current frame, it is determined. Furthermore, it is used for the trigger (trigger) to cancel the window. If it is determined that a pupil is present, the center of gravity of P (x, y) in a square region having a side of about 2 Lm to 4 Lm around the coordinates indicating the maximum value is calculated and set as the final pupil center.
However, as described in the section [Removal of cursor movement accompanying eye rotation], when the enlargement ratio of the video camera is large, the length of each line of the radial mask is 5 pixels including the center. . In order to accurately determine the center of the pupil that appears large, the problem can be solved by increasing the length of this line, but this will increase the calculation time. In order to solve this problem, as shown in FIG. 15, the pixels closer to the center of the mask are increased in place of the pixels closer to the center range, and as a result, the number of pixels in the mask is not changed. By such a device, it is possible to cope with the enlargement ratio of the video camera without increasing the calculation time.
なお、分離度ηは、画像中の2つの領域1と領域2があるとき、式(11)から(13)における領域1と領域2からの情報を使用して線形判別法によって計算できる。
(1) 本方法では、2台のカメラを用いているが、ステレオカメラというわけではないので、頭を動かす範囲に、2台のカメラを適当に向ければよく、カメラ較正も必要ない点で使用しやすい。
(2) 1台のカメラでは最多で2個までの瞳孔の移動の平均をカーソルに対応させていたが、2台のカメラでは最多で4個まで対応させることができるため、カーソル移動により高い安定性が得られる。とくに、ドラッグをさせるときには、もともと片方の瞳孔移動だけを検出するので効果が大きい。
(3) 眼鏡反射がなく、目を開いていても、何らかの理由で瞳孔が検出できないときにも、それを補うことができる。
(4)瞳孔の検出率を向上させる場合に、一度瞳孔を検出したら、その周囲の小さなウインドウを与え、次のフレームでは、そのウインドウの内部だけを探索し瞳孔を検出する方法が有効である。すばやい瞳孔の動きに対応するためには、前のフレームとさらにその前のフレームの瞳孔位置から、現在のフレームにおける瞳孔位置を予測し、ウインドウを与えることによって、瞳孔の検出率は飛躍的に向上する。一台のカメラのみの場合には、目が開いているにもかかわらず瞳孔が検出できなくなった場合、ウインドウを解除するか、ウインドウを大きくして瞳孔を検出するしかない。しかし、ウインドウを大きくすれば、その分、誤って瞳孔以外の部分を瞳孔として検出する可能性が高くなり、正しい瞳孔検出率が低下する。2台のカメラを用い、両者の距離をあまり大きくしなければ、両者のカメラによって左右の瞳孔の位置関係はほぼ同じであるため、片方のカメラ画像での瞳孔のフレーム間移動量は、もう片方のカメラのそれとあまり変らない。そこで、瞳孔が検出されているほうのカメラ画像内での瞳孔移動と同等の瞳孔移動が、瞳孔が検出されなかったカメラ画像内においても起こっているとして、その移動量にあわせて動的ウインドウをしばらくの間(数フレーム間)与え続ける。その間に、眼鏡反射像が瞳孔像を通り抜けて、再度、そのウインドウ内で検出できれば、カーソルは何事もなかったかのように正常に移動することになる。このように、2台のカメラから得られる左右の瞳孔の対応付け(マッチング)が容易であるので、眼鏡反射などが理由で、目を開いているにもかかわらず瞳孔が検出できなかったときに、有効である。
(1) This method uses two cameras, but it is not a stereo camera, so it can be used to point the two cameras appropriately within the range of moving the head and does not require camera calibration. It's easy to do.
(2) Although the maximum movement of up to two pupils is associated with the cursor in one camera, it can be associated with up to four in the two cameras, so it is highly stable by moving the cursor. Sex is obtained. In particular, when dragging, the effect is great because only one pupil movement is originally detected.
(3) Even if there is no spectacle reflection and the eyes are open, even when the pupil cannot be detected for some reason, it can be compensated.
(4) In order to improve the pupil detection rate, once the pupil is detected, a small window around it is given, and in the next frame, only the inside of the window is searched to detect the pupil. In order to respond to rapid pupil movement, the pupil detection position in the current frame is predicted from the previous frame and the pupil position in the previous frame, and a window is provided to greatly improve the pupil detection rate. To do. In the case of only one camera, when the pupil cannot be detected even though the eyes are open, the window can only be canceled or the pupil can be detected by enlarging the window. However, if the window is enlarged, the possibility that a part other than the pupil will be erroneously detected as the pupil increases, and the correct pupil detection rate decreases. If two cameras are used and the distance between them is not too large, the positional relationship between the left and right pupils is the same for both cameras, so the amount of movement of the pupil between frames in one camera image is the other. It is not much different from that of other cameras. Therefore, assuming that the pupil movement equivalent to the pupil movement in the camera image where the pupil is detected also occurs in the camera image where the pupil is not detected, the dynamic window is set according to the movement amount. Keep giving for a while (several frames). In the meantime, if the spectacle reflection image passes through the pupil image and can be detected again within the window, the cursor moves normally as if nothing had happened. As described above, since the left and right pupils obtained from the two cameras can be easily matched (matching), the pupil cannot be detected even though the eyes are open due to spectacle reflection or the like. ,It is valid.
1 カメラ
2 カメラ開口
3 カメラ開口に近い光源
4 カメラ開口から遠い光源
5 発光ダイオード(LED)
6 光源
7 眼鏡レンズ
8 角膜
9 瞳孔
10 眼鏡反射
11 バンドパスフィルター
1 Camera 2 Camera opening 3 Light source close to camera opening 4 Light source far from camera opening 5 Light emitting diode (LED)
6 Light source 7 Eyeglass lens 8 Cornea 9 Pupil 10 Eyeglass reflection 11 Band pass filter
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004365546A JP4491604B2 (en) | 2004-12-17 | 2004-12-17 | Pupil detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004365546A JP4491604B2 (en) | 2004-12-17 | 2004-12-17 | Pupil detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006167256A JP2006167256A (en) | 2006-06-29 |
JP4491604B2 true JP4491604B2 (en) | 2010-06-30 |
Family
ID=36668592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004365546A Active JP4491604B2 (en) | 2004-12-17 | 2004-12-17 | Pupil detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4491604B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013141098A1 (en) | 2012-03-21 | 2013-09-26 | 国立大学法人浜松医科大学 | Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device |
WO2014181775A1 (en) | 2013-05-08 | 2014-11-13 | 国立大学法人静岡大学 | Pupil detection light source device, pupil detection device and pupil detection method |
US9538947B2 (en) | 2011-09-05 | 2017-01-10 | National University Corporation Hamamatsu University School Of Medicine | Method, system and device for assisting diagnosis of autism |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008125619A (en) * | 2006-11-17 | 2008-06-05 | National Univ Corp Shizuoka Univ | Pupil detection apparatus and pupil detection method |
JP5145555B2 (en) * | 2007-03-30 | 2013-02-20 | 国立大学法人静岡大学 | Pupil detection method |
JP5004099B2 (en) * | 2008-07-11 | 2012-08-22 | 国立大学法人静岡大学 | Cursor movement control method and cursor movement control apparatus |
JP5387557B2 (en) * | 2010-12-27 | 2014-01-15 | カシオ計算機株式会社 | Information processing apparatus and method, and program |
JP5765015B2 (en) * | 2011-03-30 | 2015-08-19 | 富士通株式会社 | Gaze detection device, gaze detection method, and gaze detection program |
JP5719216B2 (en) * | 2011-04-05 | 2015-05-13 | 日本放送協会 | Gaze measurement apparatus and gaze measurement program |
KR101457160B1 (en) * | 2012-08-17 | 2014-11-03 | 삼성전자 주식회사 | Laser interlock system and control method for the same |
KR101419676B1 (en) * | 2013-02-19 | 2014-07-16 | 주식회사 슈프리마 | Object recognition apparatus |
WO2014134454A1 (en) * | 2013-03-01 | 2014-09-04 | Boston Scientific Scimed, Inc. | Systems and methods for lumen border detection in intravascular ultrasound sequences |
JP6381654B2 (en) * | 2014-08-29 | 2018-08-29 | アルプス電気株式会社 | Gaze detection device |
WO2017013913A1 (en) * | 2015-07-17 | 2017-01-26 | ソニー株式会社 | Gaze detection device, eyewear terminal, gaze detection method, and program |
JP2017079883A (en) | 2015-10-23 | 2017-05-18 | 富士通株式会社 | Visual line detection system, visual line detection method, and visual line detection program |
JP2017151565A (en) | 2016-02-22 | 2017-08-31 | 富士通株式会社 | Detection system, detection method, and detection program |
KR20170118618A (en) * | 2016-04-15 | 2017-10-25 | 이문기 | Eye capturing device |
WO2017217026A1 (en) * | 2016-06-16 | 2017-12-21 | アルプス電気株式会社 | Cornea center detection device and gaze detection device |
JP6737057B2 (en) | 2016-08-10 | 2020-08-05 | 富士通株式会社 | Eye gaze detection device, eye gaze detection method, and eye gaze detection program |
JP7116978B2 (en) * | 2017-07-12 | 2022-08-12 | 国立大学法人静岡大学 | Image Feature Tracking Method, Eye Tracking Method, and Gaze Tracking Method |
JP6711346B2 (en) * | 2017-12-13 | 2020-06-17 | オムロン株式会社 | State estimation apparatus, method and program therefor |
CN117523650B (en) * | 2024-01-04 | 2024-04-02 | 山东大学 | Eyeball motion tracking method and system based on rotation target detection |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2648198B2 (en) * | 1989-01-23 | 1997-08-27 | 日本電信電話株式会社 | Gaze direction detection method |
JP3185522B2 (en) * | 1994-02-15 | 2001-07-11 | 日産自動車株式会社 | Gaze direction measuring device for vehicles |
JP3735947B2 (en) * | 1996-06-26 | 2006-01-18 | 日産自動車株式会社 | Line-of-sight input device |
JPH11212715A (en) * | 1998-01-29 | 1999-08-06 | Shimadzu Corp | Line-of-sight input device |
US7206435B2 (en) * | 2002-03-26 | 2007-04-17 | Honda Giken Kogyo Kabushiki Kaisha | Real-time eye detection and tracking under various light conditions |
US7280678B2 (en) * | 2003-02-28 | 2007-10-09 | Avago Technologies General Ip Pte Ltd | Apparatus and method for detecting pupils |
-
2004
- 2004-12-17 JP JP2004365546A patent/JP4491604B2/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9538947B2 (en) | 2011-09-05 | 2017-01-10 | National University Corporation Hamamatsu University School Of Medicine | Method, system and device for assisting diagnosis of autism |
WO2013141098A1 (en) | 2012-03-21 | 2013-09-26 | 国立大学法人浜松医科大学 | Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device |
WO2014181775A1 (en) | 2013-05-08 | 2014-11-13 | 国立大学法人静岡大学 | Pupil detection light source device, pupil detection device and pupil detection method |
US9898658B2 (en) | 2013-05-08 | 2018-02-20 | National University Corporation Shizuoka University | Pupil detection light source device, pupil detection device and pupil detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2006167256A (en) | 2006-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4491604B2 (en) | Pupil detection device | |
US11917126B2 (en) | Systems and methods for eye tracking in virtual reality and augmented reality applications | |
JP6930223B2 (en) | Pupil detection computer program, pupil detection device and pupil detection method | |
JP6577454B2 (en) | On-axis gaze tracking system and method | |
US9411417B2 (en) | Eye gaze tracking system and method | |
US9473696B2 (en) | Gaze detection apparatus, gaze detection computer program, and display apparatus | |
TWI704501B (en) | Electronic apparatus operated by head movement and operation method thereof | |
JP3673834B2 (en) | Gaze input communication method using eye movement | |
US20130257751A1 (en) | Detection of interaction with virtual object from finger color change | |
JP5578603B2 (en) | Gaze control device, gaze control method, and program thereof | |
US10311583B2 (en) | Eye motion detection method, program, program storage medium, and eye motion detection device | |
JP4951751B2 (en) | Pointing apparatus and method based on pupil detection | |
WO2017203815A1 (en) | Information processing device, information processing method, and recording medium | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP4839432B2 (en) | Pointing device and method based on pupil position detection | |
JP2018205819A (en) | Gazing position detection computer program, gazing position detection device, and gazing position detection method | |
Lander et al. | hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation | |
KR20200043786A (en) | Method of controlling screen and display device having the same | |
JP4313717B2 (en) | Gaze detection device | |
EP3346368B1 (en) | Device, method and system for control of a target apparatus | |
JP4568836B2 (en) | Real-time pupil position detection system | |
Mimica et al. | A computer vision framework for eye gaze tracking | |
JP2006059147A (en) | Computer input method and device | |
CN114740966A (en) | Multi-modal image display control method and system and computer equipment | |
JPH11282617A (en) | Sight line input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070316 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |