JP3143819B2 - Eyelid opening detector - Google Patents
Eyelid opening detectorInfo
- Publication number
- JP3143819B2 JP3143819B2 JP06107296A JP10729694A JP3143819B2 JP 3143819 B2 JP3143819 B2 JP 3143819B2 JP 06107296 A JP06107296 A JP 06107296A JP 10729694 A JP10729694 A JP 10729694A JP 3143819 B2 JP3143819 B2 JP 3143819B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eyelid
- edge
- eye
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明はまぶたの開度検出装置に
係り、特に、ドライバーの眼の開度から運転状態を検出
し、異常状態の場合に警告する車両用運転状態検出装置
等に好適なまぶたの開度検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eyelid opening detecting device, and more particularly, to a driving condition detecting device for a vehicle which detects a driving condition from an opening of a driver's eyes and warns the driver in the case of an abnormal condition. The present invention relates to an eyelid opening detection device.
【0002】[0002]
【従来の技術】画像処理により人のまばたきを検出する
方法としては、原画像もしくは原画像のエッジ画像の2
値化により、目領域を抽出してその高さを計測する方
法、暗い領域として虹彩(いわゆる黒目)が検出できる
か否かにより、開閉眼を判定する方法(特開平3−53
3)、カラー画像で皮膚と眼球部の彩度と色相差および
明度差により目領域の面積を求める方法(電子情報通信
学会論文誌D−II,Vol.J77−D−II,NO
2,pp.470−472(1994)「色度と明度情
報を用いた瞬目抽出法の提案」)が提案されている。2. Description of the Related Art As a method of detecting a blink of a person by image processing, there are two methods of detecting an original image or an edge image of the original image.
A method of extracting an eye region by binarization and measuring its height, and a method of judging an open / closed eye based on whether or not an iris (so-called black eye) can be detected as a dark region (Japanese Patent Laid-Open No. 3-53)
3), a method of obtaining the area of the eye region from the saturation and the hue difference and the brightness difference between the skin and the eyeball portion in a color image (IEICE Transactions D-II, Vol. J77-D-II, NO
2, pp. 470-472 (1994) "Proposal of blink extraction method using chromaticity and brightness information".
【0003】[0003]
【発明が解決しようとする課題】しかしながら、画像の
2値化による方法では、照明条件の変化や顔の造りの個
人差等により正確に目領域を抽出できないという問題が
ある。また、虹彩を円形領域として検出する方法では、
開眼および閉眼しか判別できず、さらに、開閉眼動作の
途中、もしくは開眼中においても虹彩が必ずしも円形と
して検出されないので、精度よく検出できない、という
問題がある。また、カラー画像による方法では十分な光
量の白色光源が必要となり利用環境が限られる、という
問題がある。However, the method based on the binarization of an image has a problem that an eye region cannot be accurately extracted due to a change in lighting conditions, an individual difference in face structure, or the like. In the method of detecting the iris as a circular area,
There is a problem in that only open and closed eyes can be distinguished, and furthermore, the iris is not always detected as a circle during the opening / closing operation of the eye or while the eye is open, so that it cannot be detected accurately. In addition, the method using a color image requires a sufficient amount of white light source, and there is a problem that the use environment is limited.
【0004】本発明は上記問題点を解消するためになさ
れたもので、人のまばたきを検出する際に、照明条件や
対象となる人の顔の造り等の個人差の影響を受けにくい
まぶたの開度検出装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem. When detecting a blink of a person, the eyelid which is hardly affected by individual differences such as lighting conditions and the structure of a target person's face. It is an object to provide an opening detection device.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に本発明は、目を含む領域の濃淡画像を入力し、該領域
においてまばたき方向の基準線上の画素の濃淡変化を表
す1次元画像を抽出すると共に、前記1次元画像に基づ
いて前記基準線上の画素毎の濃淡変化の大きさを表す1
次元エッジ画像を算出するエッジ画像算出手段と、前記
1次元エッジ画像における濃淡変化の極値に基づいて上
まぶたと眼球との境界を示す第1の境界点及び下まぶた
と眼球との境界を示す第2の境界点を検出するまぶた検
出手段と、検出した第1の境界点と第2の境界点との間
の距離をまぶたの開度として検出するまぶた開度検出手
段と、を含んで構成したものである。To achieve the above object, the present invention provides a method for inputting a gray-scale image of a region including an eye, and forming a one-dimensional image representing a change in gray-scale of a pixel on a reference line in a blinking direction in the region. 1 that indicates the magnitude of the grayscale change of each pixel on the reference line based on the one-dimensional image.
Edge image calculation means for calculating a two-dimensional edge image; and a first boundary point indicating a boundary between an upper eyelid and an eyeball and a boundary between a lower eyelid and an eyeball based on an extreme value of a change in shading in the one-dimensional edge image. Eyelid detecting means for detecting the second boundary point, and eyelid opening detecting means for detecting the distance between the detected first boundary point and the second boundary point as the eyelid opening degree It was done.
【0006】[0006]
【作用】本発明のエッジ画像算出は、目を含む領域の濃
淡画像を入力し、この領域においてまばたき方向の基準
線上の画素の濃淡変化を表す1次元画像を抽出する。カ
ラー画像ではなく、濃淡画像を用いているため、十分な
光量の白色光源を必要とすることなく、広い環境におい
て利用することができる。In the edge image calculation of the present invention, a gray-scale image of a region including the eyes is input, and a one-dimensional image representing a gray-scale change of a pixel on a reference line in a blinking direction is extracted in this region. Since a gray-scale image is used instead of a color image, it can be used in a wide environment without requiring a white light source with a sufficient amount of light.
【0007】また、エッジ画像算出手段は、1次元画像
に基づいて基準線上の濃淡変化の大きさを画素毎に算出
して画素毎の濃淡変化の大きさを表す1次元エッジ画像
を算出し、まぶた検出手段は1次元エッジ画像における
濃淡変化の極値に基づいて上まぶたと眼球との境界を示
す第1の境界点及び下まぶたと眼球との境界を示す第2
の境界点を検出する。1次元エッジ画像を2値化するこ
となく濃淡変化の極値を用いて処理しているため、照明
条件や対象となる人の顔の造り等の個人差の影響を受け
難くなる。The edge image calculating means calculates, for each pixel, the magnitude of the gradation change on the reference line based on the one-dimensional image, and calculates a one-dimensional edge image representing the magnitude of the gradation change for each pixel. The eyelid detecting means is configured to determine a first boundary point indicating a boundary between the upper eyelid and the eyeball and a second boundary point indicating a boundary between the lower eyelid and the eyeball based on the extreme value of the change in shading in the one-dimensional edge image.
The boundary point of is detected. Since the one-dimensional edge image is processed using the extreme value of the change in shading without binarization, the one-dimensional edge image is less likely to be affected by individual differences such as lighting conditions and a target person's face structure.
【0008】そして、まぶた開度検出手段は、抽出した
第1の境界点と第2の境界点との間の距離をまぶたの開
度として検出する。Then, the eyelid opening detecting means detects the distance between the extracted first boundary point and the second boundary point as the eyelid opening.
【0009】[0009]
【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。本実施例は、本発明のまぶたの開度検出装
置をまばたき検出装置に適用したものである。Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the eyelid opening detection device of the present invention is applied to a blink detection device.
【0010】図1に示すように、本実施例は、対象とす
る被験者の顔を含む画像を撮影するCCDカメラ等から
なる画像撮影部1を備えている。画像撮影部1には、画
像撮影部1のシャッターの作動に同期して撮影対象を照
明するための、赤外ストロボや赤外LDE等からなる照
明部2および画像処理を行うパーソナルコンピュータ7
が接続されている。このパーソナルコンピュータ7に
は、まばたきの回数等を表示するCRT等で構成された
表示装置8が接続されている。As shown in FIG. 1, this embodiment includes an image photographing unit 1 composed of a CCD camera or the like for photographing an image including the face of a subject to be examined. The image photographing unit 1 includes an illuminating unit 2 including an infrared strobe or an infrared LDE for illuminating an object to be photographed in synchronization with an operation of a shutter of the image photographing unit 1 and a personal computer 7 for performing image processing.
Is connected. The personal computer 7 is connected to a display device 8 such as a CRT for displaying the number of blinks and the like.
【0011】上記パーソナルコンピュータ7は、CP
U、図15にフローチャートで示す画像処理ルーチンの
プログラムを記憶したROM、データ等を記憶するRA
M及びこれらを接続するバスを含んで構成されている。
このパーソナルコンピュータ7をハードウエアとソフト
ウエアとに基づいて定まる機能実現手段毎に分割した機
能ブロックで説明すると、図1に示すように、パーソナ
ルコンピュータ7は画像撮影部1からの出力画像である
顔画像を入力する画像入力部3を備えている。この画像
入力部3は、例えば、A/Dコンバータや1画面の画像
データを記憶する画像メモリ等で構成される。この画像
入力部3は、画像入力部3の出力である顔画像の中から
目を含む小領域の画像、すなわち目画像を抽出する目画
像抽出部4に接続されている。The personal computer 7 has a CP
U, ROM storing the program of the image processing routine shown in the flowchart in FIG. 15, RA storing data, etc.
M and a bus connecting them.
This personal computer 7 will be described with functional blocks divided for each function realizing means determined based on hardware and software. As shown in FIG. 1, the personal computer 7 has a face which is an output image from the image photographing unit 1. An image input unit 3 for inputting an image is provided. The image input unit 3 includes, for example, an A / D converter and an image memory that stores image data of one screen. The image input unit 3 is connected to an eye image extraction unit 4 that extracts an image of a small area including eyes from the face image output from the image input unit 3, that is, an eye image.
【0012】目画像抽出部4は、目画像抽出部4で抽出
された目画像を処理してまぶたの開度を計測するまぶた
の開度計測部5を介して、まぶた開度計測部5で求めら
れた時系列的なまぶた開度データからまばたき回数等を
検出するまばたき検出部6に接続されている。The eye image extracting unit 4 processes the eye image extracted by the eye image extracting unit 4 and measures the eyelid opening. It is connected to a blink detection unit 6 that detects the number of blinks and the like from the obtained time-series eyelid opening data.
【0013】上記目画像抽出部4は、図2に示すよう
に、顔画像から目領域を検索しかつ抽出位置を特定する
目領域検索部41と、この目領域検索部41で特定され
た抽出位置に基づいて目を含む小領域画像を目画像とし
て抽出する小領域抽出部42とで構成されている。As shown in FIG. 2, the eye image extracting section 4 searches for an eye area from a face image and specifies an extraction position, and an extraction area specified by the eye area searching section 41. A small area extracting unit 42 for extracting a small area image including an eye as an eye image based on the position.
【0014】また、上記まぶた開度計測部5は、図3に
示すように、入力された目画像から濃淡変化を表す1次
元画像を抽出し、この1次元画像に基づいて基準線上の
画素毎の濃淡変化の大きさを表す1次元エッジ画像を生
成するエッジ画像生成部51と、エッジ画像生成部51
で生成されたエッジ画像中からエッジ値の極値点を示す
部位を検索するエッジ極値点検索部52とを備えてい
る。Further, as shown in FIG. 3, the eyelid opening measuring unit 5 extracts a one-dimensional image representing a change in shading from the input eye image, and based on the one-dimensional image, a pixel for each pixel on a reference line. Image generation unit 51 for generating a one-dimensional edge image representing the magnitude of the change in shading of the image, and edge image generation unit 51
And an edge extremal point search unit 52 for searching for a portion indicating an extremal point of the edge value from the edge image generated in step (1).
【0015】また、まぶた開度計測部5には、目画像抽
出部4で抽出された目画像の輝度分布に基づいて、まぶ
たと眼球との境界点を検索するための初期位置を決定す
る初期位置決定部54が設けられている。エッジ極値点
検索部52及び初期位置決定部54は、エッジ極値点検
索部52と初期位置決定部54との結果から、検索区間
を決定する検索区間決定部53に接続されている。The eyelid opening measuring unit 5 determines an initial position for searching for a boundary point between the eyelid and the eyeball based on the luminance distribution of the eye image extracted by the eye image extracting unit 4. A position determining unit 54 is provided. The edge extremum point search unit 52 and the initial position determination unit 54 are connected to a search section determination unit 53 that determines a search section based on the results of the edge extremum point search unit 52 and the initial position determination unit 54.
【0016】この検索区間決定部53は、検索区間決定
部53で決定された検索区間内においてエッジ画像生成
部51で生成されたエッジ画像のエッジ値の符号を検査
する符号検査部55に接続されている。The search section determining section 53 is connected to a code checking section 55 for checking the sign of the edge value of the edge image generated by the edge image generating section 51 in the search section determined by the search section determining section 53. ing.
【0017】検索区間決定部53及び符号検査部55
は、符号検査部55の検査結果と検索区間決定部53の
出力とに基づいて、求める境界点か否かを判定し、求め
る境界点であれば抽出を行い、求める境界点でなければ
再度検索を行うように検索区間決定部53に要求を出力
する境界点判定部56に接続されている。この境界点判
定部56は、境界点判定部56で決定された境界点距離
を計数し、まぶた開度として出力する開度計数部57に
接続されている。Search section determining section 53 and code checking section 55
Based on the test results of the code checking portion 55 and an output of the search interval determining section 53, obtains and determines whether the boundary point is obtained was extracted if boundary point, only such a boundary point determining lever It is connected to a boundary point determination unit 56 that outputs a request to the search section determination unit 53 to perform a search again. The boundary point determining section 56 is connected to an opening degree counting section 57 that counts the boundary point distance determined by the boundary point determining section 56 and outputs the distance as an eyelid opening degree.
【0018】次に上述のように構成された本実施例の動
作を上記で説明した機能ブロックと図15に示すCPU
によるまぶた開度検出ルーチンを参照しながら説明す
る。Next, the operation of this embodiment constructed as described above will be described with reference to the functional blocks described above and the CPU shown in FIG.
Will be described with reference to an eyelid opening detection routine according to the first embodiment.
【0019】まず、画像撮影部1で被験者の顔画像を撮
影する。この際に、周囲の外乱光の影響を低減させるた
めに、例えば、赤外ストロボからなる照明部2を、画像
撮影部1の撮影と同期して発光させることにより、被験
者の顔部を照明する。この照明部2としては、赤外スト
ロボの他に、赤外線を発光する赤外LEDでもよい。ま
た、照明部2から連続光を発光させれば、画像撮影部1
との同期は不要となり、構成が簡単になる。First, a face image of a subject is photographed by the image photographing section 1. At this time, in order to reduce the influence of ambient disturbance light, for example, the face of the subject is illuminated by illuminating the illumination unit 2 composed of an infrared strobe in synchronization with the image capturing of the image capturing unit 1. . The illumination unit 2 may be an infrared LED that emits infrared light, in addition to an infrared strobe. Also, if continuous light is emitted from the illumination unit 2, the image capturing unit 1
The synchronization with the device is not required, and the configuration is simplified.
【0020】また、画像撮影部1を、例えば、1/10
00秒程度で高速シャッター動作させるのに同期して、
赤外LEDをパルス発光させれば、屋外等の外乱光の多
い環境下でも安定した画像を得ることができる。さら
に、室内等の限定された環境下であれば、照明部2を省
略することも可能である。The image photographing unit 1 is, for example, 1/10
In synchronization with the high-speed shutter operation in about 00 seconds,
If the infrared LED emits pulse light, a stable image can be obtained even in an environment where there is much disturbance light such as outdoors. Furthermore, the illumination unit 2 can be omitted in a limited environment such as a room.
【0021】このようにして撮影された画像は、ビデオ
信号として画像入力部3に取り込まれる(ステップ10
0)。画像入力部3では、ビデオ信号をA/D変換し
て、2次元ディジタル画像を生成する(ステップ10
2)。本実施例においては、以降の処理はこのディジタ
ル画像に基づいて、ディジタル処理により行われるの
で、以後、単に画像という場合にはディジタル画像を意
味することとする。The image photographed in this way is taken into the image input unit 3 as a video signal (step 10).
0). The image input unit 3 A / D converts the video signal to generate a two-dimensional digital image (step 10).
2). In the present embodiment, the subsequent processing is performed by digital processing based on this digital image. Therefore, hereinafter, simply referring to an image means a digital image.
【0022】目画像抽出部4では、目領域検索部41で
顔画像の中から目の領域を検索して目を含む領域を抽出
領域として小領域抽出部42に指示し、小領域抽出部4
2で片目を含む小領域を目画像として抽出する(ステッ
プ104、106)。このように抽出された目画像を図
4に示す。目領域検索部41でこの目の領域を検索する
には、例えば、テンプレートマッチング法による画像処
理により顔画像の中から目の領域を検索してもよいし、
あるいは、操作者がキーボード、マウス、電子ペンまた
はライトペン等の目領域指示手段により顔画像の上で目
を指し示すことにより目の領域を指示してもよい。In the eye image extracting section 4, the eye area searching section 41 searches the face image for an eye area and instructs the small area extracting section 42 to set an area including the eye as an extracted area.
In step 2, a small area including one eye is extracted as an eye image (steps 104 and 106). FIG. 4 shows the eye image thus extracted. In order to search for this eye area by the eye area search unit 41, for example, an eye area may be searched from a face image by image processing using a template matching method,
Alternatively, the operator may indicate an eye area by pointing an eye on a face image using an eye area indicating means such as a keyboard, a mouse, an electronic pen, or a light pen.
【0023】次に、本発明の特徴であるまぶた開度計測
部5の動作について説明する。目画像抽出部4の出力と
して、図4のような目画像が得られると、図5(a)に
示す、中心線L上の原画像の輝度変化は図5(b)のよ
うになる。エッジ画像生成部51では、この図5(b)
のような1次元画像を抽出して入力し、エッジ処理を行
い図5(c)に示すように、基準線上の画素毎の濃淡変
化の大きさを表す1次元エッジ画像を算出する(ステッ
プ108、110)。Next, the operation of the eyelid opening measuring section 5 which is a feature of the present invention will be described. When an eye image as shown in FIG. 4 is obtained as an output of the eye image extraction unit 4, the luminance change of the original image on the center line L shown in FIG. 5A is as shown in FIG. 5B. In the edge image generation unit 51, FIG.
A one-dimensional image as described above is extracted and input, and edge processing is performed to calculate a one-dimensional edge image representing the magnitude of shading change for each pixel on the reference line as shown in FIG. 5C (step 108). , 110).
【0024】エッジ処理を行うオペレータとしては、例
えば、図6(a)に示すような単純な差分を求めるオペ
レータでよい。また、図6(b)に示すような平滑化の
機能を持つオペレータであれば、ノイズの影響を低減で
きる。なお、エッジ処理を行うオペレータとして、ソー
ベルオペレータ、ペレウィットオペレータ、またはロバ
ーツオペレータを用いてもよい。The operator performing the edge processing may be, for example, an operator for obtaining a simple difference as shown in FIG. Further, an operator having a smoothing function as shown in FIG. 6B can reduce the influence of noise. Note that a Sobel operator, a Pelewit operator, or a Roberts operator may be used as an operator for performing edge processing.
【0025】ここで、まぶたの開度を図5(a)の中心
線L上で、上まぶたと眼球との境界点Aと、下まぶたと
眼球との境界点Bとの距離hとして定義すれば、開度を
測定するためには、境界点A、Bを各々検出すればよい
ことになる。一般に、眼球部分は皮膚部分であるまぶた
に比べて、反射率が小さいため、暗く撮影されるので、
先の境界点Aでは、上から下に向かって明から暗へ、後
の境界点Bでは、上から下に向かって逆に暗から明に輝
度が急変する。このような輝度急変点では、エッジ画像
の値は極値点を持つことになるので、図5(c)のよう
な1次元のエッジ画像上で極値(ピーク値)を持つ点を
検出すれば、まぶたの開度の測定が可能となる。Here, the degree of eyelid opening is defined as the distance h between the boundary point A between the upper eyelid and the eyeball and the boundary point B between the lower eyelid and the eyeball on the center line L in FIG. For example, in order to measure the opening, the boundary points A and B may be detected. In general, since the eyeball part is lower in reflectance than the eyelid which is the skin part, it is photographed darkly,
At the preceding boundary point A, the luminance suddenly changes from light to dark from top to bottom, and at the subsequent boundary point B, the luminance suddenly changes from dark to light from top to bottom. At such a point of sudden change in brightness, the value of the edge image has an extreme point, and therefore, a point having an extreme value (peak value) on a one-dimensional edge image as shown in FIG. For example, it becomes possible to measure the degree of eyelid opening.
【0026】しかしながら、このような輝度急変点はま
ぶたと眼球との境界のみでなく、瞳孔と虹彩との境界
や、目のまわりのしわや影によっても生ずる。従って、
本実施例では目のまわりのしわや影によって誤検出しな
いように、次に述べる方法により、エッジ画像上で極値
を持つ点を選択しまぶたの開度の測定を行っている。However, such a sudden change in luminance occurs not only at the boundary between the eyelids and the eyeball, but also at the boundary between the pupil and the iris, and wrinkles and shadows around the eyes. Therefore,
In this embodiment, in order to prevent erroneous detection due to wrinkles and shadows around the eyes, a point having an extreme value is selected on the edge image and the opening of the eyelid is measured by the following method.
【0027】まず、エッジ極値点検索部52により、図
5(c)の1次元エッジ画像上で、エッジ値が正方向の
極大値を持つ点Pi(i=0,1)と、エッジ値が負方向の極小
値(絶対値は大)を持つ点Mi(i=0,1)とを算出する(ス
テップ112)。以後、極大値と極小値の両者をあわせ
て、エッジ極値点と呼ぶ。First, on the one-dimensional edge image shown in FIG. 5C, the edge extremum point searching unit 52 selects a point Pi (i = 0, 1) having an edge value having a maximum value in the positive direction and an edge value. Is calculated as a point Mi (i = 0, 1) having a minimum value in the negative direction (the absolute value is large) (step 112). Hereinafter, both the maximum value and the minimum value will be referred to as an edge extreme point.
【0028】また、初期位置決定部54では、検索の初
期位置として、これらのエッジ極値点Pi 、Mi のうち
図5(b)の中点線L上の1次元画像のうち、最も暗い
点Cに隣接し、最も内側のエッジ極値点の組合せを点P
iと点Miとから一つずつ選択する(ステップ11
4)。図5の場合には、点P0と点M0との組合せが検
索の初期位置となるエッジ極値点に相当する。The initial position determination unit 54 determines the darkest point C of the one-dimensional image on the middle dotted line L in FIG. 5B among the edge extreme points Pi and Mi as the initial position of the search. And the combination of the innermost edge extreme points
i and point Mi are selected one by one (step 11).
4). In the case of FIG. 5, the combination of the point P0 and the point M0 corresponds to the edge extremum point which is the initial position of the search.
【0029】次に、検索区間決定部53は、エッジ極値
点検索部52で検索されたエッジ極値点と検索の初期位
置となるエッジ極値点に基づいて、最初の検索区間を決
定する。すなわち、各々の検索の初期位置からより外側
のエッジ極値点を検索するように、正の極値点は上方
へ、負の極値点は下方へ検索するように検索区間を決定
する(ステップ116)。図5では、点P1と点M1と
が次のエッジ極値点であるので、点P0との点P1との
間が次の上方への検索区間になり、点M0と点M1との
間が次の下方への検索区間となる。このように定められ
た検索区間内で、エッジ値の符号が反転しているか否か
を符号検査部55で判定して、判定結果を境界点判定部
56へ出力する。境界判定部56では、新たな検索区間
が見つからなくなるか、あるいは、検索区間内でエッジ
値の符号が反転するまで、上方と下方へそれぞれ検索を
繰り返すよう、検索区間決定部53に指令を出力する
(ステップ116、118、120)。図5では、点P
0と点P1との間でエッジ値は常に正であり、また、点
M0と点M1との間でエッジ値は常に負であるので、点
P1と点M1とを新たな出発点とし、検索を繰り返すこ
とになる。検索区間決定部53で、エッジ極値点検索部
52の検索結果を基に、同様に上方と下方へそれぞれ検
索区間を決定することになるが、図5(c)では、P1
より上方に、また、M1より下方には、新たなエッジ極
値点が存在しないので、境界点判定部56では、検索終
了と判断し、点P1と点M1をまぶたと眼球との境界点
A、Bとする(ステップ122)。Next, the search section determination section 53 determines the first search section based on the edge extremum point searched by the edge extremum point search section 52 and the edge extremum point which is the initial position of the search. . That is, a search section is determined such that a positive extreme point is searched upward and a negative extreme point is searched downward so as to search for an outer edge extreme point from the initial position of each search (step). 116). In FIG. 5, since the point P1 and the point M1 are the next edge extreme points, the interval between the point P0 and the point P1 is the next upward search section, and the interval between the point M0 and the point M1 is This is the next downward search section. The sign checking unit 55 determines whether or not the sign of the edge value is inverted in the search section determined in this way, and outputs the determination result to the boundary point determining unit 56. The boundary determination unit 56 outputs a command to the search section determination unit 53 to repeat the search upward and downward, respectively, until no new search section is found or the sign of the edge value is inverted in the search section. (Steps 116, 118, 120). In FIG. 5, the point P
Since the edge value is always positive between 0 and the point P1 and the edge value is always negative between the points M0 and M1, the points P1 and M1 are set as new starting points, and the search is performed. Will be repeated. The search section determination unit 53 similarly determines search sections upward and downward based on the search results of the edge extremum point search unit 52, however, in FIG.
Since there is no new edge extremal point above and below M1, the boundary point determination unit 56 determines that the search is over, and determines the boundary point A between the eyelid and the eyelid between the points P1 and M1. , B (step 122).
【0030】そして、開度計数部57では、境界点A、
B間の距離を計数して、まぶたの開度として出力する
(ステップ124)。Then, in the opening degree counting section 57, the boundary points A,
The distance between B is counted and output as the eyelid opening (step 124).
【0031】図7(a)には他の目画像の例として、下
まぶたの下方にしわによる影が存在する場合を示す。こ
の場合も上記と同様に、図7(a)の中心線L上の1次
元画像を求めると共に、エッジ画像生成部51で図7
(b)の1次元原画像に対して図7(c)のような1次
元エッジ画像を算出する。この例では、エッジ極値点検
索部52の検索結果として、エッジ極値点Pi(i=0,1,
2)、Mi(i=0,1,2)が得られるので、境界点判定部56の
指令により、検索区間決定部53により検索区間を決定
し、符号検査部55でエッジ値の符号を検査する動作を
繰り返す。図7の場合も、点P0と点M0とを出発点と
して点P1と点M1とに至るまでは、図5の場合と同様
であるが、点M1から点M2への検索の際に、影による
暗領域の存在のため、エッジ値の符号が反転し、正の領
域エッジ極値点P2が存在する。従って、点M1で検索
を終了し、点P1と点M1との間の距離をまぶたの開度
として出力する。FIG. 7A shows another example of an eye image in which a shadow due to wrinkles exists below the lower eyelid. In this case as well, a one-dimensional image on the center line L in FIG.
A one-dimensional edge image as shown in FIG. 7C is calculated for the one-dimensional original image of FIG. In this example, as a search result of the edge extreme point search unit 52, the edge extreme point Pi (i = 0, 1,
2), Mi (i = 0, 1, 2) is obtained, so that a search section is determined by the search section determination section 53 according to a command from the boundary point determination section 56, and the sign check section 55 checks the sign of the edge value. Repeat the operation. 7 is the same as FIG. 5 up to the point P1 and the point M1 starting from the point P0 and the point M0. However, when searching from the point M1 to the point M2, , The sign of the edge value is inverted, and a positive region edge extreme point P2 exists. Therefore, the search ends at the point M1, and the distance between the points P1 and M1 is output as the eyelid opening.
【0032】さらに図8(a)には、他の目画像の例と
して、上まぶた上にしわによる影がある場合を示す。こ
の場合も上記と同様に、図8(a)の中心線L上の1次
元画像を求めると共に、エッジ画像生成部51で図8
(b)の1次元原画像に対して図8(c)のような1次
元エッジ画像を求める。この例では、エッジ極値点検索
部52の検索結果として、エッジ極値点Pi(i=0,1,2)、
Mi(i=0,1,2)が得られるので、境界点判定部56の指令
により、検索区間決定部53により検索区間を決定し、
符号検査部55でエッジ値の符号を検査する動作を繰り
返す。図8の場合も、点P0と点M0とを出発点として
点P1と点M1とに至るまでは、図5の場合と同様であ
るが、点P1から点P2への検索の際に、まぶた上の影
による暗領域の存在のため、エッジ値の符号が反転し、
負のエッジ極値点M2が存在する。従って、点P1で検
索を終了し、点P1と点M1との間の距離をまぶたの開
度として出力する。FIG. 8A shows another example of an eye image in which there is a shadow due to wrinkles on the upper eyelid. In this case, as in the above case, a one-dimensional image on the center line L in FIG.
A one-dimensional edge image as shown in FIG. 8C is obtained for the one-dimensional original image of FIG. In this example, as the search results of the edge extreme point search unit 52, edge extreme points Pi (i = 0, 1, 2),
Since Mi (i = 0, 1, 2) is obtained, a search section is determined by the search section determination section 53 according to a command from the boundary point determination section 56,
The operation of checking the sign of the edge value in the sign checking unit 55 is repeated. 8 is the same as that of FIG. 5 up to the point P1 and the point M1 starting from the point P0 and the point M0, but the eyelids are searched when the point P1 is searched for the point P2. The sign of the edge value is inverted due to the presence of the dark area due to the upper shadow,
There is a negative edge extreme point M2. Therefore, the search ends at the point P1, and the distance between the points P1 and M1 is output as the eyelid opening.
【0033】このような処理により、本実施例では、個
人の顔の造り等の個人差にかかわらず、まぶたと眼球と
の境界点の抽出が可能になり、正確なまぶたの開度の測
定が可能になる。According to this embodiment, the boundary point between the eyelid and the eyeball can be extracted irrespective of individual differences such as the structure of an individual face by this processing, and accurate measurement of the eyelid opening can be performed. Will be possible.
【0034】以上のような処理を画像撮像部1より出力
される画像に対して次々に所定時間毎に繰り返せば、ま
ぶた開度計測部5の出力として、図9のように、時系列
的な、例えば、1/30秒毎のまぶた開度データ列が得
られる。まばたき検出部6は、このまぶた開度データ列
からまばたきの閉眼時間や単位時間当りのまばたき回数
を演算して出力する。If the above-described processing is repeatedly performed on the images output from the image pickup unit 1 one after another at predetermined time intervals, the output of the eyelid opening degree measurement unit 5 is time-sequential as shown in FIG. For example, an eyelid opening degree data string is obtained every 1/30 seconds. The blink detection unit 6 calculates and outputs the blink closing time and the number of blinks per unit time from the eyelid opening data sequence.
【0035】上記実施例では、図5(a)で示すよう
に、中心線L上の1本の基準線について画像処理を行っ
たが、図10に示すように、まぶた開度計測部5による
処理を中心線Lの両側で適当な間隔d隔てて、例えば3
本ずつ計7本の複数の基準線について行い、7個のまぶ
た開度を平均すれば、よりノイズ等に影響されない計測
が可能になる。また、境界点の座標より、目の概略形状
も検出できる。In the above embodiment, as shown in FIG. 5 (a), image processing was performed on one reference line on the center line L. However, as shown in FIG. The processing is performed at an appropriate distance d on both sides of the center line L, for example, 3
If the measurement is performed for a plurality of reference lines each for a total of seven and the eyelid opening degrees are averaged, measurement that is less affected by noise or the like can be performed. Further, the schematic shape of the eye can be detected from the coordinates of the boundary point.
【0036】また、上記実施例では、目画像抽出部4が
出力する目画像の中心線L上について処理を行ったが、
図11のように、目を含む小領域の水平方向の全幅に渡
って適当な間隔d隔てて設けた複数の基準線について処
理を行えば、目領域が目画像の中央に存在しなくとも、
正確な計測ができる。なお、このような処理を行った場
合、図12(a)に示すように、目でない部分を通過す
る基準線L1についての処理や、図13(a)に示すよ
うに、目頭の部分に存在するしわ等による影を通過する
基準線L2についての処理が問題となる。In the above embodiment, the processing is performed on the center line L of the eye image output from the eye image extracting unit 4.
As shown in FIG. 11, if processing is performed for a plurality of reference lines provided at appropriate intervals d over the entire horizontal width of the small region including the eye, even if the eye region does not exist at the center of the eye image,
Accurate measurement is possible. When such a process is performed, as shown in FIG. 12A, the process for the reference line L1 passing through the non-eye portion, or as shown in FIG. Processing of the reference line L2 passing through the shadow due to wrinkles or the like becomes a problem.
【0037】しかしながら、図12(a)のような場
合、その1次元エッジ画像は図12(b)のように明確
なエッジ極値点を持たず、また、図13(a)のような
場合には、一般に、影によるエッジ極値点は図13
(b)のように、小さいことが多いので、所定値以上の
エッジ極値点のみを処理するようにすれば、これらに影
響されずに計測することができる。However, in the case shown in FIG. 12A, the one-dimensional edge image does not have a clear edge extreme point as shown in FIG. In general, the extreme point of an edge caused by a shadow is shown in FIG.
As is often the case, as in (b), only edge extreme points that are equal to or greater than a predetermined value can be measured without being affected by them.
【0038】もし、影によるエッジが予想よりも強く、
目の境界点として、誤検出した場合でも、図14のよう
に、境界点群が、目と影の部分にわかれて、2群化する
ので境界点群の座標の統計処理によりクラスタ化してク
ラスタ化された領域の大きさを判断することから目の境
界点群のみを抽出すれば、正確にまぶた開度を計測でき
る。If the shadow edge is stronger than expected,
Even if an erroneous detection is made as an eye boundary point, as shown in FIG. 14, the boundary point group is divided into an eye and a shadow part and is divided into two groups. If only the boundary points of the eyes are extracted from the determination of the size of the transformed region, the eyelid opening can be accurately measured.
【0039】さらに、上述のように目の境界点群を算出
する構成とすれば、例えば、目の境界点群の重心座標を
演算することにより、重心座標から目領域の中心位置を
求めることができるので、先の実施例中で目領域検索部
41で、目領域の位置を求めなくとも、前フレームでの
目領域の中心位置を基に小領域抽出部42で目画像の抽
出ができる。この場合、被験者の頭部の動き等により目
の位置は画像中で移動するため、目領域が新たな目画像
の中央に必ずしも存在しないことになるが、小領域全幅
に渡ってまぶた開度計測部5における処理を行うように
しているため、正確なまぶた計測が可能となる。すなわ
ち、通常は、目領域検索部41を動作させなくとも、目
を追跡して、まぶたの開度計測ができ、目領域検索部4
1による処理は、起動時に1回と被験者の急激な動き等
により目の追跡が失敗した場合のみ行えばよいので、よ
り高速な処理ができる。Further, if the eye boundary point group is calculated as described above, for example, the center position of the eye area can be obtained from the barycenter coordinate by calculating the barycenter coordinate of the eye boundary point group. Therefore, the eye image can be extracted by the small area extracting unit 42 based on the center position of the eye area in the previous frame without finding the position of the eye area by the eye area searching unit 41 in the previous embodiment. In this case, since the position of the eyes moves in the image due to the movement of the subject's head and the like, the eye area does not always exist at the center of the new eye image, but the eyelid opening measurement is performed over the entire width of the small area. Since the processing in the unit 5 is performed, accurate eyelid measurement can be performed. That is, normally, the eye can be tracked and the eyelid opening can be measured without operating the eye area search unit 41.
Since the processing by 1 only needs to be performed once at the time of startup and only when eye tracking has failed due to rapid movement of the subject or the like, higher-speed processing can be performed.
【0040】[0040]
【発明の効果】以上説明したように、本発明では、エッ
ジ画像を2値化せずに濃淡変化の極値を用いて処理して
いるので、撮影条件や顔の造り等の個人差に影響される
ことがなく、安定してまぶたの開度を計測できる、とい
う効果が得られる。As described above, in the present invention, the edge image is processed by using the extreme value of the change in shading without being binarized. The effect that the eyelid opening can be stably measured without being performed is obtained.
【0041】また、直接、まぶたの開度を計測するの
で、単に、眼の開閉のみでなく、眼の開閉速度や開眼時
の開度の変化も測定できる。Further, since the eyelid opening is directly measured, not only the eye opening / closing but also the change of the eye opening / closing speed and the opening at the time of eye opening can be measured.
【0042】エッジ画像を1次元で処理するので、計算
量の低減を図ることができる。Since the edge image is processed one-dimensionally, the amount of calculation can be reduced.
【図1】本実施例のブロック図である。FIG. 1 is a block diagram of the present embodiment.
【図2】図1の目画像抽出部の詳細を示すブロック図で
ある。FIG. 2 is a block diagram illustrating details of an eye image extracting unit in FIG. 1;
【図3】まぶた開度計測部の詳細を示すブッロク図であ
る。FIG. 3 is a block diagram showing details of an eyelid opening measurement unit.
【図4】目画像を示す平面図である。FIG. 4 is a plan view showing an eye image.
【図5】(a)は目画像の原画像、(b)は原画像から
得られる1次元原画像、(c)は1次元原画像から得ら
れる1次元エッジ画像を各々示す線図である。5A is a diagram illustrating an original image of an eye image, FIG. 5B is a diagram illustrating a one-dimensional original image obtained from the original image, and FIG. 5C is a diagram illustrating a one-dimensional edge image obtained from the one-dimensional original image. .
【図6】(a)は単純な差分を求めるオペレータを示す
概念図、(b)は平滑化の機能を持つオペレータを示す
概念図である。6A is a conceptual diagram showing an operator for obtaining a simple difference, and FIG. 6B is a conceptual diagram showing an operator having a smoothing function.
【図7】(a)は下まぶたの下方に影が存在する目画像
の原画像、(b)はこの原画像から得られる1次元原画
像、(c)はこの1次元原画像から得られる1次元エッ
ジ画像を各々示す線図である。7A is an original image of an eye image having a shadow below a lower eyelid, FIG. 7B is a one-dimensional original image obtained from the original image, and FIG. 7C is obtained from the one-dimensional original image FIG. 3 is a diagram illustrating one-dimensional edge images.
【図8】(a)は上まぶたの上に影が存在する目画像の
原画像、(b)はこの原画像から得られる1次元原画
像、(c)はこの1次元原画像から得られる1次元エッ
ジ画像を各々示す線図である。8A is an original image of an eye image having a shadow on the upper eyelid, FIG. 8B is a one-dimensional original image obtained from this original image, and FIG. 8C is obtained from this one-dimensional original image FIG. 3 is a diagram illustrating one-dimensional edge images.
【図9】まぶた開度の時系列データを示す線図である。FIG. 9 is a diagram showing time series data of an eyelid opening degree.
【図10】まぶた開度計測部による処理を複数の基準線
について行う場合の概念図である。FIG. 10 is a conceptual diagram in a case where a process by an eyelid opening measurement unit is performed on a plurality of reference lines.
【図11】目を含む小領域の水平方向の全幅に渡って処
理を行う場合の概念図である。FIG. 11 is a conceptual diagram in a case where processing is performed over the entire horizontal width of a small area including an eye.
【図12】(a)は目でない部分を通過する基準線L1
を示す線図、(b)は(a)の原画像から得られる1次
元エッジ画像を示す線図である。FIG. 12A is a reference line L1 passing through a non-eye portion;
And (b) is a diagram showing a one-dimensional edge image obtained from the original image of (a).
【図13】(a)目でない部分を通過する基準線L2を
示す線図、(b)は(a)の原画像から得られる1次元
エッジ画像を示す線図である。13A is a diagram showing a reference line L2 passing through a non-eye portion, and FIG. 13B is a diagram showing a one-dimensional edge image obtained from the original image of FIG.
【図14】境界点群が目と影の部分にわかれて2群化し
た状態を示す線図である。FIG. 14 is a diagram showing a state in which a group of boundary points is divided into two groups by being divided into an eye portion and a shadow portion.
【図15】本実施例の画像処理ルーチンを示す流れ図で
ある。FIG. 15 is a flowchart illustrating an image processing routine according to the present embodiment.
1 画像撮影部 2 照明部 3 画像入力部 4 目画像抽出部 5 まぶた開度計測部 6 まばたき検出部 DESCRIPTION OF SYMBOLS 1 Image imaging part 2 Illumination part 3 Image input part 4 Eye image extraction part 5 Eyelid opening measurement part 6 Blink detection part
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平3−533(JP,A) 特開 平3−202045(JP,A) 特開 平6−32154(JP,A) (58)調査した分野(Int.Cl.7,DB名) A61B 3/113 B60K 28/06 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-3-533 (JP, A) JP-A-3-202045 (JP, A) JP-A-6-32154 (JP, A) (58) Field (Int.Cl. 7 , DB name) A61B 3/113 B60K 28/06
Claims (6)
においてまばたき方向の基準線上の画素の濃淡変化を表
す1次元画像を抽出すると共に、前記1次元画像に基づ
いて前記基準線上の画素毎の濃淡変化の大きさを表す1
次元エッジ画像を算出するエッジ画像算出手段と、 前記1次元エッジ画像における濃淡変化の極値に基づい
て上まぶたと眼球との境界を示す第1の境界点及び下ま
ぶたと眼球との境界を示す第2の境界点を検出するまぶ
た検出手段と、 検出した第1の境界点と第2の境界点との間の距離をま
ぶたの開度として検出するまぶた開度検出手段と、 を含むまぶたの開度検出装置。1. A grayscale image of an area including an eye is input, and a one-dimensional image representing a grayscale change of a pixel on a reference line in a blinking direction is extracted in the area, and based on the one-dimensional image, a one-dimensional image on the reference line is extracted. 1 representing the magnitude of shading change for each pixel
Edge image calculating means for calculating a three-dimensional edge image; and a first boundary point indicating a boundary between an upper eyelid and an eyeball and a boundary between a lower eyelid and an eyeball based on an extreme value of a change in shading in the one-dimensional edge image. Eyelid detecting means for detecting a second boundary point; and eyelid opening detecting means for detecting a distance between the detected first boundary point and the second boundary point as an eyelid opening degree. Opening detector.
元画像において、前記基準線上の近接する画素の値を用
いて画素毎に平滑化することにより前記1次元エッジ画
像を算出することを特徴とする請求項1記載のまぶたの
開度検出装置。 2. The image processing apparatus according to claim 1, wherein said edge image calculating means is configured to output the extracted primary image.
In the original image, the values of adjacent pixels on the reference line are used.
The one-dimensional edge image by smoothing each pixel.
2. An eyelid according to claim 1, wherein the image is calculated.
Opening detector.
画像における濃淡変化の極値の符号が反転しない最も外
側の極値の画素を第1の境界点及び第2の境界点とする
ことを特徴とする請求項1または請求項2記載のまぶた
の開度検出装置。 3. The method according to claim 2, wherein the eyelid detecting means includes the one-dimensional edge.
The outermost edge of the image where the sign of the extreme value
The extreme pixel on the side is defined as a first boundary point and a second boundary point
An eyelid according to claim 1 or claim 2, characterized in that:
Opening detection device.
中でまばたき方向の複数の基準線上で、第1の境界点及
び第2の境界点を検出することを特徴とする請求項1〜
3のいずれか1項記載のまぶたの開度検出装置。 4. An eyelid detecting means according to claim 1 , wherein said eyelid detecting means includes an area including said eye.
On a plurality of reference lines in the blink direction,
And detecting a second boundary point.
4. The eyelid opening detection device according to claim 3.
画像の値が所定値以上のエッジ極値点の画素から第1の
境界点及び第2の境界点を検出することを特徴とする請
求項4記載のまぶたの開度検出装置。 5. An eyelid detecting means according to claim 1 , wherein said eyelid detecting means comprises :
From the pixel at the edge extreme point where the value of the image is equal to or greater than a predetermined value, the first
A boundary point and a second boundary point are detected.
The eyelid opening detection device according to claim 4.
準線上で検出された境界点群の座標の統計処理によりク
ラスタ化し、クラスタ化された領域の大きさを判断する
ことから目の境界点群のみ抽出してまぶたの開度を検出
する請求項4または請求項5記載のまぶたの開度検出装
置。 6. The eyelid opening detecting means includes:
The statistical processing of the coordinates of the boundary points detected on the line
Rasterize and determine the size of clustered areas
Extract eyelid opening by extracting only eye boundary points
An eyelid opening detection device according to claim 4 or 5, wherein
Place.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06107296A JP3143819B2 (en) | 1994-05-20 | 1994-05-20 | Eyelid opening detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06107296A JP3143819B2 (en) | 1994-05-20 | 1994-05-20 | Eyelid opening detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07313459A JPH07313459A (en) | 1995-12-05 |
JP3143819B2 true JP3143819B2 (en) | 2001-03-07 |
Family
ID=14455510
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06107296A Expired - Fee Related JP3143819B2 (en) | 1994-05-20 | 1994-05-20 | Eyelid opening detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3143819B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7784943B2 (en) | 2006-12-26 | 2010-08-31 | Aisin Seiki Kabushiki Kaisha | Eyelid detecting apparatus, eyelid detecting method and program thereof |
JP2010273954A (en) * | 2009-05-29 | 2010-12-09 | Hamamatsu Photonics Kk | Blinking measuring apparatus and blinking measuring method |
US7912251B2 (en) | 2007-03-14 | 2011-03-22 | Aisin Seiki Kabushiki Kaisha | Eyelid detection apparatus and program therefor |
US7916904B2 (en) | 2007-03-19 | 2011-03-29 | Aisin Seiki Kabushiki Kaisha | Face region detecting device, method, and computer readable recording medium |
US7936926B2 (en) | 2007-03-13 | 2011-05-03 | Aisin Seiki Kabushiki Kaisha | Apparatus, method, and program for face feature point detection |
US8224035B2 (en) | 2006-12-06 | 2012-07-17 | Aisin Seiki Kabushiki Kaisha | Device, method and program for detecting eye |
US8498449B2 (en) | 2006-12-04 | 2013-07-30 | Aisin Seiki Kabushiki Kaisha | Eye detecting device, eye detecting method, and program |
US8693784B2 (en) | 2010-07-14 | 2014-04-08 | Aisin Seiki Kabushiki Kaisha | Eyelid detection device and program |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002316580A (en) * | 2001-04-24 | 2002-10-29 | Murakami Corp | Mirror device with built-in camera |
JP4848301B2 (en) * | 2007-03-14 | 2011-12-28 | アイシン精機株式会社 | 瞼 Detection device and program |
JP4623044B2 (en) * | 2007-04-12 | 2011-02-02 | トヨタ自動車株式会社 | Eye open / closed state detection device |
KR101478560B1 (en) * | 2007-05-28 | 2015-01-02 | 삼성전자주식회사 | A mobile terminal for photographing image by remote control and a method therefor |
JP5301815B2 (en) * | 2007-11-20 | 2013-09-25 | 浜松ホトニクス株式会社 | Blink measurement device |
JP2009136551A (en) | 2007-12-07 | 2009-06-25 | Denso Corp | Face feature quantity detector for vehicle and face feature quantity detecting method |
JP5262243B2 (en) * | 2008-03-31 | 2013-08-14 | アイシン精機株式会社 | Eye opening / closing discrimination device and program |
JP5296458B2 (en) * | 2008-08-27 | 2013-09-25 | 安川情報システム株式会社 | 瞼 Opening Detection Device, 瞼 Opening Detection Method, and 瞼 Opening Detection Program |
JP2012139562A (en) * | 2012-04-26 | 2012-07-26 | Hamamatsu Photonics Kk | Blinking measuring instrument |
JP6462209B2 (en) | 2013-12-03 | 2019-01-30 | 浜松ホトニクス株式会社 | Measuring device and measuring method |
JP6227996B2 (en) | 2013-12-18 | 2017-11-08 | 浜松ホトニクス株式会社 | Measuring device and measuring method |
CN104751114B (en) * | 2013-12-27 | 2018-09-18 | 由田新技股份有限公司 | Verification system controlled by eye opening and closing state and handheld control device thereof |
JP6338445B2 (en) * | 2014-05-12 | 2018-06-06 | 学校法人慶應義塾 | Blink detection system and method |
JP6535223B2 (en) * | 2015-05-28 | 2019-06-26 | 浜松ホトニクス株式会社 | Blink measurement method, blink measurement apparatus, and blink measurement program |
DE102015225109A1 (en) * | 2015-12-14 | 2017-06-14 | Robert Bosch Gmbh | A method and apparatus for classifying eye opening data of at least one eye of an occupant of a vehicle and method and apparatus for detecting drowsiness and / or instantaneous sleep of an occupant of a vehicle |
WO2018016837A1 (en) | 2016-07-18 | 2018-01-25 | Samsung Electronics Co., Ltd. | Method and apparatus for iris recognition |
RU2630742C1 (en) * | 2016-07-18 | 2017-09-12 | Самсунг Электроникс Ко., Лтд. | Method, system and device for biometric iris recognition |
JP7370570B2 (en) * | 2019-09-09 | 2023-10-30 | 株式会社トーメーコーポレーション | Ophthalmological equipment and computer programs |
-
1994
- 1994-05-20 JP JP06107296A patent/JP3143819B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8498449B2 (en) | 2006-12-04 | 2013-07-30 | Aisin Seiki Kabushiki Kaisha | Eye detecting device, eye detecting method, and program |
US8224035B2 (en) | 2006-12-06 | 2012-07-17 | Aisin Seiki Kabushiki Kaisha | Device, method and program for detecting eye |
US7784943B2 (en) | 2006-12-26 | 2010-08-31 | Aisin Seiki Kabushiki Kaisha | Eyelid detecting apparatus, eyelid detecting method and program thereof |
US7936926B2 (en) | 2007-03-13 | 2011-05-03 | Aisin Seiki Kabushiki Kaisha | Apparatus, method, and program for face feature point detection |
US7912251B2 (en) | 2007-03-14 | 2011-03-22 | Aisin Seiki Kabushiki Kaisha | Eyelid detection apparatus and program therefor |
US7916904B2 (en) | 2007-03-19 | 2011-03-29 | Aisin Seiki Kabushiki Kaisha | Face region detecting device, method, and computer readable recording medium |
JP2010273954A (en) * | 2009-05-29 | 2010-12-09 | Hamamatsu Photonics Kk | Blinking measuring apparatus and blinking measuring method |
US8693784B2 (en) | 2010-07-14 | 2014-04-08 | Aisin Seiki Kabushiki Kaisha | Eyelid detection device and program |
Also Published As
Publication number | Publication date |
---|---|
JPH07313459A (en) | 1995-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3143819B2 (en) | Eyelid opening detector | |
JP4307496B2 (en) | Facial part detection device and program | |
JP3761059B2 (en) | Method and apparatus for detecting human face and observer tracking display | |
US5878156A (en) | Detection of the open/closed state of eyes based on analysis of relation between eye and eyebrow images in input face images | |
US7801335B2 (en) | Apparatus and methods for detecting the presence of a human eye | |
JP2500726B2 (en) | Method and apparatus for detecting upper eyelid region, inner corner of eye, outer corner of eye, upper eyelid region and eye structure | |
US11069057B2 (en) | Skin diagnostic device and skin diagnostic method | |
EP1969993B1 (en) | Eyelid detection apparatus | |
US20080137959A1 (en) | Device, method and program for detecting eye | |
CN108985210A (en) | A kind of Eye-controlling focus method and system based on human eye geometrical characteristic | |
JPH11328364A (en) | Area estimating device and display processor | |
JP2003317102A (en) | Pupil circle and iris circle detecting device | |
JPH1166317A (en) | Device and method for detecting eye position of face image | |
US9672422B2 (en) | Pupil detection device and pupil detection method | |
JP2705388B2 (en) | Driver's eye position detection device | |
KR102380560B1 (en) | Corneal Ulcer Region Detection Apparatus Using Image Processing and Method Thereof | |
JP2023032776A (en) | Image processing apparatus, image processing method, and program | |
JP3813043B2 (en) | Glasses reflection detection apparatus and glasses reflection detection method | |
JP3963789B2 (en) | Eye detection device, eye detection program, recording medium for recording the program, and eye detection method | |
JP2677010B2 (en) | Eye position detection device | |
JP2000193420A (en) | Eye position detecting device | |
JP7445335B2 (en) | Biogenic detection using devices containing illumination sources | |
JP4852454B2 (en) | Eye tilt detection device and program | |
WO2022137605A1 (en) | Iris detection method, iris detection device, and iris detection program | |
JP4848302B2 (en) | Eye detection device, eye detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080105 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090105 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090105 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100105 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |