JP4756503B2 - Blink detection device and computer program - Google Patents

Blink detection device and computer program Download PDF

Info

Publication number
JP4756503B2
JP4756503B2 JP2006143160A JP2006143160A JP4756503B2 JP 4756503 B2 JP4756503 B2 JP 4756503B2 JP 2006143160 A JP2006143160 A JP 2006143160A JP 2006143160 A JP2006143160 A JP 2006143160A JP 4756503 B2 JP4756503 B2 JP 4756503B2
Authority
JP
Japan
Prior art keywords
eyes
distance
frame
eyelid
blink
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006143160A
Other languages
Japanese (ja)
Other versions
JP2007316762A (en
Inventor
慎二郎 川戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006143160A priority Critical patent/JP4756503B2/en
Publication of JP2007316762A publication Critical patent/JP2007316762A/en
Application granted granted Critical
Publication of JP4756503B2 publication Critical patent/JP4756503B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は人間の瞬きを検出する技術に関し、特に人間の顔画像中のまぶたの位置から瞬きの状態を安定して検出する技術に関する。   The present invention relates to a technique for detecting a human blink, and more particularly to a technique for stably detecting a blink state from the position of an eyelid in a human face image.

近年の交通量の増大により、自動車に関連する問題、特に交通事故に関連する問題が注目されている。自動車を安全に運行するためには、自動車の運転を自動化するという方向と、自動車を運転している人間(ドライバ)が、安全に運転できる様に支援する、という方向とがある。自動車の運転を自動化する技術の研究も行なわれているが、様々な理由から実用化には至っていない。一方、自動車のドライバを支援するための装置についても様々なものが提案されており、それらはドライバを支援するものであるため、自動車の運転を自動化する技術に比して実用化の可能性が高い。   Due to the increase in traffic volume in recent years, problems related to automobiles, particularly problems related to traffic accidents, are attracting attention. In order to operate a car safely, there are a direction of automating the driving of a car and a direction of helping a person (driver) driving the car to drive safely. Research on technologies for automating car driving has also been conducted, but it has not been put into practical use for various reasons. On the other hand, various devices for supporting automobile drivers have been proposed, and these devices support drivers, so that there is a possibility of practical application compared to technologies for automating driving of automobiles. high.

ドライバを支援するために必要な情報の一つに、ドライバの瞬きの頻度、すなわち目の開閉状態に関する情報がある。たとえばドライバの意識状態が低下した場合、目をつぶっている時間が増えたり、瞬き回数が減少したりする。こうした情報を用いる事で、ドライバの意識状態が正常でないと判定された場合には、意識状態を正常に戻すために適切な処置をとる事ができる。   One piece of information necessary to support the driver is information regarding the frequency of blinking of the driver, that is, information regarding the eye open / closed state. For example, when the driver's consciousness state decreases, the time for which the eyes are closed increases or the number of blinks decreases. By using such information, if it is determined that the driver's consciousness state is not normal, appropriate measures can be taken to return the consciousness state to normal.

瞬きに関する情報は、ドライバの支援に用いられるだけではない。例えばある人にインタビューしているときのその話者の瞬きの状態は、話者の心理状態を反映しているものと考えられる。従って、話者の顔画像に基づいてその瞬きを検出する事により、話された内容に関する評価を行なう事ができる。   Information about blinking is not only used for driver assistance. For example, the blinking state of a speaker when interviewing a certain person is considered to reflect the psychological state of the speaker. Therefore, it is possible to evaluate the spoken content by detecting the blink based on the face image of the speaker.

その他にも、瞬きに関する情報を利用可能な局面は多数ある。   There are many other situations where information about blinks can be used.

人間の瞬きを検出するための技術として、非特許文献1に示すものがある。非特許文献1に開示された技術では、ルームミラー内に配置されたカメラでドライバの顔付近の画像を連続撮影する。その画像から、ニューラルネットワークを用いて顔領域及び目領域を抽出する。抽出された目領域から、肌と目との画素の輝度の違いを利用し、類似した幅、位置の明から暗、暗から明のエッジの組合せを上下まぶたとして検出する。この様にして検出された上下まぶたの間の距離の変化に基づいて、瞬きがされたか否かを判定できる。
特開2004−185611号公報 特開2003−168121号公報 井東他、「ドライバ識別により個人差を考慮したドライバモニタ」、動的画像処理実利用化ワークショップ2006講演論文集、2006年3月9日〜10日、p.191−195
Non-Patent Document 1 discloses a technique for detecting human blinks. In the technique disclosed in Non-Patent Document 1, images in the vicinity of the driver's face are continuously captured by a camera arranged in a rearview mirror. A face area and an eye area are extracted from the image using a neural network. From the extracted eye region, a combination of bright and dark edges with similar width and position is detected as upper and lower eyelids using the difference in brightness between the skin and eyes. Based on the change in the distance between the upper and lower eyelids detected in this way, it can be determined whether or not blinking has occurred.
JP 2004-185611 A JP 2003-168121 A Ito et al., “Driver Monitor Considering Individual Differences by Driver Identification”, Dynamic Image Processing Realization Workshop 2006, Proceedings, March 9-10, 2006, p. 191-195

しかし、上記した従来技術によると、以下の様な問題が生じる。例えば、被験者の顔画像を撮像する際には、光源は被験者の上方にある事が通常である。光源が頭上にあると、上まぶたは光源に近い部分にあり、影が生じにくい。ゆえに、まぶた(肌)と目との輝度の違いが検出しやすく、上まぶたのエッジの検出は比較的容易に行なえる。   However, according to the above prior art, the following problems occur. For example, when capturing a face image of a subject, the light source is usually above the subject. When the light source is above the head, the upper eyelid is in a portion close to the light source and shadows are not easily generated. Therefore, the difference in brightness between the eyelid (skin) and the eyes is easy to detect, and the edge of the upper eyelid can be detected relatively easily.

しかし、下まぶたに関しては光源から遠い上に、頭上から光があたっていると、影ができやすい位置にある。そのため、目と肌との輝度の違いが検出しにくい。結果として、下まぶたのエッジの検出は比較的難しく、実際上安定して下まぶたを検出する事は困難であるという問題がある。   However, the lower eyelid is far from the light source and is in a position where shadows are likely to occur when light is shining over it. Therefore, it is difficult to detect a difference in brightness between eyes and skin. As a result, there is a problem that it is relatively difficult to detect the edge of the lower eyelid and it is difficult to detect the lower eyelid in a stable manner in practice.

従来技術では、下まぶたのエッジの検出が難しいと、上下まぶた間の距離を計測する事ができず、結果として、瞬きの検出も安定して行なう事ができない。   In the prior art, if it is difficult to detect the edge of the lower eyelid, the distance between the upper and lower eyelids cannot be measured, and as a result, the blink cannot be detected stably.

それ故に、本発明の目的は、人間の顔の動画像から、瞬きの発生を安定して検出する事ができる装置及びコンピュータプログラムを提供する事である。   Therefore, an object of the present invention is to provide an apparatus and a computer program that can stably detect the occurrence of blinking from a moving image of a human face.

本発明の第1の局面に係る瞬き検出装置は、一連のフレームを含む顔の動画像から瞬きを検出するための瞬き検出装置であって、一連のフレームにおける顔の両目の位置を追跡するための目の位置の追跡手段と、一連のフレームにおいて、顔の上まぶたのエッジを検出するためのまぶた検出手段と、先行するフレームの顔画像において、目の位置の追跡手段により特定された目の位置により定められる所定の基準線から、まぶた検出手段により検出された上まぶたのエッジまでの第1の距離を算出するための第1の距離算出手段と、先行するフレームの顔画像における所定の基準線と所定の関係にある新たな基準線を、先行するフレームに後続するフレームの顔画像において、目の位置の追跡手段により特定された目の位置に基づいて特定するための基準線特定手段と、後続するフレームの顔画像において、新たな基準線から、まぶた検出手段により検出された上まぶたのエッジまでの第2の距離を算出するための第2の距離算出手段と、第1及び第2の距離算出手段によって算出された距離の差に基づいて、瞬きの発生を検出するための瞬き検出手段とを含む。   A blink detection apparatus according to a first aspect of the present invention is a blink detection apparatus for detecting blinks from a moving image of a face including a series of frames, for tracking the positions of both eyes of the face in the series of frames. Eye position tracking means, eyelid detection means for detecting the edge of the upper eyelid in a series of frames, and eye positions identified by eye position tracking means in the face image of the preceding frame A first distance calculating means for calculating a first distance from a predetermined reference line determined by the position to an edge of the upper eyelid detected by the eyelid detecting means; and a predetermined reference in the face image of the preceding frame A new reference line having a predetermined relationship with the line is specified based on the eye position specified by the eye position tracking unit in the face image of the frame following the preceding frame. And a second distance calculation means for calculating a second distance from the new reference line to the edge of the upper eyelid detected by the eyelid detection means in the face image of the subsequent frame And blink detection means for detecting the occurrence of blink based on the difference between the distances calculated by the first and second distance calculation means.

この瞬き検出装置によると、第1の距離算出手段が、先行するフレームに含まれる目の位置により定められる所定の基準線から上まぶたのエッジまでの第1の距離を算出し、第2の距離算出手段が、後続するフレームに含まれる新たな基準線から上まぶたのエッジまでの第2の距離を算出する。瞬き検出手段が、算出されたこれらの距離の差に基づいて瞬きの発生を検出する。比較的不安定になってしまう下まぶたのエッジ検出を行なう必要がなく、安定して検出できる上まぶたのエッジのみによって瞬きを検出できる。その結果、人間の顔の動画像から、瞬きの発生を安定して検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the first distance calculation means calculates the first distance from the predetermined reference line determined by the position of the eye included in the preceding frame to the edge of the upper eyelid, and the second distance The calculating means calculates a second distance from the new reference line included in the subsequent frame to the edge of the upper eyelid. The blink detection means detects the occurrence of blink based on the difference between the calculated distances. There is no need to detect the edge of the lower eyelid that becomes relatively unstable, and blinking can be detected only by the edge of the upper eyelid that can be detected stably. As a result, it is possible to provide a blink detection device that can stably detect the occurrence of blinks from a moving image of a human face.

好ましくは、第1の距離算出手段は、先行するフレームにおいて目の位置の追跡手段によって特定された両目の位置に基づき、当該両目の位置を結ぶ線と、まぶた検出手段により検出された上まぶたのエッジとの間の距離を計算するための手段を含む。   Preferably, the first distance calculation unit is configured to determine a line connecting the positions of the eyes and the upper eyelid detected by the eyelid detection unit based on the positions of both eyes specified by the eye position tracking unit in the preceding frame. Means for calculating the distance between the edges.

この瞬き検出装置によると、距離を計算するための手段は、両目の位置を結ぶ線と上まぶたのエッジとの間の距離を計算する。安定して検出する事のできる両目の位置を結ぶ線と上まぶたのエッジとに基づいて、瞬きの発生を検出する事ができる。その結果、瞬きの発生を安定して検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the means for calculating the distance calculates the distance between the line connecting the positions of both eyes and the edge of the upper eyelid. The occurrence of blinking can be detected based on the line connecting the positions of both eyes that can be detected stably and the edge of the upper eyelid. As a result, it is possible to provide a blink detection device that can stably detect the occurrence of blinks.

好ましくは、基準線特定手段は、先行するフレームの顔画像における両目の位置と所定の関係にある基準点を含む、規定形状の領域を基準パターンとして抽出し保存するための基準パターン抽出手段と、基準パターン抽出手段により抽出された基準パターンをテンプレートとする、後続するフレームに対するテンプレートマッチングにより、先行するフレームの基準点の、後続するフレーム内での位置を推定するためのテンプレートマッチング手段と、テンプレートマッチング手段によって後続するフレーム内で推定された基準点の位置を通り、後続するフレーム内の両目の中心を結ぶ直線に平行な線を、新たな基準線として特定するための手段とを含む。   Preferably, the reference line specifying means includes a reference pattern extracting means for extracting and storing a region of a prescribed shape as a reference pattern including a reference point having a predetermined relationship with the positions of both eyes in the face image of the preceding frame. Template matching means for estimating the position of the reference point of the preceding frame in the succeeding frame by template matching for the succeeding frame using the reference pattern extracted by the reference pattern extracting means as a template, and template matching Means for specifying as a new reference line a line that passes through the position of the reference point estimated in the subsequent frame by means and is parallel to a straight line connecting the centers of both eyes in the subsequent frame.

この瞬き検出装置によると、基準パターン抽出手段が、先行するフレームの顔画像における両目の位置と所定の関係にある基準点を含む領域を基準パターンとして抽出し保存する。テンプレートマッチング手段が、この基準パターンをテンプレートとする、後続するフレームに対するテンプレートマッチングにより、先行するフレームの基準点の、後続するフレーム内での位置を推定する。特定するための手段が、後続するフレーム内で推定された基準点の位置に基づいて、新たな基準線を特定する。安定して計測される両目の位置を用いて、先行するフレーム内の基準線及び後続するフレーム内の新たな基準線の特定を行なう事ができる。その結果、この基準線に基づいて、瞬きの発生を安定して検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the reference pattern extraction unit extracts and stores a region including a reference point having a predetermined relationship with the position of both eyes in the face image of the preceding frame as a reference pattern. The template matching means estimates the position of the reference point of the preceding frame in the subsequent frame by template matching for the subsequent frame using the reference pattern as a template. A means for identifying identifies a new reference line based on the position of the reference point estimated in the subsequent frame. Using the positions of both eyes that are stably measured, it is possible to specify a reference line in the preceding frame and a new reference line in the subsequent frame. As a result, it is possible to provide a blink detection device that can stably detect the occurrence of blinks based on the reference line.

好ましくは、基準パターン抽出手段は、先行するフレームの顔画像における両目の位置を結ぶ線分の中点位置を基準点とし、当該基準点を含む規定形状の領域を基準パターンとして抽出し保存するための手段を含む。   Preferably, the reference pattern extracting means extracts and stores a defined shape region including the reference point as a reference pattern, with the midpoint position of the line segment connecting the positions of both eyes in the face image of the preceding frame as the reference point. Including means.

この瞬き検出装置によると、保存するための手段は、先行するフレームの顔画像における両目の位置を結ぶ線分の中点位置を基準点とし、当該基準点を含む規定形状の領域を基準パターンとして抽出し保存する。安定して検出できる両目の位置を結ぶ線分の中点位置を基準点として基準パターンが抽出され、その基準パターンを用いたテンプレートマッチングが後続するフレームに対して行なわれる。この部位は、顔の中でも他と比較して特徴のある部位で、後続するフレームに対するテンプレートマッチングで、安定して新たな基準点の位置を特定できる。従って、後続するフレームで新たな基準線を確実に特定できる。その結果、先行するフレームと後続するフレームとの双方で上まぶたまでの距離の基準となる基準線を安定して特定でき、瞬きの発生を安定して検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the means for saving uses the midpoint position of the line segment connecting the positions of both eyes in the face image of the preceding frame as a reference point, and uses a region having a defined shape including the reference point as a reference pattern. Extract and save. A reference pattern is extracted using the midpoint position of the line segment connecting the positions of both eyes that can be detected stably as a reference point, and template matching using the reference pattern is performed on the subsequent frames. This part is a characteristic part of the face compared to others, and the position of a new reference point can be stably identified by template matching for subsequent frames. Therefore, a new reference line can be reliably specified in the subsequent frame. As a result, it is possible to provide a blink detection device that can stably identify a reference line that is a reference for the distance to the upper eyelid in both the preceding frame and the subsequent frame, and can stably detect the occurrence of blinking. .

好ましくは、規定形状は矩形形状である。   Preferably, the prescribed shape is a rectangular shape.

好ましくは、基準点は矩形形状の中心点である。   Preferably, the reference point is a rectangular center point.

好ましくは、距離を計算するための手段は、先行するフレームにおいて目の位置の追跡手段によって特定された両目の位置に基づき、当該両目の位置を結ぶ線と、まぶた検出手段により検出された上まぶたのエッジの中の所定点との間の距離を計算するための手段を含み、第2の距離算出手段は、新たな基準線と、後続するフレームにおいてまぶた検出手段により検出された上まぶたのエッジの中の、所定点に対応する点との距離を計算するための手段を含む。   Preferably, the means for calculating the distance is based on the position of both eyes specified by the eye position tracking means in the preceding frame, and a line connecting the positions of both eyes and the upper eyelid detected by the eyelid detection means Means for calculating a distance between a predetermined point in the edges of the first eye and the second distance calculating means includes the new reference line and the edge of the upper eyelid detected by the eyelid detection means in the subsequent frame Means for calculating a distance from a point corresponding to the predetermined point.

この瞬き検出装置によると、先行するフレームにおける両目を結ぶ線と上まぶたのエッジの中の所定点との距離、及び後続するフレームにおいて、先行するフレームの基準点に対応する点によって定められた新たな基準線と上まぶたのエッジの中の所定点との距離を計算できる。ゆえに、先行するフレームにおける上まぶたまでの距離と、後続するフレームにおける上まぶたまでの距離とを、共通の基準によって計算できる。その結果、正確に瞬きの発生を検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the distance between the line connecting the eyes in the preceding frame and the predetermined point in the upper eyelid edge, and the new frame defined by the point corresponding to the reference point of the preceding frame in the following frame The distance between a simple reference line and a predetermined point in the upper eyelid edge can be calculated. Therefore, the distance to the upper eyelid in the preceding frame and the distance to the upper eyelid in the subsequent frame can be calculated according to a common criterion. As a result, it is possible to provide a blink detection device that can accurately detect the occurrence of blinks.

好ましくは、上まぶたのエッジの中の所定点とは、両目の位置を結ぶ線と、上まぶたのエッジとの間の距離の最大値を与える点である。   Preferably, the predetermined point in the edge of the upper eyelid is a point that gives the maximum value of the distance between the line connecting the positions of both eyes and the edge of the upper eyelid.

この瞬き検出装置によると、両目の位置を結ぶ線と、上まぶたのエッジとの間の距離の最大値を与える点との距離を計算する事ができる。ゆえに、両目の位置を結ぶ線と、上まぶたのエッジとの間の距離の最大値という明確な値を用いて瞬きの発生を検出する事ができる。その結果、瞬きの発生を容易に検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the distance between the line connecting the positions of both eyes and the point giving the maximum value of the distance between the edge of the upper eyelid can be calculated. Therefore, it is possible to detect the occurrence of blink using a clear value that is the maximum value of the distance between the line connecting the positions of both eyes and the edge of the upper eyelid. As a result, it is possible to provide a blink detection device that can easily detect the occurrence of blinks.

好ましくは、瞬き検出手段は、第1の距離から第2の距離を減算するための手段と、減算するための手段により得られた結果と所定の正のしきい値とを比較し、結果がしきい値より大きいときに、瞬きを検出したと判定するための手段とを含む。   Preferably, the blink detection means compares the result obtained by the means for subtracting the second distance from the first distance with the predetermined positive threshold value, and the result is Means for determining that blinking has been detected when greater than the threshold value.

この瞬き検出装置によると、減算するための手段が、第1の距離から第2の距離を減算し、判定するための手段が、減算の結果が所定のしきい値よりも大きいときに瞬きを検出したと判定する。所定のしきい値に基づいて、簡単な判定で瞬きの発生を検出できる。その結果、簡単な処理により瞬きの発生を検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the means for subtracting subtracts the second distance from the first distance, and the means for determining determines the blink when the result of the subtraction is greater than a predetermined threshold value. It is determined that it has been detected. Based on a predetermined threshold value, the occurrence of blinking can be detected with a simple determination. As a result, it is possible to provide a blink detection device that can detect the occurrence of blinks by simple processing.

さらに好ましくは、この瞬き検出装置はさらに、動画像を撮像し、一連のフレームとして目の位置の検出手段、まぶた検出手段、及び基準線特定手段に与えるための撮像手段を含む。   More preferably, the blink detection device further includes an imaging unit that captures a moving image and supplies it to the eye position detection unit, the eyelid detection unit, and the reference line identification unit as a series of frames.

この瞬き検出装置によると、撮像手段は、動画像を撮像し、一連のフレームとして目の位置の検出手段、まぶた検出手段、及び基準線特定手段に与える。瞬きの発生を検出するための前提となる動画像を得て、直ちに処理する事ができる。その結果、効率的に瞬きの発生を検出できる瞬き検出装置を提供する事ができる。   According to this blink detection device, the imaging unit captures a moving image and supplies it as a series of frames to the eye position detection unit, the eyelid detection unit, and the reference line identification unit. It is possible to obtain a moving image as a premise for detecting the occurrence of blinking and immediately process it. As a result, it is possible to provide a blink detection device that can efficiently detect the occurrence of blinks.

本発明の第2の局面に係るコンピュータプログラムは、動画を一連のフレームとして処理する機能を有するコンピュータによって実行されると、当該コンピュータを上記したいずれかの瞬き検出装置として動作させるので、上記したいずれかの瞬き検出装置と同様の効果を得る事ができる。   When the computer program according to the second aspect of the present invention is executed by a computer having a function of processing a moving image as a series of frames, the computer program operates as any one of the blink detection devices described above. The same effect as that of the blink detection device can be obtained.

本発明の実施の形態に係る装置及び方法を説明する前にまず、本実施の形態におけるまぶたのエッジ検出方法と瞬きの検出方法とに関する基本的な概念について説明する。   Before describing the apparatus and method according to the embodiment of the present invention, first, the basic concept regarding the eyelid edge detection method and blink detection method according to the present embodiment will be described.

<瞬き検出の基本的原理>
図1に、画像信号の連続するフレームにおける人間の瞬きの状態を模式図で示す。図1を参照して、顔30はあるフレームにおける人間の目の状態である。このフレームでは両目が開いているものとする。顔30は、右目の上まぶた40と、左目の上まぶた42と、右目44と、左目46とを含む。
<Basic principle of blink detection>
FIG. 1 is a schematic diagram illustrating a human blink state in successive frames of image signals. Referring to FIG. 1, a face 30 is a human eye state in a certain frame. It is assumed that both eyes are open in this frame. The face 30 includes an upper eyelid 40 for the right eye, an upper eyelid 42 for the left eye, a right eye 44, and a left eye 46.

次のフレームの顔32で、目の開閉の状態が変化するものとする。すなわち、このフレームでは両目とも閉じられる途中の状態にあるものとする。この場合、顔32の右目の上まぶた50及び左目の上まぶた52の位置は、いずれも前フレームの顔30における右目の上まぶた40と左目の上まぶた42の位置と比較して低くなっている。   It is assumed that the eye open / close state changes in the face 32 of the next frame. That is, in this frame, both eyes are in the middle of being closed. In this case, the positions of the upper eyelid 50 and the upper eyelid 52 of the left eye of the face 32 are both lower than the positions of the upper eyelid 40 and the upper eyelid 42 of the right eye in the face 30 of the previous frame. .

もしも顔の位置が画像中で固定されているのであれば、これら上まぶたの画像中の位置を測定し、その変化を検出する事で瞬きがあったか否かを容易に判定する事ができる。しかし、人間の頭は通常は動いており、その動きも簡単には予測できない。従って、上まぶたの位置が検出できても、それだけでは瞬きがあったか否かを判定する事はできない。   If the position of the face is fixed in the image, it is possible to easily determine whether or not there is a blink by measuring the position of the upper eyelid in the image and detecting the change. However, the human head is usually moving and its movement cannot be easily predicted. Therefore, even if the position of the upper eyelid can be detected, it is not possible to determine whether or not there has been a blink.

本発明では、二つのフレーム間で、上まぶたの位置を検出するための共通の基準位置を定め、この基準位置に対する上まぶたの位置を測定する事によって、瞬きがあったか否かを判定する。   In the present invention, a common reference position for detecting the position of the upper eyelid is defined between two frames, and the position of the upper eyelid with respect to this reference position is measured to determine whether or not there has been a blink.

本実施の形態に係る瞬き検出装置で使用されている動画像のフレームレートは、1秒間に30フレームである。また、目を検出する前提となる顔位置の抽出方法については特許文献1に記載の方法による。顔位置を検出した後、特許文献2に記載の方法を用いて両目の位置を追跡して検出する。特許文献2に記載の方法によれば、瞬きがされたフレーム(すなわち、画像中に目が存在していないフレーム)であっても、両目の位置が正しく追跡されている事が本願発明の発明者により確認されている。   The frame rate of the moving image used in the blink detection device according to the present embodiment is 30 frames per second. Further, a method for extracting a face position which is a premise for detecting eyes is based on the method described in Patent Document 1. After detecting the face position, the position of both eyes is tracked and detected using the method described in Patent Document 2. According to the method described in Patent Document 2, even if a blinking frame (that is, a frame in which no eyes are present in an image), the position of both eyes is correctly tracked. Has been confirmed.

図2に、上まぶたの動きをモニタリングする方法の基本原理について示す。なお、便宜上、ここでは両目について共通に瞬きを検出する場合について説明しているが、実際には右目と左目との双方について、別々に以下に述べる処理を行なう事が望ましい。   FIG. 2 shows the basic principle of the method for monitoring the movement of the upper eyelid. For convenience, the case where blinks are detected in common for both eyes is described here, but it is actually desirable to separately perform the following processing for both the right eye and the left eye.

図2を参照して、先行する第1のフレームの画像において、目付近の画像70から両目の位置を追跡する事によって検出して、両目の中心を通る直線80を決定する。次に、目の上まぶたのエッジを検出し、そのエッジの最も上の点(図2において直線82で示される位置)と、直線80との間の距離d0とが算出される。   Referring to FIG. 2, a straight line 80 passing through the center of both eyes is determined by tracking the positions of both eyes from an image 70 near the eyes in the preceding first frame image. Next, the upper eyelid edge of the eye is detected, and the distance d0 between the uppermost point of the edge (the position indicated by the straight line 82 in FIG. 2) and the straight line 80 is calculated.

さらに、両目を結ぶ直線80の中点86を中心とする矩形形状を有する小領域を目間パターン84として画像から抽出する。目間パターン84はN×M画素からなる画像である。   Further, a small area having a rectangular shape centering on the midpoint 86 of the straight line 80 connecting both eyes is extracted from the image as an inter-eyes pattern 84. The inter-eye pattern 84 is an image composed of N × M pixels.

この目間パターン84を所定の記憶領域に保存する。保存された目間パターン84を基準点パターン90とする。基準点パターン90の中心92は、第1のフレームの画像において両目を結ぶ直線80の中点86である。   The interval pattern 84 is stored in a predetermined storage area. The stored interval pattern 84 is set as a reference point pattern 90. The center 92 of the reference point pattern 90 is the midpoint 86 of a straight line 80 connecting both eyes in the first frame image.

第1のフレームに後続する第2のフレームが与えられると、保存された基準点パターン90をテンプレートとして、次フレームの画像中で基準点パターン90と最もよく一致するN×M画素の領域を探索する。これをテンプレートマッチング処理とよぶ。   Given a second frame that follows the first frame, the stored reference point pattern 90 is used as a template to search for an area of N × M pixels that best matches the reference point pattern 90 in the image of the next frame. To do. This is called template matching processing.

図2では、第2のフレームにおいて、瞬きの発生がない場合の目付近の画像を画像100として示し、瞬きの発生がある場合の目付近の画像の例を画像102として示してある。   In FIG. 2, in the second frame, an image near the eye when no blink occurs is shown as an image 100, and an example of an image near the eye when blink occurs is shown as an image 102.

テンプレートマッチング処理によって、目付近の画像100,102における基準点パターン90に対応するパターン120の位置が決定される。従って、目付近の画像100,102において、1フレーム前の画像70内の中点86に対応する基準点122の位置も決定される。   By the template matching process, the position of the pattern 120 corresponding to the reference point pattern 90 in the images 100 and 102 near the eyes is determined. Accordingly, in the images 100 and 102 near the eyes, the position of the reference point 122 corresponding to the midpoint 86 in the image 70 one frame before is also determined.

両目の位置については、画像100,102のいずれの場合にも特許文献2に記載の方法によって検出する。検出された両目の位置に基づき、両目の中心を通る直線112が決定される。本実施の形態では、ここで、基準点122を通り、両目の中心を通る直線112に平行な基準線114を決定する。また、両目の付近の画像に対してエッジフィルタを適用する事により、両目の上まぶたのエッジを検出する。そして、このエッジの位置(例えば図2において直線110で示される位置)と、基準線114との距離d1とが算出される。   The positions of both eyes are detected by the method described in Patent Document 2 in either case of the images 100 and 102. Based on the detected positions of both eyes, a straight line 112 passing through the center of both eyes is determined. In the present embodiment, here, a reference line 114 that passes through the reference point 122 and is parallel to the straight line 112 that passes through the center of both eyes is determined. In addition, by applying an edge filter to the image near both eyes, the upper eyelid edge of both eyes is detected. Then, the distance d1 between the edge position (for example, the position indicated by the straight line 110 in FIG. 2) and the reference line 114 is calculated.

ここでは、距離d0及びd1はいずれも画素数で表すものとする。あるフレームから次のフレームに移った際に、画像100で表される様にまぶたの状態に変化がないと、あるフレームでの距離d0と次のフレームでの距離d1の値にも変化がない。瞬きがされていない場合、人間のまぶたの位置は比較的安定していて変化がなく、その結果、d0−d1≒0となる。   Here, the distances d0 and d1 are both represented by the number of pixels. If the eyelid state does not change as shown in the image 100 when moving from one frame to the next frame, the distance d0 in the certain frame and the distance d1 in the next frame also do not change. . When the blink is not performed, the position of the human eyelid is relatively stable and does not change, and as a result, d0−d1≈0.

まぶたが閉じられ始めた状態(画像102)でも同様に、両目の中心を通る直線112に平行で、基準点122を通る基準線114が決定される。まぶたのエッジが検出され、それらのエッジ(直線130で表される)と基準線114との距離d1が算出される。   Similarly, even in a state where the eyelid starts to be closed (image 102), a reference line 114 passing through the reference point 122 is determined in parallel with the straight line 112 passing through the centers of both eyes. Eyelid edges are detected, and a distance d1 between these edges (represented by a straight line 130) and the reference line 114 is calculated.

瞬きがある場合、d1<d0となるであろう。従って、あるしきい値を定め、d0−d1>しきい値であれば瞬きがあったと判定する。以下に述べる実施の形態では、処理対象となる画像はデジタル画像であり、まぶたの検出位置が1画素単位での誤差を含む事は避けられない。従って、ここではしきい値として2を想定し、まぶたのエッジが2画素以上移動していれば、瞬きがされていると推定する。なお、このしきい値の値は、処理対象の画像に含まれる画素数、特に縦方向の画素数に依存する。実験では、320×240画素の画像で、しきい値=2として安定した結果を得る事ができた。   If there is a blink, d1 <d0. Therefore, a certain threshold value is set, and if d0−d1> threshold value, it is determined that there is a blink. In the embodiment described below, the image to be processed is a digital image, and it is inevitable that the eyelid detection position includes an error in units of one pixel. Accordingly, here, it is assumed that the threshold value is 2, and if the eyelid edge has moved by two or more pixels, it is estimated that blinking has occurred. Note that the threshold value depends on the number of pixels included in the image to be processed, particularly the number of pixels in the vertical direction. In the experiment, it was possible to obtain a stable result with a threshold value = 2 in an image of 320 × 240 pixels.

<構成>
[コンピュータによる実現]
以下、本実施の形態に係る瞬き検出装置を組込んだカーナビゲーションシステム(以下「カーナビシステム」と呼ぶ。)について説明する。このカーナビシステムは、実質的にはコンピュータハードウェア及び当該コンピュータハードウェア上で実行されるソフトウェアにより実現されるものである。
<Configuration>
[Realization by computer]
Hereinafter, a car navigation system (hereinafter referred to as “car navigation system”) incorporating the blink detection device according to the present embodiment will be described. This car navigation system is substantially realized by computer hardware and software executed on the computer hardware.

図3はこのカーナビシステム150の外観を示す。図3を参照して、カーナビ150は、地図等を表示する液晶画面162と、液晶画面162上に積層され、ユーザが触れる事により操作するタッチパネル164と、スピーカ166と、ドライバの顔を撮影するカメラ168と、CD−ROM(コンパクトディスク読出専用メモリ)ドライブ170を有する、実質的にコンピュータと同様のハードウェアからなるカーナビ本体160とを含む。   FIG. 3 shows the appearance of the car navigation system 150. Referring to FIG. 3, car navigation system 150 shoots a liquid crystal screen 162 that displays a map and the like, a touch panel 164 that is stacked on liquid crystal screen 162 and is operated by touching a user, speaker 166, and the face of the driver. It includes a camera 168 and a car navigation main body 160 having a CD-ROM (Compact Disc Read Only Memory) drive 170 and substantially the same hardware as a computer.

図4を参照して、カーナビ本体160は、CD−ROMドライブ170に加えて、CPU(中央処理装置)190と、CPU190及びCD−ROMドライブ170に接続されたバス198と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)192と、いずれもバス198に接続され、プログラム命令、システムプログラム、及び作業データ等を記憶するランダムアクセスメモリ(RAM)194、カメラ168で撮影された画像を毎秒30フレームずつキャプチャするためのカメラI/F(Interface)196、スピーカ166と接続され、CPU190又はCD−ROMドライブ170から出力される音声を処理しスピーカ166に与えるためのサウンドボード200、及びCPU190から出力されるデジタルの音声信号をアナログ信号に変換し出力するD/A(Digital Analog)変換器202と、D/A変換器202の出力に接続されたスピーカ204とを含む。   Referring to FIG. 4, in addition to CD-ROM drive 170, car navigation main body 160 includes a CPU (central processing unit) 190, a bus 198 connected to CPU 190 and CD-ROM drive 170, a boot-up program, and the like. A read-only memory (ROM) 192 for storing, a random access memory (RAM) 194 for storing program commands, system programs, work data, etc., all connected to the bus 198, and images taken by the camera 168 at 30 seconds per second. Connected to a camera I / F (Interface) 196 for capturing frame by frame and a speaker 166, a sound board 200 for processing sound output from the CPU 190 or the CD-ROM drive 170 and giving it to the speaker 166, and output from the CPU 190 Digital It includes the D / A (Digital Analog) converter 202 to an audio signal into an analog signal output, and a speaker 204 connected to the output of the D / A converter 202.

ここでは示さないが、カーナビ本体160はさらに自動車内のローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでもよい。   Although not shown here, the car navigation body 160 may further include a network adapter board that provides a connection to a local area network (LAN) in the car.

カーナビ150に瞬き検出装置としての動作を行なわせるためのコンピュータプログラムは、CD−ROMドライブ170に挿入されるCD−ROM167又はROM192に記憶される。このプログラムは実行の際にRAM194にロードされる。CD−ROM167から又はネットワークを介して、直接にRAM194にプログラムをロードしてもよい。   A computer program for causing the car navigation system 150 to operate as a blink detection device is stored in the CD-ROM 167 or the ROM 192 inserted into the CD-ROM drive 170. This program is loaded into the RAM 194 at the time of execution. The program may be loaded directly into the RAM 194 from the CD-ROM 167 or via a network.

このプログラムは、カーナビ本体160にこの実施の形態の瞬き検出装置として動作を行なわせる複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはカーナビ本体160上で動作するオペレーティングシステム(OS)もしくはサードパーティのプログラム、又はカーナビ本体160にインストールされる各種ツールキットのモジュールにより提供される。従って、このプログラムはこの実施の形態のシステム及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られる様に制御されたやり方で適切な機能又は「ツール」を呼出す事により、コンピュータハードウェアと協働して、上記した瞬き検出装置としての各種機能を実現する命令のみを含んでいればよい。カーナビ本体160を構成するコンピュータの動作は周知であるので、ここでは言及しない。   This program includes a plurality of instructions for causing the car navigation body 160 to operate as the blink detection device of this embodiment. Some of the basic functions necessary to perform this operation are provided by operating system (OS) or third party programs that run on the car navigation main body 160, or modules of various tool kits installed in the car navigation main body 160. The Therefore, this program does not necessarily include all functions necessary to realize the system and method of this embodiment. This program works with computer hardware by calling appropriate functions or “tools” in a controlled manner so that a desired result can be obtained. It only needs to include instructions that implement the function. Since the operation of the computer constituting the car navigation main body 160 is well known, it will not be mentioned here.

図5に、本実施の形態に係る瞬き検出装置をコンピュータプログラムで実現した際のフローチャートを示す。図5を参照して、まず、プログラムが開始されると、ステップ210では初期化が行なわれる。ここでは、顔の動画像のフレーム番号fnを0に設定する。   FIG. 5 shows a flowchart when the blink detection device according to the present embodiment is realized by a computer program. Referring to FIG. 5, first, when the program is started, initialization is performed in step 210. Here, the frame number fn of the moving image of the face is set to 0.

ステップ212では、フレーム番号fnに1を加算し、動画像のフレームを図4に示すカメラI/F196から読込む。   In step 212, 1 is added to the frame number fn, and the frame of the moving image is read from the camera I / F 196 shown in FIG.

ステップ214では、読み込んだフレームにおいて顔領域を抽出し、さらに両目の位置を検出する処理が行なわれる。   In step 214, processing for extracting a face area in the read frame and detecting the positions of both eyes is performed.

ステップ216では、処理中のフレームにおいて上まぶたのエッジを抽出する処理が行なわれる。   In step 216, processing is performed to extract the upper eyelid edge in the frame being processed.

ステップ218では、フレーム番号fnが1であるか否かを判定する処理が行なわれる。フレーム番号fnが1でなければステップ220に進む。フレーム番号fnが1であれば、ステップ229に進む。処理の最初では、先行するフレームが存在しておらず、瞬きの検出をするために比較する対象がないため、この様な処理をする。   In step 218, processing for determining whether or not the frame number fn is 1 is performed. If the frame number fn is not 1, the process proceeds to step 220. If the frame number fn is 1, the process proceeds to step 229. At the beginning of the process, there is no preceding frame, and there is no object to be compared in order to detect blinks, so this process is performed.

ステップ220では、先行するサイクルで既に保存されている、先行するフレームの基準点パターンをテンプレートとして、処理中のフレームの画像内で基準点Cを特定する処理が行なわれる。   In step 220, processing for specifying the reference point C in the image of the frame being processed is performed using the reference point pattern of the preceding frame already saved in the preceding cycle as a template.

ステップ222では、基準点Cを通り、両目の中心を結ぶ線分に平行な直線と、上まぶたエッジまでの距離d1を計算する処理が行なわれる。   In step 222, a process of calculating a distance d1 to the straight line passing through the reference point C and parallel to the line segment connecting the centers of both eyes and the upper eyelid edge is performed.

ステップ224では、先行するフレームの画像に対して算出された、両目を結ぶ線と上まぶたのエッジとの間の距離d0から、処理中の画像に対してステップ222で計算された距離d1を引いてその差dを求める処理が行なわれる。   In step 224, the distance d1 calculated in step 222 for the image being processed is subtracted from the distance d0 between the line connecting both eyes and the upper eyelid edge calculated for the preceding frame image. Then, a process for obtaining the difference d is performed.

ステップ226では、ステップ224で計算された差dの値が1よりも大きいか否かを判定する処理が行なわれる。差dが1よりも大きいとステップ228に進む。差dが1以下であるとステップ229に進む。   In step 226, processing for determining whether or not the value of the difference d calculated in step 224 is greater than 1 is performed. If the difference d is greater than 1, the process proceeds to step 228. If the difference d is 1 or less, the process proceeds to step 229.

ステップ228では、瞬きが検出されたと判定し、瞬きを検出したときに行なうべき処理が行なわれる。例えば瞬きの回数を加算したり、瞬きの時刻を所定の記憶領域に記憶したり、所定の信号を出力したりする。この情報は、例えば別のプロセスに渡され、瞬きの頻度によって必要な処理が実行される。この後、ステップ229に進む。   In step 228, it is determined that blinking has been detected, and processing to be performed when blinking is detected is performed. For example, the number of blinks is added, the blink time is stored in a predetermined storage area, or a predetermined signal is output. This information is passed to another process, for example, and necessary processing is executed according to the blinking frequency. Thereafter, the process proceeds to step 229.

ステップ229では、両目を結ぶ線と上まぶたのエッジとの距離が算出され、距離d0として保存される。この後ステップ230に進む。   In step 229, the distance between the line connecting both eyes and the edge of the upper eyelid is calculated and stored as the distance d0. Thereafter, the process proceeds to step 230.

ステップ230では、新基準点Cを、処理中のフレームの画像における両目を結ぶ線上の、両目の中央位置に設定する処理が行なわれる。この新基準点Cが、次のフレームではどこの位置に移動しているかが、次のフレームに対するステップ220の処理において決定される。   In step 230, the new reference point C is set at the center position of both eyes on the line connecting the eyes in the image of the frame being processed. The position of the new reference point C in the next frame is determined in the process of step 220 for the next frame.

ステップ232では、処理中のフレームの画像内の、新たに決定された基準点Cを中心とするN×M画素からなる画像を新たな基準点パターンとして所定の記憶領域にセーブする処理が行なわれる。この基準点パターンが、次のフレームに対するステップ220の処理において使用される。この処理が終わるとステップ212に戻り、次のフレームに対して以後の処理を繰返す。   In step 232, an image composed of N × M pixels centered on the newly determined reference point C in the image of the frame being processed is saved in a predetermined storage area as a new reference point pattern. . This reference point pattern is used in the process of step 220 for the next frame. When this process ends, the process returns to step 212, and the subsequent processes are repeated for the next frame.

<動作>
図6に、上まぶたのエッジの検出と基準点パターンを用いた瞬きの検出との動作の具体例について示す。
<Operation>
FIG. 6 shows a specific example of the operation of the detection of the upper eyelid edge and the blink detection using the reference point pattern.

図5を参照して、プログラムの開始時、ステップ210で初期化が行なわれ、フレーム番号fnが0となる。ステップ212でフレーム番号fnに1が加算され、fn=1となる。このとき、フレーム番号1の画像が読み込まれる。   Referring to FIG. 5, at the start of the program, initialization is performed in step 210, and frame number fn becomes zero. In step 212, 1 is added to the frame number fn, so that fn = 1. At this time, the image of frame number 1 is read.

ステップ214でフレーム番号1の画像から両目位置が検出され、ステップ216で上まぶたのエッジ250が検出される。   In step 214, the position of both eyes is detected from the image of frame number 1, and in step 216, the edge 250 of the upper eyelid is detected.

フレーム番号fn=1なので、処理はステップ218からステップ229に進み、ステップ214で検出された両目の位置を結ぶ線と、ステップ216で検出された上まぶたのエッジ250との間の距離が算出され、この値が距離d0として保存される。   Since the frame number fn = 1, the process proceeds from step 218 to step 229, and the distance between the line connecting the positions of both eyes detected in step 214 and the edge 250 of the upper eyelid detected in step 216 is calculated. This value is stored as the distance d0.

この後、ステップ230で、フレーム番号fn=1の画像の両目を結ぶ線の中央の点を基準点Cとする。さらに基準点Cを中心とするN×M画素を基準点パターンとして記憶領域にセーブする(ステップ232)。その後、処理はステップ212に戻る。   Thereafter, in step 230, the center point of the line connecting the eyes of the frame number fn = 1 is set as the reference point C. Further, N × M pixels centered on the reference point C are saved in the storage area as a reference point pattern (step 232). Thereafter, the processing returns to step 212.

ステップ212ではフレーム番号fnに1を加算する。すなわちここではフレーム番号fn=2となる。そして、2番目のフレームの画像を読み込む。以下、1番目のフレームと同様にステップ214、216の処理を行なう。   In step 212, 1 is added to the frame number fn. That is, here, the frame number fn = 2. Then, the image of the second frame is read. Thereafter, the processes of steps 214 and 216 are performed in the same manner as the first frame.

ステップ218の判定結果はNOとなるので、ステップ220に進み、セーブされていた基準点パターンをテンプレートとするテンプレートマッチングにより、1番目のフレームでの基準点パターンが2番目のフレームではどこに移動しているかを判定し、対応する領域を抽出する。この処理により、新たな基準点パターン254(図6参照)が定められ、従って1番目の画像中の基準点パターンの基準点Cが、2番目の画像中のどこに移動したかも決定される。この点を新たな基準点Cとする(ステップ220)。ステップ216で検出された目の上まぶたのエッジ252と、新たな基準点Cと、ステップ214で検出された両目の位置とに基づき、両目の中心を通る直線と平行で基準点Cを通る直線と、上まぶたのエッジとの間の距離d1が算出される(ステップ222)。   Since the determination result in step 218 is NO, the process proceeds to step 220, where the reference point pattern in the first frame moves in the second frame by template matching using the saved reference point pattern as a template. And the corresponding area is extracted. By this process, a new reference point pattern 254 (see FIG. 6) is determined, and therefore, it is also determined where the reference point C of the reference point pattern in the first image has moved in the second image. This point is set as a new reference point C (step 220). Based on the upper eyelid edge 252 of the eye detected in step 216, the new reference point C, and the position of both eyes detected in step 214, a straight line passing through the reference point C parallel to the straight line passing through the center of both eyes. And a distance d1 between the upper eyelid edge and the upper eyelid edge (step 222).

この様にして2番目のフレームに対し求められた距離d1と、1番目のフレームに対してステップ229の処理で算出されていた距離d0とを用いて、距離d0と距離d1との差d=d0−d1を計算する(ステップ224)。   The distance d1 between the distance d0 and the distance d1 is calculated using the distance d1 obtained for the second frame in this way and the distance d0 calculated in the process of step 229 for the first frame. d0-d1 is calculated (step 224).

この差dが1より大きければ2番目のフレームで瞬きがあったと判定され(ステップ226でYES)、ステップ228で必要な処理をした後、ステップ229に進む。差dが1以下であれば何もせずステップ229に進む。以下、1番目のフレームに対して行なったのと同様の処理をステップ229、230、及び232で行ない、ステップ212に戻る。   If this difference d is greater than 1, it is determined that there has been a blink in the second frame (YES in step 226). After performing the necessary processing in step 228, the process proceeds to step 229. If the difference d is 1 or less, nothing is done and the process proceeds to step 229. Thereafter, the same processing as that performed for the first frame is performed in steps 229, 230, and 232, and the process returns to step 212.

フレーム番号fn=3以下のフレームに対しても、上記した処理が繰返し実行され、それによって、瞬きが発生したフレームではステップ228で必要な処理がされる。   The above-described processing is repeatedly executed for frames having a frame number fn = 3 or less, whereby the necessary processing is performed in step 228 for the frame where blinking occurs.

図7に、実験によって求められた両目におけるdの値の変化を示す。図7に示す様に、実験では、右目の距離dの値の変化270と左目の距離dの値の変化272とはほぼ同期している。これは、一般に、瞬きは両目同時に行われるためである。   FIG. 7 shows the change in the value of d in both eyes obtained by experiments. As shown in FIG. 7, in the experiment, the change 270 in the value of the distance d of the right eye and the change 272 in the value of the distance d of the left eye are substantially synchronized. This is because blinking is generally performed at the same time for both eyes.

本実施の形態に係る瞬き検出装置によると、目の位置により決定される所定の基準線と上まぶたのエッジまでの距離とに基づいて瞬きの発生を検出する事ができる。この方法によると、比較的不安定になってしまう下まぶたのエッジの検出を行なう必要がない。ゆえに、安定して検出できる上まぶたのエッジのみによって瞬きの発生を検出する事ができる。その結果、人間の顔の動画像から、瞬きの発生を安定して検出できる様な瞬き検出装置を提供する事ができる。   With the blink detection device according to the present embodiment, the occurrence of blinks can be detected based on a predetermined reference line determined by the eye position and the distance to the edge of the upper eyelid. According to this method, it is not necessary to detect the edge of the lower eyelid that becomes relatively unstable. Therefore, the occurrence of blinking can be detected only by the edge of the upper eyelid that can be detected stably. As a result, it is possible to provide a blink detection device that can stably detect the occurrence of blinks from a moving image of a human face.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内でのすべての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.

人間の瞬きの状態を示す模式図である。It is a schematic diagram which shows the state of human blink. 上まぶたの動きをモニタリングする方法について示す図である。It is a figure shown about the method of monitoring a motion of an upper eyelid. 本発明の一実施の形態に係る瞬き検出装置を実現するカーナビゲーションシステムの外観図である。1 is an external view of a car navigation system that realizes a blink detection device according to an embodiment of the present invention. 図3に示すカーナビゲーションシステムのブロック図である。FIG. 4 is a block diagram of the car navigation system shown in FIG. 3. 本実施の形態に係る瞬き検出装置をコンピュータで実現した際のフローチャートである。It is a flowchart at the time of implement | achieving the blink detection apparatus which concerns on this Embodiment with a computer. 上まぶたのエッジの検出と基準点パターンを用いた瞬きの検出との動作の具体例について示す写真である。It is a photograph shown about the specific example of operation | movement with the detection of the edge of an upper eyelid, and the detection of blink using the reference point pattern. 両目におけるdの値の変化を示す写真である。It is a photograph which shows the change of the value of d in both eyes.

符号の説明Explanation of symbols

84 目間パターン
90 基準点パターン
150 カーナビシステム
160 カーナビ本体
162 液晶画面
164 タッチパネル
166及び204 スピーカ
168 カメラ
170 CD−ROMドライブ
190 CPU
192 ROM
194 RAM
196 カメラI/F
198 バス
200 サウンドボード
202 D/A変換器
84 Inter-eyes pattern 90 Reference point pattern 150 Car navigation system 160 Car navigation system 162 Liquid crystal screen 164 Touch panel 166 and 204 Speaker 168 Camera 170 CD-ROM drive 190 CPU
192 ROM
194 RAM
196 Camera I / F
198 Bus 200 Sound board 202 D / A converter

Claims (6)

一連のフレームを含む顔の動画像から瞬きを検出するための瞬き検出装置であって、
前記一連のフレームにおける前記顔の両目の位置を追跡するための目の位置の追跡手段と、
前記一連のフレームにおいて、前記顔の上まぶたのエッジを検出するためのまぶた検出手段と、
先行するフレームの顔画像において、前記目の位置の追跡手段により特定された目の位置により定められる所定の基準線から、前記まぶた検出手段により検出された上まぶたのエッジまでの第1の距離を算出するための第1の距離算出手段と、
前記先行するフレームの顔画像における前記所定の基準線と所定の関係にある新たな基準線を、前記先行するフレームに後続するフレームの顔画像において、前記目の位置の追跡手段により特定された目の位置に基づいて特定するための基準線特定手段と、
前記後続するフレームの顔画像において、前記新たな基準線から、前記まぶた検出手段により検出された上まぶたのエッジまでの第2の距離を算出するための第2の距離算出手段と、
前記第1及び第2の距離算出手段によって算出された距離の差に基づいて、瞬きの発生を検出するための瞬き検出手段とを含み、
前記基準線特定手段は、
前記先行するフレームの顔画像における両目の位置と所定の関係にある基準点を含む、規定形状の領域を基準パターンとして抽出し保存するための基準パターン抽出手段と、
前記基準パターン抽出手段により抽出された基準パターンをテンプレートとする、前記後続するフレームに対するテンプレートマッチングにより、前記先行するフレームの前記基準点の、前記後続するフレーム内での位置を推定するためのテンプレートマッチング手段と、
前記テンプレートマッチング手段によって前記後続するフレーム内で推定された前記基準点の位置を通り、前記後続するフレーム内の両目の中心を結ぶ直線に平行な線を、前記新たな基準線として特定するための手段とを含む、瞬き検出装置。
A blink detection device for detecting blink from a moving image of a face including a series of frames,
Eye position tracking means for tracking the positions of both eyes of the face in the series of frames;
Eyelid detecting means for detecting an edge of the upper eyelid in the series of frames;
In the face image of the preceding frame, a first distance from a predetermined reference line determined by the eye position specified by the eye position tracking unit to the edge of the upper eyelid detected by the eyelid detection unit First distance calculating means for calculating;
A new reference line having a predetermined relationship with the predetermined reference line in the face image of the preceding frame is identified by the eye position tracking means in the face image of the frame subsequent to the preceding frame. A reference line specifying means for specifying based on the position of
Second distance calculation means for calculating a second distance from the new reference line to the edge of the upper eyelid detected by the eyelid detection means in the face image of the subsequent frame;
Blink detection means for detecting the occurrence of blink based on the difference between the distances calculated by the first and second distance calculation means ,
The reference line specifying means includes
A reference pattern extracting means for extracting and storing a region of a prescribed shape as a reference pattern, including a reference point having a predetermined relationship with the position of both eyes in the face image of the preceding frame;
Template matching for estimating the position of the reference point of the preceding frame in the subsequent frame by template matching for the subsequent frame using the reference pattern extracted by the reference pattern extraction unit as a template Means,
A line that passes through the position of the reference point estimated in the subsequent frame by the template matching means and is parallel to a straight line connecting the centers of both eyes in the subsequent frame is specified as the new reference line. And a blink detection device.
前記第1の距離算出手段は、前記先行するフレームにおいて前記目の位置の追跡手段によって特定された両目の位置に基づき、当該両目の位置を結ぶ線と、前記まぶた検出手段により検出された上まぶたのエッジとの間の距離を計算するための手段を含む、請求項1に記載の瞬き検出装置。   The first distance calculation unit is configured to connect a line connecting the positions of the eyes and the upper eyelid detected by the eyelid detection unit based on the positions of both eyes specified by the eye position tracking unit in the preceding frame. The blink detection device according to claim 1, comprising means for calculating a distance between the edge of the blink. 前記基準パターン抽出手段は、前記先行するフレームの顔画像における両目の位置を結ぶ線分の中点位置を基準点とし、当該基準点を含む前記規定形状の領域を基準パターンとして抽出し保存するための手段を含む、請求項1又は請求項2に記載の瞬き検出装置。 The reference pattern extracting means extracts and stores the region of the prescribed shape including the reference point as a reference pattern, with the midpoint position of the line segment connecting the positions of both eyes in the face image of the preceding frame as a reference point The blink detection device according to claim 1 , comprising the following means. 前記距離を計算するための手段は、前記先行するフレームにおいて前記目の位置の追跡手段によって特定された両目の位置に基づき、当該両目の位置を結ぶ線と、前記まぶた検出手段により検出された上まぶたのエッジの中の所定点との間の距離を計算するための手段を含み、
前記第2の距離算出手段は、前記新たな基準線と、前記後続するフレームにおいて前記まぶた検出手段により検出された上まぶたのエッジの中の、前記所定点に対応する点との距離を計算するための手段を含む、請求項2に記載の瞬き検出装置。
The means for calculating the distance is based on the position of both eyes specified by the eye position tracking means in the preceding frame, and a line connecting the positions of both eyes and the eye detected by the eyelid detection means. Means for calculating the distance between a predetermined point in the edge of the eyelid;
The second distance calculation means calculates a distance between the new reference line and a point corresponding to the predetermined point in the upper eyelid edge detected by the eyelid detection means in the subsequent frame. The blink detection device according to claim 2, comprising means for
前記上まぶたのエッジの中の所定点とは、両目の位置を結ぶ線と、上まぶたのエッジとの間の距離の最大値を与える点である、請求項に記載の瞬き検出装置。 The blink detection device according to claim 4 , wherein the predetermined point in the edge of the upper eyelid is a point that gives a maximum value of a distance between a line connecting the positions of both eyes and the edge of the upper eyelid. 動画を一連のフレームとして処理する機能を有するコンピュータによって実行されると、当該コンピュータを請求項1〜請求項のいずれかに記載の瞬き検出装置として動作させる、コンピュータプログラム。 A computer program that, when executed by a computer having a function of processing a moving image as a series of frames, causes the computer to operate as a blink detection device according to any one of claims 1 to 5 .
JP2006143160A 2006-05-23 2006-05-23 Blink detection device and computer program Expired - Fee Related JP4756503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006143160A JP4756503B2 (en) 2006-05-23 2006-05-23 Blink detection device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006143160A JP4756503B2 (en) 2006-05-23 2006-05-23 Blink detection device and computer program

Publications (2)

Publication Number Publication Date
JP2007316762A JP2007316762A (en) 2007-12-06
JP4756503B2 true JP4756503B2 (en) 2011-08-24

Family

ID=38850585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006143160A Expired - Fee Related JP4756503B2 (en) 2006-05-23 2006-05-23 Blink detection device and computer program

Country Status (1)

Country Link
JP (1) JP4756503B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5789578B2 (en) * 2012-09-20 2015-10-07 富士フイルム株式会社 Eye opening / closing judgment method and apparatus, program, and surveillance video system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3746916B2 (en) * 1999-06-24 2006-02-22 三菱自動車工業株式会社 Blink state detection method
JP3980464B2 (en) * 2002-11-06 2007-09-26 株式会社国際電気通信基礎技術研究所 Method for extracting nose position, program for causing computer to execute method for extracting nose position, and nose position extracting apparatus
JP4166143B2 (en) * 2002-11-21 2008-10-15 株式会社国際電気通信基礎技術研究所 Face position extraction method, program for causing computer to execute face position extraction method, and face position extraction apparatus
JP2004192552A (en) * 2002-12-13 2004-07-08 Nissan Motor Co Ltd Eye opening/closing determining apparatus
JP4107087B2 (en) * 2003-01-09 2008-06-25 日産自動車株式会社 Open / close eye determination device

Also Published As

Publication number Publication date
JP2007316762A (en) 2007-12-06

Similar Documents

Publication Publication Date Title
US11524578B2 (en) Control method and control device for vehicle display device
Khunpisuth et al. Driver drowsiness detection using eye-closeness detection
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
EP1770596B1 (en) Apparatus, method, recording media, and program for recognition of head nodding.
JP4162503B2 (en) Eye state determination device, eye state determination method, and computer program
Chuang et al. Estimating gaze direction of vehicle drivers using a smartphone camera
WO2017067399A1 (en) Method and device for early warning based on image identification
CN110765807A (en) Driving behavior analysis method, driving behavior processing method, driving behavior analysis device, driving behavior processing device and storage medium
JP5233322B2 (en) Information processing apparatus and method, and program
KR101729486B1 (en) Around view monitor system for detecting blind spot and method thereof
JP2012245091A (en) Sleepiness-estimating device and sleepiness-estimating method
CN106073804B (en) A kind of fatigue detection method and mobile terminal
JP2014071519A (en) State determination device, driving support system, and state determination method and program
JPWO2012140782A1 (en) Wrinkle detection device, wrinkle detection method and program
US20210209342A1 (en) Human face detcetion method
Lashkov et al. Driver dangerous state detection based on OpenCV & dlib libraries using mobile video processing
JP2010191793A (en) Alarm display and alarm display method
JP2017049311A (en) Information processing apparatus, information processing method, and program
US20130265421A1 (en) System and method for object detection
JP4756503B2 (en) Blink detection device and computer program
EP3471055B1 (en) Comparison device and comparison method
Battiato et al. Benchmarking of computer vision algorithms for driver monitoring on automotive-grade devices
US20140078284A1 (en) Eye searching method and eye state detection apparatus and eye searching apparatus using the same
KR20150106986A (en) System for detecting drowsiness based on server and the method thereof
US9396386B2 (en) Information processing method, system and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees