JP2937030B2 - Image processing device and person state determination device - Google Patents

Image processing device and person state determination device

Info

Publication number
JP2937030B2
JP2937030B2 JP6220250A JP22025094A JP2937030B2 JP 2937030 B2 JP2937030 B2 JP 2937030B2 JP 6220250 A JP6220250 A JP 6220250A JP 22025094 A JP22025094 A JP 22025094A JP 2937030 B2 JP2937030 B2 JP 2937030B2
Authority
JP
Japan
Prior art keywords
image processing
light
dark
image
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6220250A
Other languages
Japanese (ja)
Other versions
JPH0883344A (en
Inventor
光生 下谷
稔 西田
章 岡田
敏英 佐竹
賢二 小河
尋善 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP6220250A priority Critical patent/JP2937030B2/en
Publication of JPH0883344A publication Critical patent/JPH0883344A/en
Application granted granted Critical
Publication of JP2937030B2 publication Critical patent/JP2937030B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、検出対象者の顔面上
の特徴を抽出するための画像処理装置と、上記検出対象
者の居眠り状態や脇見状態などの挙動を検出するための
人物状態判定装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for extracting features on the face of a person to be detected, and a person state determination for detecting the behavior of the person to be detected such as a dozing state or an inattentive state. It concerns the device.

【0002】[0002]

【従来の技術】図30は、例えば特開昭60−1583
03号公報に示された従来の運転者撮影装置を用いた目
の位置検出装置の構成図である。図において、1は運転
者、10a、10bはCCDカメラ、13は赤外線LE
D、14は赤外線LED13に電流を供給するLED駆
動回路、100は運転者挙動検出回路である。
2. Description of the Related Art FIG.
It is a block diagram of an eye position detecting device using a conventional driver photographing device disclosed in Japanese Patent Application Publication No. 03-2003. In the figure, 1 is a driver, 10a and 10b are CCD cameras, and 13 is an infrared LE.
D and 14 are LED driving circuits for supplying a current to the infrared LED 13, and 100 is a driver behavior detecting circuit.

【0003】次に動作について説明する。赤外線LED
13は運転席の運転者1を照射する。運転者1の映像は
運転者1の顔面を含む所定の領域を撮影できる位置に設
置されたCCDカメラ10a、10bに入力される。入
力された画像は運転者挙動検出回路100に入力され、
目の位置や顔の向きなどがエッジ検出やパターン認識等
の画像処理により抽出されていた。
Next, the operation will be described. Infrared LED
13 irradiates the driver 1 in the driver's seat. The image of the driver 1 is input to CCD cameras 10a and 10b installed at positions where a predetermined area including the face of the driver 1 can be photographed. The input image is input to the driver behavior detection circuit 100,
The positions of the eyes and the direction of the face have been extracted by image processing such as edge detection and pattern recognition.

【0004】一方、論文「瞳孔の抽出処理と頭部の動き
を許容する視線検出装置の試作」(電子情報通信学会論
文誌D−II Vol.J76-D-II No.3)で示されるよう
に、同軸落射装置で顔面を照射すると、網膜反射像が顕
著に撮影でき、例えば2値化処理のような非常に簡単な
画像処理で目の位置を検出できる(同軸落射照明とは、
カメラの光軸と照明光の照射方向とが同一になる構造に
した照明のことである)。図31はこの装置を用いて居
眠り検出装置を構成したものであり、特願平5−282
502号明細書に記載されたものである。図において、
1は検出対象者、10は検出対象者1の顔面を含む所定
の領域を撮影できる位置に設置されたCCDカメラ、1
1は可視光成分をカットする可視光カットフィルタ、1
2はCCDカメラに対して45度の角度で設置したハー
フミラー、13は発光波長860nm、指向角度±20
度で発光し、ハーフミラー12に光を反射して検出対象
者1を照明する赤外線LED、14は赤外線LEDを駆
動するLED駆動回路、30はCCDカメラから出力さ
れる画像信号を一時記憶する撮影画像メモリである撮影
画像入力メモリ、31はCCDカメラや撮影画像入力メ
モリ30などにタイミング信号を与えるタイミング発生
回路、40は撮影画像入力メモリの内容から瞳孔を抽出
する特徴抽出回路、50は特徴抽出回路の出力から覚醒
度を判断する覚醒度判定回路、51は警報を出力する警
報出力回路である。
[0004] On the other hand, as shown in a paper "Prototype of eye-gaze detecting device allowing pupil extraction and head movement" (Transactions of the Institute of Electronics, Information and Communication Engineers, D-II Vol.J76-D-II No.3). In addition, when the face is illuminated with a coaxial epi-illumination device, a retinal reflection image can be remarkably photographed, and the position of the eye can be detected by a very simple image processing such as a binarization process.
This is a type of illumination in which the optical axis of the camera and the direction of illumination light illumination are the same.) FIG. 31 shows a configuration of a dozing detection device using this device.
No. 502. In the figure,
1 is a detection target person, 10 is a CCD camera installed at a position where a predetermined area including the face of the detection target person 1 can be photographed, 1
1 is a visible light cut filter for cutting visible light components, 1
2 is a half mirror installed at an angle of 45 degrees with respect to the CCD camera, 13 is an emission wavelength of 860 nm, and a directivity angle is ± 20.
Infrared LED that emits light at an angle and reflects light to the half mirror 12 to illuminate the detection target 1, 14 is an LED drive circuit that drives the infrared LED, and 30 is an imaging device that temporarily stores an image signal output from a CCD camera. A photographed image input memory as an image memory; 31, a timing generation circuit for providing a timing signal to a CCD camera, a photographed image input memory 30, etc .; 40, a feature extraction circuit for extracting a pupil from the contents of the photographed image input memory; A wakefulness determination circuit 51 that determines the wakefulness from the output of the circuit, and 51 is an alarm output circuit that outputs an alarm.

【0005】次に動作について説明する。図31におい
て、光路l1 で照射される赤外線LED13の照明光
は、ハーフミラー12で半分の光を反射し、光路l2 で
検出対象者1の顔面を照射する。検出対象者1の画像は
光路l3 でハーフミラー12を通り、半分の光がCCD
カメラ10に到達し、CCDカメラ10は検出対象者1
の画像を取り込む。この時、光路l2 とl3 の光軸は検
出対象者からみて、同軸になっている(同軸落射照
明)。この時検出対象者の撮影画像は図32のようにな
る。図32において、2は眉毛、3は鼻孔、4は虹彩、
5は強膜、6は瞳孔、7は顔表面である。上記のような
構成の同軸落射照明により、瞳孔6は網膜で反射された
光により、あたかも瞳孔が光っているように観察され、
顔の表面や他の特徴点に比べて、著しく輝度が高く映
る。これは網膜が入射光と同一方向に反射光を返す性質
を持つからである。図33に撮影画像の輝度分布を示
す。図33下部に示された波形は、得られた顔面画像
(図33上部)におけるA−A線に沿った輝度分布を示
すものであり、瞳孔の位置は明らかに輝度が他の部分と
異なり輝度が高いことがわかる。CCDカメラ10が取
り込んだ顔画像は、撮影画像メモリ30に一旦入力され
る。図34に本装置による居眠り検出の処理フローを示
す。この処理フローは図31における特徴抽出回路40
と覚醒度判定回路50との動作を示すものである。特徴
抽出回路40はST10で顔画像を入力し、ST11で
瞳孔のみを抽出するため、適当な輝度しきい値th1で
2値化処理を行う。得られた2値化画像は、図35に示
すようになる。この画像は瞳孔のみが白領域として2つ
の円となり、他の部分は黒領域となるので、ST12で
白画素のY軸方向の投影を行い(投影像は図35の右側
に示す)、ST13で投影像の面積を求めることによ
り、瞳孔の見かけ上の大きさが計算できる。ST14で
は上記面積が予め定められた値以上の時は開眼、未満の
ときは閉眼と判断する。この開眼閉眼情報は、覚醒度判
定回路50に入力され、覚醒度判定回路50はST20
で連続して3秒以上閉眼情報が入力されたかどうかを判
断し、3秒以上閉眼状態であったならば、居眠り状態で
あると判断し、ST21で警報発生回路51に警報出力
命令を出力する。閉眼状態が3秒未満の時はST10に
処理は移る。
Next, the operation will be described. In FIG. 31, the illumination light of the infrared LED 13 irradiated on the optical path l1 reflects half of the light on the half mirror 12, and irradiates the face of the detection target 1 on the optical path l2. The image of the detection target 1 passes through the half mirror 12 along the optical path l3, and half of the light is
The CCD camera 10 reaches the camera 10 and the detection target person 1
Capture the image of At this time, the optical axes of the optical paths l2 and l3 are coaxial when viewed from the detection target (coaxial epi-illumination). At this time, the captured image of the detection target person is as shown in FIG. In FIG. 32, 2 is an eyebrow, 3 is a nostril, 4 is an iris,
5 is the sclera, 6 is the pupil, and 7 is the face surface. By the coaxial epi-illumination having the above configuration, the pupil 6 is observed as if the pupil is shining by the light reflected by the retina,
Brightness is significantly higher than that of the face surface or other feature points. This is because the retina has the property of returning reflected light in the same direction as incident light. FIG. 33 shows the luminance distribution of the captured image. The waveform shown in the lower part of FIG. 33 shows the luminance distribution along the line AA in the obtained face image (the upper part of FIG. 33). The position of the pupil is clearly different from the other parts in luminance. Is high. The face image captured by the CCD camera 10 is temporarily input to the captured image memory 30. FIG. 34 shows a processing flow of dozing detection by this device. This processing flow corresponds to the feature extraction circuit 40 in FIG.
3 shows the operation of the wakefulness determination circuit 50. The feature extraction circuit 40 inputs a face image in ST10, and performs a binarization process with an appropriate luminance threshold th1 in order to extract only the pupil in ST11. The obtained binarized image is as shown in FIG. In this image, only the pupil becomes two circles as a white area, and the other part becomes a black area. Therefore, projection of white pixels in the Y-axis direction is performed in ST12 (a projected image is shown on the right side of FIG. 35), and in ST13. By determining the area of the projected image, the apparent size of the pupil can be calculated. In ST14, it is determined that the eye is open when the area is equal to or larger than a predetermined value, and that the eye is closed when the area is smaller than a predetermined value. This eye open / closed information is input to the arousal level determination circuit 50, and the arousal level determination circuit 50
It is determined whether or not the eye-close information has been continuously input for 3 seconds or more. If the eye-closed state has been input for 3 seconds or more, it is determined that the user is dozing, and an alarm output command is output to the alarm generation circuit 51 in ST21. . If the closed state is less than 3 seconds, the process proceeds to ST10.

【0006】[0006]

【発明が解決しようとする課題】顔面上の特徴を抽出す
るための従来の画像処理装置は以上のように構成されて
おり、図30に示す運転者撮影装置では、瞳孔の位置を
検出するために、得られた画像に対し、例えばフィルタ
演算を施し、エッジ検出をし、このエッジ形状より、瞳
孔にあたる円を求めるためのハフ変換処理等を施してパ
ターン認識をし、瞳孔を探していた。また、上記エッジ
検出に際しても雑音等でエッジがうまく検出できないと
円が求まらず、画像処理が複雑で時間がかかるという問
題があった。また、同軸落射を用いた先行技術による上
記居眠り検出装置(図31)では、外乱光が小さい条件
下で使用する場合は正常に動作するが、車内で使用する
など外乱光の大きい条件では、撮影するための照明光に
比べて100〜1000倍以上の非常に強い外乱光(太
陽光)などにより、網膜反射像が取れなくなるという問
題点があった。図36に上述の外乱光による影響を説明
する説明図を示す。図36下部に示された波形は、得ら
れた顔面画像(図36上部)におけるA−A線に沿った
輝度分布を示すものであり、曲線Aは晴天における昼間
の像で、同軸落射により撮像したもの、曲線Bは雨天に
おける昼間の像で、同軸落射により撮像したもの、曲線
Cは夜間の像で、同軸落射により撮像したものである。
同軸落射のものにおいて、外乱光が大きくなるに従い
(曲線C;夜間→曲線B;昼間・雨天→曲線A;昼間・
晴天)、瞳孔6以外の部分の輝度が高くなり、瞳孔の識
別が困難になることがわかる。曲線Aによる撮影画像は
図37のようになる。この画像においては、顔表面7に
比べて強膜5はやや暗く映り、強膜5に比べ虹彩4は暗
く、瞳孔6は更に暗く映る。このように上記居眠り検出
装置における画像処理法では外乱光条件が大きく変化す
る条件下で、顔面上の特徴点を抽出できなくなるという
問題があった。
A conventional image processing apparatus for extracting features on the face is constructed as described above. In the driver's photographing apparatus shown in FIG. 30, the position of the pupil is detected. Then, the obtained image is subjected to, for example, a filter operation to detect an edge, and from this edge shape, a Hough transform process or the like for obtaining a circle corresponding to a pupil is performed to perform pattern recognition and search for a pupil. Also, in the edge detection, if the edge is not properly detected due to noise or the like, a circle is not obtained, and there is a problem that image processing is complicated and takes time. In addition, the above-mentioned dozing detection device according to the prior art using coaxial epi-illumination (FIG. 31) operates normally when used under conditions of low disturbance light, but does not operate under conditions of high disturbance light such as when used in a car. However, there is a problem that a retinal reflection image cannot be obtained due to extremely strong disturbance light (sunlight) that is 100 to 1000 times or more as much as the illumination light for performing the operation. FIG. 36 is an explanatory diagram for explaining the influence of the above-mentioned disturbance light. The waveform shown in the lower part of FIG. 36 shows the luminance distribution along the line AA in the obtained face image (upper part of FIG. 36), and the curve A is a daytime image in fine weather, which is captured by coaxial epi-illumination. Curve B is a daytime image in rainy weather, taken by coaxial epi-illumination, and curve C is a nighttime image, taken by coaxial epi-illumination.
In the case of coaxial incident light, as the disturbance light increases (curve C; night → curve B; daytime / rainy → curve A; daytime ・
It can be seen that the brightness of the portion other than the pupil 6 becomes high, and it becomes difficult to identify the pupil. An image captured by the curve A is as shown in FIG. In this image, the sclera 5 appears slightly darker than the face surface 7, the iris 4 appears darker than the sclera 5, and the pupil 6 appears even darker. As described above, the image processing method in the dozing detection device has a problem that it is impossible to extract a feature point on the face under the condition that the disturbance light condition changes greatly.

【0007】この発明は上記のような問題点を解決する
ためになされたもので、車載条件下など外乱光が大きく
変化する条件下でも、検出対象者の顔面上の特徴や検出
対象者の状態を比較的短時間で検出できる画像処理装置
及び人物状態判定装置を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and it has been proposed that the characteristics of the face of the person to be detected and the state of the person to be detected can be obtained even under conditions where disturbance light greatly changes, such as on-vehicle conditions. It is an object of the present invention to obtain an image processing device and a person state determination device capable of detecting the image in a relatively short time.

【0008】[0008]

【課題を解決するための手段】この発明の請求項1に係
る画像処理装置は、検出対象者の顔面を含む所定の領域
の像を入力する光入力手段、上記検出対象者を照明し、
上記検出対象者と上記光入力手段とを結ぶ光軸と、照明
光照明方向とが少なくとも上記検出対象者近傍において
ほぼ同軸となるように配置された照明手段、検出対象者
の周辺の明暗を検出する明暗検出手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から輝度
がしきい値より低い顔面上の暗い領域を抽出する明用の
画像処理と、輝度がしきい値より高い顔面上の明るい領
域を抽出する暗用の画像処理の少なくとも2つ以上の画
像処理により、顔面上の特徴を抽出可能であるととも
に、上記明暗検出手段が出力する明暗信号により2つ以
上の画像処理の中から1つの画像処理を選択、または2
つ以上の画像処理による抽出結果の中から1つの抽出結
果を選択する特徴抽出手段を備えたものである。
According to a first aspect of the present invention, there is provided an image processing apparatus comprising: a light input unit for inputting an image of a predetermined area including a face of a detection target; illuminating the detection target;
An illuminating means arranged such that an optical axis connecting the detection target person and the light input means and an illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and detects light and darkness around the detection target person Brightness detection means for detecting the brightness of the image of the detection subject output from the light input means.
For dark areas on the face where
Image processing and bright areas on the face whose brightness is higher than the threshold
At least two or more images of dark image processing to extract regions
By image processing, features on the face can be extracted, and one image processing is selected from two or more image processings based on the light / dark signal output by the light / dark detection means, or
It is provided with a feature extracting means for selecting one extraction result from the extraction results obtained by one or more image processing.

【0009】この発明の請求項2に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
とともに、入力した画像の明暗を示す明暗信号を出力す
る光入力手段、上記検出対象者を照明し、上記検出対象
者と上記光入力手段とを結ぶ光軸と、照明光照明方向と
が少なくとも上記検出対象者近傍においてほぼ同軸とな
るように配置された照明手段、及び上記光入力手段から
出力される上記検出対象者の撮影画像から輝度がしきい
値より低い顔面上の暗い領域を抽出する明用の画像処理
と、輝度がしきい値より高い顔面上の明るい領域を抽出
する暗用の画像処理の少なくとも2つ以上の画像処理に
より、顔面上の特徴を抽出可能であるとともに、上記光
入力手段が出力する上記明暗信号により2つ以上の画像
処理の中から1つの画像処理を選択、または2つ以上の
画像処理による抽出結果の中から1つの抽出結果を選択
する特徴抽出手段を備えたものである。
According to a second aspect of the present invention, there is provided an image processing apparatus, comprising: a light input unit for inputting an image of a predetermined area including a face of a person to be detected, and outputting a light / dark signal indicating light / dark of the input image; An illuminating unit that illuminates the detection target, and is arranged so that an optical axis connecting the detection target and the light input unit and an illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target; and The brightness is determined from the image of the detection target person output from the light input means.
Bright image processing to extract dark areas on the face that are lower than the value
And extract bright areas on the face whose brightness is higher than the threshold
Image processing for at least two or more of
Thus, the feature on the face can be extracted, and one image processing is selected from two or more image processings based on the light / dark signal output from the light input means, or an extraction result by two or more image processings And a feature extracting means for selecting one of the extraction results.

【0010】この発明の請求項3に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
光入力手段、上記検出対象者を照明し、上記検出対象者
と上記光入力手段とを結ぶ光軸と、照明光照明方向とが
少なくとも上記検出対象者近傍においてほぼ同軸となる
ように配置された照明手段、上記検出対象者または他の
人物が明暗に対応して切り替えることにより明暗に対応
した信号を出力するスイッチ、及び上記光入力手段から
出力される上記検出対象者の撮影画像から輝度がしきい
値より低い顔面上の暗い領域を抽出する明用の画像処理
と、輝度がしきい値より高い顔面上の明るい領域を抽出
する暗用の画像処理の少なくとも2つ以上の画像処理に
より、顔面上の特徴を抽出可能であるとともに、上記ス
イッチが出力する明暗信号により上記2つ以上の画像処
理の中から1つの画像処理を選択、または上記2つ以上
の画像処理による抽出結果の中から1つの抽出結果を選
択する特徴抽出手段を備えたものである。
According to a third aspect of the present invention, there is provided an image processing apparatus, comprising: light input means for inputting an image of a predetermined area including a face of a detection target; illuminating the detection target; An illuminating means arranged such that an optical axis connecting the input means and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target, and the detection target or another person switches corresponding to light and dark. A switch for outputting a signal corresponding to light and dark, and a luminance threshold from the image of the detection subject output from the light input means.
Bright image processing to extract dark areas on the face that are lower than the value
And extract bright areas on the face whose brightness is higher than the threshold
Image processing for at least two or more of
The feature on the face can be extracted, and one image processing is selected from the two or more image processings based on the light / dark signal output from the switch, or the extraction result by the two or more image processings is selected. It is provided with feature extraction means for selecting one extraction result from among them.

【0011】この発明の請求項4に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
光入力手段、上記検出対象者を照明し、上記検出対象者
と上記光入力手段とを結ぶ光軸と、照明光照明方向とが
少なくとも上記検出対象者近傍においてほぼ同軸となる
ように配置された照明手段、上記光入力手段から出力さ
れる上記検出対象者の画像信号を用いて撮影画像の明暗
を判定する明暗度判定手段、及び上記光入力手段から出
力される上記検出対象者の撮影画像から輝度がしきい値
より低い顔面上の暗い領域を抽出する明用の画像処理
と、輝度がしきい値より高い顔面上の明るい領域を抽出
する暗用の画像処理の少なくとも2つ以上の画像処理に
より、顔面上の特徴を抽出可能であるとともに、上記明
暗度判定手段が出力する明暗信号により上記2つ以上の
画像処理の中から1つの画像処理を選択、または上記2
つ以上の画像処理による抽出結果の中から1つの抽出結
果を選択する特徴抽出手段を備えたものである。
According to a fourth aspect of the present invention, there is provided an image processing apparatus, comprising: light input means for inputting an image of a predetermined area including a face of a person to be detected; illuminating the person to be detected; An optical axis connecting the input means and an illumination light illuminating direction are arranged at least in the vicinity of the detection target person so as to be substantially coaxial in the vicinity of the detection target person, and the image signal of the detection target person output from the light input means is output. Brightness determining means for determining the brightness of the photographed image by using the light receiving means;
Bright image processing to extract dark areas on lower face
And extract bright areas on the face whose brightness is higher than the threshold
Image processing for at least two or more of
Thus, the feature on the face can be extracted, and one image processing is selected from the two or more image processings based on the brightness signal output by the brightness determination means, or
It is provided with a feature extracting means for selecting one extraction result from the extraction results obtained by one or more image processing.

【0012】この発明の請求項5に係る画像処理装置
は、上記各特徴抽出手段が、暗信号が入力された時は網
膜反射像による瞳孔抽出を行い、明信号が入力された時
は鼻孔抽出を行なうようにしたものである。
According to a fifth aspect of the present invention, in the image processing apparatus, each of the feature extracting means extracts a pupil based on a retinal reflection image when a dark signal is input, and extracts a nostril when a bright signal is input. Is performed.

【0013】この発明の請求項6に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
光入力手段、上記検出対象者を照明し、上記検出対象者
と上記光入力手段とを結ぶ光軸と、照明光照明方向とが
少なくとも上記検出対象者近傍においてほぼ同軸となる
ように配置された照明手段、及び上記光入力手段から出
力される上記検出対象者の撮影画像から輝度がしきい値
より低い顔面上の暗い領域を抽出する明用の画像処理
と、輝度がしきい値より高い顔面上の明るい領域を抽出
する暗用の画像処理の少なくとも2つ以上の画像処理に
より、顔面上の特徴を抽出可能であるとともに、上記画
像処理による抽出結果に応じて最終的な抽出結果を選択
する特徴抽出手段を備えたものである。
According to a sixth aspect of the present invention, there is provided an image processing apparatus comprising: a light input unit for inputting an image of a predetermined area including a face of a detection target person; illuminating the detection target person; An illumination unit arranged such that an optical axis connecting the input unit and an illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target; and a photographed image of the detection target output from the light input unit Brightness from threshold
Bright image processing to extract dark areas on lower face
And extract bright areas on the face whose brightness is higher than the threshold
Image processing for at least two or more of
Furthermore, it is possible to extract features on the face and to provide a feature extracting means for selecting a final extraction result according to the extraction result by the image processing.

【0014】この発明の請求項7に係る画像処理装置
は、上記特徴抽出手段が、暗用の画像処理により瞳孔が
検出できない場合は、明用の画像処理による抽出結果を
選択するようにしたものである。
According to a seventh aspect of the present invention, when the pupil is not detected by the dark image processing, the feature extracting means selects an extraction result by the bright image processing. It is.

【0015】この発明の請求項8に係る画像処理装置
は、請求項6の特徴抽出手段が、明用または暗用のいず
れかによる画像処理で抽出された瞳孔の大きさが小さい
場合は、明用の画像処理による抽出結果を選択するよう
にしたものである。
According to an eighth aspect of the present invention, in the image processing apparatus according to the sixth aspect, the feature extracting means according to the sixth aspect is arranged so that the feature extracting means is either bright or dark.
When the size of the pupil extracted by the image processing is small, the extraction result by the bright image processing is selected.

【0016】この発明の請求項9に係る画像処理装置
は、上記各画像処理装置において、光入力手段の撮影条
件、または照明手段の照明条件の少なくとも一方を制御
する照明撮影制御手段を備え、上記照明撮影制御手段は
明暗検出手段、光入力手段、スイッチ、明暗度判定手
段、または特徴抽出手段のいずれかから明暗情報を取り
出して、上記撮影条件または上記照明条件を変更するよ
うにしたものである。
According to a ninth aspect of the present invention, in each of the above-mentioned image processing apparatuses, there is provided an illumination photographing control means for controlling at least one of a photographing condition of the light input means and a lighting condition of the lighting means. The illumination photographing control unit is configured to extract the light / dark information from any of the light / dark detection unit, the light input unit, the switch, the light / darkness determination unit, or the feature extraction unit, and change the photographing condition or the lighting condition. .

【0017】この発明の請求項10に係る画像処理装置
は、上記照明撮影制御手段が、明暗情報が明の場合は照
明光をオフし、特徴抽出手段は明用の画像処理により撮
影画像から顔面上の特徴を抽出し、明暗情報が暗の場合
は照明光をオンし、上記特徴抽出手段は暗用の画像処理
により撮影画像から顔面上の特徴を抽出するようにした
ものである。
According to a tenth aspect of the present invention, in the image processing apparatus, the illumination photographing control means turns off the illumination light when the brightness information is bright, and the feature extraction means performs the facial image processing on the photographed image by the light image processing. The above features are extracted, and when the light / dark information is dark, the illumination light is turned on, and the feature extracting means extracts features on the face from the captured image by dark image processing.

【0018】この発明の請求項11に係る人物状態判定
装置は上記各画像処理装置のいずれかと、この画像処理
装置の出力から人物状態を判定する人物状態判定手段と
を備えたものである。
A person state determining apparatus according to an eleventh aspect of the present invention includes any one of the above image processing apparatuses and a person state determining means for determining a person state from an output of the image processing apparatus.

【0019】[0019]

【作用】本発明の請求項1の画像処理装置は、検出対象
者周辺の照度を明暗検出手段で測定することにより、暗
いときは網膜反射像を利用した画像処理を用いて検出対
象者の特徴を抽出し、明るいときは網膜反射像にこだわ
らない画像処理を用いて検出対象者の特徴を抽出するよ
うに動作するので、検出対象者の周辺の明るさが変化し
ても顔面上の特徴を捕まえることができる。
The image processing apparatus according to the first aspect of the present invention measures the illuminance around the object to be detected by the light / dark detection means, and when the image is dark, uses the image processing using the retinal reflection image to characterize the object to be detected. It operates to extract the characteristics of the detection target using image processing that is not particular about the retinal reflection image when it is bright, so that even if the brightness around the detection target changes, the features on the face will be extracted. Can be caught.

【0020】また、請求項2の画像処理装置は、入力し
た画像の明暗を示す明暗信号を出力する機能を有する光
入力手段により、検出対象者周辺の明暗情報を得、上記
と同様、明暗に応じた画像処理を選択するように動作す
るので、検出対象者の周辺の明るさが変化しても顔面上
の特徴を捕まえることができる。
According to the image processing apparatus of the present invention, the light input means having the function of outputting a light and dark signal indicating the light and dark of the input image obtains light and dark information around the detection target, and the light and dark information is obtained in the same manner as described above. Since the operation is performed so as to select the corresponding image processing, the feature on the face can be captured even when the brightness around the detection target changes.

【0021】また、請求項3の画像処理装置は、検出対
象者または他の人物が明暗に対応して切り替えることに
より明暗に対応した信号を出力するスイッチにより、検
出対象者周辺の明暗情報を得、上記と同様、明暗に応じ
た画像処理を選択するように動作するので、検出対象者
の周辺の明るさが変化しても顔面上の特徴を捕まえるこ
とができる。
According to a third aspect of the present invention, there is provided an image processing apparatus which obtains light / dark information around a detection target by a switch which outputs a signal corresponding to the light / dark when the detection target or another person switches according to the light / dark. As described above, since the operation is performed so as to select the image processing in accordance with the brightness, it is possible to capture the features on the face even if the brightness around the detection target person changes.

【0022】また、請求項4の画像処理装置は、光入力
手段から出力される検出対象者の画像信号を用いて撮影
画像の明暗を判定する明暗度判定手段により、検出対象
者周辺の明暗情報を得、上記と同様、明暗に応じた画像
処理を選択するように動作するので、検出対象者の周辺
の明るさが変化しても顔面上の特徴を捕まえることがで
きる。
According to a fourth aspect of the present invention, there is provided the image processing apparatus, wherein the brightness determining means for determining the brightness of the photographed image using the image signal of the detected person output from the light input means, the light and dark information around the detected person. As described above, the image processing apparatus operates to select image processing according to light and dark, so that a feature on the face can be captured even if the brightness around the detection target person changes.

【0023】また、請求項5の画像処理装置は、暗信号
が入力された時は網膜反射像による瞳孔抽出を行い、明
信号が入力された時は鼻孔抽出を行なうようにすること
で、種々の特徴抽出ができる。
The image processing apparatus according to claim 5 performs pupil extraction based on a retinal reflection image when a dark signal is input, and performs nostril extraction when a bright signal is input. Feature extraction.

【0024】また、請求項6の画像処理装置は、特徴抽
出手段における画像処理の抽出結果に応じて、一旦抽出
結果を試してから画像処理あるいは抽出結果を選択する
ように動作するので、検出精度が上がる。
Further, the image processing apparatus according to the present invention operates so as to try the extraction result once and then select the image processing or the extraction result in accordance with the extraction result of the image processing in the feature extraction means. Goes up.

【0025】また、請求項7の画像処理装置は、暗用の
画像処理により瞳孔が検出できない場合は、明用の画像
処理による抽出結果を選択するように動作し、暗用の画
像処理による結果を優先するため検出精度が良い。
Further, the image processing apparatus of claim 7 operates to select the extraction result by the light image processing when the pupil cannot be detected by the dark image processing, and to select the result by the dark image processing. , The detection accuracy is good.

【0026】また、請求項8の画像処理装置は、瞳孔の
大きさを明暗いずれかの画像処理で求め、明暗情報を瞳
孔の大きさから得るようにしている。
In the image processing apparatus according to the present invention, the size of the pupil is obtained by either bright or dark image processing, and the brightness information is obtained from the size of the pupil.

【0027】また、請求項9の画像処理装置は、上述し
た明暗検出手段、光入力手段、スイッチ、明暗度判定手
段、または特徴抽出手段のいずれかから明暗情報を取り
出して、光入力手段の撮影条件、または照明手段の照明
条件を変更する。
According to a ninth aspect of the present invention, there is provided an image processing apparatus, wherein brightness information is extracted from any of the brightness detection means, the light input means, the switch, the brightness determination means, and the feature extraction means, and the light input means is used for photographing. Change the conditions or the lighting conditions of the lighting means.

【0028】また、請求項10の画像処理装置は、明暗
情報が明の場合は照明光をオフにし、明暗情報が暗の場
合は照明光をオンにする。
The image processing apparatus according to the tenth aspect turns off the illumination light when the light / dark information is bright, and turns on the illumination light when the light / dark information is dark.

【0029】また、請求項11における人物状態判定装
置は、上記各構成の画像処理装置から出力される抽出結
果をもちいて、瞼の開閉状態や顔の向き等を検出し、居
眠りや脇見等、種々の人物状態を判定する。
[0029] In the eleventh aspect, the person state determining apparatus detects the open / closed state of the eyelids, the face direction, and the like based on the extraction result output from the image processing apparatus having the above-described configuration. Various person states are determined.

【0030】[0030]

【実施例】【Example】

実施例1.以下、この発明の一実施例による居眠り検出
装置を図について説明する。図1において、20は検出
対象者1の周辺に設置され、照度を検出する照度セン
サ、41は暗用の特徴抽出処理と明用の特徴抽出処理の
2つの画像処理を実施できる特徴抽出回路41である。
10〜14、30、31、50、51は前記従来例と同
一の動作をする構成要素である。
Embodiment 1 FIG. Hereinafter, a dozing detection device according to an embodiment of the present invention will be described with reference to the drawings. In FIG. 1, reference numeral 20 denotes an illuminance sensor that is installed around the detection target person 1 and detects illuminance. Reference numeral 41 denotes a feature extraction circuit 41 that can perform two image processes of a feature extraction process for darkness and a feature extraction process for lightness. It is.
Reference numerals 10 to 14, 30, 31, 50, and 51 denote constituent elements that operate in the same manner as the conventional example.

【0031】次に動作について説明する。図1におい
て、光路l1 で照射される赤外線LED13の照明光
は、ハーフミラー12で半分の光を反射し、光路l2 で
検出対象者1の顔面を照射する。検出対象者1の画像は
光路l3 でハーフミラー12を通り、半分の光がCCD
カメラ10に到達し、CCDカメラは検出対象者1の画
像を取り込む。この時、光路l2とl3 の光軸は検出対
象者からみて、ほぼ同軸あるいは所定の角度以内(2
度)に納まるようになっている(同軸落射照明)。本実
施例では0度としており、ハーフミラー12がCCDカ
メラ10の光軸l3 となす角度は45゜である。CCD
カメラ10から出力される画像信号は、撮影画像メモリ
30に一旦入力される。
Next, the operation will be described. In FIG. 1, the illumination light of the infrared LED 13 irradiated on the optical path l1 reflects half of the light on the half mirror 12, and irradiates the face of the detection target 1 on the optical path l2. The image of the detection target 1 passes through the half mirror 12 along the optical path l3, and half of the light is
After reaching the camera 10, the CCD camera captures an image of the detection target person 1. At this time, the optical axes of the optical paths l2 and l3 are substantially coaxial or within a predetermined angle (2
Degree) (coaxial epi-illumination). In this embodiment, the angle is 0 degree, and the angle formed by the half mirror 12 and the optical axis l3 of the CCD camera 10 is 45 °. CCD
An image signal output from the camera 10 is once input to the captured image memory 30.

【0032】図2は特徴抽出回路41と覚醒度判定回路
50の動作を示す処理フローである。ST10において
顔画像を入力するまでの動作は図31に示す従来例と同
一の動作をする。ST50において照度センサ20から
明暗信号を入力し、ST51で、例えば予め定められた
照度しきい値、例えば照度500Lx以下の場合は「暗
い」と判断し、処理はST11へ移り前記従来例と同一
の動作により覚醒度を判断する。ST51において「明
るい」と判断した場合は、ST41において明用の輝度
しきい値th2(<暗用しきい値th1)にて2値化処
理を行う。明るい場合の画像は図37のようになるが、
得られた2値化画像は図3のように眉毛2、眼領域8、
鼻孔3、口領域9が黒色領域となり、その他の部分は白
色領域となる画像になる。次にST42、ST43にて
眼の領域を抽出する。抽出は、まずST42で、図3の
右部分に示すように黒画素のY軸方向への輝度投影を行
う。例えば、得られる2値化画像をG2(x,y)で表
現すると(x=0〜255、y=0〜255)、Y軸へ
の投影は
FIG. 2 is a process flow showing the operation of the feature extraction circuit 41 and the arousal level determination circuit 50. The operation up to the input of the face image in ST10 is the same as the conventional example shown in FIG. In ST50, a light / dark signal is input from the illuminance sensor 20. In ST51, for example, when the illuminance is equal to or less than a predetermined illuminance threshold, for example, illuminance of 500Lx or less, it is determined that the image is "dark". The arousal level is determined by the operation. If it is determined in ST51 that the image is "bright", in ST41, a binarization process is performed using a light luminance threshold th2 (<dark threshold th1). The image when it is bright looks like Figure 37,
The obtained binarized image is, as shown in FIG.
The nostrils 3 and the mouth area 9 are black areas, and the other areas are white areas. Next, an eye region is extracted in ST42 and ST43. In the extraction, first, in ST42, the luminance of the black pixel is projected in the Y-axis direction as shown in the right part of FIG. For example, if the obtained binarized image is expressed by G2 (x, y) (x = 0 to 255, y = 0 to 255), the projection on the Y axis is

【0033】[0033]

【数1】 (Equation 1)

【0034】で示される。このとき眉毛2、眼領域8、
鼻孔3、口領域9などが黒画素数の山P1,P2,P
3,P4として現れる。この山のパターンは眉毛に対応
する山P1と眼領域に対応する山P2は大きく、次の鼻
孔に対応する山P3は小さい山となるので、ST43に
て2番目の山P2を眼領域として特定する。次にST4
4で眼の開閉判断をする。図4は閉眼の場合の2値化画
像である。このように眼領域の山P2の面積は瞼を閉じ
ると小さく、眼を開けると大きくなるので、予め定めら
れた値より山P2の面積が大きい場合は開眼、小さい場
合は閉眼と判断する。以下ST20以降の動作は前記従
来例と同一である。
## EQU1 ## At this time, eyebrow 2, eye area 8,
The nostrils 3 and the mouth area 9 are the peaks P1, P2, P of the number of black pixels.
3, Appears as P4. In this peak pattern, the peak P1 corresponding to the eyebrows and the peak P2 corresponding to the eye region are large, and the peak P3 corresponding to the next nostril is a small peak. Therefore, in ST43, the second peak P2 is specified as the eye region. I do. Next, ST4
At 4, the eye is opened or closed. FIG. 4 is a binarized image when the eye is closed. As described above, the area of the mountain P2 in the eye region becomes smaller when the eyelid is closed and becomes larger when the eye is opened. Therefore, when the area of the mountain P2 is larger than a predetermined value, it is determined that the eye is open, and when smaller, the eye is determined to be closed. Hereinafter, the operation after ST20 is the same as that of the conventional example.

【0035】なお、上記実施例では明るいとき、2値化
画像における黒画素をY軸方向へ輝度投影して眼の領域
を抽出し、眼領域の山の面積により眼の開閉判断をした
が、眼領域の山の幅でもよい。また、暗いときにおいて
も、2値化画像における白画素をY軸方向へ輝度投影し
て瞳孔を抽出し、瞳孔の面積により眼の開閉判断をした
が、瞳孔を示す山の幅でもよい。また、明るいときの画
像処理法は上記方法にこだわらず、2値化画像のエッジ
処理等で眼の開閉判断等をしてもよい。
In the above embodiment, when the image is bright, the black pixels in the binarized image are projected in luminance in the Y-axis direction to extract the eye region, and the open / closed state of the eye is determined based on the mountain area of the eye region. The width of the mountain in the eye region may be used. In addition, even when the image is dark, the pupil is extracted by projecting the luminance of the white pixel in the binarized image in the Y-axis direction, and the opening / closing of the eye is determined based on the area of the pupil. Further, the image processing method when the image is bright is not limited to the above method, and the eye open / close determination may be performed by edge processing of the binarized image.

【0036】以上のように、本実施例では検出対象者周
辺の照度を照度センサで測定することにより、暗いとき
は網膜反射像を利用した画像処理を用いて検出対象者の
特徴を抽出し、明るいときは網膜反射像にこだわらない
画像処理を用いて検出対象者の特徴を抽出するように動
作するので、検出対象者の周辺の明るさが変化しても顔
面上の特徴を常に捕まえ、居眠りを監視することができ
るようになる。
As described above, in the present embodiment, the illuminance around the detection target person is measured by the illuminance sensor, and when dark, the characteristics of the detection target person are extracted using image processing using a retinal reflection image. When it is bright, it operates to extract the characteristics of the detection target using image processing that is not particular about the retinal reflection image, so even if the brightness around the detection target changes, it always catches the features on the face and falls asleep Will be able to monitor.

【0037】実施例2.図5はこの発明の他の実施例に
よる人物状態判定装置であり、顔を左または右に向ける
と顔角度に応じて見かけ上の瞳孔間隔や鼻孔の間隔が狭
くなる。このことから脇見を検出し、警報を与える脇見
検出装置の実施例である。図5において、41は特徴抽
出回路であり、脇見検出用の特徴を抽出するように動作
する。52は脇見判定回路である。
Embodiment 2 FIG. FIG. 5 shows a person condition judging device according to another embodiment of the present invention. When the face is turned to the left or right, the apparent pupil interval or nostril interval becomes narrow according to the face angle. This is an embodiment of an inattentiveness detection device that detects inattentiveness and gives an alarm. In FIG. 5, reference numeral 41 denotes a feature extraction circuit, which operates so as to extract features for inattentiveness detection. 52 is an inattentive judgment circuit.

【0038】次に動作を説明する。図6は特徴抽出回路
41、及び脇見判定回路52の動作を示すフローチャー
トである。ST10において顔画像を入力し、ST50
において照度センサ20から明暗信号を入力する。ST
51で、実施例1と同様、例えば予め定められた照度し
きい値以下の場合は「暗い」と判断し、処理はST11
へ移り、2値化処理の後ST120で、図7に示すよう
に白画素のX軸方向への投影を行なう。ST130では
2つの瞳孔の位置xq1、xq2を抽出する。即ち、2つの
瞳孔に対応してX軸方向への投影像に現われる2つの山
のピークの位置を各々求めることにより、瞳孔の位置が
抽出できる。ST140ではST130で求めた2つの
瞳孔の位置から、瞳孔の見かけ上の間隔dppを求め、得
られた見かけ上の間隔から顔の向きを推定する。顔の角
度θfは cos(θf)=dpp/Dpp から求められる。但し、Dppは顔を正面に向けたときの
見かけ上の瞳孔間隔、dppは現在の見かけ上の瞳孔間隔
である。
Next, the operation will be described. FIG. 6 is a flowchart showing the operation of the feature extraction circuit 41 and the inattentiveness judgment circuit 52. In ST10, a face image is input, and in ST50
, A light / dark signal is input from the illuminance sensor 20. ST
At 51, as in the first embodiment, for example, when the illuminance is equal to or less than a predetermined illuminance threshold, it is determined to be “dark”, and the process proceeds to ST11
After the binarization process, in ST120, white pixels are projected in the X-axis direction as shown in FIG. In ST130, the positions xq1 and xq2 of the two pupils are extracted. That is, the position of the pupil can be extracted by determining the positions of the peaks of the two peaks appearing in the projected image in the X-axis direction corresponding to the two pupils. In ST140, the apparent distance dpp between the pupils is obtained from the positions of the two pupils obtained in ST130, and the face direction is estimated from the obtained apparent distance. The face angle θf is obtained from cos (θf) = dpp / Dpp. Here, Dpp is the apparent pupil distance when the face is turned to the front, and dpp is the current apparent pupil distance.

【0039】一方、ST51において、予め定められた
照度しきい値以上の場合は「明るい」と判断し、この場
合は、鼻孔の間隔から顔の角度を推定する。即ち、ST
41において実施例1と同様、明用の輝度しきい値th
2(<暗用しきい値th1)にて2値化処理を行い、S
T420で黒画素のY軸方向への輝度投影を行う。図3
に示すようにY軸へ輝度投影すると鼻孔3は、大きな山
P1,P2の下にある小さな黒色の山P3として現れ
る。ST420ではさらに山P3の中心yp3を求め、鼻
孔抽出の為のウィンドウを設定する。ウィンドウは縦は
yp3を中心に例えば上下2cmに対応する画素幅、横は
0〜255とする。このウィンドウは図8の上部の様に
なる。その後、X軸方向への輝度投影をする。黒画素の
X軸方向への輝度投影は
On the other hand, in ST51, when the brightness is equal to or more than the predetermined illuminance threshold value, it is determined that the image is "bright". In this case, the angle of the face is estimated from the interval of the nostrils. That is, ST
At 41, as in the first embodiment, the brightness threshold value th for light
2 (<darkness threshold th1), binarization processing is performed, and S
At T420, luminance projection of the black pixel in the Y-axis direction is performed. FIG.
When the luminance is projected on the Y axis as shown in FIG. 7, the nostrils 3 appear as small black peaks P3 below the large peaks P1 and P2. In ST420, the center yp3 of the mountain P3 is further obtained, and a window for nostril extraction is set. The window has a pixel width corresponding to, for example, 2 cm above and below the center of yp3 and a width of 0 to 255. This window looks like the upper part of FIG. Thereafter, luminance projection is performed in the X-axis direction. The luminance projection of the black pixel in the X-axis direction is

【0040】[0040]

【数2】 (Equation 2)

【0041】で示される。ここで、y0は上下1cmに対
応する画素数である。X軸方向へ輝度投影すると、図8
の下のように2つの鼻孔に対応する山Q1、Q2が現れ
るので、ST45においてQ1、Q2の鼻孔中心xq1,
xq2を求めることにより、左右の鼻孔の位置nR(xq
1、yp3)、nl(xq2、yp3)を見つける。ST46で
はST45で求めた2つの鼻孔の位置から、鼻孔の見か
け上の間隔を求め、得られた見かけ上の間隔から顔の向
きを推定する。顔の角度θfはcos(θf)=dnn/D
nnから求められる。但し、Dnnは顔を正面に向けたとき
の見かけ上の鼻孔間隔、dnnは現在の見かけ上の鼻孔間
隔である。
## EQU1 ## Here, y0 is the number of pixels corresponding to 1 cm above and below. When the luminance is projected in the X-axis direction, FIG.
Since the peaks Q1 and Q2 corresponding to the two nostrils appear as shown below, in ST45, the nostril centers xq1,
By obtaining xq2, the position nR (xq
1, yp3) and nl (xq2, yp3). In ST46, the apparent interval between the nostrils is determined from the positions of the two nostrils determined in ST45, and the orientation of the face is estimated from the obtained apparent interval. The face angle θf is cos (θf) = dnn / D
Required from nn. Here, Dnn is the apparent nostril interval when the face is turned to the front, and dnn is the current apparent nostril interval.

【0042】この顔の向きに関する情報は、脇見判定回
路52に入力され、脇見判定回路52はST22で、得
られた顔の向きが20度以上であり、かつこの状態が5
秒以上続いているかどうかを判定し、5秒以上続けば、
脇見状態であると判断し、ST23で警報発生回路51
に警報出力命令を出力する。5秒未満の時はST10に
処理は移る。
The information on the face orientation is input to the inattentiveness determination circuit 52, and the inattentiveness determination circuit 52 determines in step ST22 that the obtained face orientation is 20 degrees or more and this state is 5 degrees.
Judge whether it lasts for more than 2 seconds, and if it lasts for more than 5 seconds,
It is determined that the driver is in the inattentive state, and the alarm generation circuit 51 is determined in ST23.
To output an alarm output command. If it is shorter than 5 seconds, the process proceeds to ST10.

【0043】以上のように、本実施例では検出対象者周
辺の照度を照度センサで測定し、暗いときは網膜反射像
を利用して瞳孔を抽出し、明るいときは網膜反射像にこ
だわらない画像処理を用いて鼻孔を抽出することによ
り、明暗に応じて検出精度のよい特徴を抽出するので、
脇見判定の検出精度が向上する。
As described above, in the present embodiment, the illuminance around the detection target person is measured by the illuminance sensor, the pupil is extracted using the retinal reflection image when it is dark, and the image which is not particular about the retinal reflection image when it is bright. By extracting the nostrils using processing, features with good detection accuracy are extracted according to light and dark,
The detection accuracy of inattentive judgment is improved.

【0044】実施例3.図9はこの発明の実施例3によ
る居眠り検出装置を示す構成図である。図9において、
15はAGC(オートゲインコントロール)付きのCC
Dカメラであり、入力した画像の明暗を示す明暗信号で
あるAGC信号を外部に出力する機能を持つ。即ち、照
度が高い場合は、光−電気変換後の電気信号増幅のゲイ
ンを小さくし、照度が高い場合は、光−電気変換後の電
気信号増幅のゲインを大きくする機能を有するCCDカ
メラであり、このゲイン情報を外部に出力する。動作は
実施例1と同様であり、照度センサ20からの明暗信号
の変わりに、このCCDカメラ15よりゲイン情報に対
応して明暗信号が特徴抽出回路41に出力される。従っ
て、実施例1の効果に加えて、照度センサを省くことが
できるので安価な装置を提供することができる。
Embodiment 3 FIG. FIG. 9 is a configuration diagram showing a dozing detection device according to Embodiment 3 of the present invention. In FIG.
15 is CC with AGC (auto gain control)
This is a D camera, and has a function of outputting an AGC signal, which is a light / dark signal indicating light / dark of an input image, to the outside. That is, when the illuminance is high, the CCD camera has a function of reducing the gain of the electric signal amplification after the photoelectric conversion, and when the illuminance is high, the CCD camera has a function of increasing the gain of the electric signal amplification after the photoelectric conversion. This gain information is output to the outside. The operation is the same as that of the first embodiment. Instead of the light / dark signal from the illuminance sensor 20, a light / dark signal corresponding to the gain information is output from the CCD camera 15 to the feature extraction circuit 41. Therefore, in addition to the effects of the first embodiment, the illuminance sensor can be omitted, so that an inexpensive device can be provided.

【0045】実施例4.図10はこの発明の実施例4に
よる居眠り検出装置を示す構成図である。図10におい
て、21は明暗状態に応じて人が切り替える明暗スイッ
チである。即ち、検出対象者または他の人物が、検出対
象者周辺の明暗に対応してスイッチ21を切り替え、明
暗に対応した信号を出力する。動作は実施例1と同様で
あり、照度センサ20からの明暗信号の変わりに、この
スイッチ21より明暗信号が特徴抽出回路41に出力さ
れる。従って、実施例3と同様、検出精度が向上すると
ともに、照度センサを省くことができるので安価な装置
を提供することができる。
Embodiment 4 FIG. FIG. 10 is a configuration diagram showing a dozing detection device according to Embodiment 4 of the present invention. In FIG. 10, reference numeral 21 denotes a light / dark switch that is switched by a person according to the light / dark state. That is, the detection target person or another person switches the switch 21 according to the brightness around the detection target person, and outputs a signal corresponding to the brightness. The operation is the same as that of the first embodiment. Instead of the light / dark signal from the illuminance sensor 20, a light / dark signal is output from the switch 21 to the feature extraction circuit 41. Therefore, similarly to the third embodiment, the detection accuracy is improved and the illuminance sensor can be omitted, so that an inexpensive device can be provided.

【0046】なお、上記実施例4では、明暗状態に応じ
て切り替える明暗スイッチ21を用いたが、上記装置を
自動車に適用し、ライトのオンオフのスイッチを上記明
暗スイッチ21と兼用して、明暗に対応した信号をとり
だすようにしてもよい。図11は本実施例による居眠り
検出装置を車載した自動車を示す部分構成図である。図
11において、22はヘッドライトのスイッチであり、
オンの時に暗信号を、オフの時に明信号を特徴抽出回路
41に出力する。このような構成にすることにより、明
暗信号が自動車のライトのオンオフのスイッチと連動
し、運転者が自然に行なう動作により明暗信号を発生す
るため、操作が煩わしくないものが得られる。
In the fourth embodiment, the light / dark switch 21 which switches according to the light / dark state is used. However, the above apparatus is applied to an automobile, and the light ON / OFF switch is also used as the light / dark switch 21 to change the light and dark. A corresponding signal may be taken out. FIG. 11 is a partial configuration diagram showing an automobile on which the dozing detection device according to the present embodiment is mounted. In FIG. 11, reference numeral 22 denotes a headlight switch.
A dark signal is output to the feature extraction circuit 41 when it is on, and a bright signal when it is off. With such a configuration, the light / dark signal is interlocked with the on / off switch of the light of the vehicle, and the light / dark signal is generated by an operation naturally performed by the driver, so that the operation is not troublesome.

【0047】実施例5.図12はこの発明の実施例5に
よる居眠り検出装置を示す構成図である。図12におい
て、42は撮影画像メモリ30のデータを入力し、明暗
度を判定する明暗判定回路である。即ち、G1(x,
y)を画像メモリの内容とすれば、明暗判定回路42
は、撮影画像の明暗を判定する値G1totalを次式
Embodiment 5 FIG. FIG. 12 is a configuration diagram showing a dozing detection device according to Embodiment 5 of the present invention. In FIG. 12, reference numeral 42 denotes a light / dark judgment circuit which inputs data of the photographed image memory 30 and judges the light / dark level. That is, G1 (x,
If y) is the content of the image memory, the light / dark determination circuit 42
Is the value G1total for determining the brightness of the captured image

【0048】[0048]

【数3】 (Equation 3)

【0049】より求め、上記G1total が予め定められ
値以上の場合「明るい」と判断し、未満の場合「暗い」
と判断する。特徴抽出回路41は照度センサ20からの
明暗信号の変わりに、明暗判定回路42の明暗情報を入
力して、以下実施例1と同様に動作する。
If G1total is equal to or greater than a predetermined value, it is determined to be “bright”.
Is determined. The feature extraction circuit 41 receives the light / dark information of the light / dark determination circuit 42 instead of the light / dark signal from the illuminance sensor 20, and operates in the same manner as in the first embodiment.

【0050】このように画像メモリを用いて明暗を検出
することにより、明暗検出のためのセンサが省け、実施
例1の効果に加えて、安価な装置を提供することができ
る。
As described above, by detecting the brightness using the image memory, a sensor for detecting the brightness can be omitted, and in addition to the effect of the first embodiment, an inexpensive device can be provided.

【0051】なお、上記実施例ではG1totalは画像デ
ータ全体を用いたが、画像の一部分を用いてもよい。
In the above embodiment, G1total uses the entire image data, but a part of the image may be used.

【0052】また、上記実施例では明暗判定回路42は
撮影画像メモリ30のデータを入力して明暗度を判定し
たが、図13に示すように、CCDカメラ10からの画
像信号を入力し、例えば入力される画像信号の1/30
秒間の積分量に応じて明暗を判定し、特徴抽出回路41
に明暗信号を出力するようにしてもよい。
In the above embodiment, the brightness determination circuit 42 determines the brightness by inputting the data of the photographed image memory 30. However, as shown in FIG. 13, an image signal from the CCD camera 10 is input, and 1/30 of input image signal
The brightness is determined according to the integration amount per second, and the feature extraction circuit 41
Alternatively, a light / dark signal may be output.

【0053】実施例6.上記各実施例の特徴抽出回路4
1では、明用の画像処理と暗用の画像処理を外部からの
信号を入力して切り換えていたが、外部からの信号によ
らないで、各々の画像処理による抽出結果を用いて1つ
の抽出結果を選択するようにしてもよい。図14はこの
ような居眠り検出装置を示す構成図である。図14にお
いて、43は暗用特徴抽出回路、44は明用特徴抽出回
路、45は選択回路である。暗用特徴抽出回路43は、
撮影画像メモリ30のデータを入力し、図15のフロー
に従い、瞼開閉度と瞳孔のY座標を抽出する。即ち、あ
る程度暗い環境の場合は実施例1のように瞳孔のみが抽
出できるが、明るい環境では鼻の先端の輝度と瞳孔との
輝度が近くなり、しきい値th1で2値化をすると、図
16のように瞳孔と鼻の先端が白色領域となり、Y軸へ
の輝度投影を行うと、瞳孔による山R1と鼻の先端によ
る山R2が現れ、どちらが瞳孔か判断できなくなる。さ
らに明るい環境では多数の白領域が現れるので瞼開閉の
判断はできなくなる。暗用特徴抽出回路43は特徴抽出
結果として、瞳孔が抽出できる場合は、R1に対応した
値(Y座標yr1、開閉度dr1)を、瞳孔を特定できない
場合は検出不能情報を出力する。図15において、ST
10で顔画像を入力し、ST11でしきい値th1で2
値化処理を行う。ST12で白画素のY軸方向の投影を
行い、ST60で白領域を示すY軸投影像の山の数を検
出し、山が2つ以上の場合、瞳孔抽出不能としてST6
5へいき、瞳孔は検出不能であると判断する。山が1つ
の場合は瞳孔が抽出可能であるためST13で投影像の
面積を求めることにより、瞳孔の見かけ上の大きさが計
算できる。ST61では上記面積が予め定められた値以
上の時はST63へいき、開眼と判断して、投影像から
瞳孔のY座標yr1と瞼の開閉度にあたる山の幅dr1を求
める。上記面積が予め定められた値未満のときはST6
2で閉眼と判断する。ST64ではST62、ST6
3、及びST65の結果を選択回路に出力する。
Embodiment 6 FIG. Feature extraction circuit 4 of each of the above embodiments
In No. 1, the image processing for light and the image processing for dark are switched by inputting an external signal, but one extraction is performed by using the extraction result by each image processing without depending on the external signal. A result may be selected. FIG. 14 is a configuration diagram showing such a dozing detection device. In FIG. 14, reference numeral 43 denotes a dark feature extracting circuit, 44 denotes a bright feature extracting circuit, and 45 denotes a selecting circuit. The dark feature extraction circuit 43
The data of the captured image memory 30 is input, and the eyelid opening / closing degree and the Y coordinate of the pupil are extracted according to the flow of FIG. That is, in the case of a somewhat dark environment, only the pupil can be extracted as in the first embodiment. However, in a bright environment, the brightness at the tip of the nose and the brightness of the pupil are close to each other. As shown in FIG. 16, when the pupil and the tip of the nose become a white area, and when luminance projection is performed on the Y axis, a peak R1 due to the pupil and a peak R2 due to the tip of the nose appear, and it is impossible to determine which is the pupil. Further, in a bright environment, a large number of white areas appear, so that it is impossible to determine whether the eyelids are opened or closed. The darkness feature extraction circuit 43 outputs a value (Y coordinate yr1, opening / closing degree dr1) corresponding to R1 when the pupil can be extracted as a feature extraction result, and outputs undetectable information when the pupil cannot be specified. In FIG.
The face image is input at 10 and the threshold value th1 is set at 2 at ST11.
Perform value conversion processing. In step ST12, the white pixels are projected in the Y-axis direction. In step ST60, the number of peaks in the Y-axis projected image indicating the white region is detected.
Going to 5, it is determined that the pupil cannot be detected. In the case of one mountain, the pupil can be extracted, and the apparent size of the pupil can be calculated by obtaining the area of the projected image in ST13. In ST61, when the area is equal to or larger than the predetermined value, the process proceeds to ST63, and it is determined that the eye is open, and the Y coordinate yr1 of the pupil and the mountain width dr1 corresponding to the degree of opening and closing of the eyelids are obtained from the projected image. If the area is smaller than a predetermined value, ST6
In 2 it is determined that the eyes are closed. In ST64, ST62, ST6
3, and outputs the result of ST65 to the selection circuit.

【0054】一方、明用特徴抽出回路44は撮影画像メ
モリ30のデータを入力し、図17のフローに従い、瞼
開閉度と瞳孔のY座標を抽出する。即ち、明るい環境で
は実施例1のように眉、眼領域、鼻孔、口に対応した山
P1,P2,P3,P4がそれぞれ分離して抽出できる
が、やや暗くなり顔面上のコントラスト比が小さくなっ
てくると、しきい値th2で2値化をすると図18のよ
うに眉、眼領域、鼻孔、口以外に黒領域が現れ、Y軸輝
度投影を行っても眼領域の山P2を特定できなくなる。
明用特徴抽出回路44は特徴抽出結果として、検出でき
る場合はP2に対応した瞼開閉度を、検出できない場合
は、検出不能情報を出力する。図17において、ST1
0で顔画像を入力し、ST41でしきい値th2で2値
化処理を行う。ST42で黒画素のY軸方向の投影を行
い、ST70で黒領域を示すY軸投影像の山を検出し、
山が不明瞭な場合、即ち投影像の黒画素数が0と0とで
囲まれた領域が例えば4つ以下の時、ST75で眼領域
は検出不能であると判断する。山が明瞭である場合、即
ち上記領域が4つの時は、ST43で2番目の山P2を
眼領域として特定する。ST71では眼領域の山P2の
面積が予め定められた値より大きいかどうかを判断し、
大きい場合はST73において開眼と判断し、投影像か
ら眼領域のY座標と瞼の開閉度にあたる山の幅を求め
る。上小さい場合はST72において閉眼と判断する。
ST74ではST72、ST73、及びST75の結果
を選択回路に出力する。
On the other hand, the light feature extraction circuit 44 receives the data of the photographed image memory 30 and extracts the eyelid opening / closing degree and the Y coordinate of the pupil according to the flow of FIG. That is, in a bright environment, the peaks P1, P2, P3, and P4 corresponding to the eyebrows, the eye region, the nostrils, and the mouth can be separately extracted as in the first embodiment. However, the contrast becomes slightly dark and the contrast ratio on the face decreases. Then, when binarization is performed using the threshold value th2, a black region appears in addition to the eyebrows, the eye region, the nostrils, and the mouth as shown in FIG. 18, and the mountain P2 of the eye region can be identified even when the Y-axis luminance projection is performed. Disappears.
The light feature extraction circuit 44 outputs, as a feature extraction result, the eyelid opening / closing degree corresponding to P2 when it can be detected, and outputs undetectable information when it cannot be detected. In FIG. 17, ST1
At 0, a face image is input, and at ST41, binarization processing is performed at a threshold th2. In ST42, black pixels are projected in the Y-axis direction, and in ST70, a peak of the Y-axis projected image indicating a black area is detected.
When the mountain is unclear, that is, when the number of black pixels in the projected image is 0 or less, for example, four or less, the eye region is determined to be undetectable in ST75. If the mountains are clear, that is, if there are four areas, the second mountain P2 is specified as the eye area in ST43. In ST71, it is determined whether or not the area of the mountain P2 of the eye region is larger than a predetermined value.
If it is larger, the eye is determined to be open in ST73, and the Y coordinate of the eye area and the width of the mountain corresponding to the degree of opening and closing of the eyelids are obtained from the projected image. If it is smaller, it is determined in ST72 that the eye is closed.
In ST74, the results of ST72, ST73, and ST75 are output to the selection circuit.

【0055】選択回路45は図19のフローに従い、暗
用特徴抽出回路43と明用特徴抽出回路44の出力結果
から一方の結果を選択する。本実施例では、明用の特徴
抽出結果が検出不能でない限り明用を選択し、明用の特
徴抽出結果が検出不能ならば暗用の検出結果を選択す
る。即ち、ST80で暗用特徴抽出回路43の抽出結果
を入力し、ST81で明用特徴抽出回路44の抽出結果
を入力する。ST82では明用の特徴抽出結果が検出可
能であれば、ST84で明用の特徴抽出結果を選択し、
明用の特徴抽出結果が検出不能ならばST83で暗用の
特徴抽出結果を選択する。ST85では選択した抽出結
果を覚醒度判定回路50に出力し、覚醒度判定回路5
0、及び警報発生回路51は上記抽出結果を用いて、例
えば図20に示すフローに従って居眠り状態を判断し、
警報を発生する。図20において、ST100で特徴抽
出回路41から瞳孔(または眼領域)の位置を入力し、
ST101ではこの位置を記憶する。ST102では上
記位置の5分間のデータを取り、ST103でこの5分
間のデータの平均値を求めることにより、標準瞳孔(眼
領域)高さを計算する。ST104では引続き、特徴抽
出回路41から瞳孔(または眼領域)の位置を入力し、
ST105で2分間のデータから得られる平均瞳孔(眼
領域)高さを計算する。ST106ではこの平均瞳孔
(眼領域)高さと前記標準瞳孔(眼領域)高さを比較
し、平均瞳孔(眼領域)高さが標準瞳孔(眼領域)高さ
より例えば5cm以上低い場合は居眠り状態と判断し
て、ST107でブザー(警報)を鳴らすようにする。
The selection circuit 45 selects one of the output results of the dark feature extraction circuit 43 and the light feature extraction circuit 44 in accordance with the flow of FIG. In the present embodiment, light is selected unless the feature extraction result for light is undetectable, and the detection result for dark is selected if the feature extraction result for light is undetectable. That is, the extraction result of the dark feature extraction circuit 43 is input in ST80, and the extraction result of the light feature extraction circuit 44 is input in ST81. If the light feature extraction result can be detected in ST82, the light feature extraction result is selected in ST84,
If the bright feature extraction result cannot be detected, the dark feature extraction result is selected in ST83. In ST85, the selected extraction result is output to the alertness determination circuit 50, and the alertness determination circuit 5
0, and the alarm generation circuit 51 determines a dozing state according to the flow shown in FIG.
Generate an alarm. In FIG. 20, the position of the pupil (or eye region) is input from the feature extraction circuit 41 in ST100,
In ST101, this position is stored. In ST102, data of the above position for 5 minutes is obtained, and in ST103, a standard pupil (eye region) height is calculated by calculating an average value of the data for 5 minutes. In ST104, the position of the pupil (or eye region) is continuously input from the feature extraction circuit 41,
In ST105, the average pupil (eye region) height obtained from the data for 2 minutes is calculated. In ST106, the average pupil (eye region) height is compared with the standard pupil (eye region) height, and if the average pupil (eye region) height is lower than the standard pupil (eye region) height by, for example, 5 cm or more, the state is a dozing state. Judgment is made and a buzzer (alarm) is sounded in ST107.

【0056】このように本実施例では明暗状態に係わら
ず、明用と暗用の画像処理で特徴抽出を行ない、成功し
た特徴抽出結果を用いるので、実施例1に比べ、居眠り
判定の検出精度が上がる効果がある。
As described above, in the present embodiment, the feature extraction is performed by the image processing for light and dark and the result of successful feature extraction is used irrespective of the light / dark state. Has the effect of rising.

【0057】なお、上記実施例では開眼状態において瞳
孔または眼領域のY座標及び瞼開閉度も求め、覚醒度判
定回路で瞳孔または眼領域の位置により居眠りを判定し
たが、従来例及び実施例1〜5と同様、開閉状態のみを
抽出結果として出力し、これにより居眠りを判定しても
よい。
In the above embodiment, the Y-coordinate of the pupil or the eye area and the degree of eyelid opening and closing are also obtained in the open state, and the awakening degree determination circuit determines the drowsiness based on the position of the pupil or the eye area. As in the case of ~ 5, only the open / closed state may be output as the extraction result, and this may be used to determine dozing.

【0058】また、上記実施例6では明用を優先的に選
択したが、暗用を優先的に選択しても良い。
Further, in the sixth embodiment, bright is preferentially selected, but dark may be preferentially selected.

【0059】また、実施例6では暗用特徴抽出回路4
3、明用特徴抽出回路44は検出可能、検出不能の判断
により、開眼、閉眼、検出不能の3種類の結果を出力し
たが、暗用特徴抽出回路は (1) 瞳孔第1候補の開閉判定結果と位置 (2) (1)に加え、瞳孔瞳孔第2候補(図16でy
r2の位置のもの)の開閉判定結果と位置 (3)検出不能 というように投影像に対応して複数の候補も検出し、
(1)、(2)に対して、それぞれ開閉判断を実行して
も良い。従って検出結果は5種類となり、選択回路45
は複数の候補を入力する。
In the sixth embodiment, the dark feature extracting circuit 4
3. The bright feature extraction circuit 44 outputs three types of results, that is, open, closed, and undetectable based on the determination of detectable and undetectable, but the dark feature extractor (1) determines whether the first candidate pupil is open or closed. Result and position (2) In addition to (1), the second candidate pupil pupil (y in FIG. 16)
Opening / closing judgment result and position of the position of r2) and (3) undetectable.
For each of (1) and (2), open / close determination may be performed. Therefore, there are five types of detection results, and the selection circuit 45
Inputs a plurality of candidates.

【0060】選択回路45の動作を図21に示す。図2
1において、ST80で暗用特徴抽出回路43の抽出結
果を入力し、ST81で明用特徴抽出回路44の抽出結
果を入力する。ST86では暗用の特徴抽出結果が検出
不能ならば、ST84で明用の特徴抽出結果を選択す
る。一方、ST86で暗用の特徴抽出結果が検出可能で
あれば、ST110で第1候補のみ検出したかどうかを
判定し、第1候補のみが検出されたのならば、ST11
1で暗用の特徴抽出結果、即ち第1候補を選択する。第
1候補以外も検出されたのならば、ST82で、明用の
特徴抽出結果が検出可能かどうかを判定し、検出不能で
あれば、ST112で暗用特徴抽出結果の第1候補と第
2候補のうち、瞳孔の位置が前回の抽出結果に近い方の
候補を選択する。ST82で、検出可能と判定されれ
ば、ST113で暗用特徴抽出結果の第1候補と第2候
補のうち、瞳孔の位置が明用特徴抽出結果に近い方の候
補を選択する。ST85では選択した抽出結果を覚醒度
判定回路50に出力する。
FIG. 21 shows the operation of the selection circuit 45. FIG.
In step 1, the extraction result of the dark feature extraction circuit 43 is input in ST80, and the extraction result of the light feature extraction circuit 44 is input in ST81. In ST86, if the dark feature extraction result cannot be detected, the light feature extraction result is selected in ST84. On the other hand, if the result of the feature extraction for darkness can be detected in ST86, it is determined whether or not only the first candidate has been detected in ST110. If only the first candidate has been detected, the process proceeds to ST11.
In step 1, a dark feature extraction result, that is, a first candidate is selected. If other than the first candidate has been detected, it is determined in ST82 whether or not the bright feature extraction result can be detected. If not, the first candidate for the dark feature extraction result and the second candidate in ST112 are determined in ST112. The candidate whose pupil position is closer to the previous extraction result is selected from the candidates. If it is determined in ST82 that detection is possible, a candidate whose pupil position is closer to the bright feature extraction result is selected from the first candidate and the second candidate of the dark feature extraction result in ST113. In ST85, the selected extraction result is output to arousal level determination circuit 50.

【0061】このように第2候補も抽出してより確かな
抽出結果を選択することにより、検出精度が向上すると
ともに、明暗の中間領域でも特徴をよく捕まえることが
出来、検出不能領域が減る効果がある。
As described above, by extracting the second candidate and selecting a more reliable extraction result, the detection accuracy is improved, and the feature can be well captured even in the middle area of light and dark, and the undetectable area is reduced. There is.

【0062】実施例7.上記実施例6においては暗用の
画像処理と明用の画像処理を行い、各画像処理における
抽出結果を用いて1つの抽出結果を選択するようにした
が、この選択を実施例1と同様に、照度センサ20の出
力に応じて選択するようにしてもよい。図22はこの発
明の実施例7による居眠り検出装置を示す構成図であ
る。図22において、暗用特徴抽出回路43と明用特徴
抽出回路44の動作は実施例6と同一である。選択回路
45のフローを図23に示す。図23において、ST8
0で暗用特徴抽出回路43の抽出結果を入力し、ST8
1で明用特徴抽出回路44の抽出結果を入力する。ST
82で明用の特徴抽出結果が検出可能ならば、ST86
で暗用の特徴抽出結果が検出可能かどうかを判定する。
検出可能であれば、ST87で照度センサ20から明暗
信号を入力し、ST88では照度センサ20からの明暗
信号が明信号であるかどうかを判定する。明信号であれ
ばST84で明用特徴抽出回路44の抽出結果を選択す
る。暗信号であればST83で暗用特徴抽出回路43の
抽出結果を選択する。一方、ST82で明用の特徴抽出
結果が検出不能ならば、ST83で暗用特徴抽出回路4
3の抽出結果を選択する。ST85ではST83または
ST84で選択した抽出結果を覚醒度判定回路50に出
力する。
Embodiment 7 FIG. In the sixth embodiment, the image processing for darkness and the image processing for lightness are performed, and one extraction result is selected by using the extraction result in each image processing. , May be selected according to the output of the illuminance sensor 20. FIG. 22 is a configuration diagram showing a dozing detection device according to Embodiment 7 of the present invention. In FIG. 22, the operations of the dark feature extracting circuit 43 and the bright feature extracting circuit 44 are the same as in the sixth embodiment. FIG. 23 shows the flow of the selection circuit 45. In FIG. 23, ST8
At 0, the extraction result of the dark feature extraction circuit 43 is input, and ST8 is entered.
In step 1, the extraction result of the bright feature extraction circuit 44 is input. ST
If the bright feature extraction result can be detected in 82, ST86
It is determined whether or not the result of feature extraction for darkness can be detected.
If detection is possible, a light / dark signal is input from the illuminance sensor 20 in ST87, and it is determined in ST88 whether the light / dark signal from the illuminance sensor 20 is a bright signal. If it is a bright signal, the extraction result of the bright feature extraction circuit 44 is selected in ST84. If it is a dark signal, the extraction result of the dark feature extraction circuit 43 is selected in ST83. On the other hand, if the light feature extraction result cannot be detected in ST82, the dark feature extraction circuit 4 in ST83.
3. Select the extraction result. In ST85, the extraction result selected in ST83 or ST84 is output to the arousal level determination circuit 50.

【0063】このようにすることにより、実施例1の効
果に加え、明用と暗用の画像処理の両方で特徴抽出可能
な場合、照度により、より正確な方を選択するので明と
暗の中間での環境において検出精度が上がる。
In this way, in addition to the effects of the first embodiment, when features can be extracted by both image processing for light and dark, a more accurate one is selected according to the illuminance. The detection accuracy increases in an intermediate environment.

【0064】実施例8.上記実施例6では特徴抽出回路
41は、暗用の画像処理と明用の画像処理を行い、各画
像処理による抽出結果を用いて1つの抽出結果を選択す
るようにしたが、1つの画像処理による抽出結果に応じ
て、明暗いずれかの画像処理を選択し、最終的な抽出結
果を得るようにしてもよい。図24はこの発明の実施例
8による居眠り検出装置を示す構成図、図25は特徴抽
出回路41及び覚醒度判定回路50のフローである。図
25において、まずST90〜ST93で暗用の特徴抽
出を行う。ST94では、暗用の特徴抽出で瞳孔を検出
できたかを判定し、検出できていれば、以後ST10〜
ST14で暗用の特徴抽出を行い、この抽出結果を最終
的な抽出結果としてST20で上記各実施例と同様、居
眠り検出を行なう。即ち、連続して3秒以上閉眼情報が
入力されたかどうかを判断し、3秒以上閉眼状態であっ
たならば、居眠り状態であると判断し、ST21で警報
発生回路51に警報出力命令を出力する。閉眼状態が3
秒未満の時はST10に処理は移る。一方、ST94で
瞳孔が抽出できなければ、以後ST40〜ST44で明
用の特徴抽出を行い、この抽出結果を最終的な抽出結果
として、ST47で居眠り検出を行なう。即ち、連続し
て3秒以上閉眼情報が入力されたかどうかを判断し、3
秒以上閉眼状態であったならば、居眠り状態であると判
断し、ST48で警報発生回路51に警報出力命令を出
力する。閉眼状態が3秒未満の時はST40に処理は移
る。
Embodiment 8 FIG. In the sixth embodiment, the feature extraction circuit 41 performs the image processing for darkness and the image processing for lightness, and selects one extraction result by using the extraction result of each image processing. Depending on the extraction result, the image processing of either light or dark may be selected to obtain the final extraction result. FIG. 24 is a configuration diagram showing a dozing detection device according to Embodiment 8 of the present invention, and FIG. 25 is a flow of the feature extraction circuit 41 and the arousal level determination circuit 50. In FIG. 25, first, a feature for darkness is extracted in ST90 to ST93. In ST94, it is determined whether or not the pupil has been detected by the feature extraction for darkness.
In ST14, a feature for darkness is extracted, and this extraction result is used as a final extraction result, and in ST20, dozing detection is performed as in the above embodiments. That is, it is determined whether or not the eye-close information has been continuously input for 3 seconds or more. If the eye-closed state has been input for 3 seconds or more, it is determined that the user is dozing, and an alarm output command is output to the alarm generation circuit 51 in ST21. I do. Eye closed 3
If it is less than seconds, the process proceeds to ST10. On the other hand, if the pupil cannot be extracted in ST94, light feature extraction is performed in ST40 to ST44, and this extraction result is used as a final extraction result to detect dozing in ST47. That is, it is determined whether or not the eye closing information has been input for three seconds or more continuously.
If the eye is in the closed state for more than a second, it is determined that the user is in a dozing state, and an alarm output command is output to the alarm generating circuit 51 in ST48. If the closed state is less than 3 seconds, the process proceeds to ST40.

【0065】このように、本実施例では暗用の画像処理
で特徴抽出が可能かどうかを判定して、以後の画像処理
方法を選択することにより、照度センサ等を用いずに安
価な装置で、実施例1と同様の効果がある。また、暗用
の画像処理を優先するので検出精度がよい。
As described above, in this embodiment, it is determined whether or not feature extraction is possible by dark image processing, and the subsequent image processing method is selected, so that an inexpensive device can be used without using an illuminance sensor or the like. This has the same effect as the first embodiment. Further, since the image processing for darkness is prioritized, the detection accuracy is good.

【0066】なお、上記実施例8では、暗用の特徴抽出
で瞳孔を検出できるかどうかを、1回の特徴抽出処理だ
けで判定したが、1回だけではたまたま眼を閉じている
場合があるので、例えば2秒ほど暗用の特徴抽出処理を
行い、暗用が使用できるかどうかを判定しても良い。
In the eighth embodiment, whether or not the pupil can be detected by the dark feature extraction is determined by only one feature extraction process. However, the eye may be accidentally closed only once. Therefore, for example, a feature extraction process for darkness may be performed for about two seconds to determine whether darkness can be used.

【0067】また、実施例8では、暗用の特徴抽出で瞳
孔を検出できるかどうかを判定した後は、明用か暗用か
一方に画像処理を固定したが、明用に固定した後も、例
えば10分に一回の頻度で暗用の特徴抽出処理を行い、
暗用が使用できるかどうかを再判定しても良い。
In the eighth embodiment, after it is determined whether or not the pupil can be detected by the feature extraction for darkness, the image processing is fixed to either bright or dark. For example, a feature extraction process for darkness is performed once every 10 minutes,
It may be determined again whether or not darkness can be used.

【0068】また、実施例8では、暗用の画像処理で特
徴抽出ができるかどうかを判定したが、明用の画像処理
で特徴抽出ができるかどうかにより、以後の画像処理方
法を選択して、明用の画像処理を優先するようにしても
よい。
In the eighth embodiment, it is determined whether or not the feature can be extracted by the dark image processing. However, the following image processing method is selected depending on whether or not the feature can be extracted by the bright image processing. Alternatively, bright image processing may be prioritized.

【0069】実施例9.図26はこの発明の実施例9に
よる居眠り検出装置に係わる特徴抽出回路41及び覚醒
度判定回路50のフローである。なお、居眠り検出装置
の構成は図24と同様の構成である。瞳孔は明るいと小
さく、暗いと大きくなることから、本実施例において
は、明暗いずれかに応じた画像処理で抽出された瞳孔の
大きさが小さい場合は、明用の画像処理、及び明用の画
像処理による抽出結果を選択し、抽出された瞳孔の大き
さが大きい場合は、暗用の画像処理、及び暗用の画像処
理による抽出結果を選択するようにしたものである。図
26において、まずST90〜ST93で暗用の画像処
理で瞳孔を抽出し、ST95でY軸方向の投影像におけ
る幅を検出することにより、瞳孔の径を求め、ST96
で瞳孔直径が例えば4mm以上で有ればST10〜ST
14で暗用、未満で有ればST40〜ST44で明用の
画像処理を実行する。以下の動作は各々実施例8と同じ
である。
Embodiment 9 FIG. FIG. 26 is a flowchart of the feature extraction circuit 41 and the arousal level determination circuit 50 according to the dozing detection device according to the ninth embodiment of the present invention. The configuration of the dozing detection device is the same as that of FIG. Since the pupil is small when it is bright and large when it is dark, in the present embodiment, when the size of the pupil extracted by image processing corresponding to either light or dark is small, image processing for light and light for dark When an extraction result by image processing is selected and the size of the extracted pupil is large, a dark image processing and an extraction result by dark image processing are selected. In FIG. 26, first, the pupil is extracted by image processing for darkness in ST90 to ST93, and the diameter of the pupil is obtained by detecting the width in the projection image in the Y-axis direction in ST95.
If the pupil diameter is, for example, 4 mm or more, ST10 to ST
In step 14, image processing for light is executed in ST40 to ST44 when dark is determined. The following operations are the same as in the eighth embodiment.

【0070】このように、明用あるいは暗用の画像処理
を選択する際に、瞳孔の大きさによって選択しているの
で、特徴抽出の精度が上がるとともに、照度センサ等を
用いずに安価な装置で、実施例1と同様の効果がある。
As described above, when the image processing for light or dark is selected, the selection is made according to the size of the pupil, so that the accuracy of feature extraction is improved and an inexpensive apparatus without using an illuminance sensor or the like is used. Thus, there is an effect similar to that of the first embodiment.

【0071】なお、上記実施例では瞳孔の大きさにより
画像処理方法を選択したが、図14と同様の構成とし、
明用特徴抽出回路と暗用特徴抽出回路の抽出結果を、い
ずれかの回路で得られた瞳孔の大きさにより選択するよ
うにしても同様の効果がある。
In the above embodiment, the image processing method is selected according to the size of the pupil.
Similar effects can be obtained by selecting the extraction results of the bright feature extraction circuit and the dark feature extraction circuit based on the size of the pupil obtained by one of the circuits.

【0072】実施例10.図27はこの発明の実施例1
0による居眠り検出装置を示す構成図である。図27に
おいて、16はシャッタスピード設定回路であり、照度
センサ20からの明暗情報を入力し、照度が一定以下だ
とCCDカメラ10のシャッタスピードを遅くする。ま
た照度が一定以上だとCCDカメラ10のシャッタスピ
ードを早くする。その他の動作は実施例1と同様であ
る。
Embodiment 10 FIG. FIG. 27 shows Embodiment 1 of the present invention.
It is a block diagram which shows the dozing detection apparatus by 0. In FIG. 27, reference numeral 16 denotes a shutter speed setting circuit which receives light / dark information from the illuminance sensor 20 and reduces the shutter speed of the CCD camera 10 when the illuminance is below a certain level. If the illuminance is higher than a certain value, the shutter speed of the CCD camera 10 is increased. Other operations are the same as in the first embodiment.

【0073】このように本実施例では、明暗に応じてC
CDカメラのシャッタスピードを変更するので、実施例
1の効果に加えて、入力画像の質が向上し、特徴抽出精
度が向上する。
As described above, in the present embodiment, C
Since the shutter speed of the CD camera is changed, in addition to the effects of the first embodiment, the quality of the input image is improved, and the feature extraction accuracy is improved.

【0074】実施例11.図28はこの発明の実施例1
1による居眠り検出装置を示す構成図である。図28に
おいて、17はCCDカメラ10に装着する光学フィル
タを可視光カットフィルタ11にするか赤外線カットフ
ィルタ18にするかを切り替えるフィルタ交換回路であ
る。フィルタ交換回路17は照度センサ20からの明暗
情報を入力し、照度が一定以下だと可視光カットフィル
タ11を選択し、照度が一定以上だと赤外線カットフィ
ルタ18を選択する。その他の動作は実施例1と同様で
ある。
Embodiment 11 FIG. FIG. 28 shows Embodiment 1 of the present invention.
1 is a configuration diagram illustrating a dozing detection device according to a first embodiment; In FIG. 28, reference numeral 17 denotes a filter exchange circuit for switching between an optical filter mounted on the CCD camera 10 and the visible light cut filter 11 or the infrared cut filter 18. The filter exchange circuit 17 receives the brightness information from the illuminance sensor 20 and selects the visible light cut filter 11 when the illuminance is below a certain level, and selects the infrared cut filter 18 when the illuminance is above a certain level. Other operations are the same as in the first embodiment.

【0075】このように本実施例では、明るい場合は可
視光で撮影するのでコントラストの良い画像が得られ、
明用の検出精度が上がる。
As described above, in this embodiment, when the image is bright, the image is photographed with visible light, so that an image with good contrast can be obtained.
Light detection accuracy is increased.

【0076】なお、上記実施例11では明暗に応じて光
学フィルタを交換したが、可視光カットフィルタを備え
た同軸落射撮影系と、赤外カットフィルタを備えたハー
フミラーのない非同軸の撮影系との2つの撮影系を備
え、暗い時は同軸落射撮影系で撮影し、明るい時は非同
軸の撮影系で撮影するように切り替えても良い。このよ
うにすれば、フィルタ交換の回路が省け、明状態の時ハ
ーフミラーを通さず撮影するので画像の質が上がる。
In the eleventh embodiment, the optical filters are changed according to the brightness. However, a coaxial epi-illumination imaging system having a visible light cut filter and a non-coaxial imaging system having a half mirror without an infrared cut filter are provided. It is also possible to switch between shooting in a coaxial epi-illumination shooting system when dark and shooting in a non-coaxial shooting system when bright. In this way, the filter replacement circuit is omitted, and the image is taken without passing through the half mirror in the bright state, so that the quality of the image is improved.

【0077】また、上記実施例10、11では実施例1
に示した照度センサ20の明暗情報を基に光入力手段の
撮影条件を制御したが、実施例2ないし9に示した光入
力手段15、スイッチ21、明暗度判定手段42、また
は特徴抽出手段41のいずれかから明暗情報を取り出し
て、上記撮影条件を変更するようにしてもよい。
In Embodiments 10 and 11, the first embodiment is used.
Although the photographing conditions of the light input means are controlled based on the brightness information of the illuminance sensor 20 shown in FIG. 7, the light input means 15, the switch 21, the brightness determination means 42, or the feature extraction means 41 shown in the second to ninth embodiments. The photographing condition may be changed by extracting light / dark information from any of the above.

【0078】実施例12.図29はこの発明の実施例1
2による居眠り検出装置を示す構成図である。図29に
おいて、LED駆動回路14は照度センサ20からの明
暗情報を入力し、照度が一定以下だと赤外線LED13
をオンし、照度が一定以上だと赤外線LED13をオフ
する。その他の動作は実施例1と同様である。
Embodiment 12 FIG. FIG. 29 shows Embodiment 1 of the present invention.
FIG. 2 is a configuration diagram illustrating a dozing detection device according to a second embodiment. In FIG. 29, the LED drive circuit 14 receives light / dark information from the illuminance sensor 20 and, when the illuminance is below a certain level, the infrared LED 13
Is turned on, and the infrared LED 13 is turned off when the illuminance is equal to or higher than a certain value. Other operations are the same as in the first embodiment.

【0079】このように本実施例では、暗い場合のみ赤
外線で照明するので、検出対象者を煩わせることなく顔
画像を確実に得ることができる。また、明るい場合は照
明しないので消費電力を節約できる。
As described above, in the present embodiment, since the infrared light is illuminated only when the image is dark, the face image can be reliably obtained without bothering the person to be detected. In addition, when there is no light, no illumination is performed, so that power consumption can be reduced.

【0080】なお、上記実施例12では明暗に応じて光
学LEDのオンオフを制御したが、ハーフミラーを移動
する機構を設けて、暗の場合は同軸落射に、明の場合は
ハーフミラーを通さず直接被験者を撮影するようにして
もよい。このようにすれば明状態の時、ハーフミラーを
通さず撮影するので画像の質が上がる。
In the twelfth embodiment, the on / off control of the optical LED is controlled in accordance with the brightness. However, a mechanism for moving the half mirror is provided. The subject may be directly photographed. In this way, in the bright state, the image is taken without passing through the half mirror, so that the quality of the image is improved.

【0081】また、上記実施例12では実施例1に示し
た照度センサ20の明暗情報を基に照明手段の照明条件
を制御したが、実施例2ないし9に示した光入力手段1
5、スイッチ21、明暗度判定手段42、または特徴抽
出手段41のいずれかから明暗情報を取り出して、上記
照明条件を変更するようにしてもよい。
In the twelfth embodiment, the illumination condition of the illumination means is controlled based on the brightness information of the illuminance sensor 20 shown in the first embodiment.
5, the lighting conditions may be changed by extracting brightness information from any of the switch 21, the brightness determination unit 42, or the feature extraction unit 41.

【0082】なお、上記各実施例においてカメラはCC
Dにこだわらない。例えばCIDカメラでも良い。
In each of the above embodiments, the camera is CC
I don't care about D. For example, a CID camera may be used.

【0083】また、撮影系は一つのカメラで説明した
が、複数の同軸落射照明とカメラのセットでも良い。
Although the photographing system has been described with one camera, a set of a plurality of coaxial epi-illumination and cameras may be used.

【0084】また、同軸落射照明はハーフミラーの場合
のみを示したが、同軸落射で有ればこのような構造にこ
だわらない。例えばカメラのレンズ中心に発光素子があ
り、運転者を直接照射する構造にしても良い。
Further, the coaxial epi-illumination is shown only in the case of a half mirror, but the coaxial epi-illumination is not limited to such a structure as long as it is co-axial epi-illumination. For example, a structure in which a light emitting element is provided at the center of the lens of the camera and the driver is directly illuminated may be employed.

【0085】[0085]

【発明の効果】以上のように、この発明の請求項1によ
れば、検出対象者の顔面を含む所定の領域の像を入力す
る光入力手段、上記検出対象者を照明し、上記検出対象
者と上記光入力手段とを結ぶ光軸と、照明光照明方向と
が少なくとも上記検出対象者近傍においてほぼ同軸とな
るように配置された照明手段、検出対象者の周辺の明暗
を検出する明暗検出手段、及び上記光入力手段から出力
される上記検出対象者の撮影画像から輝度がしきい値よ
り低い顔面上の暗い領域を抽出する明用の画像処理と、
輝度がしきい値より高い顔面上の明るい領域を抽出する
暗用の画像処理の少なくとも2つ以上の画像処理によ
り、顔面上の特徴を抽出可能であるとともに、上記明暗
検出手段が出力する明暗信号により2つ以上の画像処理
の中から1つの画像処理を選択、または2つ以上の画像
処理による抽出結果の中から1つの抽出結果を選択する
特徴抽出手段を備えたので、明るい条件でも、暗い条件
でも検出対象者の顔面上の特徴を比較的短時間で検出す
ることができる。
As described above, according to the first aspect of the present invention, the light input means for inputting an image of a predetermined area including the face of the detection target, the illumination of the detection target, and the detection of the detection target Lighting means arranged so that an optical axis connecting the person and the light input means and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target, and light / dark detection for detecting light / dark around the detection target Means and a threshold value from a photographed image of the detection target outputted from the light input means .
Image processing for light to extract dark areas on the lower face,
Extract bright areas on the face whose brightness is higher than the threshold
At least two or more image processing of dark image processing
The feature on the face can be extracted, and one image processing is selected from two or more image processings based on the light / dark signal output by the light / dark detection means, or the extraction result by the two or more image processings is selected. Since a feature extraction unit for selecting one extraction result from the inside is provided, the feature on the face of the detection target person can be detected in a relatively short time under both bright and dark conditions.

【0086】また、請求項2によれば、検出対象者の顔
面を含む所定の領域の像を入力するとともに、入力した
画像の明暗を示す明暗信号を出力する光入力手段、上記
検出対象者を照明し、上記検出対象者と上記光入力手段
とを結ぶ光軸と、照明光照明方向とが少なくとも上記検
出対象者近傍においてほぼ同軸となるように配置された
照明手段、及び上記光入力手段から出力される上記検出
対象者の撮影画像から輝度がしきい値より低い顔面上の
暗い領域を抽出する明用の画像処理と、輝度がしきい値
より高い顔面上の明るい領域を抽出する暗用の画像処理
の少なくとも2つ以上の画像処理により、顔面上の特徴
抽出可能であるとともに、上記光入力手段が出力する
上記明暗信号により2つ以上の画像処理の中から1つの
画像処理を選択、または2つ以上の画像処理による抽出
結果の中から1つの抽出結果を選択する特徴抽出手段を
備えたので、上記と同様、明るい条件でも、暗い条件で
も検出対象者の顔面上の特徴を比較的短時間で検出する
ことができる。
According to a second aspect of the present invention, there is provided a light input means for inputting an image of a predetermined area including a face of a detection target person and outputting a light / dark signal indicating the brightness of the input image. Illuminating, an optical axis connecting the detection target person and the light input means, and an illuminating means arranged such that an illumination light illumination direction is substantially coaxial at least in the vicinity of the detection target person, and from the light input means. On the face whose brightness is lower than the threshold from the captured image of the detection target person output
Bright image processing to extract dark areas and brightness threshold
Dark image processing to extract bright areas on higher faces
At least two or more image processing
Together it can be extracted, and extracting selects one of the image processing from among the two or more image processing by the dark signal output from said optical input means, or from the extracted result of the two or more image processing of one Since the feature extracting means for selecting the result is provided, the feature on the face of the detection target person can be detected in a relatively short time under both bright and dark conditions as described above.

【0087】また、請求項3によれば、検出対象者の顔
面を含む所定の領域の像を入力する光入力手段、上記検
出対象者を照明し、上記検出対象者と上記光入力手段と
を結ぶ光軸と、照明光照明方向とが少なくとも上記検出
対象者近傍においてほぼ同軸となるように配置された照
明手段、上記検出対象者または他の人物が明暗に対応し
て切り替えることにより明暗に対応した信号を出力する
スイッチ、及び上記光入力手段から出力される上記検出
対象者の撮影画像から輝度がしきい値より低い顔面上の
暗い領域を抽出する明用の画像処理と、輝度がしきい値
より高い顔面上の明るい領域を抽出する暗用の画像処理
の少なくとも2つ以上の画像処理により、顔面上の特徴
抽出可能であるとともに、上記スイッチが出力する明
暗信号により上記2つ以上の画像処理の中から1つの画
像処理を選択、または上記2つ以上の画像処理による抽
出結果の中から1つの抽出結果を選択する特徴抽出手段
を備えたので、上記と同様、明るい条件でも、暗い条件
でも検出対象者の顔面上の特徴を比較的短時間で検出す
ることができる。
According to the third aspect, the light input means for inputting an image of a predetermined area including the face of the detection target person, illuminates the detection target person, and connects the detection target person and the light input means. Lighting means arranged so that the optical axis to be connected and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and the detection target person or another person corresponds to light and dark by switching corresponding to light and dark. And a switch for outputting a signal having a luminance lower than a threshold from a photographed image of the detection target person output from the light input means .
Bright image processing to extract dark areas and brightness threshold
Dark image processing to extract bright areas on higher faces
At least two or more image processing
Together can be extracted, and selects one of the image processing from among the two or more image processing by brightness signals the switch outputs, or one extraction result from the extracted result of the two or more image processing , The feature on the face of the detection target person can be detected in a relatively short time under both bright and dark conditions as described above.

【0088】また、請求項4によれば、検出対象者の顔
面を含む所定の領域の像を入力する光入力手段、上記検
出対象者を照明し、上記検出対象者と上記光入力手段と
を結ぶ光軸と、照明光照明方向とが少なくとも上記検出
対象者近傍においてほぼ同軸となるように配置された照
明手段、上記光入力手段から出力される上記検出対象者
の画像信号を用いて撮影画像の明暗を判定する明暗度判
定手段、及び上記光入力手段から出力される上記検出対
象者の撮影画像から輝度がしきい値より低い顔面上の暗
い領域を抽出する明用の画像処理と、輝度がしきい値よ
り高い顔面上の明るい領域を抽出する暗用の画像処理の
少なくとも2つ以上の画像処理により、顔面上の特徴を
抽出可能であるとともに、上記明暗度判定手段が出力す
る明暗信号により上記2つ以上の画像処理の中から1つ
の画像処理を選択、または上記2つ以上の画像処理によ
る抽出結果の中から1つの抽出結果を選択する特徴抽出
手段を備えたので、上記と同様、明るい条件でも、暗い
条件でも検出対象者の顔面上の特徴を比較的短時間で検
出することができる。
According to the fourth aspect, the light input means for inputting an image of a predetermined area including the face of the detection target person, illuminating the detection target person, and connecting the detection target person and the light input means An illuminating means arranged so that an optical axis to be connected and an illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and a captured image using an image signal of the detection target person output from the light input means. Darkness determining means for determining the brightness of the subject, and darkness on the face whose luminance is lower than a threshold value from a photographed image of the detection target outputted from the light input means.
Image processing for extracting bright areas and brightness
Image processing for extracting bright areas on
A feature on the face can be extracted by at least two or more image processes, and one image process among the two or more image processes can be performed by a light / dark signal output by the light / darkness determination means. Since there is provided a feature extracting means for selecting or selecting one extracted result from the extracted results obtained by the two or more image processes, the feature on the face of the detection target person can be obtained under both bright and dark conditions as described above. Can be detected in a relatively short time.

【0089】また、請求項5によれば、各特徴抽出手段
において、暗信号が入力された時は網膜反射像による瞳
孔抽出を行い、明信号が入力された時は鼻孔抽出を行な
うようにしたので、種々の特徴抽出ができる。
According to the fifth aspect, each feature extracting means performs pupil extraction based on a retinal reflection image when a dark signal is input, and performs nostril extraction when a bright signal is input. Therefore, various features can be extracted.

【0090】また、請求項6によれば、検出対象者の顔
面を含む所定の領域の像を入力する光入力手段、上記検
出対象者を照明し、上記検出対象者と上記光入力手段と
を結ぶ光軸と、照明光照明方向とが少なくとも上記検出
対象者近傍においてほぼ同軸となるように配置された照
明手段、及び上記光入力手段から出力される上記検出対
象者の撮影画像から輝度がしきい値より低い顔面上の暗
い領域を抽出する明用の画像処理と、輝度がしきい値よ
り高い顔面上の明るい領域を抽出する暗用の画像処理の
少なくとも2つ以上の画像処理により、顔面上の特徴を
抽出可能であるとともに、上記画像処理による抽出結果
に応じて最終的な抽出結果を選択する特徴抽出手段を備
えたので、上記と同様、明るい条件でも、暗い条件でも
検出対象者の顔面上の特徴を比較的短時間で検出するこ
とができ、さらには一旦画像処理を行なって抽出結果を
導き、これにより最終的な抽出結果を出力するので検出
精度が上がる。
According to the sixth aspect, the light input means for inputting an image of a predetermined area including the face of the detection target person, illuminating the detection target person, and connecting the detection target person and the light input means An illumination unit arranged so that an optical axis to be connected and an illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and a luminance is determined from a captured image of the detection target person output from the light input unit. Dark on face lower than threshold
Image processing for extracting bright areas and brightness
Image processing for extracting bright areas on
Since at least two or more image processes can extract features on the face, and feature extraction means for selecting a final extraction result according to the extraction result by the image processing, Like in the bright and dark conditions, the features on the face of the person to be detected can be detected in a relatively short time, and the image is once subjected to image processing to derive the extraction result. Output, the detection accuracy is improved.

【0091】また、請求項7によれば、暗用の画像処理
により瞳孔が検出できない場合は、明用の画像処理によ
る抽出結果を選択するように動作するので、さらに検出
精度が上がる。
According to the seventh aspect, when the pupil cannot be detected by the dark image processing, an operation is performed to select the extraction result by the bright image processing, so that the detection accuracy is further improved.

【0092】また、請求項8によれば、瞳孔の大きさを
明用または暗用のいずれかによる画像処理で求め、明暗
情報を瞳孔の大きさから得るようにしたので、上記と同
様、明るい条件でも、暗い条件でも検出対象者の顔面上
の特徴を比較的短時間で、精度良く検出することができ
る。
According to the eighth aspect, the size of the pupil is reduced.
Since the brightness and darkness information is obtained from the size of the pupil by image processing for either light or dark , similar to the above, the features on the face of the detection target person can be relatively compared under both bright and dark conditions. Detection can be performed accurately in a short time.

【0093】また、請求項9によれば、明暗検出手段、
光入力手段、スイッチ、明暗度判定手段、または特徴抽
出手段のいずれかから明暗情報を取り出して、光入力手
段の撮影条件、または照明手段の照明条件を変更するよ
うにしたので、さらに検出精度が上がる効果がある。
According to the ninth aspect, the light / dark detecting means includes:
Since the brightness information is extracted from any of the light input means, the switch, the brightness determination means, and the feature extraction means, and the photographing condition of the light input means or the lighting condition of the lighting means is changed, the detection accuracy is further improved. There is an effect of going up.

【0094】また、請求項10によれば、明暗情報が明
の場合は照明光をオフにし、明暗情報が暗の場合は照明
光をオンにしたので、明るいときに不要な照明電力を使
うことがない。
According to the tenth aspect, when the light / dark information is bright, the illumination light is turned off, and when the light / dark information is dark, the illumination light is turned on. There is no.

【0095】また、請求項11によれば、上記各構成の
画像処理装置から出力される抽出結果をもちいて、人物
状態を判定するようにしたので、明暗に係わらず人物の
状態を検出する装置が得られる効果がある。
According to the eleventh aspect, the state of the person is determined by using the extraction result output from the image processing apparatus of each of the above configurations, so that the state of the person can be detected regardless of brightness. The effect is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施例1による居眠り検出装置を
示す構成図である。
FIG. 1 is a configuration diagram illustrating a dozing detection device according to a first embodiment of the present invention.

【図2】 この発明の実施例1に係わる特徴抽出回路と
覚醒度判定回路の動作を示すフローチャートである。
FIG. 2 is a flowchart illustrating operations of a feature extraction circuit and an arousal level determination circuit according to the first embodiment of the present invention.

【図3】 この発明の実施例1による居眠り検出装置の
動作を説明する説明図である。
FIG. 3 is an explanatory diagram illustrating an operation of the dozing detection device according to the first embodiment of the present invention.

【図4】 この発明の実施例1による居眠り検出装置の
動作を説明する説明図である。
FIG. 4 is an explanatory diagram illustrating an operation of the dozing detection device according to the first embodiment of the present invention.

【図5】 この発明の実施例2による脇見検出装置を示
す構成図である。
FIG. 5 is a configuration diagram illustrating an inattentiveness detection device according to a second embodiment of the present invention.

【図6】 この発明の実施例2に係わる特徴抽出回路と
脇見判定回路の動作を示すフローチャートである。
FIG. 6 is a flowchart illustrating operations of a feature extraction circuit and an inattentiveness judgment circuit according to the second embodiment of the present invention.

【図7】 この発明の実施例2による脇見検出装置の動
作を説明する説明図である。
FIG. 7 is an explanatory diagram illustrating the operation of the inattentiveness detection device according to the second embodiment of the present invention.

【図8】 この発明の実施例2による脇見検出装置の動
作を説明する説明図である。
FIG. 8 is an explanatory diagram for explaining the operation of the inattentiveness detecting device according to Embodiment 2 of the present invention;

【図9】 この発明の実施例3による居眠り検出装置を
示す構成図である。
FIG. 9 is a configuration diagram illustrating a dozing detection device according to a third embodiment of the present invention.

【図10】 この発明の実施例4による居眠り検出装置
を示す構成図である。
FIG. 10 is a configuration diagram illustrating a dozing detection device according to a fourth embodiment of the present invention.

【図11】 この発明の実施例4による居眠り検出装置
を車載した自動車を示す部分構成図である。
FIG. 11 is a partial configuration diagram showing an automobile on which a dozing detection device according to Embodiment 4 of the present invention is mounted.

【図12】 この発明の実施例5による居眠り検出装置
を示す構成図である。
FIG. 12 is a configuration diagram illustrating a dozing detection device according to a fifth embodiment of the present invention.

【図13】 この発明の実施例5による他の居眠り検出
装置を示す構成図である。
FIG. 13 is a configuration diagram showing another dozing detection device according to Embodiment 5 of the present invention.

【図14】 この発明の実施例6による居眠り検出装置
を示す構成図である。
FIG. 14 is a configuration diagram illustrating a dozing detection device according to a sixth embodiment of the present invention.

【図15】 この発明の実施例6に係わる暗用特徴抽出
回路の動作を示すフローチャートである。
FIG. 15 is a flowchart showing the operation of a dark feature extraction circuit according to Embodiment 6 of the present invention;

【図16】 この発明の実施例6による居眠り検出装置
の動作を説明する説明図である。
FIG. 16 is an explanatory diagram illustrating an operation of a dozing detection device according to a sixth embodiment of the present invention.

【図17】 この発明の実施例6に係わる明用特徴抽出
回路の動作を示すフローチャートである。
FIG. 17 is a flowchart showing the operation of the lighting feature extraction circuit according to Embodiment 6 of the present invention.

【図18】 この発明の実施例6による居眠り検出装置
の動作を説明する説明図である。
FIG. 18 is an explanatory diagram illustrating an operation of a dozing detection device according to a sixth embodiment of the present invention.

【図19】 この発明の実施例6に係わる選択回路の動
作を示すフローチャートである。
FIG. 19 is a flowchart showing the operation of the selection circuit according to Embodiment 6 of the present invention.

【図20】 この発明の実施例6に係わる覚醒度判定回
路の動作を示すフローチャートである。
FIG. 20 is a flowchart showing an operation of a waking degree determination circuit according to Embodiment 6 of the present invention.

【図21】 この発明の実施例6に係わる他の選択回路
の動作を示すフローチャートである。
FIG. 21 is a flowchart showing an operation of another selection circuit according to Embodiment 6 of the present invention.

【図22】 この発明の実施例7による居眠り検出装置
を示す構成図である。
FIG. 22 is a configuration diagram illustrating a dozing detection device according to a seventh embodiment of the present invention.

【図23】 この発明の実施例7に係わる選択回路の動
作を示すフローチャートである。
FIG. 23 is a flowchart showing the operation of the selection circuit according to Embodiment 7 of the present invention.

【図24】 この発明の実施例8による居眠り検出装置
を示す構成図である。
FIG. 24 is a configuration diagram illustrating a dozing detection device according to an eighth embodiment of the present invention.

【図25】 この発明の実施例8に係わる特徴抽出回路
と覚醒度判定回路の動作を示すフローチャートである。
FIG. 25 is a flowchart showing the operations of a feature extraction circuit and an arousal level determination circuit according to Embodiment 8 of the present invention.

【図26】 この発明の実施例9に係わる特徴抽出回路
と覚醒度判定回路の動作を示すフローチャートである。
FIG. 26 is a flowchart showing the operation of a feature extraction circuit and an arousal level determination circuit according to Embodiment 9 of the present invention.

【図27】 この発明の実施例10による居眠り検出装
置を示す構成図である。
FIG. 27 is a configuration diagram illustrating a dozing detection device according to a tenth embodiment of the present invention.

【図28】 この発明の実施例11による居眠り検出装
置を示す構成図である。
FIG. 28 is a configuration diagram showing a dozing detection device according to Embodiment 11 of the present invention.

【図29】 この発明の実施例12による居眠り検出装
置を示す構成図である。
FIG. 29 is a configuration diagram showing a dozing detection device according to Embodiment 12 of the present invention.

【図30】 従来の目の位置検出装置を示す構成図であ
る。
FIG. 30 is a configuration diagram showing a conventional eye position detection device.

【図31】 従来の居眠り検出装置を示す構成図であ
る。
FIG. 31 is a configuration diagram showing a conventional dozing detection device.

【図32】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 32 is an explanatory diagram illustrating an operation of a conventional dozing detection device.

【図33】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 33 is an explanatory diagram illustrating an operation of a conventional dozing detection device.

【図34】 従来の居眠り検出装置の動作を示すフロー
チャートである。
FIG. 34 is a flowchart showing the operation of the conventional dozing detection device.

【図35】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 35 is an explanatory diagram illustrating an operation of a conventional dozing detection device.

【図36】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 36 is an explanatory diagram illustrating an operation of a conventional dozing detection device.

【図37】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 37 is an explanatory diagram illustrating an operation of a conventional dozing detection device.

【符号の説明】[Explanation of symbols]

1 検出対象者、3 鼻孔、6 瞳孔、8 眼領域、1
0 CCDカメラ、12ハーフミラー、13 赤外線L
ED、15 AGC付きCCDカメラ、16シャッタス
ピード設定回路、17 フィルタ交換回路、18 赤外
線カットフィルタ、20 照度センサ、21 明暗スイ
ッチ、22 ヘッドライトスイッチ、30 撮影画像入
力メモリ、31 タイミング発生回路、41 特徴抽出
回路、42 明暗判定回路、43 暗用特徴抽出回路、
44 明用特徴抽出回路、45選択回路、50 覚醒度
判定回路、51 警報発生回路、52 脇見判定回路。
1 detection target, 3 nostrils, 6 pupils, 8 eye areas, 1
0 CCD camera, 12 half mirror, 13 infrared L
ED, 15 CCD camera with AGC, 16 shutter speed setting circuit, 17 filter exchange circuit, 18 infrared cut filter, 20 illuminance sensor, 21 light / dark switch, 22 headlight switch, 30 photographed image input memory, 31 timing generation circuit, 41 Extraction circuit, 42 light / dark judgment circuit, 43 dark feature extraction circuit,
44 Lighting feature extraction circuit, 45 selection circuit, 50 alertness determination circuit, 51 alarm generation circuit, 52 inattentiveness determination circuit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐竹 敏英 尼崎市塚口本町8丁目1番1号 三菱電 機株式会社 産業システム研究所内 (72)発明者 小河 賢二 姫路市千代田町840番地 三菱電機株式 会社 姫路製作所内 (72)発明者 鈴木 尋善 姫路市千代田町840番地 三菱電機株式 会社 姫路製作所内 (56)参考文献 特開 平3−42337(JP,A) 特開 平3−194661(JP,A) 特開 平4−68500(JP,A) 特開 平4−174309(JP,A) 特開 平6−32154(JP,A) 特開 平6−262958(JP,A) 特開 平7−32907(JP,A) 特開 平7−296299(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 B60K 28/06 G08B 21/00 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Toshihide Satake 8-1-1 Tsukaguchi Honcho, Amagasaki City Mitsubishi Electric Corporation, Industrial Systems Research Laboratory (72) Inventor Kenji Ogawa 840 Chiyoda-cho, Himeji-shi Mitsubishi Electric Corporation Inside Himeji Works (72) Inventor Hiroyoshi Suzuki 840 Chiyoda-cho, Himeji City Mitsubishi Electric Corporation Himeji Works (56) References JP-A-3-42337 (JP, A) JP-A-3-194661 (JP, A JP-A-4-68500 (JP, A) JP-A-4-174309 (JP, A) JP-A-6-32154 (JP, A) JP-A-6-262958 (JP, A) 32907 (JP, A) JP-A-7-296299 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00 B60K 28/06 G08B 21/00

Claims (11)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、上記検出対象者
の周辺の明暗を検出する明暗検出手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から輝度
がしきい値より低い顔面上の暗い領域を抽出する明用の
画像処理と、輝度がしきい値より高い顔面上の明るい領
域を抽出する暗用の画像処理の少なくとも2つ以上の画
像処理により、顔面上の特徴を抽出可能であるととも
に、上記明暗検出手段が出力する明暗信号により上記2
つ以上の画像処理の中から1つの画像処理を選択、また
は上記2つ以上の画像処理による抽出結果の中から1つ
の抽出結果を選択する特徴抽出手段を備えた画像処理装
置。
1. An optical input means for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person and connecting the detection target person and the light input means, and illumination light. An illuminating means arranged so that an illuminating direction is substantially coaxial at least in the vicinity of the detection target; a light / dark detection means for detecting light and dark around the detection target; and the detection target output from the light input means Brightness from the photographed image
For dark areas on the face where
Image processing and bright areas on the face whose brightness is higher than the threshold
At least two or more images of dark image processing to extract regions
By the image processing, the feature on the face can be extracted, and the above-mentioned 2
An image processing apparatus comprising a feature extraction unit for selecting one image processing from one or more image processing or selecting one extraction result from the extraction results of the two or more image processing.
【請求項2】 検出対象者の顔面を含む所定の領域の像
を入力するとともに、入力した画像の明暗を示す明暗信
号を出力する光入力手段、上記検出対象者を照明し、上
記検出対象者と上記光入力手段とを結ぶ光軸と、照明光
照明方向とが少なくとも上記検出対象者近傍においてほ
ぼ同軸となるように配置された照明手段、及び上記光入
力手段から出力される上記検出対象者の撮影画像から
度がしきい値より低い顔面上の暗い領域を抽出する明用
の画像処理と、輝度がしきい値より高い顔面上の明るい
領域を抽出する暗用の画像処理の少なくとも2つ以上の
画像処理により、顔面上の特徴を抽出可能であるととも
に、上記光入力手段が出力する上記明暗信号により上記
2つ以上の画像処理の中から1つの画像処理を選択、ま
たは上記2つ以上の画像処理による抽出結果の中から1
つの抽出結果を選択する特徴抽出手段を備えた画像処理
装置。
2. An optical input means for inputting an image of a predetermined area including a face of a detection target person and outputting a light / dark signal indicating the brightness of the input image, illuminating the detection target person, and detecting the detection target person An illumination axis arranged so that an optical axis connecting the light input means and the illumination light illumination direction is substantially coaxial at least in the vicinity of the detection target; and the detection target output from the light input means. bright from the photographed image
Light for extracting dark areas on the face whose degree is lower than the threshold
Image processing and brightness on the face whose brightness is higher than the threshold
At least two or more of dark image processing for extracting a region
By image processing, features on the face can be extracted, and one image processing is selected from the two or more image processings by the light / dark signal output by the light input means, or the two or more images are selected. 1 out of the extraction result by processing
An image processing apparatus comprising a feature extraction unit for selecting one of the extraction results.
【請求項3】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、上記検出対象者
または他の人物が明暗に対応して切り替えることにより
明暗に対応した信号を出力するスイッチ、及び上記光入
力手段から出力される上記検出対象者の撮影画像から
度がしきい値より低い顔面上の 暗い領域を抽出する明用
の画像処理と、輝度がしきい値より高い顔面上の明るい
領域を抽出する暗用の画像処理の少なくとも2つ以上の
画像処理により、顔面上の特徴を抽出可能であるととも
に、上記スイッチが出力する明暗信号により上記2つ以
上の画像処理の中から1つの画像処理を選択、または上
記2つ以上の画像処理による抽出結果の中から1つの抽
出結果を選択する特徴抽出手段を備えた画像処理装置。
3. An optical input means for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person and connecting the detection target person and the light input means, and illumination light. A lighting unit arranged so that the illumination direction is substantially coaxial at least in the vicinity of the detection target person, a switch that outputs a signal corresponding to light and dark by switching the detection target person or another person according to light and dark, And the brightness of the captured image of the detection target person output from the light input means.
Light for extracting dark areas on the face whose degree is lower than the threshold
Image processing and brightness on the face whose brightness is higher than the threshold
At least two or more of dark image processing for extracting a region
By image processing, features on the face can be extracted, and one image processing is selected from the two or more image processings by the light / dark signal output from the switch, or the extraction is performed by the two or more image processings An image processing apparatus comprising a feature extraction unit for selecting one extraction result from the results.
【請求項4】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、上記光入力手段
から出力される上記検出対象者の画像信号を用いて撮影
画像の明暗を判定する明暗度判定手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から輝度
がしきい値より低い顔面上の暗い領域を抽出する明用の
画像処理と、輝度がしきい値より高い顔面上の明るい領
域を抽出する暗用の画像処理の少なくとも2つ以上の画
像処理により、顔面上の特徴を抽出可能であるととも
に、上記明暗度判定手段が出力する明暗信号により上記
2つ以上の画像処理の中から1つの画像処理を選択、ま
たは上記2つ以上の画像処理による抽出結果の中から1
つの抽出結果を選択する特徴抽出手段を備えた画像処理
装置。
4. An optical input means for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person and connecting the detection target person and the light input means, and illumination light. An illuminating means arranged so that an illumination direction is substantially coaxial at least in the vicinity of the detection target person, and a brightness level for determining the brightness of a captured image using an image signal of the detection target person output from the light input means. Judging means, and brightness from a photographed image of the detection target outputted from the light input means.
For dark areas on the face where
Image processing and bright areas on the face whose brightness is higher than the threshold
At least two or more images of dark image processing to extract regions
By image processing, features on the face can be extracted, and one image processing is selected from the two or more image processings based on the light / dark signal output from the light / darkness determination means, or the two or more images are processed. 1 out of the extraction result by processing
An image processing apparatus comprising a feature extraction unit for selecting one of the extraction results.
【請求項5】 請求項1ないし4のいずれかに記載の特
徴抽出手段は、暗信号が入力された時は網膜反射像によ
る瞳孔抽出を行い、明信号が入力された時は鼻孔抽出を
行なうようにした画像処理装置。
5. The feature extracting means according to claim 1, wherein a pupil is extracted by a retinal reflection image when a dark signal is input, and a nostril is extracted when a bright signal is input. Image processing apparatus.
【請求項6】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から輝度
がしきい値より低い顔面上の暗い領域を抽出する明用の
画像処理と、輝度がしきい値より高い顔面上の明るい領
域を抽出する暗用の画像処理の少なくとも2つ以上の画
像処理により、顔面上の特徴を抽出可能であるととも
に、上記画像処理による抽出結果に応じて最終的な抽出
結果を選択する特徴抽出手段を備えた画像処理装置。
6. An optical input means for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person and connecting the detection target person and the light input means, and illumination light. An illuminating means arranged so that an illumination direction is substantially coaxial at least in the vicinity of the detection target; and a luminance from a photographed image of the detection target output from the light input means.
For dark areas on the face where
Image processing and bright areas on the face whose brightness is higher than the threshold
At least two or more images of dark image processing to extract regions
An image processing apparatus capable of extracting a feature on a face by image processing, and including a feature extracting unit for selecting a final extraction result according to an extraction result by the image processing.
【請求項7】 請求項6記載の特徴抽出手段は、暗用の
画像処理により瞳孔が検出できない場合は、明用の画像
処理による抽出結果を選択するようにした画像処理装
置。
7. An image processing apparatus according to claim 6, wherein the feature extraction means selects an extraction result by light image processing when a pupil cannot be detected by dark image processing.
【請求項8】 請求項6記載の特徴抽出手段は、明用ま
たは暗用のいずれかによる画像処理で抽出された瞳孔の
大きさが小さい場合は、明用の画像処理による抽出結果
を選択するようにした画像処理装置。
8. The feature extraction means according to claim 6, wherein
An image processing apparatus which selects an extraction result by light image processing when the size of a pupil extracted by image processing using either dark or dark is small.
【請求項9】 請求項1ないし8のいずれかに記載の画
像処理装置において、光入力手段の撮影条件、または照
明手段の照明条件の少なくとも一方を制御する照明撮影
制御手段を備え、上記照明撮影制御手段は明暗検出手
段、光入力手段、スイッチ、明暗度判定手段、または特
徴抽出手段のいずれかから明暗情報を取り出して、上記
撮影条件または上記照明条件を変更するようにした画像
処理装置。
9. The image processing apparatus according to claim 1, further comprising an illumination imaging control unit configured to control at least one of an imaging condition of the light input unit and an illumination condition of the illumination unit. An image processing apparatus wherein the control means extracts brightness information from any of the brightness detection means, the light input means, the switch, the brightness determination means, and the feature extraction means, and changes the photographing condition or the lighting condition.
【請求項10】 請求項9記載の照明撮影制御手段は、
明暗情報が明の場合は照明光をオフし、特徴抽出手段は
明用の画像処理により撮影画像から顔面上の特徴を抽出
し、明暗情報が暗の場合は照明光をオンし、上記特徴抽
出手段は暗用の画像処理により撮影画像から顔面上の特
徴を抽出するようにした画像処理装置。
10. The illumination photographing control means according to claim 9,
If the light / dark information is bright, the illumination light is turned off. The feature extraction means extracts the features on the face from the captured image by light image processing. If the light / dark information is dark, the illumination light is turned on, and the feature extraction is performed. The image processing apparatus includes means for extracting features on the face from the captured image by image processing for darkness.
【請求項11】 請求項1ないし10のいずれかに記載
の画像処理装置、及び上記画像処理装置の出力から人物
状態を判定する人物状態判定手段を備えた人物状態判定
装置。
11. A person state determination device comprising: the image processing device according to claim 1; and a person state determination unit that determines a person state from an output of the image processing device.
JP6220250A 1994-09-14 1994-09-14 Image processing device and person state determination device Expired - Fee Related JP2937030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6220250A JP2937030B2 (en) 1994-09-14 1994-09-14 Image processing device and person state determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6220250A JP2937030B2 (en) 1994-09-14 1994-09-14 Image processing device and person state determination device

Publications (2)

Publication Number Publication Date
JPH0883344A JPH0883344A (en) 1996-03-26
JP2937030B2 true JP2937030B2 (en) 1999-08-23

Family

ID=16748249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6220250A Expired - Fee Related JP2937030B2 (en) 1994-09-14 1994-09-14 Image processing device and person state determination device

Country Status (1)

Country Link
JP (1) JP2937030B2 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (en) * 1995-05-10 2003-09-29 三菱電機株式会社 Face image processing device
JP3355068B2 (en) * 1995-07-14 2002-12-09 三菱電機株式会社 Face image processing device
JP3350296B2 (en) * 1995-07-28 2002-11-25 三菱電機株式会社 Face image processing device
JP3355076B2 (en) * 1995-09-14 2002-12-09 三菱電機株式会社 Face image processing device
JP3422183B2 (en) * 1996-08-22 2003-06-30 トヨタ自動車株式会社 Eye detection method for face images
JP3340920B2 (en) * 1996-10-09 2002-11-05 日産ディーゼル工業株式会社 Drowsy driving prevention system
JPH10213674A (en) * 1997-01-28 1998-08-11 Hokkaido Gas Co Ltd Detecting device for snow-coverage on road surface
JP3577882B2 (en) * 1997-03-31 2004-10-20 日産自動車株式会社 Dozing state detection device
JP3468108B2 (en) * 1998-07-15 2003-11-17 松下電器産業株式会社 Face image matching method and face image matching device
JP2000132693A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for processing picture, and providing medium
JP2000215308A (en) * 1999-01-27 2000-08-04 Toshiba Corp Device and method for authenticating biological information
JP3967863B2 (en) * 2000-02-15 2007-08-29 ナイルス株式会社 Eye state detection device
JP3858570B2 (en) * 2000-06-29 2006-12-13 日産自動車株式会社 Armpit state detection device
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
JP2004058799A (en) * 2002-07-26 2004-02-26 Murakami Corp On-vehicle passenger photographing device
JP4134653B2 (en) * 2002-09-20 2008-08-20 松下電器産業株式会社 Eye position detection apparatus and method
JP2004252511A (en) * 2003-02-18 2004-09-09 Hitachi Ltd Method for estimating facial direction
JP2005100193A (en) * 2003-09-26 2005-04-14 King Tsushin Kogyo Kk Invasion monitoring device
JP4370915B2 (en) * 2004-01-14 2009-11-25 オムロン株式会社 In-vehicle application selection system and in-vehicle application selection device
JP4391315B2 (en) * 2004-05-10 2009-12-24 浜松ホトニクス株式会社 Imaging system and imaging method
JP4021873B2 (en) * 2004-06-03 2007-12-12 株式会社東芝 Face image monitoring system
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
JP4862723B2 (en) * 2007-03-27 2012-01-25 セイコーエプソン株式会社 Image processing for object position detection
JP5182567B2 (en) * 2008-03-26 2013-04-17 トヨタ自動車株式会社 Crew monitoring device
JP2009267733A (en) * 2008-04-24 2009-11-12 Sharp Corp Imaging apparatus and imaging control method
US8369608B2 (en) 2009-06-22 2013-02-05 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
JP5793904B2 (en) * 2011-03-22 2015-10-14 富士通株式会社 Intruder detection system and intruder detection method
CN104637246B (en) * 2015-02-02 2017-02-22 合肥工业大学 Driver multi-behavior early warning system and danger evaluation method
JP6818509B2 (en) * 2016-10-27 2021-01-20 株式会社アマダ Imaging method of laser processing position and laser processing equipment
JP7187169B2 (en) * 2018-04-23 2022-12-12 フォルシアクラリオン・エレクトロニクス株式会社 Information processing device and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2625723B2 (en) * 1987-05-23 1997-07-02 トヨタ自動車株式会社 Image binarization processing device
JPH0342337A (en) * 1989-07-10 1991-02-22 Nissan Motor Co Ltd Detector for driving condition of vehicle driver

Also Published As

Publication number Publication date
JPH0883344A (en) 1996-03-26

Similar Documents

Publication Publication Date Title
JP2937030B2 (en) Image processing device and person state determination device
JP3316725B2 (en) Face image pickup device
JP4430866B2 (en) Near infrared camouflage detection
EP2074550B1 (en) Eye opening detection system and method of detecting eye opening
JP4593942B2 (en) Pupil detection apparatus and method
JP5366028B2 (en) Face image capturing device
JP2005502961A (en) Near-infrared method and system for use in face detection
JP2002352229A (en) Face region detector
EP2060993B1 (en) An awareness detection system and method
JP4770218B2 (en) Visual behavior determination device
JP2008065776A (en) Doze detection device and doze detection method
JP3364816B2 (en) Image processing device
US7091867B2 (en) Wavelength selectivity enabling subject monitoring outside the subject&#39;s field of view
JP3355076B2 (en) Face image processing device
RU2413632C2 (en) Method to prevent driver falling asleep
JP3465336B2 (en) Face image capturing device
JP3905544B2 (en) Face image processing device
JP2004334786A (en) State detection device and state detection system
JPH08290726A (en) Doze alarm device
JP3296119B2 (en) Gaze direction measuring device for vehicles
JP4781292B2 (en) Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program
Koch et al. Real-time occupant classification in high dynamic range environments
JP6737213B2 (en) Driver state estimating device and driver state estimating method
JP3685403B2 (en) Face image processing device
JP2005013626A (en) Awakefullness detector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees