JPH0883344A - Picture processor and personal state judging device - Google Patents

Picture processor and personal state judging device

Info

Publication number
JPH0883344A
JPH0883344A JP22025094A JP22025094A JPH0883344A JP H0883344 A JPH0883344 A JP H0883344A JP 22025094 A JP22025094 A JP 22025094A JP 22025094 A JP22025094 A JP 22025094A JP H0883344 A JPH0883344 A JP H0883344A
Authority
JP
Japan
Prior art keywords
light
image
dark
image processing
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22025094A
Other languages
Japanese (ja)
Other versions
JP2937030B2 (en
Inventor
Mitsuo Shitaya
光生 下谷
Minoru Nishida
稔 西田
Akira Okada
章 岡田
Toshihide Satake
敏英 佐竹
Kenji Ogawa
賢二 小河
Hiroyoshi Suzuki
尋善 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP6220250A priority Critical patent/JP2937030B2/en
Publication of JPH0883344A publication Critical patent/JPH0883344A/en
Application granted granted Critical
Publication of JP2937030B2 publication Critical patent/JP2937030B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

PURPOSE: To detect features in a short time even when disturbance light is sharply changed by measuring the illuminance of a peripheral part around a subject to be detected and extracting the features of the subject by picture processing using a rectinal reflection image when the illuminance is dark or extracting features by picture processing independent of the rectinal reflection image at the time of bright illuminance. CONSTITUTION: A bright/dark signal is inputted from an illiminance sensor, and when the signal is, for instance, less than a previously determined illuminance threshold of 500Lx the signal is judged as a dark signal and the degree of awakening is judged. When the signal is judged as a bright signal, binarizing processing is executed to the signal by the use of bright illuminance threshold. In an obtained binary image, eyebrows 2, eye areas 8, nose holes 3, and a mouth area 9 become black areas and the other part becomes a white area. Then the eye areas 8 are extracted. At this time, eyebrows 2 or the like are expressed as a peak P1 of the number of black picture element. Since a peak p1 corresponding to the eyebrows 2 and a peak P2 corresponding to the eye areas 8 are large and a peak p3 corresponding to the nose holes 3 is small with respect to peak patterns, the 2nd peak p2 can be specified as the eye areas 8.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、検出対象者の顔面上
の特徴を抽出するための画像処理装置と、上記検出対象
者の居眠り状態や脇見状態などの挙動を検出するための
人物状態判定装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for extracting a facial feature of a person to be detected, and a person state determination for detecting the behavior of the person to be detected such as a dozing state or a look aside. It relates to the device.

【0002】[0002]

【従来の技術】図30は、例えば特開昭60−1583
03号公報に示された従来の運転者撮影装置を用いた目
の位置検出装置の構成図である。図において、1は運転
者、10a、10bはCCDカメラ、13は赤外線LE
D、14は赤外線LED13に電流を供給するLED駆
動回路、100は運転者挙動検出回路である。
2. Description of the Related Art FIG. 30 shows, for example, JP-A-60-1583.
It is a block diagram of the eye position detection apparatus using the conventional driver imaging device shown in Japanese Patent Laid-Open No. 03-2003. In the figure, 1 is a driver, 10a and 10b are CCD cameras, and 13 is an infrared LE.
D and 14 are LED drive circuits that supply a current to the infrared LED 13, and 100 is a driver behavior detection circuit.

【0003】次に動作について説明する。赤外線LED
13は運転席の運転者1を照射する。運転者1の映像は
運転者1の顔面を含む所定の領域を撮影できる位置に設
置されたCCDカメラ10a、10bに入力される。入
力された画像は運転者挙動検出回路100に入力され、
目の位置や顔の向きなどがエッジ検出やパターン認識等
の画像処理により抽出されていた。
Next, the operation will be described. Infrared LED
13 illuminates the driver 1 in the driver's seat. The image of the driver 1 is input to the CCD cameras 10a and 10b installed at a position where a predetermined area including the face of the driver 1 can be photographed. The input image is input to the driver behavior detection circuit 100,
The positions of eyes and the orientation of the face have been extracted by image processing such as edge detection and pattern recognition.

【0004】一方、論文「瞳孔の抽出処理と頭部の動き
を許容する視線検出装置の試作」(電子情報通信学会論
文誌D−II Vol.J76-D-II No.3)で示されるよう
に、同軸落射装置で顔面を照射すると、網膜反射像が顕
著に撮影でき、例えば2値化処理のような非常に簡単な
画像処理で目の位置を検出できる(同軸落射照明とは、
カメラの光軸と照明光の照射方向とが同一になる構造に
した照明のことである)。図31はこの装置を用いて居
眠り検出装置を構成したものであり、特願平5−282
502号明細書に記載されたものである。図において、
1は検出対象者、10は検出対象者1の顔面を含む所定
の領域を撮影できる位置に設置されたCCDカメラ、1
1は可視光成分をカットする可視光カットフィルタ、1
2はCCDカメラに対して45度の角度で設置したハー
フミラー、13は発光波長860nm、指向角度±20
度で発光し、ハーフミラー12に光を反射して検出対象
者1を照明する赤外線LED、14は赤外線LEDを駆
動するLED駆動回路、30はCCDカメラから出力さ
れる画像信号を一時記憶する撮影画像メモリである撮影
画像入力メモリ、31はCCDカメラや撮影画像入力メ
モリ30などにタイミング信号を与えるタイミング発生
回路、40は撮影画像入力メモリの内容から瞳孔を抽出
する特徴抽出回路、50は特徴抽出回路の出力から覚醒
度を判断する覚醒度判定回路、51は警報を出力する警
報出力回路である。
On the other hand, as shown in the paper "Trial manufacture of eye-gaze detection device which allows pupil extraction processing and head movement" (Journal of the Institute of Electronics, Information and Communication Engineers D-II Vol.J76-D-II No.3) In addition, when the face is illuminated by the coaxial epi-illumination device, the retina reflection image can be significantly captured, and the eye position can be detected by very simple image processing such as binarization processing.
It is the illumination that has the same structure as the illumination direction of the illumination light and the optical axis of the camera). FIG. 31 shows a configuration of a drowsiness detection device using this device.
No. 502 specification. In the figure,
1 is a detection target person, 10 is a CCD camera installed at a position where a predetermined area including the face of the detection target person 1 can be photographed, 1
1 is a visible light cut filter for cutting visible light components, 1
2 is a half mirror installed at an angle of 45 degrees with respect to the CCD camera, 13 is an emission wavelength of 860 nm, and a directivity angle is ± 20.
Infrared LED that emits light at a time and reflects light to the half mirror 12 to illuminate the person to be detected 1, 14 is an LED drive circuit that drives the infrared LED, and 30 is an image that temporarily stores the image signal output from the CCD camera. A photographed image input memory, which is an image memory, 31 is a timing generation circuit that gives a timing signal to a CCD camera, a photographed image input memory 30, etc., 40 is a feature extraction circuit that extracts a pupil from the contents of the photographed image input memory, and 50 is feature extraction. A wakefulness determination circuit that determines the wakefulness from the output of the circuit, and 51 is an alarm output circuit that outputs a warning.

【0005】次に動作について説明する。図31におい
て、光路l1 で照射される赤外線LED13の照明光
は、ハーフミラー12で半分の光を反射し、光路l2 で
検出対象者1の顔面を照射する。検出対象者1の画像は
光路l3 でハーフミラー12を通り、半分の光がCCD
カメラ10に到達し、CCDカメラ10は検出対象者1
の画像を取り込む。この時、光路l2 とl3 の光軸は検
出対象者からみて、同軸になっている(同軸落射照
明)。この時検出対象者の撮影画像は図32のようにな
る。図32において、2は眉毛、3は鼻孔、4は虹彩、
5は強膜、6は瞳孔、7は顔表面である。上記のような
構成の同軸落射照明により、瞳孔6は網膜で反射された
光により、あたかも瞳孔が光っているように観察され、
顔の表面や他の特徴点に比べて、著しく輝度が高く映
る。これは網膜が入射光と同一方向に反射光を返す性質
を持つからである。図33に撮影画像の輝度分布を示
す。図33下部に示された波形は、得られた顔面画像
(図33上部)におけるA−A線に沿った輝度分布を示
すものであり、瞳孔の位置は明らかに輝度が他の部分と
異なり輝度が高いことがわかる。CCDカメラ10が取
り込んだ顔画像は、撮影画像メモリ30に一旦入力され
る。図34に本装置による居眠り検出の処理フローを示
す。この処理フローは図31における特徴抽出回路40
と覚醒度判定回路50との動作を示すものである。特徴
抽出回路40はST10で顔画像を入力し、ST11で
瞳孔のみを抽出するため、適当な輝度しきい値th1で
2値化処理を行う。得られた2値化画像は、図35に示
すようになる。この画像は瞳孔のみが白領域として2つ
の円となり、他の部分は黒領域となるので、ST12で
白画素のY軸方向の投影を行い(投影像は図35の右側
に示す)、ST13で投影像の面積を求めることによ
り、瞳孔の見かけ上の大きさが計算できる。ST14で
は上記面積が予め定められた値以上の時は開眼、未満の
ときは閉眼と判断する。この開眼閉眼情報は、覚醒度判
定回路50に入力され、覚醒度判定回路50はST20
で連続して3秒以上閉眼情報が入力されたかどうかを判
断し、3秒以上閉眼状態であったならば、居眠り状態で
あると判断し、ST21で警報発生回路51に警報出力
命令を出力する。閉眼状態が3秒未満の時はST10に
処理は移る。
Next, the operation will be described. In FIG. 31, the half mirror 12 reflects half of the illumination light of the infrared LED 13 irradiated on the optical path l1 and irradiates the face of the detection target person 1 on the optical path l2. The image of the person to be detected 1 passes through the half mirror 12 in the optical path 13 and half of the light is CCD.
After reaching the camera 10, the CCD camera 10 detects the person 1 to be detected.
Capture the image of. At this time, the optical axes of the optical paths l2 and l3 are coaxial with each other when viewed from the detection target (coaxial epi-illumination). At this time, the captured image of the person to be detected is as shown in FIG. In FIG. 32, 2 is eyebrow, 3 is nostril, 4 is iris,
Reference numeral 5 is a sclera, 6 is a pupil, and 7 is a face surface. With the coaxial epi-illumination having the above configuration, the pupil 6 is observed as if the pupil were shining due to the light reflected by the retina,
Compared to the surface of the face and other feature points, the brightness is significantly higher. This is because the retina has the property of returning reflected light in the same direction as incident light. FIG. 33 shows the luminance distribution of the captured image. The waveform shown in the lower portion of FIG. 33 shows the luminance distribution along the line AA in the obtained facial image (the upper portion of FIG. 33), and the luminance of the pupil position is clearly different from that of the other portions. It turns out that is high. The face image captured by the CCD camera 10 is once input to the captured image memory 30. FIG. 34 shows a processing flow of drowsiness detection by this apparatus. This processing flow is the feature extraction circuit 40 in FIG.
And the awakening degree determination circuit 50. The feature extraction circuit 40 inputs the face image in ST10 and extracts only the pupil in ST11, and thus performs the binarization process with an appropriate luminance threshold th1. The obtained binarized image is as shown in FIG. In this image, only the pupil has two circles as a white area, and the other portions have a black area. Therefore, in ST12, white pixels are projected in the Y-axis direction (the projected image is shown on the right side of FIG. 35), and in ST13. By obtaining the area of the projected image, the apparent size of the pupil can be calculated. In ST14, when the area is equal to or more than a predetermined value, it is determined that the eyes are open, and when the area is less than the predetermined value, it is determined that the eyes are closed. This eye opening / closing information is input to the awakening degree determination circuit 50, and the awakening degree determination circuit 50 outputs ST20.
In step S21, it is determined whether eye closing information is continuously input for 3 seconds or more. If the eye closing state is 3 seconds or more, it is determined that the person is in a dozing state, and an alarm output command is output to the alarm generation circuit 51 in ST21. . When the eye closed state is less than 3 seconds, the process proceeds to ST10.

【0006】[0006]

【発明が解決しようとする課題】顔面上の特徴を抽出す
るための従来の画像処理装置は以上のように構成されて
おり、図30に示す運転者撮影装置では、瞳孔の位置を
検出するために、得られた画像に対し、例えばフィルタ
演算を施し、エッジ検出をし、このエッジ形状より、瞳
孔にあたる円を求めるためのハフ変換処理等を施してパ
ターン認識をし、瞳孔を探していた。また、上記エッジ
検出に際しても雑音等でエッジがうまく検出できないと
円が求まらず、画像処理が複雑で時間がかかるという問
題があった。また、同軸落射を用いた先行技術による上
記居眠り検出装置(図31)では、外乱光が小さい条件
下で使用する場合は正常に動作するが、車内で使用する
など外乱光の大きい条件では、撮影するための照明光に
比べて100〜1000倍以上の非常に強い外乱光(太
陽光)などにより、網膜反射像が取れなくなるという問
題点があった。図36に上述の外乱光による影響を説明
する説明図を示す。図36下部に示された波形は、得ら
れた顔面画像(図36上部)におけるA−A線に沿った
輝度分布を示すものであり、曲線Aは晴天における昼間
の像で、同軸落射により撮像したもの、曲線Bは雨天に
おける昼間の像で、同軸落射により撮像したもの、曲線
Cは夜間の像で、同軸落射により撮像したものである。
同軸落射のものにおいて、外乱光が大きくなるに従い
(曲線C;夜間→曲線B;昼間・雨天→曲線A;昼間・
晴天)、瞳孔6以外の部分の輝度が高くなり、瞳孔の識
別が困難になることがわかる。曲線Aによる撮影画像は
図37のようになる。この画像においては、顔表面7に
比べて強膜5はやや暗く映り、強膜5に比べ虹彩4は暗
く、瞳孔6は更に暗く映る。このように上記居眠り検出
装置における画像処理法では外乱光条件が大きく変化す
る条件下で、顔面上の特徴点を抽出できなくなるという
問題があった。
The conventional image processing apparatus for extracting the feature on the face is configured as described above, and the driver photographing apparatus shown in FIG. 30 detects the position of the pupil. Then, for example, a filter operation is performed on the obtained image to detect an edge, and a Hough transform process for obtaining a circle corresponding to the pupil is performed based on the edge shape to perform pattern recognition to search for the pupil. Also, in the above edge detection, there is a problem that a circle cannot be obtained unless the edge can be detected well due to noise or the like, and image processing is complicated and takes time. The prior art drowsiness detection device (FIG. 31) using coaxial incident light operates normally when used in a condition where the ambient light is small, but does not work under conditions where the ambient light is large, such as when used in a vehicle. There is a problem in that the retina reflection image cannot be taken due to extremely strong ambient light (sunlight) which is 100 to 1000 times or more stronger than the illuminating light for the purpose. FIG. 36 shows an explanatory view for explaining the influence of the above-mentioned ambient light. The waveform shown in the lower part of FIG. 36 shows the luminance distribution along the line AA in the obtained facial image (the upper part of FIG. 36), and the curve A is a daytime image in clear weather, which is imaged by coaxial epi-illumination. The curve B is a daytime image in rainy weather, which is imaged by coaxial incident light, and the curve C is a nighttime image, which is imaged by coaxial incident light.
In the case of coaxial incident light, as the ambient light becomes larger (curve C; night → curve B; daytime / rainy weather → curve A; daytime ・
It can be seen that the brightness of the portion other than the pupil 6 becomes high and the pupil is difficult to identify. The image captured by the curve A is as shown in FIG. In this image, the sclera 5 appears slightly darker than the face surface 7, the iris 4 appears darker and the pupil 6 appears even darker than the sclera 5. As described above, the image processing method in the above-mentioned drowsiness detection device has a problem that the feature points on the face cannot be extracted under the condition that the ambient light condition changes greatly.

【0007】この発明は上記のような問題点を解決する
ためになされたもので、車載条件下など外乱光が大きく
変化する条件下でも、検出対象者の顔面上の特徴や検出
対象者の状態を比較的短時間で検出できる画像処理装置
及び人物状態判定装置を得ることを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and the characteristics on the face of the person to be detected and the state of the person to be detected even under the condition that the ambient light greatly changes, such as in-vehicle conditions. It is an object of the present invention to provide an image processing device and a human state determination device that can detect the image in a relatively short time.

【0008】[0008]

【課題を解決するための手段】この発明の請求項1に係
る画像処理装置は、検出対象者の顔面を含む所定の領域
の像を入力する光入力手段、上記検出対象者を照明し、
上記検出対象者と上記光入力手段とを結ぶ光軸と、照明
光照明方向とが少なくとも上記検出対象者近傍において
ほぼ同軸となるように配置された照明手段、検出対象者
の周辺の明暗を検出する明暗検出手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から顔面
上の特徴を、明暗に応じた2つ以上の画像処理で抽出可
能であるとともに、上記明暗検出手段が出力する明暗信
号により2つ以上の画像処理の中から1つの画像処理を
選択、または2つ以上の画像処理による抽出結果の中か
ら1つの抽出結果を選択する特徴抽出手段を備えたもの
である。
An image processing apparatus according to claim 1 of the present invention is an optical input unit for inputting an image of a predetermined area including a face of a detection target person, illuminating the detection target person,
An optical axis connecting the detection target person and the light input means, and illumination means arranged so that the illumination light illumination direction is substantially coaxial at least in the vicinity of the detection target person, and detects the light and darkness around the detection target person. The feature on the face can be extracted from the photographed image of the person to be detected output from the light input / output unit by the two or more image processes according to the light and dark, and A feature extraction means is provided for selecting one image process from two or more image processes or one extraction result from two or more image processes according to the output brightness signal. .

【0009】この発明の請求項2に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
とともに、入力した画像の明暗を示す明暗信号を出力す
る光入力手段、上記検出対象者を照明し、上記検出対象
者と上記光入力手段とを結ぶ光軸と、照明光照明方向と
が少なくとも上記検出対象者近傍においてほぼ同軸とな
るように配置された照明手段、及び上記光入力手段から
出力される上記検出対象者の撮影画像から顔面上の特徴
を、明暗に応じた2つ以上の画像処理で抽出可能である
とともに、上記光入力手段が出力する上記明暗信号によ
り2つ以上の画像処理の中から1つの画像処理を選択、
または2つ以上の画像処理による抽出結果の中から1つ
の抽出結果を選択する特徴抽出手段を備えたものであ
る。
An image processing apparatus according to a second aspect of the present invention is an optical input means for inputting an image of a predetermined area including the face of a person to be detected and outputting a light / dark signal indicating the light / dark of the input image. Illuminating means for illuminating a detection target person, and an optical axis connecting the detection target person and the light input means, and an illumination light illumination direction are arranged so as to be substantially coaxial at least in the vicinity of the detection target person, and Features on the face can be extracted from the photographed image of the person to be detected output from the light input means by two or more image processes according to the light and dark, and the light and dark signals output by the light input means can be used to obtain 2 Select one image processing from two or more image processing,
Alternatively, a feature extraction means for selecting one extraction result from the extraction results obtained by two or more image processes is provided.

【0010】この発明の請求項3に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
光入力手段、上記検出対象者を照明し、上記検出対象者
と上記光入力手段とを結ぶ光軸と、照明光照明方向とが
少なくとも上記検出対象者近傍においてほぼ同軸となる
ように配置された照明手段、上記検出対象者または他の
人物が明暗に対応して切り替えることにより明暗に対応
した信号を出力するスイッチ、及び上記光入力手段から
出力される上記検出対象者の撮影画像から顔面上の特徴
を、明暗に応じた2つ以上の画像処理で抽出可能である
とともに、上記スイッチが出力する明暗信号により上記
2つ以上の画像処理の中から1つの画像処理を選択、ま
たは上記2つ以上の画像処理による抽出結果の中から1
つの抽出結果を選択する特徴抽出手段を備えたものであ
る。
An image processing apparatus according to a third aspect of the present invention is a light input means for inputting an image of a predetermined area including a face of a detection target person, illuminating the detection target person, and the detection target person and the light. Illuminating means arranged so that the optical axis connecting the input means and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and the detection target person or another person can be switched depending on the brightness. With the switch that outputs a signal corresponding to light and dark, and the feature on the face can be extracted by two or more image processes according to light and dark from the photographed image of the detection target person output from the light input unit. , One of the two or more image processes is selected according to the brightness signal output from the switch, or 1 is selected from the extraction results of the two or more image processes.
A feature extraction means for selecting one extraction result is provided.

【0011】この発明の請求項4に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
光入力手段、上記検出対象者を照明し、上記検出対象者
と上記光入力手段とを結ぶ光軸と、照明光照明方向とが
少なくとも上記検出対象者近傍においてほぼ同軸となる
ように配置された照明手段、上記光入力手段から出力さ
れる上記検出対象者の画像信号を用いて撮影画像の明暗
を判定する明暗度判定手段、及び上記光入力手段から出
力される上記検出対象者の撮影画像から顔面上の特徴
を、明暗に応じた2つ以上の画像処理で抽出可能である
とともに、上記明暗度判定手段が出力する明暗信号によ
り上記2つ以上の画像処理の中から1つの画像処理を選
択、または上記2つ以上の画像処理による抽出結果の中
から1つの抽出結果を選択する特徴抽出手段を備えたも
のである。
According to a fourth aspect of the present invention, there is provided an image processing apparatus, wherein light input means for inputting an image of a predetermined area including a face of a detection target person, illuminating the detection target person, and the detection target person and the light The optical axis connecting the input means and the illumination light illumination direction are arranged so as to be substantially coaxial at least in the vicinity of the detection target person, and the image signal of the detection target person output from the light input means It is possible to extract the feature on the face from the photographed image of the person to be detected, which is output from the light input unit, by the brightness determination unit that determines the lightness or darkness of the photographed image by two or more image processes according to the lightness and darkness. In addition, one image processing is selected from the two or more image processings by the brightness signal output from the brightness determining means, or one extraction result is selected from the extraction results by the two or more image processings. To Those having feature extraction means for-option.

【0012】この発明の請求項5に係る画像処理装置
は、上記各特徴抽出手段が、暗信号が入力された時は網
膜反射像による瞳孔抽出を行い、明信号が入力された時
は鼻孔抽出を行なうようにしたものである。
In the image processing apparatus according to claim 5 of the present invention, each of the feature extracting means extracts a pupil by a retina reflection image when a dark signal is input and extracts a nostril when a bright signal is input. It was designed to do.

【0013】この発明の請求項6に係る画像処理装置
は、検出対象者の顔面を含む所定の領域の像を入力する
光入力手段、上記検出対象者を照明し、上記検出対象者
と上記光入力手段とを結ぶ光軸と、照明光照明方向とが
少なくとも上記検出対象者近傍においてほぼ同軸となる
ように配置された照明手段、及び上記光入力手段から出
力される上記検出対象者の撮影画像から顔面上の特徴
を、明暗に応じた2つ以上の画像処理で抽出可能である
とともに、上記画像処理による抽出結果に応じて最終的
な抽出結果を選択する特徴抽出手段を備えたものであ
る。
According to a sixth aspect of the present invention, there is provided an image processing apparatus, wherein light input means for inputting an image of a predetermined area including a face of a detection target person, illuminating the detection target person, and the detection target person and the light Illumination means arranged so that the optical axis connecting the input means and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and a photographed image of the detection target person output from the light input means. The facial feature can be extracted by two or more image processes depending on the lightness and darkness, and the feature extraction means for selecting the final extraction result according to the extraction result by the image process is provided. .

【0014】この発明の請求項7に係る画像処理装置
は、上記特徴抽出手段が、暗用の画像処理により瞳孔が
検出できない場合は、明用の画像処理による抽出結果を
選択するようにしたものである。
In the image processing apparatus according to claim 7 of the present invention, the feature extracting means selects the extraction result by the image processing for light when the pupil cannot be detected by the image processing for dark. Is.

【0015】この発明の請求項8に係る画像処理装置
は、請求項6の特徴抽出手段が、明暗いずれかに応じた
画像処理で抽出された瞳孔の大きさが小さい場合は、明
用の画像処理による抽出結果を選択するようにしたもの
である。
According to an eighth aspect of the present invention, in the feature extracting means of the sixth aspect, when the size of the pupil extracted by the image processing depending on whether it is light or dark is small, a bright image is obtained. The extraction result of the process is selected.

【0016】この発明の請求項9に係る画像処理装置
は、上記各画像処理装置において、光入力手段の撮影条
件、または照明手段の照明条件の少なくとも一方を制御
する照明撮影制御手段を備え、上記照明撮影制御手段は
明暗検出手段、光入力手段、スイッチ、明暗度判定手
段、または特徴抽出手段のいずれかから明暗情報を取り
出して、上記撮影条件または上記照明条件を変更するよ
うにしたものである。
An image processing apparatus according to a ninth aspect of the present invention is the image processing apparatus described above, further comprising an illumination / photographing control means for controlling at least one of a photographing condition of the light inputting means and an illuminating condition of the illuminating means. The illumination / photographing control means extracts the light / darkness information from any of the brightness / darkness detecting means, the light inputting means, the switch, the brightness determining means, or the feature extracting means, and changes the above-mentioned photographing condition or the above lighting condition. .

【0017】この発明の請求項10に係る画像処理装置
は、上記照明撮影制御手段が、明暗情報が明の場合は照
明光をオフし、特徴抽出手段は明用の画像処理により撮
影画像から顔面上の特徴を抽出し、明暗情報が暗の場合
は照明光をオンし、上記特徴抽出手段は暗用の画像処理
により撮影画像から顔面上の特徴を抽出するようにした
ものである。
In the image processing apparatus according to the tenth aspect of the present invention, the illumination / photographing control means turns off the illumination light when the light / dark information is bright, and the feature extracting means performs the image processing for light from the photographed image to the face. The above feature is extracted, and when the light and dark information is dark, the illumination light is turned on, and the feature extracting means extracts the feature on the face from the photographed image by the image processing for darkness.

【0018】この発明の請求項11に係る人物状態判定
装置は上記各画像処理装置のいずれかと、この画像処理
装置の出力から人物状態を判定する人物状態判定手段と
を備えたものである。
According to an eleventh aspect of the present invention, there is provided a person state judging device comprising any one of the above image processing apparatuses and a person state judging means for judging a person state from an output of the image processing apparatus.

【0019】[0019]

【作用】本発明の請求項1の画像処理装置は、検出対象
者周辺の照度を明暗検出手段で測定することにより、暗
いときは網膜反射像を利用した画像処理を用いて検出対
象者の特徴を抽出し、明るいときは網膜反射像にこだわ
らない画像処理を用いて検出対象者の特徴を抽出するよ
うに動作するので、検出対象者の周辺の明るさが変化し
ても顔面上の特徴を捕まえることができる。
According to the image processing apparatus of claim 1 of the present invention, the illuminance around the detection target person is measured by the light / dark detection means, and when dark, the image processing utilizing the retina reflection image is used to characterize the detection target person. When it is bright, it operates so as to extract the features of the detection target person using image processing that does not focus on the retinal reflection image when it is bright. You can catch it.

【0020】また、請求項2の画像処理装置は、入力し
た画像の明暗を示す明暗信号を出力する機能を有する光
入力手段により、検出対象者周辺の明暗情報を得、上記
と同様、明暗に応じた画像処理を選択するように動作す
るので、検出対象者の周辺の明るさが変化しても顔面上
の特徴を捕まえることができる。
Further, the image processing apparatus according to claim 2 obtains light and dark information around the person to be detected by the light input means having a function of outputting a light and dark signal indicating the light and dark of the input image, and the light and dark information is obtained in the same manner as described above. Since the operation is performed so as to select the appropriate image processing, the feature on the face can be captured even if the brightness around the detection target person changes.

【0021】また、請求項3の画像処理装置は、検出対
象者または他の人物が明暗に対応して切り替えることに
より明暗に対応した信号を出力するスイッチにより、検
出対象者周辺の明暗情報を得、上記と同様、明暗に応じ
た画像処理を選択するように動作するので、検出対象者
の周辺の明るさが変化しても顔面上の特徴を捕まえるこ
とができる。
Further, the image processing apparatus according to the third aspect obtains the light and dark information around the person to be detected by the switch which outputs a signal corresponding to the light and dark when the person to be detected or another person switches in accordance with the light and dark. Similarly to the above, the operation is performed so as to select the image processing according to the lightness and darkness, so that the feature on the face can be captured even if the brightness around the detection target person changes.

【0022】また、請求項4の画像処理装置は、光入力
手段から出力される検出対象者の画像信号を用いて撮影
画像の明暗を判定する明暗度判定手段により、検出対象
者周辺の明暗情報を得、上記と同様、明暗に応じた画像
処理を選択するように動作するので、検出対象者の周辺
の明るさが変化しても顔面上の特徴を捕まえることがで
きる。
Further, in the image processing apparatus according to the fourth aspect, the lightness / darkness information around the person to be detected is determined by the lightness / darkness judging means for judging the lightness / darkness of the photographed image using the image signal of the person to be detected outputted from the light inputting means. In the same manner as described above, the image processing is performed so as to select the image processing according to the brightness, so that the feature on the face can be captured even if the brightness around the detection target person changes.

【0023】また、請求項5の画像処理装置は、暗信号
が入力された時は網膜反射像による瞳孔抽出を行い、明
信号が入力された時は鼻孔抽出を行なうようにすること
で、種々の特徴抽出ができる。
According to the image processing apparatus of the fifth aspect, when the dark signal is input, the pupil is extracted by the retinal reflection image, and when the bright signal is input, the nostril is extracted. Feature extraction can be performed.

【0024】また、請求項6の画像処理装置は、特徴抽
出手段における画像処理の抽出結果に応じて、一旦抽出
結果を試してから画像処理あるいは抽出結果を選択する
ように動作するので、検出精度が上がる。
Further, since the image processing apparatus according to the sixth aspect operates so as to test the extraction result once and then select the image processing or the extraction result in accordance with the extraction result of the image processing in the feature extracting means, the detection accuracy is improved. Goes up.

【0025】また、請求項7の画像処理装置は、暗用の
画像処理により瞳孔が検出できない場合は、明用の画像
処理による抽出結果を選択するように動作し、暗用の画
像処理による結果を優先するため検出精度が良い。
Further, when the pupil cannot be detected by the image processing for darkness, the image processing apparatus according to claim 7 operates so as to select the extraction result by the image processing for light, and the result by the image processing for darkness. The detection accuracy is good because of priority.

【0026】また、請求項8の画像処理装置は、瞳孔の
大きさを明暗いずれかの画像処理で求め、明暗情報を瞳
孔の大きさから得るようにしている。
According to the image processing apparatus of the eighth aspect, the size of the pupil is obtained by either image processing of light and dark, and the light and dark information is obtained from the size of the pupil.

【0027】また、請求項9の画像処理装置は、上述し
た明暗検出手段、光入力手段、スイッチ、明暗度判定手
段、または特徴抽出手段のいずれかから明暗情報を取り
出して、光入力手段の撮影条件、または照明手段の照明
条件を変更する。
According to the image processing apparatus of claim 9, the light / dark information is taken out from any one of the light / dark detecting means, the light inputting means, the switch, the lightness / darkness determining means, or the feature extracting means, and the light inputting means is photographed. Change the condition or the lighting condition of the lighting means.

【0028】また、請求項10の画像処理装置は、明暗
情報が明の場合は照明光をオフにし、明暗情報が暗の場
合は照明光をオンにする。
The image processing apparatus according to the tenth aspect turns off the illumination light when the light / dark information is bright, and turns on the illumination light when the light / dark information is dark.

【0029】また、請求項11における人物状態判定装
置は、上記各構成の画像処理装置から出力される抽出結
果をもちいて、瞼の開閉状態や顔の向き等を検出し、居
眠りや脇見等、種々の人物状態を判定する。
The person state determining apparatus according to claim 11 uses the extraction result output from the image processing apparatus having each of the above configurations to detect the open / closed state of the eyelids, the direction of the face, etc. Determine various person states.

【0030】[0030]

【実施例】【Example】

実施例1.以下、この発明の一実施例による居眠り検出
装置を図について説明する。図1において、20は検出
対象者1の周辺に設置され、照度を検出する照度セン
サ、41は暗用の特徴抽出処理と明用の特徴抽出処理の
2つの画像処理を実施できる特徴抽出回路41である。
10〜14、30、31、50、51は前記従来例と同
一の動作をする構成要素である。
Example 1. A doze detection device according to an embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, 20 is an illuminance sensor that is installed around the detection target person 1 and detects illuminance, and 41 is a feature extraction circuit 41 that can perform two image processes of a dark feature extraction process and a bright feature extraction process. Is.
Reference numerals 10 to 14, 30, 31, 50 and 51 are constituent elements that operate in the same manner as the conventional example.

【0031】次に動作について説明する。図1におい
て、光路l1 で照射される赤外線LED13の照明光
は、ハーフミラー12で半分の光を反射し、光路l2 で
検出対象者1の顔面を照射する。検出対象者1の画像は
光路l3 でハーフミラー12を通り、半分の光がCCD
カメラ10に到達し、CCDカメラは検出対象者1の画
像を取り込む。この時、光路l2とl3 の光軸は検出対
象者からみて、ほぼ同軸あるいは所定の角度以内(2
度)に納まるようになっている(同軸落射照明)。本実
施例では0度としており、ハーフミラー12がCCDカ
メラ10の光軸l3 となす角度は45゜である。CCD
カメラ10から出力される画像信号は、撮影画像メモリ
30に一旦入力される。
Next, the operation will be described. In FIG. 1, the half mirror 12 reflects half of the illumination light of the infrared LED 13 irradiated on the optical path l1 and irradiates the face of the detection target person 1 on the optical path l2. The image of the person to be detected 1 passes through the half mirror 12 in the optical path 13 and half of the light is CCD.
Upon reaching the camera 10, the CCD camera captures the image of the person to be detected 1. At this time, the optical axes of the optical paths l2 and l3 are almost coaxial or within a predetermined angle (2
Degree) (coaxial epi-illumination). In this embodiment, it is set to 0 °, and the angle formed by the half mirror 12 and the optical axis 13 of the CCD camera 10 is 45 °. CCD
The image signal output from the camera 10 is once input to the captured image memory 30.

【0032】図2は特徴抽出回路41と覚醒度判定回路
50の動作を示す処理フローである。ST10において
顔画像を入力するまでの動作は図31に示す従来例と同
一の動作をする。ST50において照度センサ20から
明暗信号を入力し、ST51で、例えば予め定められた
照度しきい値、例えば照度500Lx以下の場合は「暗
い」と判断し、処理はST11へ移り前記従来例と同一
の動作により覚醒度を判断する。ST51において「明
るい」と判断した場合は、ST41において明用の輝度
しきい値th2(<暗用しきい値th1)にて2値化処
理を行う。明るい場合の画像は図37のようになるが、
得られた2値化画像は図3のように眉毛2、眼領域8、
鼻孔3、口領域9が黒色領域となり、その他の部分は白
色領域となる画像になる。次にST42、ST43にて
眼の領域を抽出する。抽出は、まずST42で、図3の
右部分に示すように黒画素のY軸方向への輝度投影を行
う。例えば、得られる2値化画像をG2(x,y)で表
現すると(x=0〜255、y=0〜255)、Y軸へ
の投影は
FIG. 2 is a processing flow showing the operations of the feature extraction circuit 41 and the awakening degree determination circuit 50. The operation until the face image is input in ST10 is the same as that of the conventional example shown in FIG. In ST50, a brightness signal is input from the illuminance sensor 20, and in ST51, for example, a predetermined illuminance threshold value, for example, when the illuminance is 500 Lx or less, it is determined to be “dark”, the process proceeds to ST11, and the same as the conventional example. The awakening degree is determined by the action. When it is determined to be “bright” in ST51, the binarization process is performed with the brightness threshold value th2 for light (<threshold value for darkness th1) in ST41. The image in the bright case is as shown in Fig. 37.
As shown in FIG. 3, the obtained binarized image includes eyebrows 2, eye regions 8,
An image in which the nostrils 3 and the mouth area 9 are black areas and the other portions are white areas. Next, in ST42 and ST43, the eye region is extracted. In the extraction, first in ST42, luminance projection of black pixels in the Y-axis direction is performed as shown in the right part of FIG. For example, when the obtained binarized image is represented by G2 (x, y) (x = 0 to 255, y = 0 to 255), the projection on the Y axis is

【0033】[0033]

【数1】 [Equation 1]

【0034】で示される。このとき眉毛2、眼領域8、
鼻孔3、口領域9などが黒画素数の山P1,P2,P
3,P4として現れる。この山のパターンは眉毛に対応
する山P1と眼領域に対応する山P2は大きく、次の鼻
孔に対応する山P3は小さい山となるので、ST43に
て2番目の山P2を眼領域として特定する。次にST4
4で眼の開閉判断をする。図4は閉眼の場合の2値化画
像である。このように眼領域の山P2の面積は瞼を閉じ
ると小さく、眼を開けると大きくなるので、予め定めら
れた値より山P2の面積が大きい場合は開眼、小さい場
合は閉眼と判断する。以下ST20以降の動作は前記従
来例と同一である。
It is shown by. At this time, the eyebrows 2, the eye area 8,
Nostrils 3, mouth areas 9 and the like have peaks P1, P2, P with black pixels
3, P4. In this mountain pattern, the mountain P1 corresponding to the eyebrows and the mountain P2 corresponding to the eye area are large, and the mountain P3 corresponding to the next nostril is small, so that the second mountain P2 is specified as the eye area in ST43. To do. Then ST4
The eye opening / closing judgment is made at 4. FIG. 4 is a binarized image when the eyes are closed. In this way, the area of the mountain P2 in the eye region is small when the eyelid is closed and becomes large when the eye is opened. Therefore, when the area of the mountain P2 is larger than the predetermined value, it is determined that the eye is open, and when the area is small, the eye is closed. The operation after ST20 is the same as that of the conventional example.

【0035】なお、上記実施例では明るいとき、2値化
画像における黒画素をY軸方向へ輝度投影して眼の領域
を抽出し、眼領域の山の面積により眼の開閉判断をした
が、眼領域の山の幅でもよい。また、暗いときにおいて
も、2値化画像における白画素をY軸方向へ輝度投影し
て瞳孔を抽出し、瞳孔の面積により眼の開閉判断をした
が、瞳孔を示す山の幅でもよい。また、明るいときの画
像処理法は上記方法にこだわらず、2値化画像のエッジ
処理等で眼の開閉判断等をしてもよい。
In the above embodiment, when it is bright, the black pixels in the binarized image are projected in the Y-axis direction to extract the eye region, and the eye open / closed is determined based on the area of the mountain in the eye region. It may be the width of the eye area mountain. Further, even when it is dark, the white pixels in the binarized image are projected in the Y-axis direction to extract the pupil, and the eye open / closed is determined based on the area of the pupil, but the width of the mountain indicating the pupil may be used. Further, the image processing method for bright images is not limited to the above method, and eye open / closed determination may be performed by edge processing of a binarized image.

【0036】以上のように、本実施例では検出対象者周
辺の照度を照度センサで測定することにより、暗いとき
は網膜反射像を利用した画像処理を用いて検出対象者の
特徴を抽出し、明るいときは網膜反射像にこだわらない
画像処理を用いて検出対象者の特徴を抽出するように動
作するので、検出対象者の周辺の明るさが変化しても顔
面上の特徴を常に捕まえ、居眠りを監視することができ
るようになる。
As described above, in the present embodiment, the illuminance sensor measures the illuminance around the person to be detected, and when dark, the characteristics of the person to be detected are extracted using image processing using the retina reflection image, When it is bright, it operates so as to extract the features of the detection target person using image processing that does not focus on the retina reflection image, so even if the surrounding brightness of the detection target person changes, the features on the face are always caught and doze Will be able to monitor.

【0037】実施例2.図5はこの発明の他の実施例に
よる人物状態判定装置であり、顔を左または右に向ける
と顔角度に応じて見かけ上の瞳孔間隔や鼻孔の間隔が狭
くなる。このことから脇見を検出し、警報を与える脇見
検出装置の実施例である。図5において、41は特徴抽
出回路であり、脇見検出用の特徴を抽出するように動作
する。52は脇見判定回路である。
Example 2. FIG. 5 shows a person state determining apparatus according to another embodiment of the present invention. When the face is directed to the left or right, the apparent pupil distance or nostril distance becomes narrower according to the face angle. This is an embodiment of the inattentive detection device that detects inattentiveness and gives an alarm. In FIG. 5, reference numeral 41 denotes a feature extraction circuit, which operates to extract features for inattentive detection. Reference numeral 52 is an inattentive judgment circuit.

【0038】次に動作を説明する。図6は特徴抽出回路
41、及び脇見判定回路52の動作を示すフローチャー
トである。ST10において顔画像を入力し、ST50
において照度センサ20から明暗信号を入力する。ST
51で、実施例1と同様、例えば予め定められた照度し
きい値以下の場合は「暗い」と判断し、処理はST11
へ移り、2値化処理の後ST120で、図7に示すよう
に白画素のX軸方向への投影を行なう。ST130では
2つの瞳孔の位置xq1、xq2を抽出する。即ち、2つの
瞳孔に対応してX軸方向への投影像に現われる2つの山
のピークの位置を各々求めることにより、瞳孔の位置が
抽出できる。ST140ではST130で求めた2つの
瞳孔の位置から、瞳孔の見かけ上の間隔dppを求め、得
られた見かけ上の間隔から顔の向きを推定する。顔の角
度θfは cos(θf)=dpp/Dpp から求められる。但し、Dppは顔を正面に向けたときの
見かけ上の瞳孔間隔、dppは現在の見かけ上の瞳孔間隔
である。
Next, the operation will be described. FIG. 6 is a flowchart showing the operation of the feature extraction circuit 41 and the inattentiveness determination circuit 52. A face image is input in ST10, and ST50 is entered.
At, the brightness signal is input from the illuminance sensor 20. ST
In 51, as in the first embodiment, for example, when the illuminance threshold value is equal to or less than a predetermined illuminance threshold value, it is determined to be “dark” and the process proceeds to ST11.
After shifting to the binarization processing, in ST120, white pixels are projected in the X-axis direction as shown in FIG. In ST130, two pupil positions xq1 and xq2 are extracted. That is, the position of the pupil can be extracted by finding the positions of the peaks of the two peaks appearing in the projected image in the X-axis direction corresponding to the two pupils. In ST140, the apparent distance dpp between the pupils is obtained from the positions of the two pupils obtained in ST130, and the face orientation is estimated from the obtained apparent distance. The face angle θf is obtained from cos (θf) = dpp / Dpp. However, Dpp is the apparent pupillary distance when the face is directed to the front, and dpp is the current apparent pupillary distance.

【0039】一方、ST51において、予め定められた
照度しきい値以上の場合は「明るい」と判断し、この場
合は、鼻孔の間隔から顔の角度を推定する。即ち、ST
41において実施例1と同様、明用の輝度しきい値th
2(<暗用しきい値th1)にて2値化処理を行い、S
T420で黒画素のY軸方向への輝度投影を行う。図3
に示すようにY軸へ輝度投影すると鼻孔3は、大きな山
P1,P2の下にある小さな黒色の山P3として現れ
る。ST420ではさらに山P3の中心yp3を求め、鼻
孔抽出の為のウィンドウを設定する。ウィンドウは縦は
yp3を中心に例えば上下2cmに対応する画素幅、横は
0〜255とする。このウィンドウは図8の上部の様に
なる。その後、X軸方向への輝度投影をする。黒画素の
X軸方向への輝度投影は
On the other hand, in ST51, when it is equal to or more than the predetermined illuminance threshold value, it is judged as "bright", and in this case, the face angle is estimated from the interval of the nostrils. That is, ST
41, as in the first embodiment, the brightness threshold value th for brightness th
2 (<threshold value for darkness th1), the binarization process is performed, and S
At T420, luminance projection of the black pixel in the Y-axis direction is performed. Figure 3
When the luminance projection is performed on the Y axis as shown in FIG. 3, the nostril 3 appears as a small black mountain P3 below the large mountains P1 and P2. In ST420, the center yp3 of the mountain P3 is further obtained, and a window for nostril extraction is set. The window has a vertical pixel width corresponding to, for example, 2 cm above and below yp3, and has a horizontal width of 0 to 255. This window looks like the top of Figure 8. After that, luminance projection is performed in the X-axis direction. The luminance projection of the black pixel in the X-axis direction is

【0040】[0040]

【数2】 [Equation 2]

【0041】で示される。ここで、y0は上下1cmに対
応する画素数である。X軸方向へ輝度投影すると、図8
の下のように2つの鼻孔に対応する山Q1、Q2が現れ
るので、ST45においてQ1、Q2の鼻孔中心xq1,
xq2を求めることにより、左右の鼻孔の位置nR(xq
1、yp3)、nl(xq2、yp3)を見つける。ST46で
はST45で求めた2つの鼻孔の位置から、鼻孔の見か
け上の間隔を求め、得られた見かけ上の間隔から顔の向
きを推定する。顔の角度θfはcos(θf)=dnn/D
nnから求められる。但し、Dnnは顔を正面に向けたとき
の見かけ上の鼻孔間隔、dnnは現在の見かけ上の鼻孔間
隔である。
It is shown by. Here, y0 is the number of pixels corresponding to 1 cm above and below. When luminance projection is performed in the X-axis direction, FIG.
Mountains Q1 and Q2 corresponding to the two nostrils appear as below, so at ST45, the nostril centers xq1 of Q1 and Q2,
By finding xq2, the position of the left and right nostrils nR (xq
1, yp3), nl (xq2, yp3). In ST46, the apparent distance between the nostrils is obtained from the positions of the two nostrils obtained in ST45, and the orientation of the face is estimated from the obtained apparent distances. Face angle θf is cos (θf) = dnn / D
nn is required. However, Dnn is the apparent nostril spacing when the face is directed to the front, and dnn is the current apparent nostril spacing.

【0042】この顔の向きに関する情報は、脇見判定回
路52に入力され、脇見判定回路52はST22で、得
られた顔の向きが20度以上であり、かつこの状態が5
秒以上続いているかどうかを判定し、5秒以上続けば、
脇見状態であると判断し、ST23で警報発生回路51
に警報出力命令を出力する。5秒未満の時はST10に
処理は移る。
The information about the face orientation is input to the inattentiveness determination circuit 52, and the inattentiveness determination circuit 52 determines in ST22 that the obtained orientation of the face is 20 degrees or more, and this state is 5
If it continues for 5 seconds or more, if it continues for 5 seconds or more,
It is determined that the user is looking aside, and the alarm generation circuit 51 is determined in ST23.
The alarm output command is output to. If it is less than 5 seconds, the process proceeds to ST10.

【0043】以上のように、本実施例では検出対象者周
辺の照度を照度センサで測定し、暗いときは網膜反射像
を利用して瞳孔を抽出し、明るいときは網膜反射像にこ
だわらない画像処理を用いて鼻孔を抽出することによ
り、明暗に応じて検出精度のよい特徴を抽出するので、
脇見判定の検出精度が向上する。
As described above, in the present embodiment, the illuminance sensor measures the illuminance in the vicinity of the person to be detected, the pupil is extracted by utilizing the retinal reflection image when it is dark, and the image is not focused on the retinal reflection image when it is bright. By extracting the nostrils using processing, features with good detection accuracy are extracted according to light and dark,
The detection accuracy of the inattentive judgment is improved.

【0044】実施例3.図9はこの発明の実施例3によ
る居眠り検出装置を示す構成図である。図9において、
15はAGC(オートゲインコントロール)付きのCC
Dカメラであり、入力した画像の明暗を示す明暗信号で
あるAGC信号を外部に出力する機能を持つ。即ち、照
度が高い場合は、光−電気変換後の電気信号増幅のゲイ
ンを小さくし、照度が高い場合は、光−電気変換後の電
気信号増幅のゲインを大きくする機能を有するCCDカ
メラであり、このゲイン情報を外部に出力する。動作は
実施例1と同様であり、照度センサ20からの明暗信号
の変わりに、このCCDカメラ15よりゲイン情報に対
応して明暗信号が特徴抽出回路41に出力される。従っ
て、実施例1の効果に加えて、照度センサを省くことが
できるので安価な装置を提供することができる。
Example 3. FIG. 9 is a block diagram showing a doze detection device according to a third embodiment of the present invention. In FIG.
15 is a CC with AGC (auto gain control)
The D camera has a function of outputting an AGC signal, which is a light / dark signal indicating the light / dark of an input image, to the outside. That is, when the illuminance is high, the CCD camera has a function of decreasing the gain of electric signal amplification after photoelectric conversion, and when the illuminance is high, a CCD camera having a function of increasing the gain of electric signal amplification after optical conversion. , This gain information is output to the outside. The operation is similar to that of the first embodiment, and instead of the brightness signal from the illuminance sensor 20, the CCD camera 15 outputs a brightness signal corresponding to the gain information to the feature extraction circuit 41. Therefore, in addition to the effect of the first embodiment, the illuminance sensor can be omitted, so that an inexpensive device can be provided.

【0045】実施例4.図10はこの発明の実施例4に
よる居眠り検出装置を示す構成図である。図10におい
て、21は明暗状態に応じて人が切り替える明暗スイッ
チである。即ち、検出対象者または他の人物が、検出対
象者周辺の明暗に対応してスイッチ21を切り替え、明
暗に対応した信号を出力する。動作は実施例1と同様で
あり、照度センサ20からの明暗信号の変わりに、この
スイッチ21より明暗信号が特徴抽出回路41に出力さ
れる。従って、実施例3と同様、検出精度が向上すると
ともに、照度センサを省くことができるので安価な装置
を提供することができる。
Example 4. 10 is a block diagram showing a doze detecting device according to a fourth embodiment of the present invention. In FIG. 10, reference numeral 21 is a light / dark switch that a person switches according to the light / dark state. That is, the person to be detected or another person switches the switch 21 according to the light and dark around the person to be detected, and outputs a signal corresponding to the light and dark. The operation is similar to that of the first embodiment, and instead of the light / dark signal from the illuminance sensor 20, the light / dark signal is output from the switch 21 to the feature extraction circuit 41. Therefore, similarly to the third embodiment, the detection accuracy is improved and the illuminance sensor can be omitted, so that an inexpensive device can be provided.

【0046】なお、上記実施例4では、明暗状態に応じ
て切り替える明暗スイッチ21を用いたが、上記装置を
自動車に適用し、ライトのオンオフのスイッチを上記明
暗スイッチ21と兼用して、明暗に対応した信号をとり
だすようにしてもよい。図11は本実施例による居眠り
検出装置を車載した自動車を示す部分構成図である。図
11において、22はヘッドライトのスイッチであり、
オンの時に暗信号を、オフの時に明信号を特徴抽出回路
41に出力する。このような構成にすることにより、明
暗信号が自動車のライトのオンオフのスイッチと連動
し、運転者が自然に行なう動作により明暗信号を発生す
るため、操作が煩わしくないものが得られる。
In the fourth embodiment, the light / dark switch 21 that is switched according to the light / dark state is used. However, the above-mentioned device is applied to an automobile, and the light on / off switch is also used as the light / dark switch 21 to change the light / dark state. You may make it take out the corresponding signal. FIG. 11 is a partial configuration diagram showing an automobile equipped with the drowsiness detection device according to the present embodiment. In FIG. 11, 22 is a headlight switch,
A dark signal is output to the feature extraction circuit 41 when it is on, and a bright signal is output when it is off. With such a configuration, the light / dark signal is interlocked with the on / off switch of the light of the automobile, and the light / dark signal is generated by the operation naturally performed by the driver, so that the operation is not troublesome.

【0047】実施例5.図12はこの発明の実施例5に
よる居眠り検出装置を示す構成図である。図12におい
て、42は撮影画像メモリ30のデータを入力し、明暗
度を判定する明暗判定回路である。即ち、G1(x,
y)を画像メモリの内容とすれば、明暗判定回路42
は、撮影画像の明暗を判定する値G1totalを次式
Example 5. 12 is a block diagram showing a doze detection device according to a fifth embodiment of the present invention. In FIG. 12, reference numeral 42 is a brightness / darkness determination circuit which inputs the data of the captured image memory 30 and determines the brightness. That is, G1 (x,
If y) is the content of the image memory, the brightness / darkness determination circuit 42
Is the value G1total for determining the brightness of the captured image

【0048】[0048]

【数3】 [Equation 3]

【0049】より求め、上記G1total が予め定められ
値以上の場合「明るい」と判断し、未満の場合「暗い」
と判断する。特徴抽出回路41は照度センサ20からの
明暗信号の変わりに、明暗判定回路42の明暗情報を入
力して、以下実施例1と同様に動作する。
Further, it is determined that "G1total" is "bright" when it is a predetermined value or more, and "dark" when it is less than G1total.
To judge. The feature extraction circuit 41 inputs the light / dark information of the light / dark determination circuit 42 instead of the light / dark signal from the illuminance sensor 20, and operates similarly to the first embodiment.

【0050】このように画像メモリを用いて明暗を検出
することにより、明暗検出のためのセンサが省け、実施
例1の効果に加えて、安価な装置を提供することができ
る。
By detecting light and dark using the image memory in this way, a sensor for detecting light and dark can be omitted, and in addition to the effects of the first embodiment, an inexpensive device can be provided.

【0051】なお、上記実施例ではG1totalは画像デ
ータ全体を用いたが、画像の一部分を用いてもよい。
In the above embodiment, G1total uses the entire image data, but a part of the image may be used.

【0052】また、上記実施例では明暗判定回路42は
撮影画像メモリ30のデータを入力して明暗度を判定し
たが、図13に示すように、CCDカメラ10からの画
像信号を入力し、例えば入力される画像信号の1/30
秒間の積分量に応じて明暗を判定し、特徴抽出回路41
に明暗信号を出力するようにしてもよい。
In the above embodiment, the brightness determination circuit 42 inputs the data of the photographed image memory 30 to determine the brightness. However, as shown in FIG. 13, the image signal from the CCD camera 10 is input, for example, 1/30 of the input image signal
Brightness and darkness are determined according to the integration amount for a second, and the feature extraction circuit 41
Alternatively, a light / dark signal may be output.

【0053】実施例6.上記各実施例の特徴抽出回路4
1では、明用の画像処理と暗用の画像処理を外部からの
信号を入力して切り換えていたが、外部からの信号によ
らないで、各々の画像処理による抽出結果を用いて1つ
の抽出結果を選択するようにしてもよい。図14はこの
ような居眠り検出装置を示す構成図である。図14にお
いて、43は暗用特徴抽出回路、44は明用特徴抽出回
路、45は選択回路である。暗用特徴抽出回路43は、
撮影画像メモリ30のデータを入力し、図15のフロー
に従い、瞼開閉度と瞳孔のY座標を抽出する。即ち、あ
る程度暗い環境の場合は実施例1のように瞳孔のみが抽
出できるが、明るい環境では鼻の先端の輝度と瞳孔との
輝度が近くなり、しきい値th1で2値化をすると、図
16のように瞳孔と鼻の先端が白色領域となり、Y軸へ
の輝度投影を行うと、瞳孔による山R1と鼻の先端によ
る山R2が現れ、どちらが瞳孔か判断できなくなる。さ
らに明るい環境では多数の白領域が現れるので瞼開閉の
判断はできなくなる。暗用特徴抽出回路43は特徴抽出
結果として、瞳孔が抽出できる場合は、R1に対応した
値(Y座標yr1、開閉度dr1)を、瞳孔を特定できない
場合は検出不能情報を出力する。図15において、ST
10で顔画像を入力し、ST11でしきい値th1で2
値化処理を行う。ST12で白画素のY軸方向の投影を
行い、ST60で白領域を示すY軸投影像の山の数を検
出し、山が2つ以上の場合、瞳孔抽出不能としてST6
5へいき、瞳孔は検出不能であると判断する。山が1つ
の場合は瞳孔が抽出可能であるためST13で投影像の
面積を求めることにより、瞳孔の見かけ上の大きさが計
算できる。ST61では上記面積が予め定められた値以
上の時はST63へいき、開眼と判断して、投影像から
瞳孔のY座標yr1と瞼の開閉度にあたる山の幅dr1を求
める。上記面積が予め定められた値未満のときはST6
2で閉眼と判断する。ST64ではST62、ST6
3、及びST65の結果を選択回路に出力する。
Example 6. Feature extraction circuit 4 of each of the above embodiments
In 1, the image processing for light and the image processing for dark were switched by inputting a signal from the outside, but one extraction is performed using the extraction result of each image processing without depending on the signal from the outside. The result may be selected. FIG. 14 is a block diagram showing such a drowsiness detection device. In FIG. 14, 43 is a dark feature extraction circuit, 44 is a bright feature extraction circuit, and 45 is a selection circuit. The darkness feature extraction circuit 43
The data of the photographed image memory 30 is input, and the eyelid open / close degree and the Y coordinate of the pupil are extracted according to the flow of FIG. That is, in a dark environment to some extent, only the pupil can be extracted as in the first embodiment, but in a bright environment, the brightness of the tip of the nose and the brightness of the pupil are close to each other, and when binarization is performed with the threshold value th1, As shown in 16, when the pupil and the tip of the nose are in a white area and luminance projection is performed on the Y axis, a mountain R1 due to the pupil and a mountain R2 due to the tip of the nose appear, and it is impossible to determine which is the pupil. In a brighter environment, many white areas appear, and it is impossible to judge whether the eyelids are open or closed. As a feature extraction result, the dark feature extraction circuit 43 outputs a value (Y coordinate yr1, open / closed degree dr1) corresponding to R1 when the pupil can be extracted, and undetectable information when the pupil cannot be specified. In FIG. 15, ST
Input a face image at 10 and 2 at threshold th1 at ST11.
Perform value conversion processing. In ST12, white pixels are projected in the Y-axis direction, and in ST60, the number of peaks in the Y-axis projection image showing the white region is detected.
Go to step 5, and determine that the pupil cannot be detected. Since the pupil can be extracted when there is only one mountain, the apparent size of the pupil can be calculated by obtaining the area of the projected image in ST13. In ST61, when the area is equal to or more than a predetermined value, the process proceeds to ST63, it is determined that the eye is open, and the Y coordinate yr1 of the pupil and the width dr1 of the mountain corresponding to the degree of opening and closing of the eyelid are obtained from the projected image. When the above area is less than the predetermined value, ST6
It is judged that the eyes are closed in 2. In ST64, ST62, ST6
The results of 3 and ST65 are output to the selection circuit.

【0054】一方、明用特徴抽出回路44は撮影画像メ
モリ30のデータを入力し、図17のフローに従い、瞼
開閉度と瞳孔のY座標を抽出する。即ち、明るい環境で
は実施例1のように眉、眼領域、鼻孔、口に対応した山
P1,P2,P3,P4がそれぞれ分離して抽出できる
が、やや暗くなり顔面上のコントラスト比が小さくなっ
てくると、しきい値th2で2値化をすると図18のよ
うに眉、眼領域、鼻孔、口以外に黒領域が現れ、Y軸輝
度投影を行っても眼領域の山P2を特定できなくなる。
明用特徴抽出回路44は特徴抽出結果として、検出でき
る場合はP2に対応した瞼開閉度を、検出できない場合
は、検出不能情報を出力する。図17において、ST1
0で顔画像を入力し、ST41でしきい値th2で2値
化処理を行う。ST42で黒画素のY軸方向の投影を行
い、ST70で黒領域を示すY軸投影像の山を検出し、
山が不明瞭な場合、即ち投影像の黒画素数が0と0とで
囲まれた領域が例えば4つ以下の時、ST75で眼領域
は検出不能であると判断する。山が明瞭である場合、即
ち上記領域が4つの時は、ST43で2番目の山P2を
眼領域として特定する。ST71では眼領域の山P2の
面積が予め定められた値より大きいかどうかを判断し、
大きい場合はST73において開眼と判断し、投影像か
ら眼領域のY座標と瞼の開閉度にあたる山の幅を求め
る。上小さい場合はST72において閉眼と判断する。
ST74ではST72、ST73、及びST75の結果
を選択回路に出力する。
On the other hand, the light feature extraction circuit 44 inputs the data in the photographed image memory 30, and extracts the eyelid open / closed degree and the Y coordinate of the pupil according to the flow of FIG. That is, in a bright environment, the mountains P1, P2, P3, and P4 corresponding to the eyebrows, the eye region, the nostrils, and the mouth can be extracted separately as in the first embodiment, but they are slightly dark and the contrast ratio on the face becomes small. Then, if binarization is performed with the threshold value th2, a black region appears other than the eyebrows, the eye region, the nostrils, and the mouth as shown in FIG. 18, and the mountain P2 of the eye region can be specified even if Y-axis luminance projection is performed. Disappear.
As the feature extraction result, the bright feature extraction circuit 44 outputs the eyelid open / close degree corresponding to P2 when it can be detected, and outputs undetectable information when it cannot be detected. In FIG. 17, ST1
A face image is input at 0, and binarization processing is performed at threshold th2 at ST41. In ST42, the black pixel is projected in the Y-axis direction, and in ST70, the peak of the Y-axis projected image showing the black region is detected,
When the mountain is unclear, that is, when the number of black pixels in the projected image is 0 or less than 4, for example, it is determined in ST75 that the eye region cannot be detected. When the mountain is clear, that is, when there are four areas, the second mountain P2 is specified as the eye area in ST43. In ST71, it is determined whether or not the area of the mountain P2 in the eye region is larger than a predetermined value,
If it is larger, it is determined in ST73 that the eye is open, and the Y coordinate of the eye region and the width of the mountain corresponding to the degree of eyelid opening / closing are obtained from the projected image. If it is smaller than the upper limit, it is determined that the eyes are closed in ST72.
In ST74, the results of ST72, ST73, and ST75 are output to the selection circuit.

【0055】選択回路45は図19のフローに従い、暗
用特徴抽出回路43と明用特徴抽出回路44の出力結果
から一方の結果を選択する。本実施例では、明用の特徴
抽出結果が検出不能でない限り明用を選択し、明用の特
徴抽出結果が検出不能ならば暗用の検出結果を選択す
る。即ち、ST80で暗用特徴抽出回路43の抽出結果
を入力し、ST81で明用特徴抽出回路44の抽出結果
を入力する。ST82では明用の特徴抽出結果が検出可
能であれば、ST84で明用の特徴抽出結果を選択し、
明用の特徴抽出結果が検出不能ならばST83で暗用の
特徴抽出結果を選択する。ST85では選択した抽出結
果を覚醒度判定回路50に出力し、覚醒度判定回路5
0、及び警報発生回路51は上記抽出結果を用いて、例
えば図20に示すフローに従って居眠り状態を判断し、
警報を発生する。図20において、ST100で特徴抽
出回路41から瞳孔(または眼領域)の位置を入力し、
ST101ではこの位置を記憶する。ST102では上
記位置の5分間のデータを取り、ST103でこの5分
間のデータの平均値を求めることにより、標準瞳孔(眼
領域)高さを計算する。ST104では引続き、特徴抽
出回路41から瞳孔(または眼領域)の位置を入力し、
ST105で2分間のデータから得られる平均瞳孔(眼
領域)高さを計算する。ST106ではこの平均瞳孔
(眼領域)高さと前記標準瞳孔(眼領域)高さを比較
し、平均瞳孔(眼領域)高さが標準瞳孔(眼領域)高さ
より例えば5cm以上低い場合は居眠り状態と判断し
て、ST107でブザー(警報)を鳴らすようにする。
The selection circuit 45 selects one result from the output results of the dark feature extraction circuit 43 and the bright feature extraction circuit 44 according to the flow of FIG. In this embodiment, bright is selected unless the bright feature extraction result is undetectable, and if the bright feature extraction result is undetectable, the dark detection result is selected. That is, in ST80, the extraction result of the dark feature extraction circuit 43 is input, and in ST81, the extraction result of the bright feature extraction circuit 44 is input. If the bright feature extraction result can be detected in ST82, the bright feature extraction result is selected in ST84,
If the bright feature extraction result cannot be detected, the dark feature extraction result is selected in ST83. In ST85, the selected extraction result is output to the awakening degree determination circuit 50, and the awakening degree determination circuit 5
0, and the alarm generation circuit 51 determines the dozing state according to the flow shown in FIG.
Generate an alarm. In FIG. 20, in ST100, the position of the pupil (or eye region) is input from the feature extraction circuit 41,
At ST101, this position is stored. The standard pupil (eye region) height is calculated by taking data for 5 minutes at the above-mentioned position in ST102 and obtaining the average value of the data for 5 minutes in ST103. In ST104, the position of the pupil (or eye area) is continuously input from the feature extraction circuit 41,
In ST105, the average pupil (eye region) height obtained from the data for 2 minutes is calculated. In ST106, the average pupil (eye region) height is compared with the standard pupil (eye region) height, and when the average pupil (eye region) height is lower than the standard pupil (eye region) height by, for example, 5 cm or more, it is determined to be a dozing state. A judgment is made and a buzzer (alarm) is sounded in ST107.

【0056】このように本実施例では明暗状態に係わら
ず、明用と暗用の画像処理で特徴抽出を行ない、成功し
た特徴抽出結果を用いるので、実施例1に比べ、居眠り
判定の検出精度が上がる効果がある。
As described above, in the present embodiment, the feature extraction is performed by the light and dark image processing regardless of the light / dark state, and the successful feature extraction result is used. Is effective.

【0057】なお、上記実施例では開眼状態において瞳
孔または眼領域のY座標及び瞼開閉度も求め、覚醒度判
定回路で瞳孔または眼領域の位置により居眠りを判定し
たが、従来例及び実施例1〜5と同様、開閉状態のみを
抽出結果として出力し、これにより居眠りを判定しても
よい。
In the above embodiment, the Y-coordinate of the pupil or the eye region and the eyelid open / closed degree are also obtained in the opened state, and the awakening degree determination circuit determines the doze according to the position of the pupil or the eye region. Similar to 5 to 5, only the open / closed state may be output as the extraction result, and the dozing may be determined based on this.

【0058】また、上記実施例6では明用を優先的に選
択したが、暗用を優先的に選択しても良い。
In the sixth embodiment, the bright one is preferentially selected, but the dark one may be preferentially selected.

【0059】また、実施例6では暗用特徴抽出回路4
3、明用特徴抽出回路44は検出可能、検出不能の判断
により、開眼、閉眼、検出不能の3種類の結果を出力し
たが、暗用特徴抽出回路は (1) 瞳孔第1候補の開閉判定結果と位置 (2) (1)に加え、瞳孔瞳孔第2候補(図16でy
r2の位置のもの)の開閉判定結果と位置 (3)検出不能 というように投影像に対応して複数の候補も検出し、
(1)、(2)に対して、それぞれ開閉判断を実行して
も良い。従って検出結果は5種類となり、選択回路45
は複数の候補を入力する。
In the sixth embodiment, the dark feature extraction circuit 4
3. The bright feature extraction circuit 44 outputs three types of results, i.e., open eye, closed eye, and undetectable depending on whether it is detectable or undetectable, but the dark feature extraction circuit (1) determines whether the first candidate pupil is open or closed. Result and position (2) In addition to (1), the pupil second candidate pupil (y in FIG.
Open / closed judgment result (at the position of r2) and position (3) Multiple candidates are also detected corresponding to the projected image such as undetectable,
The open / close determination may be executed for each of (1) and (2). Therefore, there are five types of detection results, and the selection circuit 45
Enter multiple candidates.

【0060】選択回路45の動作を図21に示す。図2
1において、ST80で暗用特徴抽出回路43の抽出結
果を入力し、ST81で明用特徴抽出回路44の抽出結
果を入力する。ST86では暗用の特徴抽出結果が検出
不能ならば、ST84で明用の特徴抽出結果を選択す
る。一方、ST86で暗用の特徴抽出結果が検出可能で
あれば、ST110で第1候補のみ検出したかどうかを
判定し、第1候補のみが検出されたのならば、ST11
1で暗用の特徴抽出結果、即ち第1候補を選択する。第
1候補以外も検出されたのならば、ST82で、明用の
特徴抽出結果が検出可能かどうかを判定し、検出不能で
あれば、ST112で暗用特徴抽出結果の第1候補と第
2候補のうち、瞳孔の位置が前回の抽出結果に近い方の
候補を選択する。ST82で、検出可能と判定されれ
ば、ST113で暗用特徴抽出結果の第1候補と第2候
補のうち、瞳孔の位置が明用特徴抽出結果に近い方の候
補を選択する。ST85では選択した抽出結果を覚醒度
判定回路50に出力する。
The operation of the selection circuit 45 is shown in FIG. Figure 2
In ST1, the extraction result of the dark feature extraction circuit 43 is input in ST80, and the extraction result of the bright feature extraction circuit 44 is input in ST81. If the dark feature extraction result cannot be detected in ST86, the bright feature extraction result is selected in ST84. On the other hand, if the feature extraction result for darkness can be detected in ST86, it is determined in ST110 whether only the first candidate is detected. If only the first candidate is detected, ST11
At 1, the feature extraction result for darkness, that is, the first candidate is selected. If a candidate other than the first candidate is also detected, in ST82, it is determined whether or not the bright feature extraction result can be detected. If not, in ST112, the first candidate and the second dark feature extraction result are detected. Among the candidates, the candidate whose pupil position is closer to the previous extraction result is selected. If it is determined in ST82 that detection is possible, in ST113, the candidate having the closer pupil position to the bright feature extraction result is selected from the first candidate and the second candidate of the dark feature extraction result. In ST85, the selected extraction result is output to the awakening degree determination circuit 50.

【0061】このように第2候補も抽出してより確かな
抽出結果を選択することにより、検出精度が向上すると
ともに、明暗の中間領域でも特徴をよく捕まえることが
出来、検出不能領域が減る効果がある。
As described above, by extracting the second candidate and selecting a more reliable extraction result, the detection accuracy is improved, and the feature can be well captured even in the middle region of light and dark, and the undetectable region is reduced. There is.

【0062】実施例7.上記実施例6においては暗用の
画像処理と明用の画像処理を行い、各画像処理における
抽出結果を用いて1つの抽出結果を選択するようにした
が、この選択を実施例1と同様に、照度センサ20の出
力に応じて選択するようにしてもよい。図22はこの発
明の実施例7による居眠り検出装置を示す構成図であ
る。図22において、暗用特徴抽出回路43と明用特徴
抽出回路44の動作は実施例6と同一である。選択回路
45のフローを図23に示す。図23において、ST8
0で暗用特徴抽出回路43の抽出結果を入力し、ST8
1で明用特徴抽出回路44の抽出結果を入力する。ST
82で明用の特徴抽出結果が検出可能ならば、ST86
で暗用の特徴抽出結果が検出可能かどうかを判定する。
検出可能であれば、ST87で照度センサ20から明暗
信号を入力し、ST88では照度センサ20からの明暗
信号が明信号であるかどうかを判定する。明信号であれ
ばST84で明用特徴抽出回路44の抽出結果を選択す
る。暗信号であればST83で暗用特徴抽出回路43の
抽出結果を選択する。一方、ST82で明用の特徴抽出
結果が検出不能ならば、ST83で暗用特徴抽出回路4
3の抽出結果を選択する。ST85ではST83または
ST84で選択した抽出結果を覚醒度判定回路50に出
力する。
Example 7. In the sixth embodiment, the image processing for darkness and the image processing for light are performed, and one extraction result is selected using the extraction results in each image processing. However, this selection is performed in the same manner as in the first embodiment. Alternatively, the selection may be made according to the output of the illuminance sensor 20. 22 is a block diagram showing a doze detection device according to a seventh embodiment of the present invention. In FIG. 22, the operations of the dark feature extraction circuit 43 and the bright feature extraction circuit 44 are the same as in the sixth embodiment. The flow of the selection circuit 45 is shown in FIG. In FIG. 23, ST8
When 0, the extraction result of the darkness feature extraction circuit 43 is input, and ST8
At 1, the extraction result of the bright feature extraction circuit 44 is input. ST
If the bright feature extraction result can be detected in 82, ST86
Check whether the feature extraction result for darkness can be detected.
If it can be detected, the brightness signal is input from the illuminance sensor 20 in ST87, and it is determined in ST88 whether the brightness signal from the illuminance sensor 20 is a bright signal. If it is a bright signal, the extraction result of the bright feature extraction circuit 44 is selected in ST84. If it is a dark signal, the extraction result of the dark feature extraction circuit 43 is selected in ST83. On the other hand, if the bright feature extraction result cannot be detected in ST82, the dark feature extraction circuit 4 is operated in ST83.
Select the extraction result of 3. In ST85, the extraction result selected in ST83 or ST84 is output to the awakening degree determination circuit 50.

【0063】このようにすることにより、実施例1の効
果に加え、明用と暗用の画像処理の両方で特徴抽出可能
な場合、照度により、より正確な方を選択するので明と
暗の中間での環境において検出精度が上がる。
By doing so, in addition to the effect of the first embodiment, when features can be extracted by both bright and dark image processing, a more accurate one is selected depending on the illuminance, so that bright and dark can be selected. Detection accuracy increases in intermediate environments.

【0064】実施例8.上記実施例6では特徴抽出回路
41は、暗用の画像処理と明用の画像処理を行い、各画
像処理による抽出結果を用いて1つの抽出結果を選択す
るようにしたが、1つの画像処理による抽出結果に応じ
て、明暗いずれかの画像処理を選択し、最終的な抽出結
果を得るようにしてもよい。図24はこの発明の実施例
8による居眠り検出装置を示す構成図、図25は特徴抽
出回路41及び覚醒度判定回路50のフローである。図
25において、まずST90〜ST93で暗用の特徴抽
出を行う。ST94では、暗用の特徴抽出で瞳孔を検出
できたかを判定し、検出できていれば、以後ST10〜
ST14で暗用の特徴抽出を行い、この抽出結果を最終
的な抽出結果としてST20で上記各実施例と同様、居
眠り検出を行なう。即ち、連続して3秒以上閉眼情報が
入力されたかどうかを判断し、3秒以上閉眼状態であっ
たならば、居眠り状態であると判断し、ST21で警報
発生回路51に警報出力命令を出力する。閉眼状態が3
秒未満の時はST10に処理は移る。一方、ST94で
瞳孔が抽出できなければ、以後ST40〜ST44で明
用の特徴抽出を行い、この抽出結果を最終的な抽出結果
として、ST47で居眠り検出を行なう。即ち、連続し
て3秒以上閉眼情報が入力されたかどうかを判断し、3
秒以上閉眼状態であったならば、居眠り状態であると判
断し、ST48で警報発生回路51に警報出力命令を出
力する。閉眼状態が3秒未満の時はST40に処理は移
る。
Example 8. In the sixth embodiment, the feature extraction circuit 41 performs dark image processing and bright image processing, and selects one extraction result by using the extraction results of each image processing. It is also possible to select either the light or dark image processing according to the extraction result by (1) to obtain the final extraction result. FIG. 24 is a configuration diagram showing a doze detection device according to an eighth embodiment of the present invention, and FIG. 25 is a flow of the feature extraction circuit 41 and the awakening degree determination circuit 50. In FIG. 25, first, feature extraction for dark is performed in ST90 to ST93. In ST94, it is determined whether or not the pupil has been detected by the feature extraction for darkness.
In ST14, feature extraction for darkness is performed, and the result of this extraction is used as a final extraction result, and in ST20, doze detection is performed as in each of the above-described embodiments. That is, it is determined whether or not eye closing information is continuously input for 3 seconds or more, and if the eye closing state is 3 seconds or more, it is determined that the person is in a dozing state, and an alarm output command is output to the alarm generating circuit 51 in ST21. To do. Eye closed state is 3
If it is less than a second, the process moves to ST10. On the other hand, if the pupil cannot be extracted in ST94, bright feature extraction is performed in ST40 to ST44, and the dozing detection is performed in ST47 with this extraction result as the final extraction result. That is, it is judged whether or not the eye closing information is continuously input for 3 seconds or more, and 3
If the eyes are closed for more than a second, it is determined that the person is in the dozing state, and an alarm output command is output to the alarm generation circuit 51 in ST48. When the eye closed state is less than 3 seconds, the process proceeds to ST40.

【0065】このように、本実施例では暗用の画像処理
で特徴抽出が可能かどうかを判定して、以後の画像処理
方法を選択することにより、照度センサ等を用いずに安
価な装置で、実施例1と同様の効果がある。また、暗用
の画像処理を優先するので検出精度がよい。
As described above, in the present embodiment, it is determined whether or not the feature extraction is possible by the dark image processing, and the subsequent image processing method is selected. The same effect as the first embodiment is obtained. Further, since the dark image processing is prioritized, the detection accuracy is good.

【0066】なお、上記実施例8では、暗用の特徴抽出
で瞳孔を検出できるかどうかを、1回の特徴抽出処理だ
けで判定したが、1回だけではたまたま眼を閉じている
場合があるので、例えば2秒ほど暗用の特徴抽出処理を
行い、暗用が使用できるかどうかを判定しても良い。
In the eighth embodiment, whether or not the pupil can be detected by the feature extraction for darkness is determined by only one feature extraction process. However, it may happen that the eye is closed only once. Therefore, for example, the feature extraction processing for darkness may be performed for about 2 seconds to determine whether or not darkness can be used.

【0067】また、実施例8では、暗用の特徴抽出で瞳
孔を検出できるかどうかを判定した後は、明用か暗用か
一方に画像処理を固定したが、明用に固定した後も、例
えば10分に一回の頻度で暗用の特徴抽出処理を行い、
暗用が使用できるかどうかを再判定しても良い。
Further, in the eighth embodiment, after determining whether or not the pupil can be detected by the feature extraction for darkness, the image processing is fixed to one of bright and dark, but even after fixing to light. , For example, perform feature extraction processing for darkness once every 10 minutes,
You may re-determine whether dark use can be used.

【0068】また、実施例8では、暗用の画像処理で特
徴抽出ができるかどうかを判定したが、明用の画像処理
で特徴抽出ができるかどうかにより、以後の画像処理方
法を選択して、明用の画像処理を優先するようにしても
よい。
In the eighth embodiment, it is determined whether the feature extraction can be performed by the dark image processing. However, the subsequent image processing method is selected depending on whether the feature extraction can be performed by the bright image processing. The bright image processing may be prioritized.

【0069】実施例9.図26はこの発明の実施例9に
よる居眠り検出装置に係わる特徴抽出回路41及び覚醒
度判定回路50のフローである。なお、居眠り検出装置
の構成は図24と同様の構成である。瞳孔は明るいと小
さく、暗いと大きくなることから、本実施例において
は、明暗いずれかに応じた画像処理で抽出された瞳孔の
大きさが小さい場合は、明用の画像処理、及び明用の画
像処理による抽出結果を選択し、抽出された瞳孔の大き
さが大きい場合は、暗用の画像処理、及び暗用の画像処
理による抽出結果を選択するようにしたものである。図
26において、まずST90〜ST93で暗用の画像処
理で瞳孔を抽出し、ST95でY軸方向の投影像におけ
る幅を検出することにより、瞳孔の径を求め、ST96
で瞳孔直径が例えば4mm以上で有ればST10〜ST
14で暗用、未満で有ればST40〜ST44で明用の
画像処理を実行する。以下の動作は各々実施例8と同じ
である。
Example 9. FIG. 26 is a flow chart of the feature extraction circuit 41 and the awakening degree determination circuit 50 related to the doze detection device according to the ninth embodiment of the present invention. Note that the configuration of the doze detection device is the same as that of FIG. Since the pupil is small when it is bright and becomes large when it is dark, in the present embodiment, when the size of the pupil extracted by the image processing according to either light or dark is small, the image processing for light and the image processing for light are performed. The extraction result by the image processing is selected, and when the size of the extracted pupil is large, the image processing for darkness and the extraction result by the image processing for darkness are selected. In FIG. 26, first, in ST90 to ST93, the pupil is extracted by image processing for darkness, and in ST95, the width of the projected image in the Y-axis direction is detected to obtain the diameter of the pupil.
If the pupil diameter is, for example, 4 mm or more, ST10 to ST
The image processing for dark is executed at 14, and if less, the image processing for light is executed at ST40 to ST44. The following operation is the same as that of the eighth embodiment.

【0070】このように、明用あるいは暗用の画像処理
を選択する際に、瞳孔の大きさによって選択しているの
で、特徴抽出の精度が上がるとともに、照度センサ等を
用いずに安価な装置で、実施例1と同様の効果がある。
As described above, when the bright or dark image processing is selected according to the size of the pupil, the accuracy of feature extraction is improved, and an inexpensive device without using an illuminance sensor or the like is used. Then, the same effect as the first embodiment is obtained.

【0071】なお、上記実施例では瞳孔の大きさにより
画像処理方法を選択したが、図14と同様の構成とし、
明用特徴抽出回路と暗用特徴抽出回路の抽出結果を、い
ずれかの回路で得られた瞳孔の大きさにより選択するよ
うにしても同様の効果がある。
Although the image processing method is selected according to the size of the pupil in the above embodiment, the same configuration as that shown in FIG.
The same effect can be obtained by selecting the extraction results of the bright feature extraction circuit and the dark feature extraction circuit according to the size of the pupil obtained by either circuit.

【0072】実施例10.図27はこの発明の実施例1
0による居眠り検出装置を示す構成図である。図27に
おいて、16はシャッタスピード設定回路であり、照度
センサ20からの明暗情報を入力し、照度が一定以下だ
とCCDカメラ10のシャッタスピードを遅くする。ま
た照度が一定以上だとCCDカメラ10のシャッタスピ
ードを早くする。その他の動作は実施例1と同様であ
る。
Example 10. FIG. 27 shows the first embodiment of the present invention.
It is a block diagram which shows the drowsiness detection apparatus by 0. In FIG. 27, reference numeral 16 denotes a shutter speed setting circuit, which inputs light / dark information from the illuminance sensor 20 and slows the shutter speed of the CCD camera 10 when the illuminance is below a certain level. If the illuminance is above a certain level, the shutter speed of the CCD camera 10 is increased. Other operations are the same as those in the first embodiment.

【0073】このように本実施例では、明暗に応じてC
CDカメラのシャッタスピードを変更するので、実施例
1の効果に加えて、入力画像の質が向上し、特徴抽出精
度が向上する。
As described above, in this embodiment, C
Since the shutter speed of the CD camera is changed, the quality of the input image is improved and the feature extraction accuracy is improved in addition to the effect of the first embodiment.

【0074】実施例11.図28はこの発明の実施例1
1による居眠り検出装置を示す構成図である。図28に
おいて、17はCCDカメラ10に装着する光学フィル
タを可視光カットフィルタ11にするか赤外線カットフ
ィルタ18にするかを切り替えるフィルタ交換回路であ
る。フィルタ交換回路17は照度センサ20からの明暗
情報を入力し、照度が一定以下だと可視光カットフィル
タ11を選択し、照度が一定以上だと赤外線カットフィ
ルタ18を選択する。その他の動作は実施例1と同様で
ある。
Example 11. 28 is a first embodiment of the present invention.
It is a block diagram which shows the drowsiness detection apparatus by 1. In FIG. 28, reference numeral 17 is a filter exchange circuit for switching between the visible light cut filter 11 and the infrared cut filter 18 as the optical filter mounted on the CCD camera 10. The filter exchange circuit 17 inputs the light / dark information from the illuminance sensor 20, selects the visible light cut filter 11 when the illuminance is below a certain level, and selects the infrared cut filter 18 when the illuminance is above a certain level. Other operations are the same as those in the first embodiment.

【0075】このように本実施例では、明るい場合は可
視光で撮影するのでコントラストの良い画像が得られ、
明用の検出精度が上がる。
As described above, in this embodiment, when the image is bright, the image is taken with visible light, so that an image with good contrast can be obtained.
Increased detection accuracy for light.

【0076】なお、上記実施例11では明暗に応じて光
学フィルタを交換したが、可視光カットフィルタを備え
た同軸落射撮影系と、赤外カットフィルタを備えたハー
フミラーのない非同軸の撮影系との2つの撮影系を備
え、暗い時は同軸落射撮影系で撮影し、明るい時は非同
軸の撮影系で撮影するように切り替えても良い。このよ
うにすれば、フィルタ交換の回路が省け、明状態の時ハ
ーフミラーを通さず撮影するので画像の質が上がる。
In the eleventh embodiment, the optical filters are exchanged according to the light and darkness. However, the coaxial incident-light photographing system having a visible light cut filter and the non-coaxial photographing system having an infrared cut filter without a half mirror are used. It is also possible to switch between shooting with a coaxial shooting system when dark and shooting with a non-coaxial shooting system when bright. In this way, the circuit for filter replacement can be omitted, and the image quality is improved because the image is taken without passing through the half mirror in the bright state.

【0077】また、上記実施例10、11では実施例1
に示した照度センサ20の明暗情報を基に光入力手段の
撮影条件を制御したが、実施例2ないし9に示した光入
力手段15、スイッチ21、明暗度判定手段42、また
は特徴抽出手段41のいずれかから明暗情報を取り出し
て、上記撮影条件を変更するようにしてもよい。
In the tenth and eleventh embodiments, the first embodiment is used.
Although the photographing conditions of the light input means are controlled based on the brightness information of the illuminance sensor 20 shown in FIG. 5, the light input means 15, the switch 21, the brightness determination means 42, or the feature extraction means 41 described in the second to ninth embodiments. Brightness information may be extracted from any of the above to change the above-mentioned shooting conditions.

【0078】実施例12.図29はこの発明の実施例1
2による居眠り検出装置を示す構成図である。図29に
おいて、LED駆動回路14は照度センサ20からの明
暗情報を入力し、照度が一定以下だと赤外線LED13
をオンし、照度が一定以上だと赤外線LED13をオフ
する。その他の動作は実施例1と同様である。
Example 12. FIG. 29 is a first embodiment of the present invention.
It is a block diagram which shows the drowsiness detection apparatus by 2. In FIG. 29, the LED drive circuit 14 inputs the brightness information from the illuminance sensor 20, and if the illuminance is below a certain level, the infrared LED 13
Is turned on, and when the illuminance is above a certain level, the infrared LED 13 is turned off. Other operations are the same as those in the first embodiment.

【0079】このように本実施例では、暗い場合のみ赤
外線で照明するので、検出対象者を煩わせることなく顔
画像を確実に得ることができる。また、明るい場合は照
明しないので消費電力を節約できる。
As described above, in this embodiment, since the infrared light is illuminated only in the dark, the face image can be surely obtained without bothering the detection target person. Further, when it is bright, no lighting is performed, so that power consumption can be saved.

【0080】なお、上記実施例12では明暗に応じて光
学LEDのオンオフを制御したが、ハーフミラーを移動
する機構を設けて、暗の場合は同軸落射に、明の場合は
ハーフミラーを通さず直接被験者を撮影するようにして
もよい。このようにすれば明状態の時、ハーフミラーを
通さず撮影するので画像の質が上がる。
In the twelfth embodiment, the ON / OFF of the optical LED is controlled according to the light and dark. However, a mechanism for moving the half mirror is provided so that the coaxial epi-illumination is performed in the dark and the half mirror is not passed in the light. The subject may be photographed directly. In this way, in the bright state, the image quality is improved because the image is taken without passing through the half mirror.

【0081】また、上記実施例12では実施例1に示し
た照度センサ20の明暗情報を基に照明手段の照明条件
を制御したが、実施例2ないし9に示した光入力手段1
5、スイッチ21、明暗度判定手段42、または特徴抽
出手段41のいずれかから明暗情報を取り出して、上記
照明条件を変更するようにしてもよい。
In the twelfth embodiment, the illumination condition of the illumination means is controlled based on the brightness information of the illuminance sensor 20 shown in the first embodiment, but the light input means 1 shown in the second to ninth embodiments.
The illumination condition may be changed by extracting the brightness information from any one of the switch 5, the brightness 21, the brightness determination unit 42, or the feature extraction unit 41.

【0082】なお、上記各実施例においてカメラはCC
Dにこだわらない。例えばCIDカメラでも良い。
In each of the above embodiments, the camera is CC
Don't worry about D. For example, a CID camera may be used.

【0083】また、撮影系は一つのカメラで説明した
が、複数の同軸落射照明とカメラのセットでも良い。
Further, although the image pickup system is described as a single camera, a set of a plurality of coaxial incident illuminations and cameras may be used.

【0084】また、同軸落射照明はハーフミラーの場合
のみを示したが、同軸落射で有ればこのような構造にこ
だわらない。例えばカメラのレンズ中心に発光素子があ
り、運転者を直接照射する構造にしても良い。
The coaxial epi-illumination is shown only in the case of the half mirror, but the coaxial epi-illumination is not limited to such a structure. For example, a light emitting element may be provided at the center of the lens of the camera, and the driver may be directly illuminated.

【0085】[0085]

【発明の効果】以上のように、この発明の請求項1によ
れば、検出対象者の顔面を含む所定の領域の像を入力す
る光入力手段、上記検出対象者を照明し、上記検出対象
者と上記光入力手段とを結ぶ光軸と、照明光照明方向と
が少なくとも上記検出対象者近傍においてほぼ同軸とな
るように配置された照明手段、検出対象者の周辺の明暗
を検出する明暗検出手段、及び上記光入力手段から出力
される上記検出対象者の撮影画像から顔面上の特徴を、
明暗に応じた2つ以上の画像処理で抽出可能であるとと
もに、上記明暗検出手段が出力する明暗信号により2つ
以上の画像処理の中から1つの画像処理を選択、または
2つ以上の画像処理による抽出結果の中から1つの抽出
結果を選択する特徴抽出手段を備えたので、明るい条件
でも、暗い条件でも検出対象者の顔面上の特徴を比較的
短時間で検出することができる。
As described above, according to the first aspect of the present invention, the light input means for inputting the image of the predetermined area including the face of the detection target person, the illumination of the detection target person, and the detection target And an optical axis connecting the person and the light input means, and an illumination means arranged so that the illumination light illumination direction is substantially coaxial at least in the vicinity of the detection target person, and a light-dark detection for detecting light and dark around the detection target person. Means and a feature on the face from the photographed image of the person to be detected output from the optical input means,
The image can be extracted by two or more image processes depending on the light and dark, and one image process is selected from the two or more image processes by the light and dark signal output from the light and dark detecting means, or two or more image processes. Since the feature extraction means for selecting one extraction result from among the extraction results according to 1. is provided, the features on the face of the detection target person can be detected in a relatively short time under both bright and dark conditions.

【0086】また、請求項2によれば、検出対象者の顔
面を含む所定の領域の像を入力するとともに、入力した
画像の明暗を示す明暗信号を出力する光入力手段、上記
検出対象者を照明し、上記検出対象者と上記光入力手段
とを結ぶ光軸と、照明光照明方向とが少なくとも上記検
出対象者近傍においてほぼ同軸となるように配置された
照明手段、及び上記光入力手段から出力される上記検出
対象者の撮影画像から顔面上の特徴を、明暗に応じた2
つ以上の画像処理で抽出可能であるとともに、上記光入
力手段が出力する上記明暗信号により2つ以上の画像処
理の中から1つの画像処理を選択、または2つ以上の画
像処理による抽出結果の中から1つの抽出結果を選択す
る特徴抽出手段を備えたので、上記と同様、明るい条件
でも、暗い条件でも検出対象者の顔面上の特徴を比較的
短時間で検出することができる。
According to a second aspect of the present invention, the light input means for inputting an image of a predetermined region including the face of the person to be detected and outputting a light / dark signal indicating the light / dark of the inputted image, From the light inputting means, which is illuminated, the optical axis connecting the detection target person and the light input means, and the illumination means arranged so that the illumination light illumination direction is substantially coaxial at least in the vicinity of the detection target person. From the captured image of the person to be detected that is output, the facial features can be determined according to the lightness and darkness.
The image can be extracted by one or more image processes, and one image process is selected from two or more image processes by the light / dark signal output by the light input unit, or an extraction result of two or more image processes is displayed. Since the feature extraction means for selecting one of the extraction results is provided, the features on the face of the detection target person can be detected in a relatively short time under both bright and dark conditions, as described above.

【0087】また、請求項3によれば、検出対象者の顔
面を含む所定の領域の像を入力する光入力手段、上記検
出対象者を照明し、上記検出対象者と上記光入力手段と
を結ぶ光軸と、照明光照明方向とが少なくとも上記検出
対象者近傍においてほぼ同軸となるように配置された照
明手段、上記検出対象者または他の人物が明暗に対応し
て切り替えることにより明暗に対応した信号を出力する
スイッチ、及び上記光入力手段から出力される上記検出
対象者の撮影画像から顔面上の特徴を、明暗に応じた2
つ以上の画像処理で抽出可能であるとともに、上記スイ
ッチが出力する明暗信号により上記2つ以上の画像処理
の中から1つの画像処理を選択、または上記2つ以上の
画像処理による抽出結果の中から1つの抽出結果を選択
する特徴抽出手段を備えたので、上記と同様、明るい条
件でも、暗い条件でも検出対象者の顔面上の特徴を比較
的短時間で検出することができる。
According to a third aspect of the present invention, light input means for inputting an image of a predetermined area including the face of the detection target person, the detection target person is illuminated, and the detection target person and the light input means are connected to each other. Illuminating means arranged so that the optical axis to be connected and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and the detection target person or other person responds to light and dark by switching in correspondence with light and dark. The switch for outputting the signal, and the feature on the face from the photographed image of the person to be detected output from the light input means, according to the brightness.
The image can be extracted by one or more image processes, and one image process is selected from the two or more image processes by the brightness signal output from the switch, or the extraction result by the two or more image processes is selected. Since the feature extraction means for selecting one of the extraction results is provided, similar to the above, the feature on the face of the detection target person can be detected in a relatively short time under both bright and dark conditions.

【0088】また、請求項4によれば、検出対象者の顔
面を含む所定の領域の像を入力する光入力手段、上記検
出対象者を照明し、上記検出対象者と上記光入力手段と
を結ぶ光軸と、照明光照明方向とが少なくとも上記検出
対象者近傍においてほぼ同軸となるように配置された照
明手段、上記光入力手段から出力される上記検出対象者
の画像信号を用いて撮影画像の明暗を判定する明暗度判
定手段、及び上記光入力手段から出力される上記検出対
象者の撮影画像から顔面上の特徴を、明暗に応じた2つ
以上の画像処理で抽出可能であるとともに、上記明暗度
判定手段が出力する明暗信号により上記2つ以上の画像
処理の中から1つの画像処理を選択、または上記2つ以
上の画像処理による抽出結果の中から1つの抽出結果を
選択する特徴抽出手段を備えたので、上記と同様、明る
い条件でも、暗い条件でも検出対象者の顔面上の特徴を
比較的短時間で検出することができる。
According to a fourth aspect of the present invention, light input means for inputting an image of a predetermined area including the face of the detection target person, the detection target person is illuminated, and the detection target person and the light input means are connected to each other. Illumination means arranged so that the optical axis to be connected and the illumination light illumination direction are substantially coaxial at least in the vicinity of the detection target person, and a captured image using the image signal of the detection target person output from the light input means Intensity determination means for determining the lightness and darkness, and facial features from the photographed image of the detection target person output from the light input means can be extracted by two or more image processes according to the lightness and darkness, A feature that one image processing is selected from the two or more image processings or one extraction result is selected from the extraction results by the two or more image processings by the brightness signal output from the brightness determining means. Extraction Because with a stage, as described above, even in bright conditions, can be detected in a relatively short time features on the face of the detection subject in dark conditions.

【0089】また、請求項5によれば、各特徴抽出手段
において、暗信号が入力された時は網膜反射像による瞳
孔抽出を行い、明信号が入力された時は鼻孔抽出を行な
うようにしたので、種々の特徴抽出ができる。
Further, according to the fifth aspect, in each feature extraction means, when the dark signal is input, the pupil is extracted by the retina reflection image, and when the bright signal is input, the nostril is extracted. Therefore, various feature extractions can be performed.

【0090】また、請求項6によれば、検出対象者の顔
面を含む所定の領域の像を入力する光入力手段、上記検
出対象者を照明し、上記検出対象者と上記光入力手段と
を結ぶ光軸と、照明光照明方向とが少なくとも上記検出
対象者近傍においてほぼ同軸となるように配置された照
明手段、及び上記光入力手段から出力される上記検出対
象者の撮影画像から顔面上の特徴を、明暗に応じた2つ
以上の画像処理で抽出可能であるとともに、上記画像処
理による抽出結果に応じて最終的な抽出結果を選択する
特徴抽出手段を備えたので、上記と同様、明るい条件で
も、暗い条件でも検出対象者の顔面上の特徴を比較的短
時間で検出することができ、さらには一旦画像処理を行
なって抽出結果を導き、これにより最終的な抽出結果を
出力するので検出精度が上がる。
According to a sixth aspect of the present invention, light input means for inputting an image of a predetermined region including the face of the detection target person, the detection target person is illuminated, and the detection target person and the light input means are connected to each other. The illuminating means arranged so that the optical axis to be connected and the illumination light illuminating direction are substantially coaxial at least in the vicinity of the detection target person, and on the face from the photographed image of the detection target person output from the light input means. The feature can be extracted by two or more image processes depending on the brightness and the feature extraction means for selecting the final extraction result according to the extraction result by the image process is provided. The feature on the face of the detection target person can be detected in a relatively short time under both the dark condition and the condition. Furthermore, the image extraction is performed once to derive the extraction result, and the final extraction result is output. detection Degree is increased.

【0091】また、請求項7によれば、暗用の画像処理
により瞳孔が検出できない場合は、明用の画像処理によ
る抽出結果を選択するように動作するので、さらに検出
精度が上がる。
According to the seventh aspect, when the pupil cannot be detected by the dark image processing, the operation is performed so as to select the extraction result by the bright image processing, so that the detection accuracy is further improved.

【0092】また、請求項8によれば、瞳孔の大きさを
明暗いずれかの画像処理で求め、明暗情報を瞳孔の大き
さから得るようにしたので、上記と同様、明るい条件で
も、暗い条件でも検出対象者の顔面上の特徴を比較的短
時間で、精度良く検出することができる。
According to the eighth aspect, since the size of the pupil is obtained by image processing of either light or dark, and the light and dark information is obtained from the size of the pupil, the bright condition and the dark condition are the same as above. However, the feature on the face of the person to be detected can be detected accurately in a relatively short time.

【0093】また、請求項9によれば、明暗検出手段、
光入力手段、スイッチ、明暗度判定手段、または特徴抽
出手段のいずれかから明暗情報を取り出して、光入力手
段の撮影条件、または照明手段の照明条件を変更するよ
うにしたので、さらに検出精度が上がる効果がある。
According to a ninth aspect, the light / dark detecting means,
Since the light / dark information is taken out from any one of the light input means, the switch, the brightness determination means, or the feature extraction means to change the photographing condition of the light input means or the illumination condition of the illumination means, the detection accuracy is further improved. Has the effect of increasing.

【0094】また、請求項10によれば、明暗情報が明
の場合は照明光をオフにし、明暗情報が暗の場合は照明
光をオンにしたので、明るいときに不要な照明電力を使
うことがない。
According to the tenth aspect, since the illumination light is turned off when the light and dark information is bright, and the illumination light is turned on when the light and dark information is dark, unnecessary illumination power is used when it is bright. There is no.

【0095】また、請求項11によれば、上記各構成の
画像処理装置から出力される抽出結果をもちいて、人物
状態を判定するようにしたので、明暗に係わらず人物の
状態を検出する装置が得られる効果がある。
Further, according to the eleventh aspect, since the person state is determined by using the extraction result output from the image processing apparatus having each of the above-described configurations, the apparatus for detecting the person state regardless of light and dark. There is an effect that can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施例1による居眠り検出装置を
示す構成図である。
FIG. 1 is a configuration diagram showing a doze detection device according to a first embodiment of the present invention.

【図2】 この発明の実施例1に係わる特徴抽出回路と
覚醒度判定回路の動作を示すフローチャートである。
FIG. 2 is a flowchart showing the operations of the feature extraction circuit and the awakening degree determination circuit according to the first embodiment of the present invention.

【図3】 この発明の実施例1による居眠り検出装置の
動作を説明する説明図である。
FIG. 3 is an explanatory diagram illustrating an operation of the doze detection device according to the first embodiment of the present invention.

【図4】 この発明の実施例1による居眠り検出装置の
動作を説明する説明図である。
FIG. 4 is an explanatory diagram illustrating an operation of the doze detection device according to the first embodiment of the present invention.

【図5】 この発明の実施例2による脇見検出装置を示
す構成図である。
FIG. 5 is a configuration diagram showing an inattentiveness detection device according to Embodiment 2 of the present invention.

【図6】 この発明の実施例2に係わる特徴抽出回路と
脇見判定回路の動作を示すフローチャートである。
FIG. 6 is a flowchart showing the operations of the feature extraction circuit and the inattentiveness judgment circuit according to the second embodiment of the present invention.

【図7】 この発明の実施例2による脇見検出装置の動
作を説明する説明図である。
FIG. 7 is an explanatory diagram illustrating an operation of the inattentiveness detection device according to the second embodiment of the present invention.

【図8】 この発明の実施例2による脇見検出装置の動
作を説明する説明図である。
FIG. 8 is an explanatory diagram illustrating an operation of the inattentiveness detection device according to the second embodiment of the present invention.

【図9】 この発明の実施例3による居眠り検出装置を
示す構成図である。
FIG. 9 is a configuration diagram showing a doze detection device according to a third embodiment of the present invention.

【図10】 この発明の実施例4による居眠り検出装置
を示す構成図である。
FIG. 10 is a configuration diagram showing a doze detection device according to a fourth embodiment of the present invention.

【図11】 この発明の実施例4による居眠り検出装置
を車載した自動車を示す部分構成図である。
FIG. 11 is a partial configuration diagram showing an automobile equipped with a drowsiness detection device according to a fourth embodiment of the present invention.

【図12】 この発明の実施例5による居眠り検出装置
を示す構成図である。
FIG. 12 is a configuration diagram showing a doze detection device according to a fifth embodiment of the present invention.

【図13】 この発明の実施例5による他の居眠り検出
装置を示す構成図である。
FIG. 13 is a configuration diagram showing another doze detection device according to the fifth embodiment of the present invention.

【図14】 この発明の実施例6による居眠り検出装置
を示す構成図である。
FIG. 14 is a configuration diagram showing a doze detection device according to a sixth embodiment of the present invention.

【図15】 この発明の実施例6に係わる暗用特徴抽出
回路の動作を示すフローチャートである。
FIG. 15 is a flowchart showing the operation of the darkness feature extraction circuit according to the sixth embodiment of the present invention.

【図16】 この発明の実施例6による居眠り検出装置
の動作を説明する説明図である。
FIG. 16 is an explanatory diagram illustrating an operation of the doze detection device according to the sixth embodiment of the present invention.

【図17】 この発明の実施例6に係わる明用特徴抽出
回路の動作を示すフローチャートである。
FIG. 17 is a flowchart showing the operation of the bright feature extraction circuit according to the sixth embodiment of the present invention.

【図18】 この発明の実施例6による居眠り検出装置
の動作を説明する説明図である。
FIG. 18 is an explanatory diagram illustrating an operation of the doze detection device according to the sixth embodiment of the present invention.

【図19】 この発明の実施例6に係わる選択回路の動
作を示すフローチャートである。
FIG. 19 is a flowchart showing the operation of the selection circuit according to the sixth embodiment of the present invention.

【図20】 この発明の実施例6に係わる覚醒度判定回
路の動作を示すフローチャートである。
FIG. 20 is a flow chart showing the operation of the awakening degree judgment circuit according to the sixth embodiment of the present invention.

【図21】 この発明の実施例6に係わる他の選択回路
の動作を示すフローチャートである。
FIG. 21 is a flowchart showing the operation of another selection circuit according to the sixth embodiment of the present invention.

【図22】 この発明の実施例7による居眠り検出装置
を示す構成図である。
FIG. 22 is a configuration diagram showing a doze detection device according to a seventh embodiment of the present invention.

【図23】 この発明の実施例7に係わる選択回路の動
作を示すフローチャートである。
FIG. 23 is a flowchart showing the operation of the selection circuit according to the seventh embodiment of the present invention.

【図24】 この発明の実施例8による居眠り検出装置
を示す構成図である。
FIG. 24 is a configuration diagram showing a doze detection device according to an eighth embodiment of the present invention.

【図25】 この発明の実施例8に係わる特徴抽出回路
と覚醒度判定回路の動作を示すフローチャートである。
FIG. 25 is a flowchart showing the operations of the feature extraction circuit and the awakening degree determination circuit according to the eighth embodiment of the present invention.

【図26】 この発明の実施例9に係わる特徴抽出回路
と覚醒度判定回路の動作を示すフローチャートである。
FIG. 26 is a flowchart showing the operations of the feature extraction circuit and the awakening degree determination circuit according to the ninth embodiment of the present invention.

【図27】 この発明の実施例10による居眠り検出装
置を示す構成図である。
FIG. 27 is a configuration diagram showing a doze detection device according to a tenth embodiment of the present invention.

【図28】 この発明の実施例11による居眠り検出装
置を示す構成図である。
FIG. 28 is a configuration diagram showing a doze detection device according to an eleventh embodiment of the present invention.

【図29】 この発明の実施例12による居眠り検出装
置を示す構成図である。
FIG. 29 is a configuration diagram showing a doze detection device according to a twelfth embodiment of the present invention.

【図30】 従来の目の位置検出装置を示す構成図であ
る。
FIG. 30 is a configuration diagram showing a conventional eye position detecting device.

【図31】 従来の居眠り検出装置を示す構成図であ
る。
FIG. 31 is a configuration diagram showing a conventional drowsiness detection device.

【図32】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 32 is an explanatory diagram illustrating an operation of the conventional doze detection device.

【図33】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 33 is an explanatory diagram illustrating an operation of the conventional drowsiness detection device.

【図34】 従来の居眠り検出装置の動作を示すフロー
チャートである。
FIG. 34 is a flowchart showing an operation of the conventional doze detection device.

【図35】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 35 is an explanatory diagram illustrating an operation of the conventional doze detection device.

【図36】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 36 is an explanatory diagram illustrating an operation of the conventional drowsiness detection device.

【図37】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 37 is an explanatory diagram illustrating an operation of the conventional drowsiness detection device.

【符号の説明】[Explanation of symbols]

1 検出対象者、3 鼻孔、6 瞳孔、8 眼領域、1
0 CCDカメラ、12ハーフミラー、13 赤外線L
ED、15 AGC付きCCDカメラ、16シャッタス
ピード設定回路、17 フィルタ交換回路、18 赤外
線カットフィルタ、20 照度センサ、21 明暗スイ
ッチ、22 ヘッドライトスイッチ、30 撮影画像入
力メモリ、31 タイミング発生回路、41 特徴抽出
回路、42 明暗判定回路、43 暗用特徴抽出回路、
44 明用特徴抽出回路、45選択回路、50 覚醒度
判定回路、51 警報発生回路、52 脇見判定回路。
1 detection target person, 3 nostrils, 6 pupils, 8 eye regions, 1
0 CCD camera, 12 half mirror, 13 infrared L
ED, 15 CCD camera with AGC, 16 shutter speed setting circuit, 17 filter exchange circuit, 18 infrared cut filter, 20 illuminance sensor, 21 light / dark switch, 22 headlight switch, 30 photographed image input memory, 31 timing generation circuit, 41 Features Extraction circuit, 42 brightness determination circuit, 43 darkness feature extraction circuit,
44 bright feature extraction circuit, 45 selection circuit, 50 awakening degree determination circuit, 51 alarm generation circuit, 52 inattentive determination circuit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐竹 敏英 尼崎市塚口本町8丁目1番1号 三菱電機 株式会社産業システム研究所内 (72)発明者 小河 賢二 姫路市千代田町840番地 三菱電機株式会 社姫路製作所内 (72)発明者 鈴木 尋善 姫路市千代田町840番地 三菱電機株式会 社姫路製作所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshihide Satake 8-1-1 Tsukaguchihonmachi, Amagasaki City Mitsubishi Electric Corporation Industrial Systems Research Institute (72) Kenji Ogawa 840 Chiyoda-cho, Himeji City Mitsubishi Electric Corporation Himeji Works (72) Inventor Hiroyoshi Suzuki 840 Chiyoda-cho, Himeji City Mitsubishi Electric Corporation Himeji Works

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、上記検出対象者
の周辺の明暗を検出する明暗検出手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から顔面
上の特徴を、明暗に応じた2つ以上の画像処理で抽出可
能であるとともに、上記明暗検出手段が出力する明暗信
号により上記2つ以上の画像処理の中から1つの画像処
理を選択、または上記2つ以上の画像処理による抽出結
果の中から1つの抽出結果を選択する特徴抽出手段を備
えた画像処理装置。
1. An optical input unit for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person, and connecting the detection target person and the light input unit, and illumination light. Illuminating means arranged so that the illumination direction is substantially coaxial at least in the vicinity of the person to be detected, brightness detection means for detecting light and dark around the person to be detected, and the detection object output from the light input means. It is possible to extract facial features from a photographed image of a person by two or more image processes depending on the light and dark, and one of the two or more image processes is performed by the light and dark signal output from the light and dark detecting means. An image processing apparatus provided with a feature extraction means for selecting image processing or selecting one extraction result from the extraction results of the two or more image processing.
【請求項2】 検出対象者の顔面を含む所定の領域の像
を入力するとともに、入力した画像の明暗を示す明暗信
号を出力する光入力手段、上記検出対象者を照明し、上
記検出対象者と上記光入力手段とを結ぶ光軸と、照明光
照明方向とが少なくとも上記検出対象者近傍においてほ
ぼ同軸となるように配置された照明手段、及び上記光入
力手段から出力される上記検出対象者の撮影画像から顔
面上の特徴を、明暗に応じた2つ以上の画像処理で抽出
可能であるとともに、上記光入力手段が出力する上記明
暗信号により上記2つ以上の画像処理の中から1つの画
像処理を選択、または上記2つ以上の画像処理による抽
出結果の中から1つの抽出結果を選択する特徴抽出手段
を備えた画像処理装置。
2. An optical input means for inputting an image of a predetermined area including a face of a detection target person and outputting a light / dark signal indicating the brightness of the input image, illuminating the detection target person, and the detection target person. And an optical axis connecting the optical input means and the illumination light illumination direction are arranged so as to be substantially coaxial at least in the vicinity of the detection target person, and the detection target person output from the light input means. The facial features can be extracted from the captured image by two or more image processes depending on the brightness and one of the two or more image processes by the light / dark signal output by the light input unit. An image processing apparatus provided with a feature extraction means for selecting image processing or selecting one extraction result from the extraction results of the two or more image processing.
【請求項3】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、上記検出対象者
または他の人物が明暗に対応して切り替えることにより
明暗に対応した信号を出力するスイッチ、及び上記光入
力手段から出力される上記検出対象者の撮影画像から顔
面上の特徴を、明暗に応じた2つ以上の画像処理で抽出
可能であるとともに、上記スイッチが出力する明暗信号
により上記2つ以上の画像処理の中から1つの画像処理
を選択、または上記2つ以上の画像処理による抽出結果
の中から1つの抽出結果を選択する特徴抽出手段を備え
た画像処理装置。
3. An optical input means for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person and connecting the detection target person and the light input means, and illumination light. Illumination means and illumination means arranged so as to be substantially coaxial at least in the vicinity of the detection target person, a switch for outputting a signal corresponding to the light and dark by switching the detection target person or other person corresponding to the light and dark, And the feature on the face can be extracted from the photographed image of the person to be detected output from the light input unit by two or more image processes depending on the brightness, and the brightness / darkness signal output from the switch can be used to An image processing apparatus comprising a feature extraction means for selecting one image processing from one or more image processings or selecting one extraction result from extraction results by the two or more image processings.
【請求項4】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、上記光入力手段
から出力される上記検出対象者の画像信号を用いて撮影
画像の明暗を判定する明暗度判定手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から顔面
上の特徴を、明暗に応じた2つ以上の画像処理で抽出可
能であるとともに、上記明暗度判定手段が出力する明暗
信号により上記2つ以上の画像処理の中から1つの画像
処理を選択、または上記2つ以上の画像処理による抽出
結果の中から1つの抽出結果を選択する特徴抽出手段を
備えた画像処理装置。
4. An optical input means for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person, and connecting the detection target person and the light input means, and illumination light. Illumination means arranged so that the illumination direction is substantially coaxial at least in the vicinity of the detection target person, and the brightness for determining the brightness of the captured image using the image signal of the detection target person output from the light input means. The feature on the face can be extracted from the photographed image of the person to be detected outputted from the judging means and the light inputting means by two or more image processes according to the lightness and the lightness judging means outputs. Image processing including feature extraction means for selecting one image processing from the two or more image processings or selecting one extraction result from the two or more image processings according to the brightness signal. apparatus .
【請求項5】 請求項1ないし4のいずれかに記載の特
徴抽出手段は、暗信号が入力された時は網膜反射像によ
る瞳孔抽出を行い、明信号が入力された時は鼻孔抽出を
行なうようにした画像処理装置。
5. The feature extracting means according to any one of claims 1 to 4, when a dark signal is input, a pupil is extracted by a retina reflection image, and when a bright signal is input, a nostril is extracted. Image processing device.
【請求項6】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者を照明し、上記
検出対象者と上記光入力手段とを結ぶ光軸と、照明光照
明方向とが少なくとも上記検出対象者近傍においてほぼ
同軸となるように配置された照明手段、及び上記光入力
手段から出力される上記検出対象者の撮影画像から顔面
上の特徴を、明暗に応じた2つ以上の画像処理で抽出可
能であるとともに、上記画像処理による抽出結果に応じ
て最終的な抽出結果を選択する特徴抽出手段を備えた画
像処理装置。
6. An optical input unit for inputting an image of a predetermined area including a face of a detection target person, an optical axis for illuminating the detection target person, and connecting the detection target person and the light input unit, and illumination light. Illuminating means is arranged so that the illuminating direction is substantially coaxial at least in the vicinity of the detection target person, and the feature on the face from the photographed image of the detection target person output from the light input means is adjusted according to the lightness and darkness. An image processing apparatus that is capable of being extracted by two or more image processes and that includes a feature extraction unit that selects a final extraction result according to the extraction result of the image process.
【請求項7】 請求項6記載の特徴抽出手段は、暗用の
画像処理により瞳孔が検出できない場合は、明用の画像
処理による抽出結果を選択するようにした画像処理装
置。
7. The image processing apparatus according to claim 6, wherein when the pupil cannot be detected by the image processing for dark, the extraction result by the image processing for light is selected.
【請求項8】 請求項6記載の特徴抽出手段は、明暗い
ずれかに応じた画像処理で抽出された瞳孔の大きさが小
さい場合は、明用の画像処理による抽出結果を選択する
ようにした画像処理装置。
8. The feature extracting means according to claim 6, when the size of the pupil extracted by the image processing depending on whether light or dark is small, selects the extraction result by the image processing for light. Image processing device.
【請求項9】 請求項1ないし8のいずれかに記載の画
像処理装置において、光入力手段の撮影条件、または照
明手段の照明条件の少なくとも一方を制御する照明撮影
制御手段を備え、上記照明撮影制御手段は明暗検出手
段、光入力手段、スイッチ、明暗度判定手段、または特
徴抽出手段のいずれかから明暗情報を取り出して、上記
撮影条件または上記照明条件を変更するようにした画像
処理装置。
9. The image processing apparatus according to any one of claims 1 to 8, further comprising illumination photography control means for controlling at least one of a photography condition of the light input means and an illumination condition of the illumination means. An image processing apparatus, wherein the control means extracts light / dark information from any of the light / dark detecting means, the light inputting means, the switch, the lightness / darkness determining means, or the feature extracting means to change the photographing condition or the illumination condition.
【請求項10】 請求項9記載の照明撮影制御手段は、
明暗情報が明の場合は照明光をオフし、特徴抽出手段は
明用の画像処理により撮影画像から顔面上の特徴を抽出
し、明暗情報が暗の場合は照明光をオンし、上記特徴抽
出手段は暗用の画像処理により撮影画像から顔面上の特
徴を抽出するようにした画像処理装置。
10. The illumination photographing control means according to claim 9,
When the light and dark information is bright, the illumination light is turned off, the feature extraction means extracts the feature on the face from the photographed image by the image processing for light, and when the light and dark information is dark, the illumination light is turned on and the feature extraction is performed. The means is an image processing apparatus adapted to extract facial features from a photographed image by dark image processing.
【請求項11】 請求項1ないし10のいずれかに記載
の画像処理装置、及び上記画像処理装置の出力から人物
状態を判定する人物状態判定手段を備えた人物状態判定
装置。
11. A person state judging device comprising: the image processing apparatus according to claim 1; and a person state judging means for judging a person state from an output of the image processing apparatus.
JP6220250A 1994-09-14 1994-09-14 Image processing device and person state determination device Expired - Fee Related JP2937030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6220250A JP2937030B2 (en) 1994-09-14 1994-09-14 Image processing device and person state determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6220250A JP2937030B2 (en) 1994-09-14 1994-09-14 Image processing device and person state determination device

Publications (2)

Publication Number Publication Date
JPH0883344A true JPH0883344A (en) 1996-03-26
JP2937030B2 JP2937030B2 (en) 1999-08-23

Family

ID=16748249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6220250A Expired - Fee Related JP2937030B2 (en) 1994-09-14 1994-09-14 Image processing device and person state determination device

Country Status (1)

Country Link
JP (1) JP2937030B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08300978A (en) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp Face image processor
JPH0935070A (en) * 1995-07-14 1997-02-07 Mitsubishi Electric Corp Face image processor
JPH0944685A (en) * 1995-07-28 1997-02-14 Mitsubishi Electric Corp Face image processor
JPH0981756A (en) * 1995-09-14 1997-03-28 Mitsubishi Electric Corp Face image processor
JPH1063850A (en) * 1996-08-22 1998-03-06 Toyota Motor Corp Method for detecting eye in facial picture
JPH10111994A (en) * 1996-10-09 1998-04-28 Nissan Diesel Motor Co Ltd Driving-asleep prevention system
JPH10213674A (en) * 1997-01-28 1998-08-11 Hokkaido Gas Co Ltd Detecting device for snow-coverage on road surface
JPH10275212A (en) * 1997-03-31 1998-10-13 Nissan Motor Co Ltd Dozing state detector
JP2000030066A (en) * 1998-07-15 2000-01-28 Matsushita Electric Ind Co Ltd Method and device for collating face image
JP2000132693A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for processing picture, and providing medium
JP2000215308A (en) * 1999-01-27 2000-08-04 Toshiba Corp Device and method for authenticating biological information
JP2001229499A (en) * 2000-02-15 2001-08-24 Niles Parts Co Ltd State detecting device for eye
JP2002015322A (en) * 2000-06-29 2002-01-18 Nissan Motor Co Ltd Inattentive driving condition detection device
JP2002208014A (en) * 2000-12-19 2002-07-26 Eastman Kodak Co Multi-mode digital image processing method for detecting eye
JP2004058799A (en) * 2002-07-26 2004-02-26 Murakami Corp On-vehicle passenger photographing device
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2004252511A (en) * 2003-02-18 2004-09-09 Hitachi Ltd Method for estimating facial direction
JP2004272933A (en) * 2004-06-03 2004-09-30 Toshiba Corp Face image monitoring system
JP2005100193A (en) * 2003-09-26 2005-04-14 King Tsushin Kogyo Kk Invasion monitoring device
JP2005323190A (en) * 2004-05-10 2005-11-17 Hamamatsu Photonics Kk Imaging system and imaging method
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
CN1332832C (en) * 2004-01-14 2007-08-22 欧姆龙株式会社 In-vehicle camera applications selecting system and apparatus thereof
JP2008242800A (en) * 2007-03-27 2008-10-09 Seiko Epson Corp Image processing for detecting position of subject
JP2009234350A (en) * 2008-03-26 2009-10-15 Toyota Motor Corp Occupant monitoring device
JP2009267733A (en) * 2008-04-24 2009-11-12 Sharp Corp Imaging apparatus and imaging control method
JP2012198821A (en) * 2011-03-22 2012-10-18 Fujitsu Ltd Intruder detection system and intruder detection method
US8369608B2 (en) 2009-06-22 2013-02-05 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
CN104637246A (en) * 2015-02-02 2015-05-20 合肥工业大学 Driver multi-behavior early warning system and danger evaluation method
JP2018069272A (en) * 2016-10-27 2018-05-10 株式会社アマダホールディングス Imaging method of laser processing position, and laser processing device
JP2019191788A (en) * 2018-04-23 2019-10-31 クラリオン株式会社 Information processing device and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63291175A (en) * 1987-05-23 1988-11-29 Toyota Motor Corp Image binarization processor
JPH0342337A (en) * 1989-07-10 1991-02-22 Nissan Motor Co Ltd Detector for driving condition of vehicle driver

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63291175A (en) * 1987-05-23 1988-11-29 Toyota Motor Corp Image binarization processor
JPH0342337A (en) * 1989-07-10 1991-02-22 Nissan Motor Co Ltd Detector for driving condition of vehicle driver

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08300978A (en) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp Face image processor
JPH0935070A (en) * 1995-07-14 1997-02-07 Mitsubishi Electric Corp Face image processor
JPH0944685A (en) * 1995-07-28 1997-02-14 Mitsubishi Electric Corp Face image processor
JPH0981756A (en) * 1995-09-14 1997-03-28 Mitsubishi Electric Corp Face image processor
JPH1063850A (en) * 1996-08-22 1998-03-06 Toyota Motor Corp Method for detecting eye in facial picture
JPH10111994A (en) * 1996-10-09 1998-04-28 Nissan Diesel Motor Co Ltd Driving-asleep prevention system
JPH10213674A (en) * 1997-01-28 1998-08-11 Hokkaido Gas Co Ltd Detecting device for snow-coverage on road surface
JPH10275212A (en) * 1997-03-31 1998-10-13 Nissan Motor Co Ltd Dozing state detector
JP2000030066A (en) * 1998-07-15 2000-01-28 Matsushita Electric Ind Co Ltd Method and device for collating face image
JP2000132693A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for processing picture, and providing medium
JP2000215308A (en) * 1999-01-27 2000-08-04 Toshiba Corp Device and method for authenticating biological information
JP2001229499A (en) * 2000-02-15 2001-08-24 Niles Parts Co Ltd State detecting device for eye
JP2002015322A (en) * 2000-06-29 2002-01-18 Nissan Motor Co Ltd Inattentive driving condition detection device
JP2002208014A (en) * 2000-12-19 2002-07-26 Eastman Kodak Co Multi-mode digital image processing method for detecting eye
JP2004058799A (en) * 2002-07-26 2004-02-26 Murakami Corp On-vehicle passenger photographing device
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2004252511A (en) * 2003-02-18 2004-09-09 Hitachi Ltd Method for estimating facial direction
JP2005100193A (en) * 2003-09-26 2005-04-14 King Tsushin Kogyo Kk Invasion monitoring device
CN1332832C (en) * 2004-01-14 2007-08-22 欧姆龙株式会社 In-vehicle camera applications selecting system and apparatus thereof
US8254688B2 (en) 2004-05-10 2012-08-28 Hamamatsu Photonics K.K. Imaging system and imaging method
JP2005323190A (en) * 2004-05-10 2005-11-17 Hamamatsu Photonics Kk Imaging system and imaging method
JP2004272933A (en) * 2004-06-03 2004-09-30 Toshiba Corp Face image monitoring system
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
JP2008242800A (en) * 2007-03-27 2008-10-09 Seiko Epson Corp Image processing for detecting position of subject
JP2009234350A (en) * 2008-03-26 2009-10-15 Toyota Motor Corp Occupant monitoring device
JP2009267733A (en) * 2008-04-24 2009-11-12 Sharp Corp Imaging apparatus and imaging control method
US8369608B2 (en) 2009-06-22 2013-02-05 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
JP2012198821A (en) * 2011-03-22 2012-10-18 Fujitsu Ltd Intruder detection system and intruder detection method
CN104637246A (en) * 2015-02-02 2015-05-20 合肥工业大学 Driver multi-behavior early warning system and danger evaluation method
JP2018069272A (en) * 2016-10-27 2018-05-10 株式会社アマダホールディングス Imaging method of laser processing position, and laser processing device
JP2019191788A (en) * 2018-04-23 2019-10-31 クラリオン株式会社 Information processing device and information processing method
US11900698B2 (en) 2018-04-23 2024-02-13 Clarion Co., Ltd. Information processing device and information processing method

Also Published As

Publication number Publication date
JP2937030B2 (en) 1999-08-23

Similar Documents

Publication Publication Date Title
JP2937030B2 (en) Image processing device and person state determination device
JP3316725B2 (en) Face image pickup device
JP4430866B2 (en) Near infrared camouflage detection
JP3214195B2 (en) Driver photography device
JP4187651B2 (en) Near-infrared method and system for use in face detection
US8435188B2 (en) Eye opening detection system and method of detecting eye opening
JP4593942B2 (en) Pupil detection apparatus and method
JP5366028B2 (en) Face image capturing device
JP5761074B2 (en) Imaging control apparatus and program
JP4452833B2 (en) Gaze movement detection method and gaze movement detection apparatus
EP2060993B1 (en) An awareness detection system and method
JP2006351011A (en) Color imaging system for locating retroreflector
JP3364816B2 (en) Image processing device
JP4770218B2 (en) Visual behavior determination device
JP3465336B2 (en) Face image capturing device
JP4528980B2 (en) Pupil detection device and pupil detection method
JP3355076B2 (en) Face image processing device
JP3905544B2 (en) Face image processing device
JP2006318374A (en) Glasses determination device, authentication device, and glasses determination method
JP4568836B2 (en) Real-time pupil position detection system
JP3296119B2 (en) Gaze direction measuring device for vehicles
JPH09198508A (en) Eye state detector
JP3685403B2 (en) Face image processing device
JPH07208927A (en) Detector of position of vehicle driver&#39;s eye balls
KR19980047573A (en) Facial Image Imaging Device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20080611

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20090611

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20100611

LAPS Cancellation because of no payment of annual fees