JP3364816B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3364816B2
JP3364816B2 JP32540094A JP32540094A JP3364816B2 JP 3364816 B2 JP3364816 B2 JP 3364816B2 JP 32540094 A JP32540094 A JP 32540094A JP 32540094 A JP32540094 A JP 32540094A JP 3364816 B2 JP3364816 B2 JP 3364816B2
Authority
JP
Japan
Prior art keywords
image
coaxial
binarized
processing
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32540094A
Other languages
Japanese (ja)
Other versions
JPH08185503A (en
Inventor
光生 下谷
稔 西田
真規人 関
敏英 佐竹
太 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP32540094A priority Critical patent/JP3364816B2/en
Publication of JPH08185503A publication Critical patent/JPH08185503A/en
Application granted granted Critical
Publication of JP3364816B2 publication Critical patent/JP3364816B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、人物の顔面上の特徴を
抽出するための画像処理装置、特に照明を検出対象者に
照射して眼球からの反射像を顔面上の特徴点とし、人物
の状態を検出する画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for extracting features on a person's face, and in particular, illuminating a person to be detected with a reflected image from an eyeball as a feature point on the face, The present invention relates to an image processing device for detecting the state of.

【0002】[0002]

【従来の技術】図56は、例えば特開昭60−1583
03号公報に示された従来の運転者撮影装置を用いた目
の位置検出装置の構成図である。図において、1は運転
者、10a、10bはCCDカメラ、13は赤外線LE
D、14は赤外線LED13に電流を供給するLED駆
動回路、100は運転者挙動検出回路である。
2. Description of the Related Art FIG. 56 shows, for example, JP-A-60-1583.
It is a block diagram of the eye position detection apparatus using the conventional driver imaging device shown in Japanese Patent Laid-Open No. 03-2003. In the figure, 1 is a driver, 10a and 10b are CCD cameras, and 13 is an infrared LE.
D and 14 are LED drive circuits that supply a current to the infrared LED 13, and 100 is a driver behavior detection circuit.

【0003】次に動作について説明する。赤外線LED
13は運転席の運転者1を照射する。運転者1の映像は
運転者1の顔面を含む所定の領域を撮影できる位置に設
置されたCCDカメラ10a、10bに入力される。入
力された画像は運転者挙動検出回路100に入力され、
目の位置や顔の向きなどがエッジ検出やパターン認識等
の画像処理により抽出されていた。
Next, the operation will be described. Infrared LED
13 illuminates the driver 1 in the driver's seat. The image of the driver 1 is input to the CCD cameras 10a and 10b installed at a position where a predetermined area including the face of the driver 1 can be photographed. The input image is input to the driver behavior detection circuit 100,
The positions of eyes and the orientation of the face have been extracted by image processing such as edge detection and pattern recognition.

【0004】一方、論文「瞳孔の抽出処理と頭部の動き
を許容する視線検出装置の試作」(電子情報通信学会論
文誌D−II Vol.J76-D-II No.3)で示されるよう
に、同軸落射装置で顔面を照射すると、網膜反射像が顕
著に撮影でき、例えば2値化処理のような非常に簡単な
画像処理で目の位置を検出できる(同軸落射照明とは、
カメラの光軸と照明光の照射方向とが同一になる構造に
した照明のことである)。 図57はこの装置を用いて
居眠り検出装置を構成したものであり、特願平5−28
2502号明細書に記載されたものである。図におい
て、1は検出対象者、10は検出対象者1の顔面を含む
所定の領域を撮影できる位置に設置されたCCDカメ
ラ、11は可視光成分をカットする可視光カットフィル
タ、12はCCDカメラに対して45度の角度で設置し
たハーフミラー、13は発光波長860nm、指向角度
±20度で発光し、ハーフミラー12に光を反射して検
出対象者1を照明する赤外線LED、14は赤外線LE
Dを駆動するLED駆動回路、30はCCDカメラから
出力される画像信号を一時記憶する画像メモリ、31は
CCDカメラ10や画像メモリ30などにタイミング信
号を与えるタイミング発生回路、40は画像メモリ30
の内容を予め定められた閾値th1に従って2値化処理
を行う2値化処理回路A、41は2値化処理した内容を
記憶する2値化メモリ、50は2値化メモリ41の内容
から顔面上の特徴を抽出する特徴計算回路、70は特徴
計算回路50の出力から覚醒度を判断する居眠り検出回
路、71は警報を出力する警報回路である。
On the other hand, as shown in the paper "Trial manufacture of eye-gaze detection device which allows pupil extraction processing and head movement" (Journal of the Institute of Electronics, Information and Communication Engineers D-II Vol.J76-D-II No.3) In addition, when the face is illuminated by the coaxial epi-illumination device, the retina reflection image can be significantly captured, and the eye position can be detected by very simple image processing such as binarization processing.
It is the illumination that has the same structure as the illumination direction of the illumination light and the optical axis of the camera). FIG. 57 shows a configuration of a drowsiness detecting device using this device.
No. 2502 specification. In the figure, 1 is a detection target person, 10 is a CCD camera installed at a position where a predetermined area including the face of the detection target person 1 can be photographed, 11 is a visible light cut filter that cuts visible light components, and 12 is a CCD camera. A half mirror installed at an angle of 45 degrees, 13 has an emission wavelength of 860 nm, and emits light with a directivity angle of ± 20 degrees, and an infrared LED that reflects light to the half mirror 12 and illuminates the detection target person 1, and 14 is an infrared ray LE
An LED drive circuit for driving D, 30 is an image memory for temporarily storing the image signal output from the CCD camera, 31 is a timing generation circuit for giving a timing signal to the CCD camera 10, the image memory 30, etc., and 40 is an image memory 30.
Binarization processing circuit A for performing binarization processing of the contents of the above in accordance with a predetermined threshold value th1, 41 is a binarization memory for storing the contents of the binarization processing, 50 is the contents of the binarization memory 41 A feature calculation circuit for extracting the above features, 70 is a drowsiness detection circuit for determining the awakening level from the output of the feature calculation circuit 50, and 71 is an alarm circuit for outputting an alarm.

【0005】次に動作について説明する。図57におい
て、光路l1 で照射される赤外線LED13の照明光
は、ハーフミラー12で半分の光を反射し、光路l2 で
検出対象者1の顔面を照射する。検出対象者1の画像は
光路l3 でハーフミラー12を通り、半分の光がCCD
カメラ10に到達し、CCDカメラ10は検出対象者1
の画像を取り込む。この時、光路l2 とl3 の光軸は検
出対象者からみて、同軸になっている(同軸落射照
明)。この時検出対象者の撮影画像は図58のようにな
る。図58において、3は鼻孔、4は虹彩、5は強膜、
6は瞳孔、7は顔表面である。上記のような構成の同軸
落射照明により、瞳孔6は網膜で反射された光により、
あたかも瞳孔が光っているように観察され、顔の表面や
他の特徴点に比べて、著しく輝度が高く映る。これは網
膜が入射光と同一方向に反射光を返す性質を持つからで
ある。図58には、撮影画像のA−A線での輝度分布も
併せて示す。図58下部に示された輝度分布において
は、瞳孔の位置は明らかに輝度が他の部分と異なり輝度
が高いことがわかる。CCDカメラ10が取り込んだ顔
画像は、画像メモリ30に一旦入力される。
Next, the operation will be described. In FIG. 57, the half mirror 12 reflects half of the illumination light of the infrared LED 13 irradiated on the optical path l1 and irradiates the face of the detection target person 1 on the optical path l2. The image of the person to be detected 1 passes through the half mirror 12 in the optical path 13 and half of the light is CCD.
After reaching the camera 10, the CCD camera 10 detects the person 1 to be detected.
Capture the image of. At this time, the optical axes of the optical paths l2 and l3 are coaxial with each other when viewed from the detection target (coaxial epi-illumination). At this time, the captured image of the person to be detected is as shown in FIG. In FIG. 58, 3 is a nostril, 4 is an iris, 5 is a sclera,
6 is a pupil and 7 is a face surface. With the coaxial epi-illumination having the above-mentioned configuration, the pupil 6 is caused by the light reflected by the retina,
The pupils are observed as if they are shining, and the brightness is significantly higher than that on the surface of the face or other feature points. This is because the retina has the property of returning reflected light in the same direction as incident light. FIG. 58 also shows the luminance distribution on the line AA of the captured image. In the luminance distribution shown in the lower part of FIG. 58, it is clear that the position of the pupil has a high luminance unlike the other portions. The face image captured by the CCD camera 10 is once input to the image memory 30.

【0006】図59に本装置による居眠り検出の処理フ
ローを示す。2値化処理回路A40はST10で顔画像
を入力し、ST11において瞳孔のみを抽出するため、
適当な輝度しきい値th1で2値化処理を行う。得られ
た2値化画像は、図60に示すようになる。この2値化
画像は瞳孔のみが白領域として2つの円となり、他の部
分は黒領域となるので、ST12で白色領域の画素数を
数えるだけで、瞳孔の見かけ上の大きさが計算できる。
ST13では白色領域の画素数が、予め定められた個数
以上の時は開眼、未満のときは閉眼と判断する。この開
眼閉眼情報は、居眠り検出回路70に入力され、居眠り
検出回路70はST14で連続して3秒以上閉眼情報が
入力されたかどうかを判断し、3秒以上閉眼状態であっ
たならば、居眠り状態であると判断し、ST15で警報
回路71に警報出力命令を出力する。閉眼状態が3秒未
満の時はST10に処理は移る。
FIG. 59 shows a processing flow of the doze detection by this apparatus. Since the binarization processing circuit A40 inputs the face image in ST10 and extracts only the pupil in ST11,
Binarization processing is performed with an appropriate brightness threshold th1. The obtained binarized image is as shown in FIG. In this binarized image, only the pupil has two circles as a white region, and the other portions have a black region. Therefore, the apparent size of the pupil can be calculated only by counting the number of pixels in the white region in ST12.
In ST13, when the number of pixels in the white area is equal to or more than a predetermined number, it is determined that the eyes are open, and when the number of pixels is less than the predetermined number, the eyes are closed. This eye-opening / eye-closing information is input to the drowsiness detection circuit 70, and the drowsiness detection circuit 70 determines in ST14 whether or not the eye-closing information is continuously input for 3 seconds or more, and if the eye-closing state is 3 seconds or more, it falls asleep. When it is determined that the state is the state, an alarm output command is output to the alarm circuit 71 in ST15. When the eye closed state is less than 3 seconds, the process proceeds to ST10.

【0007】[0007]

【発明が解決しようとする課題】従来の運転者撮影装置
は以上のように構成されているので、検出対象者が裸眼
であり、金属性のアクセサリを身につけていない場合
は、網膜反射像を検出できたが、照明光により反射像を
生じるもの、例えば、眼鏡やイヤリングなどを装着して
いる場合、これらの反射像と網膜反射像との区別がつか
ないという問題があった。
Since the conventional driver photographing apparatus is constructed as described above, when the person to be detected is the naked eye and the metallic accessory is not worn, the retina reflection image is taken. Although it can be detected, there is a problem that when a reflection image is generated by the illumination light, for example, when glasses or earrings are attached, it is impossible to distinguish the reflection image from the retina reflection image.

【0008】図61に眼鏡による反射像の影響を説明す
る説明図を示す。図61は銀縁の眼鏡を装着した図であ
るが、照明光が眼鏡レンズで反射したレンズ反射像8、
照明光が眼鏡枠で反射した眼鏡枠反射像9が観察され
る。これを従来装置の2値化処理回路Aで2値化処理す
ると、図62のように5つの白画素領域ができ、例え眼
を閉じた場合でもレンズ反射像8や眼鏡枠反射像9が白
画素として残り、閉眼が検出できない。このように上述
の従来装置では、眼鏡を装着した場合や、金属性のアク
セサリを身につけた場合、顔面上の特徴点を抽出できな
くなるという問題点があった。
FIG. 61 shows an explanatory view for explaining the influence of the reflected image from the glasses. FIG. 61 is a diagram in which silver-rimmed eyeglasses are mounted, but the lens reflection image 8 in which the illumination light is reflected by the eyeglass lens,
An eyeglass frame reflection image 9 in which the illumination light is reflected by the eyeglass frame is observed. When this is binarized by the binarization processing circuit A of the conventional apparatus, five white pixel areas are formed as shown in FIG. 62, and the lens reflection image 8 and the spectacle frame reflection image 9 are white even when the eyes are closed. It remains as a pixel, and closed eyes cannot be detected. As described above, the above-described conventional device has a problem that it is not possible to extract feature points on the face when wearing glasses or wearing a metallic accessory.

【0009】本発明は上記のような問題点を解決するた
めになされたもので、眼鏡を装着した場合や、金属性の
アクセサリを身につけた場合でも、顔面上の特徴点を抽
出できる装置を得ることを目的とする。
The present invention has been made in order to solve the above problems, and provides an apparatus capable of extracting characteristic points on the face even when wearing glasses or wearing a metallic accessory. The purpose is to get.

【0010】[0010]

【課題を解決するための手段】請求項に係る画像処理
装置は、照明光の有無を制御する照明光制御手段、照明
光が有りの検出対象者の画像を出力する明撮影画像出力
手段、照明光が無しの検出対象者の画像を出力する暗撮
影画像出力手段、及び明撮影画像と暗撮影画像の差分画
像を出力する差分画像出力手段を備え、特徴点抽出手段
は、検出対象者の眼球からの反射像を抽出するための第
1の閾値と、検出対象者が装着する装着物からの反射像
を抽出するための第2の閾値とを有し、上記差分画像を
第1の閾値により処理した第1の2値化処理画像と、上
記明撮影画像を第2の閾値により処理した第2の2値化
処理画像とを用いて、眼球からの反射像を顔面上の特徴
点として抽出するものである。
An image processing apparatus according to a first aspect of the present invention is an illumination light control means for controlling the presence / absence of illumination light, a bright photographed image output means for outputting an image of a person to be detected with the illumination light, The dark point image output means for outputting the image of the detection target person without illumination light, and the difference image output means for outputting the difference image between the bright and dark image, the feature point extraction means, It has a first threshold value for extracting a reflection image from an eyeball and a second threshold value for extracting a reflection image from a wearing object worn by a detection target person, and the difference image is a first threshold value. The first binarized image processed by
A reflected image from an eyeball is extracted as a feature point on the face by using a clear imaged image and a second binarized image obtained by processing with a second threshold value.

【0011】また、請求項に係る画像処理装置は、差
分画像を第1の閾値により処理した第1の2値化処理画
像と、明撮影画像を第2の閾値により処理した第2の2
値化処理画像とを用いて、眼球からの反射像を顔面上の
特徴点として抽出するものである。
An image processing apparatus according to a second aspect of the present invention is a second binarization processing image in which a difference image is processed by a first threshold value and a bright image is processed by a second threshold value.
By using the binarized image, the reflection image from the eyeball is extracted as a feature point on the face.

【0012】また、請求項に係る画像処理装置は、照
明光の強弱または光入力手段の入力ゲインを制御する照
明光制御手段、照明光が強または入力ゲインが大の検出
対象者の画像を出力する明撮影画像出力手段、照明光が
弱または入力ゲインが小の検出対象者の画像を出力する
暗撮影画像出力手段、明撮影画像と暗撮影画像の差分画
像を出力する差分画像出力手段を備え、特徴点抽出手段
は、検出対象者の眼球からの反射像を抽出するための第
1の閾値と、検出対象者が装着する装着物からの反射像
を抽出するための第2の閾値とを有し、上記差分画像を
第1の閾値により処理した第1の2値化処理画像と、上
記暗撮影画像を第2の閾値により処理した第2の2値化
処理画像とを用いて、眼球からの反射像を顔面上の特徴
点として抽出するものである。
An image processing apparatus according to a third aspect of the present invention provides an illumination light control means for controlling the intensity of illumination light or an input gain of an optical input means, an image of a person to be detected having a high illumination light or a large input gain. A bright-photographed image output means for outputting, a dark-photographed image output means for outputting an image of a person to be detected with weak illumination light or a small input gain, and a differential image output means for outputting a differential image between the bright-photographed image and the dark-photographed image. The feature point extracting means includes a first threshold value for extracting a reflection image from the eyeball of the detection target person and a second threshold value for extracting a reflection image from the wearing object worn by the detection target person. And a first binarized image obtained by processing the difference image with a first threshold , and
A reflected image from an eyeball is extracted as a feature point on the face by using a second binarized image obtained by processing a darkness imaged image with a second threshold value.

【0013】また、請求項に係る画像処理装置におい
ては、特徴点抽出手段は、i番目に撮影した暗撮影画像
と、i−1番目に撮影した明撮影画像と、i−2番目に
撮影した暗撮影画像とを用いて、上記i−1番目に撮影
した明撮影画像から上記i番目に撮影した暗撮影画像を
差分処理して得られた第1の差分画像と、上記i−1番
目に撮影した明撮影画像から上記iー2番目に撮影した
暗撮影画像を差分処理して得られた第2の差分画像とを
求め、第1の差分画像及び第2の差分画像により、眼球
からの反射像を顔面上の特徴点として抽出するものであ
る。
Further, in the image processing apparatus according to the fourth aspect, the feature point extracting means is the dark photographed image photographed i-th, the bright photographed image photographed i−1 th, and the image photographed i−2 th. And a first difference image obtained by performing a difference process on the i-th imaged bright-photographed image from the i-th imaged dark-photographed image, and the i-1st image. The second difference image obtained by performing the difference processing on the i−2nd dark photograph image obtained from the bright photograph image photographed in the above is obtained, and the first difference image and the second difference image are used to detect from the eyeball. The reflected image of is extracted as a feature point on the face.

【0014】また、請求項に係る画像処理装置におい
ては、特徴点抽出手段は、i番目に撮影した暗撮影画像
と、i−1番目に撮影した明撮影画像と、i−2番目に
撮影した暗撮影画像とを用いて、上記i−1番目に撮影
した明撮影画像から、上記i番目に撮影した暗撮影画像
と、上記iー2番目に撮影した暗撮影画像とを差分処理
して得られた差分画像を求め、上記差分画像により、眼
球からの反射像を顔面上の特徴点として抽出するもので
ある。
Further, in the image processing apparatus according to the fifth aspect, the feature point extracting means is the dark photographed image photographed i-th, the bright photographed image photographed i−1 th, and the image photographed i−2 th. And the dark-shot image obtained by performing the difference processing between the i-th shot bright-shot image and the i-th shot dark-shot image described above. The obtained difference image is obtained, and the reflected image from the eyeball is extracted as a feature point on the face by the difference image.

【0015】また、請求項に係る画像処理装置は、検
出対象者の顔面を含む所定領域を光入力手段と同軸で照
明する同軸照明手段、検出対象者の顔面を含む所定領域
を上記光入力手段と非同軸で照明する非同軸照明手段、
同軸照明手段と非同軸照明手段の発光の有無を制御する
照明光制御手段、同軸照明光による検出対象者の画像を
出力する同軸画像出力手段、非同軸照明光による検出対
象者の画像を出力する非同軸画像出力手段、同軸画像と
非同軸画像の差分画像を出力する差分画像出力手段を備
え、特徴点抽出手段は、検出対象者の眼球からの反射像
を抽出するための第1の閾値と、検出対象者が装着する
装着物からの反射像を抽出するための第2の閾値とを有
し、上記差分画像を第1の閾値により処理した第1の2
値化処理画像と、上記非同軸画像を第2の閾値により処
理した第2の2値化処理画像とを用いて、眼球からの反
射像を顔面上の特徴点として抽出するものである。
According to a sixth aspect of the present invention, in the image processing apparatus, a coaxial illumination means for illuminating a predetermined area including the face of the person to be detected coaxially with the light input means, and a predetermined area including the face of the person to be detected are optically input. Non-coaxial lighting means for illuminating the means non-coaxially,
Illumination light control means for controlling the presence or absence of light emission of the coaxial illumination means and the non-coaxial illumination means, a coaxial image output means for outputting an image of the detection target person by the coaxial illumination light, and an image of the detection target person by the non-coaxial illumination light. Non-coaxial image output means, differential image output means for outputting a differential image between the coaxial image and the non-coaxial image, the feature point extraction means, and a first threshold value for extracting a reflection image from the eyeball of the detection target person. , A second threshold value for extracting a reflection image from the wearing object worn by the detection target person, and a first second value obtained by processing the difference image with the first threshold value.
By using a binarized image and a second binarized image obtained by processing the non-coaxial image with a second threshold value, a reflection image from an eyeball is extracted as a feature point on the face.

【0016】また、請求項に係る画像処理装置におい
ては、特徴点抽出手段は、i番目に撮影した非同軸画像
と、i−1番目に撮影した同軸画像と、i−2番目に撮
影した非同軸画像とを用いて、上記i−1番目に撮影し
た同軸画像から上記i番目に撮影した非同軸画像を差分
処理して得られた第1の差分画像と、上記i−1番目に
撮影した同軸画像から上記iー2番目に撮影した非同軸
画像を差分処理して得られた第2の差分画像とを求め、
第1の差分画像及び第2の差分画像により、眼球からの
反射像を顔面上の特徴点として抽出するものである。
Further, in the image processing device according to the seventh aspect, the feature point extracting means takes the i-th captured non-coaxial image, the i-1th captured coaxial image, and the i-2nd captured image. Using the non-coaxial image, a first difference image obtained by performing a difference process on the i-th imaged non-coaxial image from the i-1th imaged coaxial image, and the i-1 th imaged image. A second difference image obtained by performing a difference process on the i-2nd non-coaxial image captured from the coaxial image
With the first difference image and the second difference image, the reflection image from the eyeball is extracted as a feature point on the face.

【0017】また、請求項に係る画像処理装置におい
ては、特徴点抽出手段は、i番目に撮影した非同軸画像
と、i−1番目に撮影した同軸画像と、i−2番目に撮
影した非同軸画像とを用いて、上記i−1番目に撮影し
た同軸画像から、上記i番目に撮影した非同軸画像と上
記iー2番目に撮影した非同軸画像とを差分処理して得
られた差分画像を求め、上記差分画像により、眼球から
の反射像を顔面上の特徴点として抽出するものである。
Further, in the image processing apparatus according to the eighth aspect, the feature point extraction means takes the i-th captured non-coaxial image, the i-1th captured coaxial image, and the i-2nd captured image. The non-coaxial image was used to obtain the i-th imaged coaxial image from the i-th imaged coaxial image by subtracting the i-th imaged non-coaxial image from the i-th imaged coaxial image. The difference image is obtained, and the reflection image from the eyeball is extracted as a feature point on the face by the difference image.

【0018】また、請求項に係る画像処理装置におい
ては、特徴点抽出手段は、上記差分画像を第1の閾値に
より処理した第1の2値化処理画像と、暗撮影画像また
は非同軸画像を第2の閾値により処理した第2の2値化
処理画像とを用いて、眼球からの反射像を顔面上の特徴
点として抽出するものである。
Further, in the image processing apparatus according to the ninth aspect, the feature point extraction means is a first binarized image obtained by processing the difference image with a first threshold value, and a dark image or a non-coaxial image. Using a second binarized image obtained by processing with the second threshold value, the reflection image from the eyeball is extracted as a feature point on the face.

【0019】また、請求項10に係る画像処理装置にお
いては、特徴点抽出手段は、第1の差分画像を第1の閾
値により処理した第1の差分処理画像と、第2の差分画
像を第1の閾値により処理した第2の差分処理画像とを
用いて、眼球からの反射像を顔面上の特徴点として抽出
するものである。
Further, in the image processing device according to the tenth aspect, the feature point extracting means processes the first difference image obtained by processing the first difference image with the first threshold value and the second difference image into the second difference image. The reflected image from the eyeball is extracted as a feature point on the face by using the second difference processed image processed by the threshold value of 1.

【0020】また、請求項11に係る画像処理装置は、
照明光の強弱または光入力手段の入力ゲインを制御する
照明光制御手段、照明光が強または入力ゲインが大の検
出対象者の画像を出力する明撮影画像出力手段、照明光
が弱または入力ゲインが小の検出対象者の画像を出力す
る暗撮影画像出力手段を備え、特徴点抽出手段は、検出
対象者の眼球からの反射像を抽出するための第1の閾値
と、検出対象者が装着する装着物からの反射像を抽出す
るための第2の閾値とを有し、明撮影画像を第1の閾値
により処理した第1の2値化処理画像と、暗撮影画像を
第2の閾値により処理した第2の2値化処理画像とを用
いて、眼球からの反射像を顔面上の特徴点として抽出す
るものである。
The image processing apparatus according to claim 11 is
Illumination light control means for controlling the intensity of the illumination light or the input gain of the light input means, bright photographic image output means for outputting the image of the person to be detected with strong illumination light or large input gain, weak illumination light or input gain Is provided with dark photography image output means for outputting the image of the detection target person, and the feature point extraction means is a first threshold value for extracting a reflection image from the eyeball of the detection target person, and the detection target person wears it. And a second threshold value for extracting a reflection image from the mounted object, the first binarized image obtained by processing the bright photographed image by the first threshold value, and the dark photographed image as the second threshold value. By using the second binarized image processed by the above method, the reflection image from the eyeball is extracted as a feature point on the face.

【0021】また、請求項12に係る画像処理装置にお
いては、特徴点抽出手段は、i番目に撮影した暗撮影画
像の2値化処理画像と、i−1番目に撮影した明撮影画
像の2値化処理画像と、i−2番目に撮影した暗撮影画
像の2値化処理画像とを用いて、上記i−1番目に撮影
した明撮影画像の2値化処理画像を上記i番目に撮影し
た暗撮影画像の2値化処理画像でマスク処理して得られ
た第1のマスク画像と、上記i−1番目に撮影した明撮
影画像の2値化処理画像を上記iー2番目に撮影した暗
撮影画像の2値化処理画像でマスク処理して得られた第
2のマスク画像とを求め、第1のマスク画像及び第2の
マスク画像により、眼球からの反射像を顔面上の特徴点
として抽出するものである。
Further, in the image processing apparatus according to the twelfth aspect, the feature point extracting means is a binarization-processed image of the i-th captured dark-photographed image and an i-1-th photographed bright-photographed image. By using the binarized image and the binarized image of the i-2nd dark shot image, the i-1-th binarized image of the bright shot image is shot at the i-th shot. The first mask image obtained by performing the masking process on the binarized image of the dark photographed image and the binarized image of the bright photographed image which is photographed at the i-1th are photographed at the i-2nd. The second mask image obtained by performing the masking process on the binarized image of the dark photographed image obtained is obtained, and the reflection image from the eyeball is characterized by the facial features by the first mask image and the second mask image. It is extracted as a point.

【0022】また、請求項13に係る画像処理装置にお
いては、特徴点抽出手段は、i番目に撮影した暗撮影画
像の2値化処理画像と、i−1番目に撮影した明撮影画
像の2値化処理画像と、i−2番目に撮影した暗撮影画
像の2値化処理画像とを用いて、上記i−1番目に撮影
した明撮影画像の2値化処理画像を、上記i番目に撮影
した暗撮影画像の2値化処理画像と、上記iー2番目に
撮影した暗撮影画像の2値化処理画像とで、マスク処理
して得られたマスク画像を求め、上記マスク画像によ
り、眼球からの反射像を顔面上の特徴点として抽出する
ものである。
Further, in the image processing apparatus according to the thirteenth aspect, the feature point extraction means is a binarized image of the i-th captured dark-photographed image and an i-1-th photographed bright-photographed image. Using the binarized image and the binarized image of the i-2nd dark shot image, the binarized image of the i-1th bright shot image is set to the i-th bin A mask image obtained by performing a mask process is obtained from the binarized image of the photographed dark photographed image and the binarized image of the i-2nd photographed dark photographed image, and by the mask image, The reflected image from the eyeball is extracted as a feature point on the face.

【0023】また、請求項14に係る画像処理装置は、
検出対象者の顔面を含む所定領域を光入力手段と同軸で
照明する同軸照明手段、検出対象者の顔面を含む所定領
域を光入力手段と非同軸で照明する非同軸照明手段、同
軸照明手段と非同軸照明手段の発光の有無を制御する照
明光制御手段、同軸照明光による検出対象者の画像を出
力する同軸画像出力手段、非同軸照明光による検出対象
者の画像を出力する非同軸画像出力手段を備え、特徴点
抽出手段は、検出対象者の眼球からの反射像を抽出する
ための第1の閾値と、検出対象者が装着する装着物から
の反射像を抽出するための第2の閾値とを有し、同軸画
像を第1の閾値により処理した第1の2値化処理画像
と、非同軸画像を第2の閾値により処理した第2の2値
化処理画像とを用いて、眼球からの反射像を顔面上の特
徴点として抽出するものである。
An image processing apparatus according to claim 14 is
Coaxial illumination means for illuminating a predetermined area including the face of the detection target person coaxially with the light input means, non-coaxial illumination means for illuminating a predetermined area including the face of the detection target person non-coaxially with the light input means, coaxial illumination means Illumination light control means for controlling the presence or absence of light emission of the non-coaxial illumination means, coaxial image output means for outputting the image of the detection target person by the coaxial illumination light, and non-coaxial image output for outputting the image of the detection target person by the non-coaxial illumination light. The feature point extraction means includes a first threshold value for extracting a reflection image from the eyeball of the detection target person, and a second threshold value for extracting a reflection image from the wearing object worn by the detection target person. A first binarized image having a threshold value and a coaxial image processed with a first threshold value, and a second binarized image having a non-coaxial image processed with a second threshold value, Extract the reflection image from the eyeball as a feature point on the face Than it is.

【0024】また、請求項15に係る画像処理装置にお
いては、特徴点抽出手段は、i番目に撮影した非同軸画
像の2値化処理画像と、i−1番目に撮影した同軸画像
の2値化処理画像と、i−2番目に撮影した非同軸画像
の2値化処理画像とを用いて、上記i−1番目に撮影し
た同軸画像の2値化処理画像を上記i番目に撮影した非
同軸画像の2値化処理画像でマスク処理して得られた第
1のマスク画像と、上記i−1番目に撮影した同軸画像
の2値化処理画像を上記iー2番目に撮影した非同軸画
像の2値化処理画像でマスク処理して得られた第2のマ
スク画像とを求め、第1のマスク画像及び第2のマスク
画像により、眼球からの反射像を顔面上の特徴点として
抽出するものである。
Further, in the image processing apparatus according to the fifteenth aspect, the feature point extracting means is a binarized image of the i-th captured non-coaxial image and a binary image of the (i-1) -th captured coaxial image. Using the binarized image and the binarized image of the i−2nd captured non-coaxial image, the binarized image of the i−1th captured coaxial image is recorded in the i-th non-coaxial image. The first mask image obtained by masking with the binarized image of the coaxial image, and the i-2nd non-coaxial image of the binarized image of the coaxial image captured above A second mask image obtained by performing mask processing on the image binarized image is obtained, and the reflection image from the eyeball is extracted as a feature point on the face by the first mask image and the second mask image. To do.

【0025】また、請求項16に係る画像処理装置にお
いては、特徴点抽出手段は、i番目に撮影した非同軸画
像の2値化処理画像と、i−1番目に撮影した同軸画像
の2値化処理画像と、i−2番目に撮影した非同軸画像
の2値化処理画像とを用いて、上記i−1番目に撮影し
た同軸画像の2値化処理画像を、上記i番目に撮影した
非同軸画像の2値化処理画像と上記iー2番目に撮影し
た非同軸画像の2値化処理画像でマスク処理して得られ
たマスク画像を求め、上記マスク画像により、眼球から
の反射像を顔面上の特徴点として抽出するものである。
Further, in the image processing apparatus according to the sixteenth aspect, the feature point extraction means is a binarized image of the i-th captured non-coaxial image and a binary image of the (i-1) -th captured coaxial image. Using the binarized image and the binarized image of the non-coaxial image captured i-2, the binarized image of the coaxial image captured i-1 is captured i above. A mask image obtained by performing mask processing on the binarized image of the non-coaxial image and the binarized image of the i-2nd non-coaxial image captured is obtained, and a reflection image from the eyeball is obtained by the mask image. Is extracted as a feature point on the face.

【0026】また、請求項17に係る画像処理装置は、
差分処理される画像またはマスク処理される画像を縮退
処理するものである。
The image processing apparatus according to claim 17 is
The image is subjected to degeneracy processing for the image subjected to the difference processing or the image subjected to the mask processing.

【0027】また、請求項18に係る画像処理装置は、
差分処理する画像またはマスク処理する画像を拡大処理
するものである。
The image processing apparatus according to claim 18 is
This is for enlarging the image to be subjected to difference processing or the image to be masked.

【0028】また、請求項19に係る画像処理装置は、
同軸照明と非同軸照明の位置関係に対応して拡大または
縮退処理に方向性を持たせるものである。
The image processing apparatus according to claim 19 is
The enlargement or contraction process is given directionality in accordance with the positional relationship between the coaxial illumination and the non-coaxial illumination.

【0029】また、請求項20に係る画像処理装置は、
検出対象者の装着物の有無を判定する装着物判定手段を
有し、特徴点抽出手段は、上記装着物判定手段の判定結
果によって、第1の2値化処理画像および第2の2値化
処理画像を用いた装着用の画像処理と第1の2値化処理
画像を用いた非装着用の画像処理とを切り換える、また
は各画像処理による処理結果を選択するものである。
An image processing apparatus according to claim 20 is
Has a mounting object determining means determines the presence or absence of attachment of the detection subject, the feature point extracting means, depending on the determination result of the mounting object determining means, first binarized processed image and the second binary Conversion
Image processing for mounting using processed images and first binarization processing
The image processing is switched between non-wearing image processing using images , or the processing result of each image processing is selected.

【0030】また、請求項21に係る画像処理装置は、
装着物判定手段は照明光による反射像の数または最大輝
度により装着物の有無を検出するものである。
The image processing apparatus according to claim 21 is
The mounted object determining means detects the presence or absence of the mounted object based on the number of reflection images or the maximum brightness of the illumination light.

【0031】また、請求項22に係る画像処理装置にお
いては、特徴点抽出手段は、装着物がある場合には照明
光を強めるものである。
Further, in the image processing apparatus according to claim 22 ,
In addition, the feature point extraction means can illuminate when there is an attached object.
It strengthens the light .

【0032】また、請求項23に係る画像処理装置にお
いては、特徴点抽出手段は、装着物がある場合には光入
力手段の入力ゲインを上げるものである。
In the image processing apparatus according to claim 23,
In addition, the feature point extraction means can
The input gain of the force means is increased.

【0033】また、請求項24に係る画像処理装置にお
いては、特徴点抽出手段は、第1の2値化処理画像およ
び第2の2値化処理画像を用いた装着用の画像処理と第
1の2値化処理画像を用いた非装着用の画像処理とを有
し、画像処理結果によってどちらか一方の画像処理結果
を選択するものである。
Further, in the image processing apparatus according to the twenty-fourth aspect, the feature point extraction means includes the first binarized image and the image.
And image processing for mounting using the second binarized image and
Image processing for non-wearing using the binarized image No. 1 and selecting either one of the image processing results depending on the image processing result.

【0034】[0034]

【作用】請求項による画像処理装置は、照明光の有無
を制御し、照明光が有りの検出対象者の明撮影画像と、
照明光が無しの検出対象者の暗撮影画像との差分画像を
第1の閾値により処理した第1の2値化処理画像と、明
撮影画像を第2の閾値により処理し、この2値化処理画
像を用いて、眼球からの反射像を抽出する。
An image processing apparatus according to claim 1 controls the presence or absence of illumination light, and a bright photographed image of a person to be detected with illumination light,
A first binarization-processed image obtained by processing the difference image with the dark-captured image of the detection target person without illumination light by the first threshold ;
The captured image is processed with the second threshold value, and the reflected image from the eyeball is extracted using the binarized image.

【0035】請求項による画像処理装置は、差分画像
を第1の閾値により処理した第1の2値化処理画像と、
明撮影画像を第2の閾値により処理した第2の2値化処
理画像とを用いて、眼球からの反射像を抽出する。
An image processing apparatus according to a second aspect of the present invention comprises a first binarized image obtained by processing a difference image with a first threshold value,
A reflection image from the eyeball is extracted by using the second binarized image obtained by processing the bright photographed image with the second threshold value.

【0036】請求項による画像処理装置は、照明光の
強弱または光入力手段の入力ゲインを制御し、照明光が
強または入力ゲインが大の検出対象者の明撮影画像と、
照明光が弱または入力ゲインが小の検出対象者の暗撮影
画像との差分画像を第1の閾値により処理した第1の2
値化処理画像と、暗撮影画像を第2の閾値により処理し
た第2の2値化処理画像とを用いて、眼球からの反射像
を抽出する。
An image processing apparatus according to a third aspect of the present invention controls the intensity of illumination light or the input gain of a light input means, and a bright photographed image of a person to be detected having a high illumination light or a large input gain.
The first 2 in which the difference image with the dark image of the detection target person whose illumination light is weak or whose input gain is small is processed by the first threshold value.
The binarized image and the dark image are processed by the second threshold.
The reflected image from the eyeball is extracted by using the second binarized image.

【0037】請求項による画像処理装置は、i−1番
目に撮影した明撮影画像からi番目に撮影した暗撮影画
像を差分処理して得られた第1の差分画像と、i−1番
目に撮影した明撮影画像からiー2番目に撮影した暗撮
影画像を差分処理して得られた第2の差分画像とを求
め、第1の差分画像及び第2の差分画像により、眼球か
らの反射像を抽出する。
According to a fourth aspect of the present invention, there is provided an image processing apparatus, wherein a first differential image obtained by performing a differential process on a bright photographed image photographed at the (i-1) th to a dark photographed image photographed at the ith, and an (i-1) th image. The second difference image obtained by performing the difference processing on the i-2nd dark photograph image taken from the second bright image taken in the above is obtained, and the first difference image and the second difference image Extract the reflection image.

【0038】請求項による画像処理装置は、i−1番
目に撮影した明撮影画像から、i番目に撮影した暗撮影
画像と、iー2番目に撮影した暗撮影画像とを差分処理
して得られた差分画像を求め、上記差分画像により、眼
球からの反射像を抽出する。
An image processing apparatus according to a fifth aspect of the present invention performs a difference process between the i-1th bright photographed image and the i-th dark photographed image and the i-2nd dark photographed image. The obtained difference image is obtained, and the reflection image from the eyeball is extracted from the difference image.

【0039】請求項による画像処理装置は、同軸画像
と非同軸画像の差分画像を第1の閾値により処理した第
1の2値化処理画像と、上記非同軸画像を第2の閾値に
より処理した第2の2値化処理画像とを用いて、眼球か
らの反射像を抽出する。
According to a sixth aspect of the image processing apparatus, the difference image between the coaxial image and the non-coaxial image is processed by the first threshold value.
The binarized image of No. 1 and the non-coaxial image as the second threshold
A reflection image from the eyeball is extracted using the second binarized image that has been further processed.

【0040】請求項による画像処理装置は、i−1番
目に撮影した同軸画像からi番目に撮影した非同軸画像
を差分処理して得られた第1の差分画像と、i−1番目
に撮影した同軸画像からiー2番目に撮影した非同軸画
像を差分処理して得られた第2の差分画像とを求め、第
1の差分画像及び第2の差分画像により、眼球からの反
射像を抽出する。
According to a seventh aspect of the present invention, there is provided an image processing apparatus, wherein a first differential image obtained by performing a differential process on a i-th captured coaxial image to an i-th captured non-coaxial image, and an i-1th captured image. A second difference image obtained by performing difference processing on the i-2nd non-coaxial image taken from the taken coaxial image is obtained, and the reflection image from the eyeball is obtained by the first difference image and the second difference image. To extract.

【0041】請求項による画像処理装置は、i−1番
目に撮影した同軸画像から、i番目に撮影した非同軸画
像とiー2番目に撮影した非同軸画像とを差分処理して
得られた差分画像を求め、上記差分画像により、眼球か
らの反射像を抽出する。
[0041] The image processing apparatus according to claim 8, coaxial images taken in (i-1) -th, obtained by differential processing and non-coaxial image taken in a non-coaxial image and i-2-th shot in i-th The difference image is obtained, and the reflection image from the eyeball is extracted from the difference image.

【0042】請求項による画像処理装置は、差分画像
を第1の閾値により処理した第1の2値化処理画像と、
暗撮影画像または非同軸画像を第2の閾値により処理し
た第2の2値化処理画像とを用いて、眼球からの反射像
を抽出する。
An image processing apparatus according to a ninth aspect of the present invention includes a first binarized image obtained by processing the difference image with a first threshold value,
The reflection image from the eyeball is extracted using the dark imaged image or the second binarized image obtained by processing the non-coaxial image with the second threshold value.

【0043】請求項10による画像処理装置は、第1の
差分画像を第1の閾値により処理した第1の差分処理画
像と、第2の差分画像を第1の閾値により処理した第2
の差分処理画像とを用いて、眼球からの反射像を抽出す
る。
An image processing apparatus according to a tenth aspect of the present invention is a first difference processed image obtained by processing a first difference image with a first threshold value and a second difference processed image obtained by processing a second difference image with a first threshold value.
The reflected image from the eyeball is extracted by using the difference processed image of.

【0044】請求項11による画像処理装置は、照明光
の強弱または光入力手段の入力ゲインを制御し、明撮影
画像を第1の閾値により処理した第1の2値化処理画像
と、暗撮影画像を第2の閾値により処理した第2の2値
化処理画像とを用いて、眼球からの反射像を抽出する。
An image processing apparatus according to the eleventh aspect controls the intensity of illumination light or the input gain of the light input means to process a bright imaged image by a first threshold value, a first binarized image, and a dark imaged image. A reflection image from the eyeball is extracted using the second binarized image obtained by processing the image with the second threshold value.

【0045】請求項12による画像処理装置は、i−1
番目に撮影した明撮影画像の2値化処理画像をi番目に
撮影した暗撮影画像の2値化処理画像でマスク処理して
得られた第1のマスク画像と、i−1番目に撮影した明
撮影画像の2値化処理画像をiー2番目に撮影した暗撮
影画像の2値化処理画像でマスク処理して得られた第2
のマスク画像とを求め、第1のマスク画像及び第2のマ
スク画像により、眼球からの反射像を抽出する。
The image processing apparatus according to claim 12 is i-1.
The first mask image obtained by masking the binarized image of the brightly photographed image taken at the second time with the binarized image of the dark photographed image taken at the i-th image, and the i-1 th imaged The second obtained by masking the binarized image of the bright photographed image with the binarized image of the dark photographed image i-2
, And the reflection image from the eyeball is extracted from the first mask image and the second mask image.

【0046】請求項13による画像処理装置は、i−1
番目に撮影した明撮影画像の2値化処理画像を、i番目
に撮影した暗撮影画像の2値化処理画像と、iー2番目
に撮影した暗撮影画像の2値化処理画像とで、マスク処
理して得られたマスク画像を求め、上記マスク画像によ
り、眼球からの反射像を抽出する。
The image processing apparatus according to the thirteenth aspect is i-1.
The binarized image of the bright photographed image captured next is the binarized image of the i-th captured dark captured image and the binarized image of the i-2nd captured dark captured image. The mask image obtained by the mask processing is obtained, and the reflection image from the eyeball is extracted from the mask image.

【0047】請求項14による画像処理装置は、同軸画
像を第1の閾値により処理した第1の2値化処理画像
と、非同軸画像を第2の閾値により処理した第2の2値
化処理画像とを用いて、眼球からの反射像を抽出する。
According to a fourteenth aspect of the present invention, in an image processing apparatus, a first binarized image obtained by processing a coaxial image with a first threshold value and a second binarized image obtained by processing a non-coaxial image with a second threshold value. The reflected image from the eyeball is extracted using the image.

【0048】請求項15による画像処理装置は、i−1
番目に撮影した同軸画像の2値化処理画像をi番目に撮
影した非同軸画像の2値化処理画像でマスク処理して得
られた第1のマスク画像と、i−1番目に撮影した同軸
画像の2値化処理画像をiー2番目に撮影した非同軸画
像の2値化処理画像でマスク処理して得られた第2のマ
スク画像とを求め、第1のマスク画像及び第2のマスク
画像により、眼球からの反射像を抽出する。
The image processing apparatus according to claim 15 is i-1.
The first mask image obtained by masking the binarized image of the coaxial image captured second with the binarized image of the non-coaxial image captured ith, and the coaxial image captured i-1 The second mask image obtained by masking the binarized image of the image with the binarized image of the non-coaxial image captured i-2nd is obtained, and the first mask image and the second mask image are obtained. The reflected image from the eyeball is extracted from the mask image.

【0049】請求項16による画像処理装置は、i−1
番目に撮影した同軸画像の2値化処理画像を、i番目に
撮影した非同軸画像の2値化処理画像とiー2番目に撮
影した非同軸画像の2値化処理画像でマスク処理して得
られたマスク画像を求め、上記マスク画像により、眼球
からの反射像を抽出する。
The image processing apparatus according to the sixteenth aspect is i-1.
The binarized image of the coaxial image captured second is masked with the binarized image of the non-coaxial image captured i-th and the binarized image of the non-coaxial image captured i-2. The obtained mask image is obtained, and the reflection image from the eyeball is extracted from the mask image.

【0050】請求項17による画像処理装置は、差分処
理される画像またはマスク処理される画像を縮退処理す
る。
An image processing apparatus according to a seventeenth aspect performs a degeneracy process on an image to be subjected to difference processing or an image to be masked.

【0051】請求項18による画像処理装置は、差分処
理する画像またはマスク処理する画像を拡大処理する。
An image processing apparatus according to the eighteenth aspect enlarges an image to be subjected to difference processing or an image to be masked.

【0052】請求項19による画像処理装置は、同軸照
明と非同軸照明の位置関係に対応して拡大または縮退処
理に方向性を持たせる。
In the image processing apparatus according to the nineteenth aspect , the enlargement or contraction processing is given a directionality in accordance with the positional relationship between the coaxial illumination and the non-coaxial illumination.

【0053】請求項20による画像処理装置は、検出対
象者の装着物の有無を判定し、判定結果によって、第1
の2値化処理画像および第2の2値化処理画像を用いた
装着用の画像処理と第1の2値化処理画像を用いた非装
着用の画像処理とを切り換える、または各画像処理によ
る処理結果を選択する。
[0053] The image processing apparatus according to claim 20, to determine the presence or absence of attachment of the detection subject, the determination result Therefore, first
Switching between the image processing for wearing using the binarized image and the second binary image, and the image processing for non-wearing using the first binary image , or The processing result of each image processing is selected.

【0054】請求項21による画像処理装置は、照明光
による反射像の数または最大輝度により装着物の有無を
検出する。
An image processing apparatus according to a twenty-first aspect detects the presence / absence of a wearing object based on the number of reflection images by illumination light or the maximum brightness.

【0055】請求項22による画像処理装置は、特徴点
抽出手段は、装着物がある場合には照明光を強める。
The image processing apparatus according to the twenty-second aspect is characterized by
The extraction means intensifies the illumination light when there is a wearing object.

【0056】請求項23に係る画像処理装置は、特徴点
抽出手段は、装着物がある場合には光入力手段の入力ゲ
インを上げる。
The image processing apparatus according to claim 23 is characterized by
The extraction means is an input device for the optical input means when there is a wearing object.
Raise the inn.

【0057】請求項24による画像処理装置は、装着物
の装着用の画像処理結果と非装着用の画像処理結果によ
って、どちらか一方の画像処理結果を選択する。
An image processing apparatus according to a twenty-fourth aspect of the present invention selects either one of the image processing results depending on the image processing result for wearing and the image processing result for non-wearing.

【0058】[0058]

【実施例】実施例1. 以下、本発明の一実施例を図について説明する。図1に
おいて、60は網膜反射像を抽出するための第1の閾値
th1と、眼鏡による反射像を抽出するための第2の閾
値th2を有する2値化処理回路Bである。61は2値
化処理した内容を記憶する2値化メモリである。図2
(a)は眼鏡を装着した場合の撮影画像、図2(b)は
この撮影画像の輝度分布をB−B線で見た図である。図
2(b)に示すように、レンズ反射像8や眼鏡枠反射像
9は網膜反射像6より輝度が高くなる。
EXAMPLES Example 1. An embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, reference numeral 60 denotes a binarization processing circuit B having a first threshold value th1 for extracting a retina reflection image and a second threshold value th2 for extracting a reflection image from eyeglasses. Reference numeral 61 is a binarization memory that stores the contents of the binarization process. Figure 2
FIG. 2A is a photographed image when eyeglasses are worn, and FIG. 2B is a diagram showing the luminance distribution of the photographed image taken along line BB. As shown in FIG. 2B, the lens reflection image 8 and the spectacle frame reflection image 9 have higher luminance than the retina reflection image 6.

【0059】次に動作について説明する。図1におい
て、画像メモリ30に顔画像を入力するまでの動作は前
記従来例と同一の動作をする。図3に本実施例の居眠り
検出装置による居眠り検出の処理フローを示す。図3に
おいて、ST20で2値化処理回路B60は、第1の閾
値th1と第2の閾値th2との間の濃度の画素は白画
素(値1)、それ以外の濃度の画素は黒画素(値0)に
変換して2値化メモリ41に出力する。このとき、2値
化メモリ41の内容を図にしたのが図4である。図4に
示すとおり、網膜反射像6は円形の白領域、レンズ反射
像8及び眼鏡枠反射像9は穴の開いたドーナッツ状の白
領域となる。特徴計算回路50は2値化メモリ61にを
読み込んで、第2値化処理画像の形より、網膜反射像を
判別する。即ち、ST21で左上の白領域から順にラベ
リングを行い、ST22でドーナッツ状の白領域を除外
する。ドーナッツ状の白領域の判別には、例えば、画像
処理では公知であるオイラー数演算により判別する。S
T22でドーナッツ状の白領域を除いた図を図5に示
す。図5は網膜反射像のみが白領域として残った画像で
ある。以下、ステップST12以降は従来例と同一とな
り、従来と同様の動作により、網膜反射像6を抽出し
て、居眠りを検出することができる。
Next, the operation will be described. In FIG. 1, the operation until the face image is input to the image memory 30 is the same as that of the conventional example. FIG. 3 shows a processing flow of the doze detection by the doze detection device of the present embodiment. In FIG. 3, in ST20, the binarization processing circuit B60 determines that pixels having a density between the first threshold th1 and the second threshold th2 are white pixels (value 1), and pixels having other densities are black pixels ( The value is converted to 0) and output to the binarization memory 41. At this time, the contents of the binarization memory 41 are shown in FIG. As shown in FIG. 4, the retina reflection image 6 is a circular white region, and the lens reflection image 8 and the spectacle frame reflection image 9 are donut-shaped white regions with holes. The feature calculation circuit 50 reads into the binarization memory 61 and discriminates the retina reflection image from the shape of the second binarized image. That is, in ST21, labeling is performed in order from the upper left white area, and in ST22, the donut-shaped white area is excluded. The donut-shaped white area is determined by, for example, Euler number calculation which is well known in image processing. S
A diagram excluding the donut-shaped white region at T22 is shown in FIG. FIG. 5 is an image in which only the retina reflection image remains as a white region. Hereinafter, after step ST12, the process becomes the same as the conventional example, and the retinal reflection image 6 can be extracted and the dozing can be detected by the same operation as the conventional example.

【0060】実施例2. 上記実施例1では網膜反射像を用いて瞳孔を抽出し、居
眠りを検出するものを示した。本実施例では角膜の反射
像を用いて、視線方向や脇見を検出するものを示す。図
6は本実施例の脇見検出装置を示す構成図であり、図に
おいて、80はエッジ抽出回路、81は画像メモリ、7
2は脇見判定回路である。本実施例では、非同軸照明を
用いており、虹彩と、照明光による角膜の反射像である
プルキニエ像の位置関係により脇見や視線方向を求め
る。図7は顔を正面に向け、眼球を左に向けた場合の図
である。赤外線LED13がカメラのやや上に設置して
いる場合、眼球がカメラ方向を向いていると、プルキニ
エ像2は虹彩4の中心よりやや上に観察され、眼球が右
を向くとプルキニエ像2は虹彩4の左に、眼球が左を向
くとプルキニエ像2は虹彩4の右に観察される。プルキ
ニエ像の移動量は眼球の回転10度に対して約1mm程
度であり、プルキニエ像2と虹彩4の中心との位置関係
により眼球の角度を推定することができる。
Example 2. In the first embodiment described above, the one in which the pupil is extracted by using the retina reflection image to detect the drowsiness is shown. In the present embodiment, a method of detecting the line-of-sight direction and looking aside using a corneal reflection image is shown. FIG. 6 is a configuration diagram showing the inattentiveness detection device of the present embodiment, in which 80 is an edge extraction circuit, 81 is an image memory, and 7
2 is an inattentive judgment circuit. In the present embodiment, non-coaxial illumination is used, and the inattentive and line-of-sight directions are obtained from the positional relationship between the iris and the Purkinje image, which is the reflected image of the cornea due to the illumination light. FIG. 7 is a diagram when the face is directed to the front and the eyeball is directed to the left. When the infrared LED 13 is installed slightly above the camera, the Purkinje image 2 is observed slightly above the center of the iris 4 when the eyeball is facing the camera, and the Purkinje image 2 is iris when the eyeball is facing right. 4 to the left of the iris 4, the Purkinje image 2 is observed to the right of the iris 4. The amount of movement of the Purkinje image is about 1 mm per 10 degrees of rotation of the eyeball, and the angle of the eyeball can be estimated from the positional relationship between the Purkinje image 2 and the center of the iris 4.

【0061】次に動作について説明する。実施例1と同
様の動作により、検出対象者1の顔画像が画像メモリ3
0に入力される。図7は本実施により撮影された検出対
象者1の入力画像である。プルキニエ像2の抽出は2値
化処理回路B60により変換された2値化処理画像か
ら、特徴計算回路50により、実施例1と同様の動作に
より行われる。特徴計算回路50では、さらにプルキニ
エ像2の位置を白領域の重心計算により求める。次に、
虹彩4の中心位置の導出方法についてのべる。エッジ抽
出回路80は画像メモリ30からエッジ抽出処理を行
い、エッジ抽出結果を画像メモリ81に格納する。図8
にエッジ抽出結果を示す。特徴計算回路50はエッジ抽
出により得られた画像に対し、公知の円を求めるハフ変
換処理を用い、虹彩の大きさ2cm近傍に設定して、上
記ハフ変換処理を行い、虹彩の位置を求める。このと
き、演算量を少なくするためハフ変換の領域はプルキニ
エ像2の例えば2cm四方に限定する。特徴計算回路5
0は、さらにプルキニエ像2の位置と虹彩4の位置関係
から眼球の向き、即ち視線方向を求め、脇見検出回路7
2は、例えば眼球の向きが正面から20度以上の位置に
5秒以上いたとき脇見と判断して、警報回路71に警報
命令を出力する。
Next, the operation will be described. By the same operation as in the first embodiment, the face image of the detection target person 1 is displayed in the image memory 3
Input to 0. FIG. 7 is an input image of the person to be detected 1 captured by this embodiment. The Purkinje image 2 is extracted by the feature calculation circuit 50 from the binarized image converted by the binarization processing circuit B60 by the same operation as in the first embodiment. The feature calculation circuit 50 further calculates the position of the Purkinje image 2 by calculating the center of gravity of the white area. next,
A method of deriving the center position of the iris 4 will be described. The edge extraction circuit 80 performs edge extraction processing from the image memory 30 and stores the edge extraction result in the image memory 81. Figure 8
Shows the edge extraction result. The feature calculation circuit 50 uses the well-known Hough transform process for obtaining a circle on the image obtained by the edge extraction, sets the size of the iris near 2 cm, performs the Hough transform process, and obtains the position of the iris. At this time, in order to reduce the amount of calculation, the Hough transform area is limited to, for example, 2 cm square of the Purkinje image 2. Feature calculation circuit 5
0 further obtains the direction of the eyeball, that is, the line-of-sight direction from the positional relationship between the Purkinje image 2 and the iris 4, and the inattentive detection circuit 7
2 outputs an alarm command to the alarm circuit 71, for example, when the direction of the eyeball is at a position of 20 degrees or more from the front for 5 seconds or more, it is determined to be looking aside.

【0062】このように抽出する顔面の特徴点として、
眼球からの反射像を用いる場合、本発明の構成をとれ
ば、眼鏡等の装着物と顔面上の特徴点を区別でき、特徴
点の抽出が確実に行える。
As the facial feature points extracted in this way,
When a reflection image from an eyeball is used, the feature point on the face can be distinguished from the wearing object such as glasses by using the configuration of the present invention, and the feature point can be reliably extracted.

【0063】実施例3. 図9は本発明の実施例3による居眠り検出装置を示す構
成図である。実施例1の装置に対し、白領域縮退処理回
路62、及びこの処理回路62による処理結果を格納す
る2値化メモリ63が加わる。実施例1では、ドーナッ
ツ状の白領域を除外することで網膜反射像6を抽出した
が、本実施例では2値化メモリ61の白領域を縮退処理
することにより網膜反射像6を抽出する。
Example 3. FIG. 9 is a configuration diagram showing a doze detection device according to a third embodiment of the present invention. A white area degeneracy processing circuit 62 and a binarization memory 63 for storing a processing result by the processing circuit 62 are added to the apparatus of the first embodiment. Although the retinal reflection image 6 is extracted by excluding the donut-shaped white area in the first embodiment, the retinal reflection image 6 is extracted by degenerating the white area of the binarization memory 61 in the present embodiment.

【0064】実施例1では2値化処理が最適に行われた
場合を示したが、眼鏡の向きや材質によっては図4の様
なドーナッツ状の反射像が得られないこともあり、例え
ば図10のようにドーナッツが欠けたり(9a)、小さ
な白領域(9b)が出現したりする。白領域縮退処理回
路61は例えば5×5のミニマムフィルタで構成され、
白領域の縮退処理を行う。その結果を図11に示す。こ
のようにすることにより、網膜反射像6の領域は小さく
なるが、レンズ反射像8や眼鏡枠反射像9の白領域を除
くことができる。
In the first embodiment, the case where the binarization processing is optimally performed has been shown. However, depending on the direction and material of the eyeglasses, a donut-shaped reflection image as shown in FIG. 4 may not be obtained. As in 10, donuts are chipped (9a) or small white areas (9b) appear. The white area degeneracy processing circuit 61 is composed of, for example, a 5 × 5 minimum filter,
A white area degeneration process is performed. The result is shown in FIG. By doing so, the area of the retina reflection image 6 becomes smaller, but the white areas of the lens reflection image 8 and the spectacle frame reflection image 9 can be excluded.

【0065】なお、本実施例3では白領域の縮退処理を
行ったが、縮退処理してから、例えば5×5のマックス
フィルタを用い、拡大処理を行うオープニング処理を行
っても良い。このとき、網膜反射像6のみが図10に示
す基の大きさに復元される。
In the third embodiment, the white area is degenerated, but the opening processing may be performed after the degeneration processing, for example, by using a 5 × 5 max filter to perform the enlargement processing. At this time, only the retina reflection image 6 is restored to the original size shown in FIG.

【0066】また、実施例3では縮退処理回路や拡大処
理回路を5×5のミニマムフィルタや5×5の拡大処理
回路で実現したが、5×5でなくても1×5、5×1な
ど1ラインのミニマムフィルタや拡大フィルタで実現し
てもよい。1ラインにすると眼鏡反射像除去の効果は小
さくなるが回路が簡単になる。さらに、縮退処理はミニ
マムフィルタに限るものではなく最小値から2番目の値
を取るようなフィルタでもよい。
Further, in the third embodiment, the degeneration processing circuit and the enlargement processing circuit are realized by a 5 × 5 minimum filter and a 5 × 5 enlargement processing circuit, but 1 × 5, 5 × 1 may be used instead of 5 × 5. It may be realized by a one-line minimum filter or a magnifying filter. If one line is used, the effect of removing the reflection image of the glasses is reduced, but the circuit becomes simple. Furthermore, the degeneracy process is not limited to the minimum filter, and may be a filter that takes the second value from the minimum value.

【0067】実施例4. 図12は本発明の実施例4による居眠り検出装置を示す
構成図である。図12において、32は撮影画像である
濃淡画像(256諧調の画像)を縮退処理する縮退処理
回路、33は上記濃淡画像を拡大処理する拡大処理回
路、40aは網膜反射像用の閾値th1(第1の閾値)
で2値化処理を行う第1の2値化処理回路、40bは眼
鏡反射用の閾値th2(第2の閾値)で2値化処理を行
う第2の2値化処理回路、41aは第1の2値化処理回
路40aで処理した第1の2値化処理画像を格納する第
1の2値化メモリ、41bは第2の2値化処理回路41
bで処理した第2の2値化処理画像を格納する第2の2
値化メモリである。65は第1の2値化処理画像を第2
の2値化処理画像でマスクするマスク回路、41Cはマ
スク処理することによって得られる2値化処理画像(第
3の2値化処理画像)を格納する第3の2値化メモリで
ある。マスク回路65は第1の2値化処理画像の白領域
のうち、第2の2値化処理画像の白領域に対応する画素
を黒にする様に動作する。
Example 4. FIG. 12 is a configuration diagram showing a doze detection device according to a fourth embodiment of the present invention. In FIG. 12, reference numeral 32 is a degeneration processing circuit that performs degeneration processing of a grayscale image (256-tone image) that is a captured image, 33 is a magnification processing circuit that magnifies the grayscale image, and 40a is a threshold value th1 for the retina reflection image (first Threshold of 1)
, A second binarization processing circuit for performing binarization processing with 40b, a second binarization processing circuit for performing binarization processing with a threshold value th2 (second threshold value) for eyeglass reflection, and 41a for the first binarization processing circuit. First binarization memory for storing the first binarization image processed by the binarization processing circuit 40a, 41b is the second binarization processing circuit 41.
the second binary storing the second binarized image processed in b.
It is a digitized memory. 65 designates the first binarized image as the second
41C is a masking circuit for masking with the binarized image, and 41C is a third binarizing memory for storing the binarized image (third binarized image) obtained by the masking process. The mask circuit 65 operates so that the pixels corresponding to the white area of the second binarized image in the white area of the first binarized image are made black.

【0068】次に動作について説明する。図12におい
て、画像メモリ30に顔画像を入力し、この濃淡画像を
縮退処理回路32で縮退処理し、第1の2値化処理回路
40aで第1の閾値th1により2値化処理し、第1の
2値化メモリ41aに2値化処理画像を格納する。一
方、上記濃淡画像を拡大処理回路33で拡大処理し、第
2の2値化処理回路40bで第2の閾値th2により2
値化処理し、第2の2値化メモリ41bに2値化処理画
像を格納する。図13は第1の2値化処理画像、図14
は第2の2値化処理画像である。図13では、網膜反射
像6、レンズ反射像8、眼鏡枠反射像9は図4に比べて
小さくなっている。図14では、レンズ反射像8、眼鏡
枠反射像9が図4に比べて大きくなっているのが分か
る。マスク回路65では、第1の2値化処理画像の白領
域のうち、第2の2値化処理画像の白領域に対応する画
素を黒にする様に動作する。即ち、第1の2値化処理画
像をP1(X,Y)、第2の2値化処理画像をP2
(X,Y)、マスク処理することによって得られる第3
の2値化処理画像をQ(X,Y)とすると、 P1(X,Y)=1、AND P2(X,Y)=0の
とき、 Q(x,y)=1 その他のとき、 Q(X,Y)=0 となる。この画像は図11と同様になる。特徴計算回路
50ではこの2値化処理画像により、従来と同様にし
て、瞳孔の見かけ上の大きさを計算し、居眠りを検出す
る。
Next, the operation will be described. In FIG. 12, a face image is input to the image memory 30, the grayscale image is subjected to degeneracy processing by the degeneracy processing circuit 32, and binarized by the first threshold value th1 in the first binarization processing circuit 40a. The binarized memory 41a stores the binarized image. On the other hand, the gray-scale image is enlarged by the enlargement processing circuit 33, and then the second binarization processing circuit 40b performs the enlargement processing by the second threshold value th2.
The binarization processing is performed, and the binarized image is stored in the second binarization memory 41b. FIG. 13 shows the first binarized image, and FIG.
Is a second binarized image. In FIG. 13, the retina reflection image 6, the lens reflection image 8, and the spectacle frame reflection image 9 are smaller than those in FIG. In FIG. 14, it can be seen that the lens reflection image 8 and the spectacle frame reflection image 9 are larger than those in FIG. The mask circuit 65 operates so that the pixels corresponding to the white areas of the second binarized image in the white areas of the first binarized image are made black. That is, the first binarized image is P1 (X, Y), and the second binarized image is P2.
(X, Y), third obtained by masking
If the binarized image of is Q (X, Y), P1 (X, Y) = 1, AND P2 (X, Y) = 0, Q (x, y) = 1 Others, Q (X, Y) = 0. This image is similar to FIG. The feature calculation circuit 50 calculates the apparent size of the pupil from the binarized image in the same manner as in the conventional case, and detects drowsiness.

【0069】なお、実施例4ではマスク処理を上述の数
式を用いた方法で実現したが、マスク処理はこの方法に
限るものではなく、例えば、第2の2値化処理画像を反
転し、反転した第2の2値化処理画像と第1の2値化処
理画像とのAND画像をとることにより実現してもよ
い。
In the fourth embodiment, the mask processing is realized by the method using the above-mentioned mathematical expression, but the mask processing is not limited to this method. For example, the second binarized image is inverted and then inverted. It may be realized by taking an AND image of the second binarized image and the first binarized image.

【0070】また、本実施例では縮退処理回路32と拡
大処理回路33を用いたが、どちらか一方、あるいは両
方とも省いてもよい。なお、両方とも省いた場合、マス
ク処理することによって得られる第3の2値化処理画像
は、図4と同様のドーナッツ状の白領域を含む画像とな
るので、特徴計算回路50で実施例1と同様にして、2
値化処理画像の形よりドーナッツ状の白領域を除外す
る。あるいは実施例3と同様にして、2値化処理画像を
縮退し、ドーナッツ状の白領域を除外する。
Although the degeneration processing circuit 32 and the enlargement processing circuit 33 are used in this embodiment, either one or both may be omitted. If both are omitted, the third binarized image obtained by the masking process becomes an image including a donut-shaped white area similar to that in FIG. In the same manner as 2
Donut-shaped white areas are excluded from the shape of the binarized image. Alternatively, in the same manner as in the third embodiment, the binarized image is degenerated to exclude the donut-shaped white area.

【0071】実施例5. 図15は本発明の実施例5による画像処理装置を示す構
成図である。上記実施例4では、マスク回路65を用い
たが、マスク回路65及び第3の2値化メモリ41cを
設けずに、特徴計算回路50において、例えば、次表に
示すように、第1の2値化処理画像に対し、N1、N
2、N3、第2の2値化処理画像に対し、M1、M2、
M3とラベリングし、各々その位置を求めて、第1の2
値化処理画像の白領域の中で、第2の2値化処理画像の
白領域と近い位置にある白領域を除くように処理しても
同様の画像処理が可能となる。即ち、N1に最も距離が
近いM1、N2に最も距離が近いM2、N3に最も距離
が近いM4を除き、残ったM3とM5が瞳孔であると判
断する。
Example 5. FIG. 15 is a block diagram showing an image processing apparatus according to the fifth embodiment of the present invention. Although the mask circuit 65 is used in the fourth embodiment, the feature calculation circuit 50 does not include the mask circuit 65 and the third binarization memory 41c. N1, N for the binarized image
2, N3, for the second binarized image, M1, M2,
Label with M3, find its position, and
The same image processing can be performed by removing the white area near the white area of the second binarized image from the white area of the binarized image. That is, except for M1 closest to N1, M2 closest to N2, and M4 closest to N3, it is determined that the remaining M3 and M5 are pupils.

【0072】[0072]

【表1】 [Table 1]

【0073】なお、上記実施例5では縮退処理回路32
と拡大処理回路33を用いたが、どちらか一方、あるい
は両方とも省いてもよい。
In the fifth embodiment, the degeneration processing circuit 32
Although the enlargement processing circuit 33 is used, either one or both may be omitted.

【0074】実施例6. 図16は本発明の実施例6による居眠り検出装置を示す
構成図である。上記実施例5では、画像メモリ30の内
容を拡大、または、縮退処理した後2つの閾値によりそ
れぞれ2値化処理をしたが、先に2値化処理した後、白
領域の拡大または縮退処理し、マスクを掛けても同様の
効果がある。このようにすることにより、ハードウェア
も濃淡画像の拡大縮退処理より、2値化した画像の拡大
縮退処理の方が小規模で済む。図16において、66は
網膜反射像を抽出するための第1の閾値th1と眼鏡か
らの反射像を抽出するための第2の閾値th2を有する
2値化処理回路Cであり、網膜反射像を抽出するための
第1の閾値th1による2値化処理の結果は2値化メモ
リ41aに、眼鏡反射像を抽出するための第2の閾値t
h2による2値化処理の結果は2値化メモリ41bに出
力される。第2の2値化メモリ41bの画像(第2の2
値化処理画像)は白領域拡大処理回路67で拡大処理さ
れ、2値化メモリ68に出力される。マスク回路65は
第1の2値化メモリ41aに格納された第1の2値化処
理画像の白領域を、2値化メモリ68に格納される拡大
された第2の2値化処理画像の白領域でマスク処理をす
る。この結果、第3の2値化メモリ41cに格納される
第3の2値化処理画像には網膜反射像6のみの白領域が
残る。
Example 6. 16 is a block diagram showing a doze detection device according to a sixth embodiment of the present invention. In the fifth embodiment, the contents of the image memory 30 are expanded or shrunk, and then binarized by two thresholds. However, the binarization is performed first, and then the white region is expanded or shrunk. , Even if you put a mask, the same effect. By doing so, the hardware also requires a smaller scale for the enlargement / reduction process of the binarized image than for the enlargement / reduction process of the grayscale image. In FIG. 16, reference numeral 66 denotes a binarization processing circuit C having a first threshold value th1 for extracting a retina reflection image and a second threshold value th2 for extracting a reflection image from eyeglasses. The result of the binarization processing by the first threshold value th1 for extraction is stored in the binarization memory 41a as the second threshold value t for extracting the eyeglass reflection image.
The result of the binarization processing by h2 is output to the binarization memory 41b. The image of the second binarization memory 41b (the second binary
The binarized image is output to the binarization memory 68 after being enlarged by the white area enlargement processing circuit 67. The mask circuit 65 converts the white area of the first binarized image stored in the first binarized memory 41a into the enlarged second binarized image stored in the binarized memory 68. Mask processing is performed in the white area. As a result, the white area of only the retina reflection image 6 remains in the third binarized image stored in the third binarization memory 41c.

【0075】上記実施例6において第3の2値化処理画
像に対し、白領域の縮退処理を実施すればさらに、眼鏡
反射像を除く効果がある。
In the sixth embodiment, if the white area degeneracy processing is performed on the third binarized image, the effect of removing the eyeglass reflection image is further obtained.

【0076】実施例7. 図17は本発明の実施例7による居眠り検出装置を示す
構成図である。上記実施例6では白領域拡大処理回路6
7を第2の2値化メモリ41bの画像に対して実行させ
たが、白領域縮退回路62を第1の2値化メモリ41a
の画像に対して実行させると更に効果がある。
Example 7. 17 is a configuration diagram showing a doze detection device according to a seventh embodiment of the present invention. In the sixth embodiment, the white area enlargement processing circuit 6
7 is executed for the image of the second binarization memory 41b, the white area degeneracy circuit 62 is used for the first binarization memory 41a.
It is even more effective when executed on the image.

【0077】なお、実施例7において、白領域拡大処理
回路67及び2値化メモリ68を省いた構成も実施例6
と同様の効果がある。
In the seventh embodiment, the configuration in which the white area enlargement processing circuit 67 and the binarization memory 68 are omitted is also the sixth embodiment.
Has the same effect as.

【0078】実施例8. 以上の実施例は照明光(LED)がオン状態のままで顔
面上の特徴点を装着物と区別して抽出するものについて
述べたが、本実施例では照明光をオン・オフに切り換え
て特徴点を装着物と区別して精度よく抽出するものを示
す。車室内など明るい環境においては、図18(a)に
示すように、顔面全体が明るく撮影され、外乱光の影響
でLEDオンの画像のみでは網膜反射像は顕著に現れな
い。一方、図18(b)に示すように、LEDオフの画
像は網膜反射像が現れず、瞳孔が暗く撮影される。従っ
て、LEDオンの明撮影画像からLEDオフの暗撮影画
像を差分した画像は、図18(c)に示すように、LE
Dオンの明撮影画像に比べて網膜反射像が顕著に現れ
る。本実施例は明るい環境で用いるために、差分処理を
施し、眼鏡反射像と網膜反射像を区別する画像処理装置
の実施例である。
Example 8. In the above embodiment, the feature point on the face is extracted by distinguishing it from the wearing object while the illumination light (LED) remains in the ON state, but in the present embodiment, the illumination light is switched on / off to extract the feature point. The one that is accurately extracted by distinguishing from the attached object is shown. In a bright environment such as a vehicle interior, as shown in FIG. 18A, the entire face is photographed brightly, and the retinal reflection image does not appear prominently only with the LED-on image due to the influence of ambient light. On the other hand, as shown in FIG. 18B, the retina reflection image does not appear in the LED-off image, and the pupil is photographed darkly. Therefore, the image obtained by subtracting the LED off bright image from the LED on dark image is LE as shown in FIG.
The retinal reflection image appears more prominently than in the D-on bright image. This embodiment is an embodiment of an image processing apparatus that performs difference processing to distinguish between a spectacle reflection image and a retinal reflection image for use in a bright environment.

【0079】図19は本発明の実施例8による居眠り検
出装置を示す構成図である。図において、30aは画像
メモリ、30bは画像メモリ30aの1フレーム前の内
容を記憶する画像メモリ、34は差分回路、30cは画
像メモリ、LED駆動回路14は赤外線LED13をタ
イミング発生回路31の信号によりフレーム周期ごとに
オン/オフを切り換えて発光させる。図20はLED発
光タイミングチャートと画像メモリ30a、30b、3
0cの内容であり、LEDのオンオフに対応して、画像
メモリ30aは順次、オフ画像bi、オン画像ai+1、オ
フ画像bi+2、オン画像ai+3・・・を格納していく。画
像メモリ30bは画像メモリ30aとは1フレーム遅れ
て、オフ画像bi 、オン画像ai+1、オフ画像bi+2、オ
ン画像ai+3 ・・・を格納していく。画像メモリ30c
は画像メモリ30bとは1フレーム遅れて、差分画像a
i+1−bi、ai+3−bi+2、・・・を格納していく。
FIG. 19 is a block diagram showing a doze detecting device according to the eighth embodiment of the present invention. In the figure, 30a is an image memory, 30b is an image memory that stores the contents of the previous frame of the image memory 30a, 34 is a difference circuit, 30c is an image memory, and the LED drive circuit 14 is an infrared LED 13 that is based on a signal from the timing generation circuit 31. The light is switched on and off for each frame cycle. FIG. 20 shows the LED light emission timing chart and the image memories 30a, 30b, and 3.
0c, and the image memory 30a sequentially stores the OFF image bi, the ON image ai + 1, the OFF image bi + 2, the ON image ai + 3, ... Corresponding to ON / OFF of the LED. The image memory 30b stores the off image bi, the on image ai + 1, the off image bi + 2, the on image ai + 3, ... With a delay of one frame from the image memory 30a. Image memory 30c
Is one frame behind the image memory 30b, and the difference image a
i + 1-bi, ai + 3-bi + 2, ... Are stored.

【0080】次に動作について説明する。LED駆動回
路14は赤外線LED13をフレーム周期ごとにオン/
オフを切り換えて発光させ、画像メモリ30aと画像メ
モリ30bには照明光の有無に応じた明撮影画像と暗撮
影画像が交互に格納される。差分回路34で上記明撮影
画像と暗撮影画像の差分画像をとり、画像メモリ30c
に格納する。画像メモリ30cに格納された画像は網膜
反射像が顕著に現われた画像となる。第1の2値化処理
回路40aは画像メモリ30cからこの差分画像を入力
し、第1の閾値th1で2値化処理を行う。得られた2
値化処理画像は図21(a)に示すように網膜反射像と
眼鏡反射像を含む。一方、第2の2値化処理回路40b
は画像メモリ30aから明撮影画像を入力し、第2の閾
値th2で2値化処理をする。この2値化処理画像は図
21(b)に示すように眼鏡反射像を含む。2値化メモ
リ41a、41bに格納された上記2値化処理画像はマ
スク回路でマスク処理され、図21(c)に示すドーナ
ッツ状の白領域を含む画像となる。以下の動作は実施例
1と同様である。
Next, the operation will be described. The LED drive circuit 14 turns on / off the infrared LED 13 every frame cycle.
The light is switched off to emit light, and the bright and dark images are alternately stored in the image memory 30a and the image memory 30b according to the presence or absence of illumination light. The difference circuit 34 obtains the difference image between the bright and dark photographed images, and the image memory 30c
To store. The image stored in the image memory 30c is an image in which a retina reflection image is prominently displayed. The first binarization processing circuit 40a inputs this difference image from the image memory 30c and performs binarization processing with the first threshold th1. Obtained 2
The binarized image includes a retinal reflection image and a spectacle reflection image as shown in FIG. On the other hand, the second binarization processing circuit 40b
Inputs a bright photographed image from the image memory 30a and performs binarization processing with the second threshold value th2. This binarized image includes a spectacle reflection image as shown in FIG. The binarized image stored in the binarized memories 41a and 41b is masked by the masking circuit and becomes an image including a donut-shaped white area shown in FIG. The subsequent operation is similar to that of the first embodiment.

【0081】このように照明光をオンオフさせて、得ら
れる明暗撮影画像の差分をとることにより、外乱光成分
が除去でき、網膜反射像が強調されるので、閾値th1
で2値化処理する際、網膜反射像を確実に抽出できる。
By turning on and off the illumination light in this way and taking the difference between the obtained bright and dark photographed images, the ambient light component can be removed and the retina reflection image is emphasized.
When the binarization processing is performed with, the retinal reflection image can be reliably extracted.

【0082】実施例9. 図22は本発明の実施例9による居眠り検出装置を示す
構成図である。本実施例は実施例8に白領域縮退回路6
2及び画像メモリ63を加えたものである。本実施例で
は、2値化メモリ41cに格納されたドーナッツ状の白
領域を含む画像に対し、実施例3と同様に縮退処理を行
なって、ドーナッツ状の白領域を除外する。
Example 9. 22 is a configuration diagram showing a doze detection device according to a ninth embodiment of the present invention. In this embodiment, the white area degeneration circuit 6 is added to the eighth embodiment.
2 and the image memory 63 are added. In the present embodiment, the image including the donut-shaped white area stored in the binarization memory 41c is subjected to the degeneration process in the same manner as in the third embodiment to exclude the donut-shaped white area.

【0083】実施例10. 図23は本発明の実施例10による居眠り検出装置を示
す構成図である。本実施例は実施例8の第2の2値化処
理回路40bの後に白領域拡大処理回路67及び2値化
メモリ68を加えたものであり、眼鏡反射像が拡大され
ているため、マスク回路65でマスク処理された2値化
処理画像は、実施例8に見られるようなドーナッツ状の
白領域が現われず、網膜反射像のみが得られる。従っ
て、以下、実施例4と同様にして居眠りの検出が行え
る。
Example 10. 23 is a configuration diagram showing a doze detection device according to a tenth embodiment of the present invention. In the present embodiment, a white area enlargement processing circuit 67 and a binarization memory 68 are added after the second binarization processing circuit 40b of the eighth embodiment, and since the eyeglass reflection image is enlarged, the mask circuit In the binarized image subjected to the mask process in 65, the donut-shaped white area as seen in Example 8 does not appear, and only the retina reflection image is obtained. Therefore, the snooze can be detected in the same manner as in the fourth embodiment.

【0084】なお、上記実施例では第2の2値化処理回
路40bの後に白領域拡大処理回路を入れたものを示し
たが、第1の2値化処理回路40aの後に白領域縮退処
理回路を入れてもよい。あるいは、白領域拡大処理回路
と白領域縮退処理回路の両方をいれてもよい。
In the above embodiment, the white area expansion processing circuit is inserted after the second binarization processing circuit 40b, but the white area degeneration processing circuit is provided after the first binarization processing circuit 40a. May be included. Alternatively, both the white area expansion processing circuit and the white area degeneration processing circuit may be included.

【0085】また、第2の2値化処理回路40bで2値
化処理する前に拡大処理してもよいし、第1の2値化処
理回路40aで2値化処理する前に差分画像を縮退処理
してもよい。
The enlargement processing may be performed before the binarization processing is performed by the second binarization processing circuit 40b, or the difference image may be displayed before the binarization processing is performed by the first binarization processing circuit 40a. Degeneration processing may be performed.

【0086】実施例11. 図24は本発明の実施例11による居眠り検出装置を示
す構成図である。本実施例は図21(a)に示す実施例
8における差分画像に対し、実施例1と同様に、2値化
処理回路B60により閾値th1、th2で2値化処理
を行うものであり、マクス回路65を用いずに、2値化
処理回路B60により直接、図21(c)と同様の2値
化処理画像を得るものである。
Example 11. 24 is a configuration diagram showing a doze detection device according to an eleventh embodiment of the present invention. In the present embodiment, the binarization processing circuit B60 binarizes the difference image in the eighth embodiment shown in FIG. 21A by the binarization processing circuit B60 as in the first embodiment. The binarization processing circuit B60 directly obtains a binarization processing image similar to that in FIG. 21C without using the circuit 65.

【0087】実施例12. 図25は本発明の実施例12による居眠り検出装置を示
す構成図である。本実施例では照明光を強と弱に切り換
えて特徴点を精度よく抽出するものを示す。図25にお
いて、30aは画像メモリ、30bは画像メモリ30a
の1フレーム前の内容を記憶する画像メモリ、34は差
分回路、30cは画像メモリ、LED駆動回路14は赤
外線LED13をタイミング発生回路31の信号により
フレーム周期ごとに強/弱を切り換えて発光させる。L
ED発光タイミングチャートと画像メモリ30a、30
bの内容は実施例8と同様であり、LEDの強弱に対応
して、強発光画像(以下、明撮影画像と記す)と弱発光
画像(以下、暗撮影画像と記す)を順次格納し、画像メ
モリ30cは差分画像を格納していく。
Example 12 25 is a configuration diagram showing a doze detection device according to a twelfth embodiment of the present invention. In this embodiment, the illumination light is switched between strong and weak to extract feature points with high accuracy. In FIG. 25, 30a is an image memory and 30b is an image memory 30a.
The image memory for storing the contents of the preceding frame, 34 is the difference circuit, 30c is the image memory, and the LED drive circuit 14 causes the infrared LED 13 to emit light by switching the strength / weakness for each frame cycle by the signal of the timing generation circuit 31. L
ED emission timing chart and image memories 30a, 30
The content of b is the same as in Example 8, and stores a strong light emission image (hereinafter, referred to as a bright image) and a weak light emission image (hereinafter, referred to as a dark image) in accordance with the intensity of the LED. The image memory 30c stores the difference image.

【0088】次に本実施例における差分画像を説明す
る。図26にCCDカメラ10の入出力特性を示す。カ
メラ10に入力される網膜反射像や眼鏡等の装着物から
の反射光の輝度は、照明光の強弱によって図26の横軸
に示すような順序になり、照明光が弱くても眼鏡の反射
はかなり明るい。このため、カメラからの出力(濃度
値)はオーバフローに近い値になる。すなわち、弱発光
でも強発光でも、眼鏡の反射像の濃度値は変化が少な
い。従って、明撮影画像から暗撮影画像を引くと、眼鏡
の反射像の濃度差は低く、画像メモリ30cには、眼鏡
の反射像はむしろ暗く、網膜反射像のみが明るく光る画
像が出現する。画像メモリ30cの画像を図27に示
す。この画像ではレンズ反射像8、眼鏡枠反射像9の中
心は暗くなるが、周りには明るいドーナッツ領域が現れ
る。
Next, the difference image in this embodiment will be described. FIG. 26 shows the input / output characteristics of the CCD camera 10. The retinal reflection image input to the camera 10 and the brightness of the reflected light from the wearing object such as spectacles are in the order shown on the horizontal axis of FIG. 26 depending on the intensity of the illuminating light. Is quite bright. Therefore, the output (density value) from the camera becomes a value close to overflow. That is, the density value of the reflected image of the eyeglasses does not change much regardless of whether the light emission is weak or strong. Therefore, when the dark photographed image is subtracted from the bright photographed image, the density difference of the reflection image of the eyeglasses is small, and an image in which the reflection image of the eyeglasses is rather dark and only the retina reflection image is bright appears in the image memory 30c. The image in the image memory 30c is shown in FIG. In this image, the centers of the lens reflection image 8 and the spectacle frame reflection image 9 are dark, but a bright donut area appears around them.

【0089】図25において、2値化処理回路A40
で、画像メモリ30cに格納された上記差分画像を閾値
th1で2値化すると図4のようになる。以下の動作は
実施例1と同様である。
In FIG. 25, the binarization processing circuit A40
Then, the difference image stored in the image memory 30c is binarized by the threshold value th1 as shown in FIG. The subsequent operation is similar to that of the first embodiment.

【0090】なお、本実施例12において、2値化メモ
リ41または2値化メモリ41cのあとに実施例3と同
様、白領域の縮退処理回路をいれても良い。
In the twelfth embodiment, a white area degeneracy processing circuit may be provided after the binarizing memory 41 or the binarizing memory 41c as in the third embodiment.

【0091】また、2値化処理回路A40は2値化処理
回路B60でもよく、同様の2値化処理画像となる。
Further, the binarization processing circuit A40 may be the binarization processing circuit B60, and a similar binarization processing image is obtained.

【0092】このように照明光を強弱発光させて、得ら
れる明暗撮影画像の差分をとることにより、装着物の反
射像の影響を消すように動作するので、特徴点検出精度
がさらに向上する。
As described above, the intensity of the illumination light is emitted to obtain the difference between the obtained bright and dark photographed images, so that the operation of eliminating the influence of the reflection image of the mounted object is eliminated, so that the feature point detection accuracy is further improved.

【0093】実施例13. 図28は本発明の実施例13による居眠り検出装置を示
す構成図である。本実施例では、実施例12の装置に対
し、画像メモリ30bの後に暗撮影画像を拡大処理する
拡大処理回路33及び画像メモリ30dを挿入してい
る。これにより、弱発光時の眼鏡からの反射像が拡大さ
れ、明撮影画像との間で差分を取ると、画像メモリ30
cには図29のように眼鏡反射が暗くなる画像が得られ
る。この画像を2値化処理回路A40により2値化すれ
ば、網膜反射像のみが抽出できる。
Example 13 28 is a configuration diagram showing a doze detection device according to a thirteenth embodiment of the present invention. In the present embodiment, an enlargement processing circuit 33 for enlarging a dark shot image and an image memory 30d are inserted after the image memory 30b in the apparatus of the twelfth embodiment. As a result, the reflected image from the eyeglasses at the time of weak light emission is magnified.
In c, an image in which the spectacle reflection is dark is obtained as shown in FIG. If this image is binarized by the binarization processing circuit A40, only the retina reflection image can be extracted.

【0094】実施例14. 図30は本発明の実施例14による居眠り検出装置を示
す構成図である。本実施例では、実施例13の装置に対
し、画像メモリ30aの後に明撮影画像を縮退処理する
縮退処理回路33及び画像メモリ30eを挿入してい
る。これにより、多少顔が動いても眼鏡反射を除去でき
るようになる。
Example 14. 30 is a configuration diagram showing a doze detection device according to a fourteenth embodiment of the present invention. In the present embodiment, a degeneration processing circuit 33 for degrading a bright photographed image and an image memory 30e are inserted after the image memory 30a in the apparatus of the thirteenth embodiment. This makes it possible to remove the spectacle reflection even if the face moves a little.

【0095】実施例15. 上記実施例12、13、14では差分画像のみを用いて
眼球の特徴点を抽出したが、実施例8、9、10と同様
に、2つの2値化処理画像を得、マスク処理を行なうよ
うにしてもよい。即ち、図19に示すように、第2の2
値化処理回路40bを設け、画像メモリ30aから弱発
光画像を入力し、第2の閾値th2で2値化処理をし
て、第2の2値化処理画像である眼鏡反射像を得、一
方、2値化処理回路40aで差分画像を第1の閾値th
1で2値化処理し、第1の2値化処理画像である網膜反
射像を得、両2値化処理画像をマスク回路65でマスク
処理して、図4と同様の画像を得てもよい。
Example 15. In the twelfth, thirteenth, and fourteenth embodiments, the feature points of the eyeball are extracted using only the difference image. However, like the eighth, ninth, and tenth embodiments, two binarized images are obtained and the masking process is performed. You may That is, as shown in FIG.
A binarization processing circuit 40b is provided, a weak light emission image is input from the image memory 30a, binarization processing is performed using the second threshold value th2, and a second reflection image, which is a reflection image of glasses, is obtained. The binarization processing circuit 40a converts the difference image into the first threshold th.
Even if the image similar to that in FIG. 4 is obtained by performing the binarization processing at 1 to obtain the retinal reflection image which is the first binarization processing image and masking both the binarization processing images by the mask circuit 65. Good.

【0096】また、本実施例のものに対し、第1の2値
化処理画像の縮退処理と、第2の2値化処理画像の拡大
処理のどちらか一方、あるいは両方を行なってもよい。
Further, with respect to the present embodiment, either one or both of the first binarization-processed image degeneracy process and the second binarization-processed image enlargement process may be performed.

【0097】また、第2の2値化処理回路40bで2値
化処理する前に拡大処理してもよいし、第1の2値化処
理回路40aで2値化処理する前に差分画像を縮退処理
してもよい。
The enlargement processing may be performed before the binarization processing is performed by the second binarization processing circuit 40b, or the difference image may be displayed before the binarization processing is performed by the first binarization processing circuit 40a. Degeneration processing may be performed.

【0098】実施例16. なお、上記実施例12〜15では照明光の強弱に対する
差分画像をもちいて網膜反射像を得たが、カメラのゲイ
ンを可変にし、LED強発光の代わりにカメラゲインを
大、LED弱発光の代わりにカメラゲインを小にしても
同様の効果がある。図31は本発明の実施例16による
居眠り検出装置を示す構成図である。図において、10
は入力ゲイン信号に対応して出力画像信号の大きさを変
化する機能があるCCDカメラ、16はゲイン信号を発
生するゲイン信号発生回路である。
Example 16. In the above-mentioned Examples 12 to 15, the retinal reflection image was obtained by using the difference image with respect to the intensity of the illumination light. However, the gain of the camera was made variable, and instead of the LED strong light emission, the camera gain was large, and instead of the LED weak light emission. Even if the camera gain is small, the same effect can be obtained. 31 is a configuration diagram showing a doze detection device according to a sixteenth embodiment of the present invention. In the figure, 10
Is a CCD camera having a function of changing the size of the output image signal in accordance with the input gain signal, and 16 is a gain signal generation circuit for generating a gain signal.

【0099】タイミング発生回路31のフレーム周期に
従ったタイミング信号によりゲイン信号発生回路16は
ゲイン大の信号とゲイン小の信号をCCDカメラ10に
出力する。画像メモリ30aには、フレーム周期毎にカ
メラゲインが異なる画像が入力され、画像入力のタイミ
ング毎に画像メモリ30aの画像は画像メモリ30bに
転送し、結果として画像メモリ30bには1フレーム前
の画像が格納されている。画像メモリ30aにゲイン大
の明撮影画像、画像メモリ30bにゲイン小の暗撮影画
像が入力されたとき、差分回路34は、ゲイン大の明撮
影画像からゲイン小の暗撮影画像を引く演算をする。画
像メモリ30cの画像は図27と同様である。以下の処
理は実施例12と同様である。
The gain signal generation circuit 16 outputs a signal with a large gain and a signal with a small gain to the CCD camera 10 according to the timing signal according to the frame cycle of the timing generation circuit 31. An image having a different camera gain is input to the image memory 30a at each frame cycle, and the image in the image memory 30a is transferred to the image memory 30b at each image input timing. As a result, the image in the previous frame is stored in the image memory 30b. Is stored. When a bright image having a large gain is input to the image memory 30a and a dark image having a small gain is input to the image memory 30b, the difference circuit 34 performs a calculation for subtracting the dark image having a small gain from the bright image having a large gain. . The image in the image memory 30c is the same as that in FIG. The subsequent processing is the same as in the twelfth embodiment.

【0100】本実施例では、フレーム周期毎にゲインの
大小を切り換えて検出対象者を撮影したが、撮影画像の
濃淡レベルを変化させるものなら何でもよく、カメラの
絞りを変化させても良い。即ち、ゲイン大小の代わり
に、絞り開閉度大と絞り開閉度小をフレーム周期毎に切
り換えても良い。また、カメラのシャッタ速度を可変に
し、遅いシャッタ速度による撮影と、早いシャッタ速度
による撮影とをフレーム周期毎に切り換えても良い。
In this embodiment, the object to be detected is photographed by switching the magnitude of the gain for each frame period, but any object that changes the gray level of the photographed image may be used, and the aperture of the camera may be changed. That is, instead of the gain magnitude, the aperture opening degree and the aperture opening degree may be switched for each frame cycle. Further, the shutter speed of the camera may be variable, and shooting with a slow shutter speed and shooting with a fast shutter speed may be switched for each frame cycle.

【0101】このように、照明光の強弱の代わりに、C
CDカメラのカメラゲインや絞りやシャッタスピード等
のカメラ(光入力手段)の入力ゲインを変化させて、同
様の動作を行なえば、SNは下がるかも知れないが、L
EDの寿命等が延びる等の利点がある。
Thus, instead of the intensity of the illumination light, C
If the camera gain of the CD camera and the input gain of the camera (optical input means) such as the aperture and the shutter speed are changed and the same operation is performed, SN may decrease, but L
There are advantages such as extending the life of the ED.

【0102】実施例17. 図32は本発明の実施例17による居眠り検出装置を示
す構成図である。本実施例では、検出対象者1をCCD
カメラ10と同軸で照明するLED13aと、検出対象
者1をCCDカメラ10と非同軸で照明するLED13
bを交互に発光させ、同軸照明と非同軸照明を切り換え
て特徴点を精度よく抽出するものである。即ち、同軸照
明の場合は、眼鏡枠反射像や眼鏡等の装着物からの反射
像と網膜反射像が撮像され(同軸画像)、非同軸照明の
場合は、装着物からの反射像のみが撮像される(非同軸
画像)。従って、同軸画像と非同軸画像の差分画像をと
ることにより、眼鏡反射が除去できる。
Example 17 32 is a block diagram showing a doze detection device according to a seventeenth embodiment of the present invention. In this embodiment, the detection target person 1 is a CCD
An LED 13a that illuminates the camera 10 coaxially, and an LED 13 that illuminates the detection target person 1 non-coaxially with the CCD camera 10.
b is emitted alternately, and the coaxial illumination and the non-coaxial illumination are switched to accurately extract the characteristic points. That is, in the case of coaxial illumination, a reflection image of a spectacle frame or a reflection image and a retina reflection image from a wearing object such as eyeglasses are captured (coaxial image), and in the case of non-coaxial illumination, only a reflection image from the wearing object is imaged. Is done (non-coaxial image). Therefore, the spectacle reflection can be removed by taking the difference image between the coaxial image and the non-coaxial image.

【0103】次に動作について説明する。図32におい
て、LED駆動回路14は赤外線LED13aと赤外線
LED13bをタイミング発生回路31の信号によりフ
レーム周期ごとに交互に切り換えて発光させる。LED
発光タイミングチャートと画像メモリ30a、30bの
内容は実施例8、12と同様であり、発光するLEDに
対応して、同軸画像と非同軸画像を順次格納する。拡大
処理回路33及び画像メモリ30dは非同軸画像を拡大
処理し、差分回路34はこの非同軸拡大処理画像を、画
像メモリ30aの同軸画像から差分し、差分画像を生成
する。以下、実施例13と同様に2値化処理回路A40
で、画像メモリ30cに格納された上記差分画像を閾値
th1で2値化し図4の網膜反射像を得る。
Next, the operation will be described. In FIG. 32, the LED drive circuit 14 alternately switches the infrared LED 13a and the infrared LED 13b by the signal of the timing generation circuit 31 for each frame period to emit light. LED
The light emission timing chart and the contents of the image memories 30a and 30b are the same as those in the eighth and twelfth embodiments, and the coaxial image and the non-coaxial image are sequentially stored corresponding to the LEDs that emit light. The enlargement processing circuit 33 and the image memory 30d perform enlargement processing on the non-coaxial image, and the difference circuit 34 subtracts the non-coaxial enlargement processed image from the coaxial image in the image memory 30a to generate a difference image. Hereinafter, as in the thirteenth embodiment, the binarization processing circuit A40
Then, the difference image stored in the image memory 30c is binarized with the threshold value th1 to obtain the retina reflection image of FIG.

【0104】本実施例では拡大処理回路33を設け、非
同軸画像を拡大処理し、同軸画像との間で差分画像を生
成した。これは眼鏡反射像の除去を確実にするためであ
る。即ち、LED13aと13bの位置が異なるため、
同軸画像と非同軸画像とで反射像の位置が多少異なる結
果、このまま差分を取れば眼鏡反射像の一部が残るが、
非同軸画像を拡大し、眼鏡反射像を拡大して差分を取る
ことにより、眼鏡反射像をすべて除去できる。
In this embodiment, the enlargement processing circuit 33 is provided to enlarge the non-coaxial image and generate a difference image between the non-coaxial image and the coaxial image. This is to ensure the removal of the spectacle reflection image. That is, since the positions of the LEDs 13a and 13b are different,
As a result of the position of the reflected image being slightly different between the coaxial image and the non-coaxial image, if the difference is taken as it is, a part of the reflected image of the glasses remains,
By enlarging the non-coaxial image, enlarging the spectacle reflection image, and taking the difference, all the spectacle reflection images can be removed.

【0105】なお、実施例14と同様に、縮退処理回路
32を、画像メモリ30aの後に入れ、同軸画像を縮退
処理して、非同軸拡大処理画像とで差分を取れば、多少
顔が動いても眼鏡反射を除去できるようになる。
As in the fourteenth embodiment, if the degeneracy processing circuit 32 is inserted after the image memory 30a and the coaxial image is degeneracy processed and the difference from the non-coaxial enlargement processed image is taken, the face moves slightly. Will also be able to remove eyeglass reflections.

【0106】なお、LEDの並んでいる方向が上下方向
なら、例えば5×5のマックスフィルタを7×5のマッ
クスフィルタに換え、拡大の方向を上下方向に強くすれ
ば除去効果があがる。
If the LEDs are arranged in the vertical direction, the removal effect can be improved by replacing the 5 × 5 max filter with a 7 × 5 max filter and strengthening the enlargement direction in the vertical direction.

【0107】実施例18. 上記実施例17では差分画像のみを用いて眼球の特徴点
を抽出したが、実施例8、15と同様に、2つの2値化
処理画像を得、マスク処理を行なうようにしてもよい。
即ち、図19に示すように、第2の2値化処理回路40
bを設け、画像メモリ30aから非同軸画像を入力し、
第2の閾値th2で2値化処理をして、第2の2値化処
理画像である眼鏡反射像を得、一方、2値化処理回路4
0aで差分画像を第1の閾値th1で2値化処理し、第
1の2値化処理画像である網膜反射像を得、両2値化処
理画像をマスク回路65でマスク処理して、図4と同様
の画像を得てもよい。
Example 18. In the seventeenth embodiment, the feature points of the eyeball are extracted using only the difference image, but as with the eighth and fifteenth embodiments, two binarized images may be obtained and the masking process may be performed.
That is, as shown in FIG. 19, the second binarization processing circuit 40
b, the non-coaxial image is input from the image memory 30a,
The binarization processing is performed with the second threshold value th2 to obtain the eyeglass reflection image which is the second binarization processed image, while the binarization processing circuit 4
0a, the difference image is binarized with the first threshold value th1, a retinal reflection image that is a first binarized image is obtained, and both binarized images are masked by the mask circuit 65. An image similar to that of 4 may be obtained.

【0108】また、本実施例のものに対し、第1の2値
化処理画像の縮退処理と、第2の2値化処理画像の拡大
処理のどちらか一方、あるいは両方を行なってもよい。
Further, with respect to the present embodiment, either one or both of the first binarization-processed image degeneracy process and the second binarization-processed image enlargement process may be performed.

【0109】また、第2の2値化処理回路40bで2値
化処理する前に拡大処理してもよいし、第1の2値化処
理回路40aで2値化処理する前に差分画像を縮退処理
してもよい。
Further, the enlargement processing may be performed before the binarization processing is performed by the second binarization processing circuit 40b, or the difference image may be displayed before the binarization processing is performed by the first binarization processing circuit 40a. Degeneration processing may be performed.

【0110】実施例19. 図33は本発明の実施例19による居眠り検出装置を示
す構成図である。本実施例は、上記実施例のように照明
光の強弱、または入力ゲインの大小、または同軸、非同
軸照明に対する差分画像をもちいて網膜反射像を得るの
ではなく、照明光の強弱、または入力ゲインの大小、ま
たは同軸、非同軸照明に対する2つの画像を、各々第1
の閾値と第2の閾値により2値化処理し、これらの2つ
の2値化処理画像を用いて、眼球からの反射像を顔面上
の特徴点として抽出するものである。図33において、
LED駆動回路14は赤外線LED13をタイミング発
生回路31の信号によりフレーム周期ごとに強/弱を切
り換えて発光させる。第1の2値化処理回路40aは画
像メモリ30aから明撮影画像を入力し、第1の閾値t
h1で2値化処理をして、第1の2値化処理画像である
網膜反射像と眼鏡反射像が含まれる画像を得る。一方、
第2の2値化処理回路40bでは画像メモリ30bから
暗撮影画像を入力し、第2の閾値th21で2値化処理
をして、第2の2値化処理画像である眼鏡反射像が含ま
れる画像を得る。マスク回路65で第1の2値化処理画
像を第2の2値化処理画像でマスク処理して、図4と同
様の画像を得る。以下の動作は上記各実施例と同様であ
る。
Example 19 33 is a block diagram showing a doze detection device according to a nineteenth embodiment of the present invention. The present embodiment does not obtain the retinal reflection image by using the difference image for the intensity of the illumination light, the magnitude of the input gain, or the coaxial or non-coaxial illumination as in the above-described embodiment, but the intensity of the illumination light, or the input Two images for high and low gain, coaxial and non-coaxial illumination,
Binarization processing is performed using the threshold value of 1 and the second threshold value, and the reflection image from the eyeball is extracted as a feature point on the face using these two binarized images. In FIG. 33,
The LED driving circuit 14 causes the infrared LED 13 to emit light by switching between strong / weak for each frame cycle according to a signal from the timing generation circuit 31. The first binarization processing circuit 40a inputs the bright captured image from the image memory 30a, and outputs the first threshold t
Binarization processing is performed at h1 to obtain an image including the retina reflection image and the eyeglass reflection image, which is the first binarized image. on the other hand,
In the second binarization processing circuit 40b, the dark image is input from the image memory 30b, binarization processing is performed with the second threshold value th21, and the eyeglass reflection image which is the second binarization processing image is included. Get the image that is displayed. The masking circuit 65 masks the first binarized image with the second binarized image to obtain an image similar to that shown in FIG. The following operation is the same as that of each of the above-mentioned embodiments.

【0111】なお、本実施例において、2値化メモリ4
1cのあとに実施例3と同様、白領域の縮退処理回路を
いれても良い。
In the present embodiment, the binarization memory 4
After 1c, as in the third embodiment, a white area degeneration processing circuit may be added.

【0112】また、第1の2値化処理画像の縮退処理
と、第2の2値化処理画像の拡大処理のどちらか一方、
あるいは両方を行なってからマスク処理を行なってもよ
い。
Further, either one of the degeneracy process of the first binarized image and the enlarging process of the second binarized image,
Alternatively, the mask processing may be performed after performing both.

【0113】実施例20. 図34は本発明の実施例20による居眠り検出装置を示
す構成図である。本実施例は、図33に示す装置に対
し、第2の2値化処理回路40bで2値化処理する前に
拡大処理回路33で拡大処理し、第1の2値化処理回路
40aで2値化処理する前に縮退処理回路32で縮退処
理するものである。
Example 20. 34 is a configuration diagram showing a doze detection device according to a twentieth embodiment of the present invention. In the present embodiment, the apparatus shown in FIG. 33 is enlarged by the enlargement processing circuit 33 before being binarized by the second binarization processing circuit 40b and binarized by the first binarization processing circuit 40a. The degeneracy processing circuit 32 performs a degeneracy process before the digitization process.

【0114】なお、上記実施例19、20は照明光を強
弱切り換えるものを示したが、入力ゲインを切り換える
もの、または同軸、非同軸照明を切り換えるものに対し
ても同様の構成が可能である。このように、実施例1
9、20では画像メモリの数が減り、変わりに2値化メ
モリが増えるが、2値化メモリの方がハードウェアが小
さいので、メモリ容量が小さくなり、装置が小型にな
る。また、濃淡画像の差分処理の代わりにマスク処理を
行うが、同様、処理回路が簡単になるので装置が小型に
なる。
Although the nineteenth and twentieth embodiments have been described as switching the intensity of the illumination light, the same configuration can be applied to switching the input gain or switching between coaxial and non-coaxial illumination. Thus, Example 1
In Nos. 9 and 20, the number of image memories is reduced and the binary memory is increased instead. However, since the binary memory has smaller hardware, the memory capacity becomes smaller and the apparatus becomes smaller. Further, mask processing is performed instead of the difference processing of the grayscale image, but similarly, the processing circuit becomes simple and the apparatus becomes compact.

【0115】実施例21. 図35は本発明の実施例21による居眠り検出装置を示
す構成図、図36は実施例21による居眠り検出装置の
動作を説明する説明図である。上記実施例19、20で
は画像メモリ30a、30bに格納された明暗撮影画像
を各々2値化処理回路40a、40bで2値化処理した
が、本実施例では、画像メモリと2値化処理回路を1つ
にし、特徴計算回路50において、2値化処理回路40
に対し、2値化の閾値を図36に示すように、フレーム
周期毎に切り換える処理をおこなう。このようにするこ
とにより、2値化メモリ41a、41b、41cに格納
される2値化処理画像は、実施例19と同様になる。本
実施例では、2値化処理回路が1つになり、画像メモリ
も少なくなるので回路がより小型になる。
Example 21. FIG. 35 is a configuration diagram showing a doze detection device according to a twenty-first embodiment of the present invention, and FIG. 36 is an explanatory diagram illustrating an operation of the doze detection device according to the twenty-first embodiment. In the nineteenth and twentieth embodiments, the bright and dark photographed images stored in the image memories 30a and 30b are binarized by the binarization processing circuits 40a and 40b, respectively. However, in this embodiment, the image memory and the binarization processing circuit are binarized. In the feature calculation circuit 50, and the binarization processing circuit 40
On the other hand, as shown in FIG. 36, the binarization threshold value is switched every frame period. By doing so, the binarized image stored in the binarized memories 41a, 41b, 41c becomes the same as that of the nineteenth embodiment. In this embodiment, the number of binarization processing circuits is one, and the image memory is also reduced, so that the circuit becomes smaller.

【0116】実施例22. 図37は本発明の実施例22による居眠り検出装置を示
す構成図である。本実施例は、顔が動いた場合にも精度
よく網膜反射像を抽出できるものであり、照明光を強弱
発光させて、順次得られる暗撮影画像、明撮影画像、暗
撮影画像の差分をとることにより、眼球からの反射像を
顔面上の特徴点として抽出するものである。図37にお
いて、30dはi番目に撮影した暗撮影画像を拡大処理
した画像を格納する画像メモリ、30bはi−1番目に
撮影した明撮影画像を格納する画像メモリ、30fはi
−2番目に撮影した暗撮影画像を拡大処理した画像を格
納する画像メモリ、35はi−1番目に撮影した明撮影
画像からi番目に撮影した暗撮影画像を差分処理する第
1の差分回路、36はi−1番目に撮影した明撮影画像
からiー2番目に撮影した暗撮影画像を差分処理する第
2の差分回路、30gは第1の差分回路35からの第1
の差分画像を格納する画像メモリ、30hは第2の差分
回路36からの第2の差分画像を格納する画像メモリ、
40は第1の閾値により第1の差分画像あるいは第2の
差分画像を処理する2値化処理回路A、37は2値化処
理回路Aで各々処理された第1の差分処理画像と第2の
差分処理画像とのAND画像をとるAND回路、40d
はAND画像を格納する2値化メモリである。
Example 22. 37 is a block diagram showing a doze detection device according to a twenty-second embodiment of the present invention. In the present embodiment, the retina reflection image can be accurately extracted even when the face moves, and the illumination light is made to emit strong and weak light to obtain the difference between the sequentially obtained dark photographed image, bright photographed image, and dark photographed image. As a result, the reflected image from the eyeball is extracted as a feature point on the face. In FIG. 37, 30d is an image memory for storing an image obtained by enlarging the i-th captured dark captured image, 30b is an image memory for storing the i-1st captured bright captured image, and 30f is an i.
-An image memory for storing an image obtained by enlarging the dark photographed image taken second, 35 is a first difference circuit for performing a difference process between the i-th photographed bright photographed image and the i-th photographed dark photographed image , 36 is a second difference circuit that performs a difference process on the i-1st bright photographed image to the i-2nd dark photographed image, and 30g is the first difference circuit from the first difference circuit 35.
Image memory for storing the differential image of the second differential image, and 30h for storing the second differential image from the second differential circuit 36.
Reference numeral 40 denotes a binarization processing circuit A that processes the first difference image or the second difference image according to the first threshold value, and 37 denotes the first difference processing image and the second difference processing image respectively processed by the binarization processing circuit A. AND circuit for taking an AND image with the difference processed image of 40d
Is a binarization memory for storing an AND image.

【0117】次に動作について説明する。LED駆動回
路14は赤外線LED13をフレーム周期ごとに強/弱
を切り換えて発光させ、画像メモリ30aと画像メモリ
30bには照明光の強弱に応じた暗撮影画像と明撮影画
像が交互に格納される。図38に検出対象者が左から右
に動いたとした時の画像メモリ30d、30b、30
f、30g、30hに格納される画像を眼鏡反射像と網
膜反射像に注目して模式的に示す。i−2番目及びi番
目に撮影した暗撮影画像を拡大処理した画像30F、3
0Dは眼鏡反射像が拡大されて撮像され、網膜反射像は
撮像されない。また、顔を動かしているので眼鏡反射像
は撮影画像上を移動し、画像30Fにおける眼鏡反射像
は左寄りに、画像30Dにおける眼鏡反射像は右寄りに
現われる。i−1番目に撮影した明撮影画像30Bは眼
鏡反射像と網膜反射像が撮像され、また、眼鏡反射像は
中央に現われる。第1の差分回路35で差分処理され、
メモリ30gに格納された画像30Gと、第2の差分回
路36で差分処理され、メモリ30hに格納された画像
30Hを第1の閾値により2値化処理回路A40でそれ
ぞれ2値化処理し、AND回路37でANDをとると、
画像40Dに示すAND画像が得られる。このAND画
像40Dは眼鏡反射像の大部分がほぼ除去され、網膜反
射像の抽出できた画像となっている。
Next, the operation will be described. The LED drive circuit 14 switches the intensity of the infrared LED 13 for each frame period to emit light, and the image memory 30a and the image memory 30b alternately store a dark image and a bright image corresponding to the intensity of the illumination light. . In FIG. 38, the image memories 30d, 30b, 30 when the detection target person moves from left to right
The images stored in f, 30g, and 30h are schematically shown focusing on the eyeglass reflection image and the retinal reflection image. Images 30F and 3F obtained by enlarging the i-2nd and i-th dark images.
In 0D, the spectacle reflection image is magnified and captured, and the retina reflection image is not captured. Further, since the face is moving, the spectacles reflection image moves on the captured image, the spectacles reflection image in the image 30F appears to the left, and the spectacles reflection image in the image 30D appears to the right. In the i-1th bright image 30B, a spectacle reflection image and a retinal reflection image are captured, and the spectacle reflection image appears in the center. The difference processing is performed by the first difference circuit 35,
The image 30G stored in the memory 30g and the image 30H subjected to the difference processing by the second difference circuit 36 and stored in the memory 30h are binarized by the binarization processing circuit A40 by the first threshold, and the AND operation is performed. When AND is taken in the circuit 37,
The AND image shown in the image 40D is obtained. The AND image 40D is an image in which most of the reflection image of the glasses is removed and the reflection image of the retina can be extracted.

【0118】このように、例えば実施例13において差
分画像を取る時、顔が動くと眼鏡反射像が充分除去でき
ないことがあるが、本実施例のようにして2つの差分画
像を用いて処理すると、精度よく網膜反射像を抽出でき
る。特徴計算回路50では網膜反射像のみを形等より抽
出し、上記各実施例と同様にして居眠りを検出する。
Thus, for example, when taking a difference image in the thirteenth embodiment, the eyeglass reflection image may not be sufficiently removed when the face moves, but when processing is performed using two difference images as in the present embodiment. , The retinal reflection image can be accurately extracted. The feature calculation circuit 50 extracts only the retina reflection image from the shape and the like, and detects the dozing in the same manner as in the above embodiments.

【0119】実施例23. 図39は本発明の実施例23による居眠り検出装置を示
す構成図である。本実施例は実施例22の構成のものに
対し、画像メモリ30bに格納される明撮影画像30B
を縮退処理回路32で縮退処理し、差分するときに差分
される側になる眼鏡反射像を小さくしている。これによ
り第1の差分画像30Gと第2の差分画像30Hにおい
ては、眼鏡反射像の残っている部分が小さくなり、その
結果、AND画像40Dにおいても、眼鏡反射像が殆ど
残らなくなる。
Example 23. 39 is a configuration diagram showing a doze detection device according to a twenty-third embodiment of the present invention. This embodiment is different from the one of the twenty-second embodiment in that the bright photographed image 30B stored in the image memory 30b is used.
Is subjected to the degeneracy processing by the degeneracy processing circuit 32 to reduce the spectacle reflection image on the side to be subtracted. As a result, in the first difference image 30G and the second difference image 30H, the remaining portion of the spectacle reflection image becomes small, and as a result, the spectacle reflection image hardly remains in the AND image 40D.

【0120】本実施例では縮退処理回路32と拡大処理
回路33の両方を入れたものを示したが、拡大処理回路
33を省いてもよいし、両方ともなくてもよい。
In this embodiment, both the degeneration processing circuit 32 and the enlargement processing circuit 33 are shown, but the enlargement processing circuit 33 may be omitted, or both may be omitted.

【0121】また、上記実施例22、23では照明光を
強弱切り換え、2種類の差分をとり画像処理するものを
示したが、実施例16と同様に入力ゲインを切り換え、
あるいは実施例17と同様に同軸照明と非同軸照明を切
り換え、実施例22、23と同様に2種類の差分をとる
構成であってもよい。
In the twenty-second and twenty-third embodiments, the intensity of the illumination light is switched and the image processing is performed by taking two types of differences, but the input gain is switched as in the sixteenth embodiment.
Alternatively, the configuration may be such that the coaxial illumination and the non-coaxial illumination are switched as in the seventeenth embodiment and two types of differences are obtained as in the twenty-second and twenty-third embodiments.

【0122】実施例24. 図40は本発明の実施例24による居眠り検出装置を示
す構成図である。本実施例は、上記実施例22、23と
同様に、顔が動いた場合にも精度よく網膜反射像を抽出
できるものであり、2種類の差分のとり方が異なるもの
である。図40において、38はi−1番目に撮影した
明撮影画像からi番目に撮影した暗撮影画像を差分した
差分画像30Gから、さらにiー2番目に撮影した暗撮
影画像を差分処理する差分回路であり、30jはこの差
分画像を格納する画像メモリである。
Example 24. 40 is a block diagram showing a doze detection device according to a twenty-fourth embodiment of the present invention. In the present embodiment, similar to Embodiments 22 and 23, the retinal reflection image can be accurately extracted even when the face moves, and the two types of differences are different. In FIG. 40, reference numeral 38 is a difference circuit for performing a difference process on the difference image 30G obtained by subtracting the i-1st photographed bright photographed image from the i-th photographed dark photographed image, and further the i-2nd photographed dark photographed image. And 30j is an image memory for storing this difference image.

【0123】次に動作について説明する。LED駆動回
路14は赤外線LED13をフレーム周期ごとに強/弱
を切り換えて発光させ、画像メモリ30aと画像メモリ
30bには照明光の強弱に応じた暗撮影画像と明撮影画
像が交互に格納される。図41に検出対象者が左から右
に動いたとした時の画像メモリ30d、30b、30
f、30g,30jに格納される画像を眼鏡反射像と網
膜反射像に注目して模式的に示す。i−2番目及びi番
目に撮影した暗撮影画像を拡大処理した画像30F、3
0D、i−1番目に撮影した明撮影画像30B、第1の
差分回路35で差分処理され、メモリ30gに格納され
た画像30Gは、上記実施例22と同じであり、本実施
例では差分画像30Gから、さらにiー2番目に撮影し
た暗撮影画像を差分回路38で差分する。この差分画像
30Jを第1の閾値により2値化処理回路A40で2値
化処理すると、実施例22で得られたAND画像40D
と同様の画像が得られ、眼鏡反射像の大部分がほぼ除去
され、網膜反射像の抽出できた画像となっている。
Next, the operation will be described. The LED drive circuit 14 switches the intensity of the infrared LED 13 for each frame period to emit light, and the image memory 30a and the image memory 30b alternately store a dark image and a bright image corresponding to the intensity of the illumination light. . In FIG. 41, the image memories 30d, 30b, 30 when the detection target person moves from left to right
The images stored in f, 30g, and 30j are schematically shown by focusing on the eyeglass reflection image and the retinal reflection image. Images 30F and 3F obtained by enlarging the i-2nd and i-th dark images.
The bright photographed image 30B photographed at 0D and i−1th and the image 30G that has been subjected to the difference processing by the first difference circuit 35 and stored in the memory 30g are the same as those in the above-described twenty-second embodiment. The difference circuit 38 subtracts the i-2nd dark image captured from 30G. When the difference image 30J is binarized by the binarization processing circuit A40 with the first threshold value, the AND image 40D obtained in the twenty-second embodiment is obtained.
An image similar to that obtained is obtained, and most of the reflection image of the eyeglasses is almost removed, and the retina reflection image can be extracted.

【0124】実施例25. 図42は本発明の実施例25による居眠り検出装置を示
す構成図である。本実施例は実施例23と同様、上記実
施例24の構成のものに対し、画像メモリ30bに格納
される明撮影画像30Bを縮退処理回路32で縮退処理
し、差分するときに削られる側になる眼鏡反射像の小さ
くしている。これにより実施例23と同様、眼鏡反射像
が殆ど残らなくなる。
Example 25. 42 is a configuration diagram showing a doze detection device according to a twenty-fifth embodiment of the present invention. Similar to the twenty-third embodiment, this embodiment is the same as the twenty-fourth embodiment, except that the bright captured image 30B stored in the image memory 30b is subjected to the degeneracy processing by the degeneracy processing circuit 32 and is reduced to the side to be subtracted. The eyeglass reflection image becomes smaller. As a result, as in the twenty-third embodiment, almost no spectacle reflection image remains.

【0125】本実施例では縮退処理回路32と拡大処理
回路33の両方を入れたものを示したが、拡大処理回路
33を省いてもよいし、両方ともなくてもよい。
In this embodiment, both the degeneration processing circuit 32 and the enlargement processing circuit 33 are shown. However, the enlargement processing circuit 33 may be omitted, or both may not be provided.

【0126】また、上記実施例22、23では照明光を
強弱切り換え、明撮影画像から2重に差分をとり画像処
理するものを示したが、実施例16と同様に、同軸照明
と非同軸照明を切り換え、同軸画像から実施例22、2
3と同様に2重に差分をとる構成であってもよい。
In the twenty-second and twenty-third embodiments, the intensity of the illumination light is switched and the difference is doubled from the bright photographed image to perform image processing. However, similar to the sixteenth embodiment, the coaxial illumination and the non-coaxial illumination are used. And the images of Examples 22 and 2 from the coaxial image.
As in the case of 3, the configuration may take a double difference.

【0127】実施例26. 図43は本発明の実施例26による居眠り検出装置を示
す構成図である。眼鏡の形状によっては、照明の位置を
少しずらせるだけで眼鏡レンズ上の反射像が動いてしま
い、同軸、非同軸照明に対して差分をとっても眼鏡レン
ズ上の反射像が残り、網膜反射像を抽出できないことが
ある。本実施例は、このような場合にも精度よく網膜反
射像が抽出できる装置であり、同軸照明における光軸に
対し対称となる2つの光軸で非同軸照明を行なうもので
ある。図43では、同軸照明の光軸に対し検出対象者を
LED13b、13cにより左右から照明して、非同軸
照明を実施する。
Example 26. 43 is a configuration diagram showing a doze detection device according to a twenty-sixth embodiment of the present invention. Depending on the shape of the spectacles, the reflected image on the spectacle lens will move just by slightly shifting the position of the illumination, and the reflected image on the spectacle lens will remain even if the difference between coaxial and non-coaxial illumination is taken. Sometimes it cannot be extracted. The present embodiment is an apparatus capable of accurately extracting a retina reflection image even in such a case, and performs non-coaxial illumination with two optical axes that are symmetrical with respect to the optical axis in coaxial illumination. In FIG. 43, the person to be detected is illuminated from the left and right by the LEDs 13b and 13c with respect to the optical axis of the coaxial illumination, and non-coaxial illumination is performed.

【0128】次に動作について説明する。LED駆動回
路14は赤外線LED13a、13b、13cをフレー
ム周期ごとに、非同軸左、同軸、非同軸右、同軸、非同
軸左、同軸、非同軸右・・・と切り換えて発光させ、画
像メモリ30aには同軸、非同軸に応じた同軸画像と非
同軸画像が交互に格納される。非同軸左画像が画像メモ
リ30aに入力されると拡大処理回路33で拡大処理さ
れ画像メモリ30dに格納される。次に、同軸画像が画
像メモリ30aに入力されると画像メモリ30bに格納
される。このとき、画像メモリ30dの非同軸左拡大画
像は画像メモリ30fに転送される。以下画像が入力す
る度にこの処理を繰り返す。例えばi番目に非同軸右画
像が画像メモリ30dに格納されたときは、画像メモリ
30bはi−1番目の同軸画像、画像メモリ30fには
i−2番目の非同軸左画像が格納されている。画像メモ
リ30d、30b、30f、30g、30hに格納され
る画像は図38と同様になる。即ち、画像30Fはi−
2番目に撮影された非同軸左の非同軸画像の拡大画像で
あり、眼鏡反射像は左寄りに現われる。画像30Dはi
番目に撮影した非同軸右の非同軸画像の拡大画像であ
り、眼鏡反射像は右寄りに現われる。30Bはi−1番
目に撮影した同軸照明の同軸画像であり、眼鏡反射像は
中央に現われる。これらの画像に対し、実施例22と同
様に2種類の差分をとることにより、眼鏡反射像の大部
分がほぼ除去され、網膜反射像の抽出が精度よくでき
る。
Next, the operation will be described. The LED drive circuit 14 switches the infrared LEDs 13a, 13b, 13c to non-coaxial left, coaxial, non-coaxial right, coaxial, non-coaxial left, coaxial, non-coaxial right ... A coaxial image and a non-coaxial image corresponding to coaxial and non-coaxial are alternately stored in the. When the non-coaxial left image is input to the image memory 30a, it is enlarged by the enlargement processing circuit 33 and stored in the image memory 30d. Next, when the coaxial image is input to the image memory 30a, it is stored in the image memory 30b. At this time, the non-coaxial left enlarged image in the image memory 30d is transferred to the image memory 30f. This process is repeated every time an image is input. For example, when the i-th non-coaxial right image is stored in the image memory 30d, the image memory 30b stores the i-1th coaxial image, and the image memory 30f stores the i-2th non-coaxial left image. . The images stored in the image memories 30d, 30b, 30f, 30g, 30h are the same as those in FIG. That is, the image 30F is i-
It is an enlarged image of the second non-coaxial left non-coaxial image captured, and the spectacle reflection image appears to the left. Image 30D is i
It is a magnified image of the non-coaxial image on the right of the non-coaxial right taken the second time, and the spectacle reflection image appears to the right. 30B is a coaxial image of the coaxial illumination taken at the (i-1) th position, and the reflection image of the glasses appears in the center. By taking two types of differences with respect to these images, as in the twenty-second embodiment, most of the spectacle reflection image is almost removed, and the retina reflection image can be extracted accurately.

【0129】なお、同軸照明に対し、対称な非同軸照明
をとる構成は、実施例23〜実施例25に対しても適用
できる。また、同軸照明に対し、対称な非同軸照明とし
ては、上下方向や斜め方向であってもよい。
Note that the configuration of symmetric non-coaxial illumination with respect to coaxial illumination can be applied to Examples 23 to 25. Further, as the non-coaxial illumination that is symmetrical with respect to the coaxial illumination, the vertical direction or the oblique direction may be used.

【0130】実施例27. 図44は本発明の実施例27による居眠り検出装置を示
す構成図である。本実施例は、上記実施例22〜23に
示した2種類の差分画像をもちいたものに対し、実施例
19〜20と同様、先に2値化処理して、この2値化処
理画像を用いて、2種類の差分画像の代わりに2種類の
マスク画像を得、特徴抽出を行なうものである。図44
において、LEDは弱、強、弱、強と順次切り換えて発
光する。i−2番目に撮影した暗撮影画像は2値化処理
回路40bで2値化され、2値化メモリ41bに格納さ
れる。i−1番目に撮影した明撮影画像は2値化処理回
路40aで2値化され、2値化メモリ41aに格納され
る。このとき、2値化メモリ41bのi−2番目の暗撮
影画像は2値化メモリ41eに転送される。次いでi番
目に撮影した暗撮影画像は2値化処理回路40bで2値
化され、2値化メモリ41bに格納される。このときi
番目の暗撮影画像は2値化メモリ41bに、i−1番目
の明撮影画像は2値化メモリ41aに、i−2番目の弱
発光画像は2値化メモリ41bに格納されていることに
なる。次に、マスク回路65aは2値化メモリ41aの
iー1番目の明撮影画像に対して2値化メモリ41bの
i番目の暗撮影画像でマスク処理をして結果を2値化メ
モリ41fに出力する。一方、マスク回路65bは2値
化メモリ41aのiー1番目の明撮影画像に対して2値
化メモリ41eのiー2番目の暗撮影画像でマスク処理
し、結果を2値化メモリ41gに出力する。次いで、A
ND回路37は2値化メモリ41fの内容と、2値化メ
モリ41gの内容のANDをとり、2値化メモリ41h
に結果を出力する。
Example 27. FIG. 44 is a configuration diagram showing a doze detection device according to a twenty-seventh embodiment of the present invention. In this embodiment, the two types of difference images shown in the above-mentioned Embodiments 22 to 23 are used, and similarly to Embodiments 19 to 20, the binarization processing is performed first, and this binarized image is processed. By using it, two types of mask images are obtained instead of two types of difference images, and feature extraction is performed. Figure 44
In, the LED emits light by sequentially switching between weak, strong, weak, and strong. The i-2 dark captured image is binarized by the binarization processing circuit 40b and stored in the binarization memory 41b. The (i-1) th bright photographed image is binarized by the binarization processing circuit 40a and stored in the binarization memory 41a. At this time, the i-2th dark image in the binarization memory 41b is transferred to the binarization memory 41e. Next, the i-th captured dark image is binarized by the binarization processing circuit 40b and stored in the binarization memory 41b. Then i
The second dark shot image is stored in the binarization memory 41b, the i-1th bright shot image is stored in the binarization memory 41a, and the i-2th weak light emission image is stored in the binarization memory 41b. Become. Next, the mask circuit 65a performs a mask process on the i-1th bright photographed image of the binarization memory 41a with the i-th dark photographed image of the binarization memory 41b, and outputs the result to the binarization memory 41f. Output. On the other hand, the mask circuit 65b masks the i-1st bright photographed image of the binarization memory 41a with the i-2nd dark photographed image of the binarization memory 41e, and stores the result in the binarization memory 41g. Output. Then A
The ND circuit 37 ANDs the contents of the binarization memory 41f and the contents of the binarization memory 41g, and binarizes the memory 41h.
Output the result to.

【0131】なお、実施例24〜実施例26に対して
も、本実施例と同様、先に2値化処理してマスク処理を
行なってもよい。
For the twenty-fourth to twenty-sixth embodiments, the binarization process and the masking process may be performed first as in the present embodiment.

【0132】このような構成にすることにより、実施例
22〜26に比べて、2値化メモリは増えるが、画像メ
モリが少なくて済み差分回路も省けるので、小型で低価
格の装置ができる効果がある。
With such a configuration, the number of binarization memories is increased as compared with the 22nd to 26th embodiments, but the image memory is small and the difference circuit can be omitted. Therefore, a compact and low-priced device can be obtained. There is.

【0133】実施例28. 図45は本発明の実施例28による居眠り検出装置を示
す構成図である。本実施例は実施例3の構成のものに対
し、眼鏡の有無を判断する眼鏡装着判定手段69を備え
たものである。眼鏡装着判定手段69は、2値化メモリ
61における白領域をラベリング処理し、白領域の個数
を数える。眼鏡の非装着時には反射像は2つ、装着時に
は3つ以上あるので、白領域の数で眼鏡の有無を判断す
る。特徴計算回路50は、眼鏡装着判定手段69の判定
結果により、眼鏡装着用の特徴抽出ロジックと、眼鏡非
装着用のロジックを切り替える。例えば、図10では5
個あるので、眼鏡装着と判断し、実施例3と同様に2値
化メモリ63の内容から網膜反射像6を抽出する処理を
行う。眼鏡非装着と判断された時には、2値化メモリ6
1の内容から網膜反射像6を抽出する処理を行う。
Example 28. 45 is a block diagram showing a doze detection device according to a twenty-eighth embodiment of the present invention. The present embodiment is different from the structure of the third embodiment in that a spectacle wearing determination means 69 for determining the presence or absence of spectacles is provided. The spectacle wearing determination means 69 performs a labeling process on the white areas in the binarized memory 61 and counts the number of white areas. Since there are two reflected images when the glasses are not worn and three or more when the glasses are worn, the presence or absence of the glasses is determined based on the number of white areas. The feature calculation circuit 50 switches between the feature extraction logic for wearing spectacles and the logic for not wearing spectacles according to the determination result of the spectacle wearing determination means 69. For example, in FIG.
Since there is one, it is determined that the user wears glasses, and the processing for extracting the retina reflection image 6 from the contents of the binarization memory 63 is performed as in the third embodiment. When it is determined that the glasses are not worn, the binarization memory 6
Processing for extracting the retina reflection image 6 from the contents of 1 is performed.

【0134】縮退処理をすると網膜反射像6の情報が少
なくなるが、本実施例の場合は、眼鏡装着時の、瞳孔抽
出精度が向上する。
Although the information of the retina reflection image 6 is reduced by the degeneration process, in the case of the present embodiment, the accuracy of pupil extraction when the eyeglasses are worn is improved.

【0135】なお、上記実施例では眼鏡装着判定手段6
9は、2値化メモリ61における白領域の個数を数え、
眼鏡の装着を判定したが、眼鏡反射像は網膜反射像に比
べて輝度が著しく高いことから、眼鏡装着判定手段69
は、画像メモリ30から信号を取入れ、最大輝度をみ
て、所定値以上なら眼鏡装着と判定してもよい。
In the above embodiment, the spectacle wearing determination means 6
9 counts the number of white areas in the binarization memory 61,
Although it was determined that the spectacles were worn, the spectacles reflected image had significantly higher brightness than the retina reflected image, and therefore the spectacles wearing determination means 69.
May take in a signal from the image memory 30, look at the maximum brightness, and if it is equal to or higher than a predetermined value, it may be determined to be wearing glasses.

【0136】また、上記各実施例では眼鏡を装着するも
のについて述べてきたが、イヤリング等の装着物に対し
ても同様の効果がある。
Further, in each of the above-mentioned embodiments, the case of wearing the spectacles has been described, but the same effect can be obtained even with a wearing article such as earrings.

【0137】図46は本発明の実施例28による他の居
眠り検出装置を示す構成図である。図45に示す実施例
では画像処理により眼鏡装着を判断したが、スイッチ1
5により眼鏡装着か非装着かの信号を特徴計算回路50
に入力してもよい。特徴計算回路50の動作は、眼鏡の
有無により、眼鏡装着用の特徴抽出ロジックと、眼鏡非
装着用のロジックを、上記実施例と同様にして切り替え
る。即ち、眼鏡装着時には、2値化メモリ63の内容か
ら網膜反射像6を抽出する処理を行い、眼鏡非装着時に
は、2値化メモリ61の内容から網膜反射像6を抽出す
る処理を行う。
FIG. 46 is a block diagram showing another doze detecting device according to the twenty-eighth embodiment of the present invention. In the embodiment shown in FIG. 45, it is determined by the image processing whether or not the glasses are worn.
5, the feature calculation circuit 50 detects the signal of whether the glasses are worn or not.
You may enter in. The operation of the feature calculation circuit 50 switches between the feature extraction logic for wearing spectacles and the logic for not wearing spectacles in the same manner as in the above embodiment depending on the presence or absence of spectacles. That is, when the spectacles are worn, the process of extracting the retinal reflection image 6 from the contents of the binarized memory 63 is performed, and when the spectacles are not worn, the process of extracting the retinal reflection images 6 from the contents of the binarized memory 61 is performed.

【0138】図47は本発明の実施例28によるさらに
他の居眠り検出装置を示す構成図である。図47におい
て、特徴計算回路50は、眼鏡の有無により、眼鏡装着
用の特徴抽出ロジックと、眼鏡非装着用のロジックを切
り替えるだけでなく、さらに撮影条件を変えるものであ
る。即ち、特徴計算回路50は眼鏡を装着すると網膜反
射像6が暗くなるので、眼鏡装着時には裸眼時に比べて
赤外線LED13の放射パワーを上げるように、LED
駆動回路14を制御する。他の動作は図46に示す実施
例と同じである。このようにすることにより、適正な光
量で照明するので、眼鏡装着時でも裸眼時でも正しく特
徴点を抽出することができる。
FIG. 47 is a block diagram showing still another doze detecting device according to the twenty-eighth embodiment of the present invention. In FIG. 47, the feature calculation circuit 50 not only switches between the feature extraction logic for wearing spectacles and the logic for not wearing spectacles, but further changes the shooting condition depending on the presence or absence of spectacles. That is, since the retina reflection image 6 becomes dark when the spectacles are worn by the feature calculation circuit 50, when the spectacles are worn, the radiant power of the infrared LED 13 is increased as compared with the naked eye.
The drive circuit 14 is controlled. Other operations are the same as those of the embodiment shown in FIG. By doing so, since the illumination is performed with an appropriate amount of light, it is possible to correctly extract the feature points even when wearing glasses or with the naked eye.

【0139】なお、図45に示す装置に対しても、眼鏡
装着の有無により撮影方法を切り換えるようにしてもよ
い。また、眼鏡装着の有無を判断してLEDの放射パワ
ーを変えたが、眼鏡装着時にはカメラのゲインを上げ、
裸眼時にはカメラのゲインを下げるようにしても同様の
効果がある。
With respect to the apparatus shown in FIG. 45, the photographing method may be switched depending on whether or not the glasses are worn. Also, the radiant power of the LED was changed by judging whether or not the glasses were worn, but when the glasses were worn, the gain of the camera was increased.
The same effect can be obtained by lowering the gain of the camera with the naked eye.

【0140】実施例29. なお、上記実施例28において、特徴計算回路50は、
眼鏡の有無により、眼鏡装着用の画像処理と、眼鏡非装
着用の画像処理を切り替えるものを示したが、予め、眼
鏡装着用の画像処理と、眼鏡非装着用の画像処理で網膜
反射像を抽出しておき、眼鏡の有無によって、上記画像
処理結果を選択するようにしてもよい。
Example 29. In the twenty-eighth embodiment, the feature calculation circuit 50
Depending on the presence or absence of eyeglasses, the image processing for wearing eyeglasses and the one for switching image processing for not wearing eyeglasses are shown, but in advance, image processing for wearing eyeglasses and retina reflection image by image processing for not wearing eyeglasses are performed. The image processing result may be selected and the image processing result may be selected depending on the presence or absence of glasses.

【0141】あるいは、特徴計算回路50は、眼鏡装着
用の画像処理と非眼鏡装着用の画像処理とを有し、画像
処理結果によってどちらか一方の画像処理結果を選択し
もよい。例えば、図47の場合、2値化メモリ61の
白領域の個数と、2値化メモリ63の白領域の個数を比
べ、2値化メモリ61の白領域の個数と2値化メモリ6
3の白領域の個数が同じならば、眼鏡非装着として、2
値化メモリ61による特徴抽出結果を選択し、個数が違
えば、眼鏡装着として、2値化メモリ63による特徴抽
出結果を選択する。また、2値化メモリ61の白領域の
面積と、2値化メモリ63の白領域の面積を一定時間記
憶し、瞬きにより白領域の面積が小さくなることから、
面積が小さくなる割合が大きい方の、特徴抽出結果を選
択しても良い。
[0141] Alternatively, feature calculation circuit 50, and an image processing of the image processing and non-ophthalmic mounting for wearing glasses, but it may also select an image processing result of either the image processing result. For example, in the case of FIG. 47, the number of white areas in the binarization memory 61 and the number of white areas in the binarization memory 63 are compared, and the number of white areas in the binarization memory 61 and the binarization memory 6 are compared.
If the number of white areas of 3 is the same, it is determined that no glasses are attached and 2
The feature extraction result by the binarization memory 61 is selected, and if the numbers are different, the feature extraction result by the binarization memory 63 is selected for wearing glasses. Further, since the area of the white region of the binarization memory 61 and the area of the white region of the binarization memory 63 are stored for a certain period of time, and the area of the white region becomes smaller due to blinking,
The feature extraction result having a larger area reduction ratio may be selected.

【0142】さらに、上記実施例は実施例3の構成のも
のに対し、眼鏡装着の有無に応じた画像処理または画像
処理結果を選択するものを示したが、他の実施例に対し
て適用してもよい。
Further, in the above-described embodiment, the image processing or the image processing result is selected according to the presence / absence of wearing of the glasses in contrast to the configuration of the third embodiment, but it is applied to other embodiments. May be.

【0143】実施例30. さらに、上記各実施例では2値化処理回路において、第
1の閾値th1と第2の閾値th2は予め決められた所
定の値を用いたが、撮影画像、検出対象者近傍の照度、
または2値化処理画像をもとに、第1の閾値と第2の閾
値を決定すると、網膜反射像と装着物からの反射像とを
より正確に判別できる。本実施例では入力画像に従って
閾値th1、th2を設定するものを示す。図48はこ
のような居眠り検出装置の一例を示す構成図である。図
において、64はヒストグラム演算回路であり、画像メ
モリ30から画像を入力し、入力画像の最大濃度と平均
濃度と分散をもとに、以下のように閾値th1、th2
を設定する。 th1=平均濃度 + 3×分散 ・・・(1) th2=最大濃度 − (最大濃度−th1)/2 ・・・(2) このようして得られた閾値th1、th2により、2値
化処理することにより、網膜反射像を精度よく抽出でき
る。
Example 30. Furthermore, in each of the above-described embodiments, in the binarization processing circuit, the first threshold value th1 and the second threshold value th2 use predetermined predetermined values, but the captured image, the illuminance in the vicinity of the detection target person,
Alternatively, if the first threshold value and the second threshold value are determined based on the binarized image, the retina reflection image and the reflection image from the mounted object can be more accurately discriminated. In this embodiment, the thresholds th1 and th2 are set according to the input image. FIG. 48 is a block diagram showing an example of such a drowsiness detection device. In the figure, reference numeral 64 denotes a histogram calculation circuit, which inputs an image from the image memory 30, and based on the maximum density, average density and variance of the input image, thresholds th1 and th2 are set as follows.
To set. th1 = average density + 3 × dispersion (1) th2 = maximum density− (maximum density−th1) / 2 (2) Binarization processing using the threshold values th1 and th2 thus obtained By doing so, the retina reflection image can be accurately extracted.

【0144】なお、上記実施例において、特徴抽出回路
50において、ヒストグラム演算回路64から最大濃度
を入力し、この入力画像の最大濃度に応じてLED光量
を変え、レンズ反射像8や眼鏡枠反射像9がオーバフロ
ーしないように設定すれば、網膜反射像6とレンズ反射
像8との濃度の差が出やすくなり、閾値th1、th2
が決定しやすい。図49はこのような実施例を示すもの
であり、特徴抽出回路50は最大濃度が255に近けれ
ば、光量を下げるように、LED駆動回路14に指令を
出す。
In the above embodiment, the maximum density is input from the histogram calculation circuit 64 in the feature extraction circuit 50, the LED light amount is changed according to the maximum density of the input image, and the lens reflection image 8 and the spectacle frame reflection image are changed. If 9 is set not to overflow, a difference in density between the retina reflection image 6 and the lens reflection image 8 is likely to occur, and the threshold values th1 and th2
Is easy to determine. FIG. 49 shows such an embodiment, and the feature extraction circuit 50 issues a command to the LED drive circuit 14 to reduce the light amount when the maximum density is close to 255.

【0145】実施例31. 上記実施例30では入力画像全体の平均濃度を用いて閾
値の決定をしたが、図50は夜間の網膜反射を含む画像
全体の濃度分布であり、濃度値aを持つ画素数をn
(a)としたものである。ここでaは0〜255までの
値を取る。また、Aは最小の濃度、Bは濃度分布の立ち
上がり濃度、Cは最大濃度(濃度max)である。図50
において、顔面領域及び背景は暗いので点Bより暗い濃
度を持つ。これに比べ、網膜反射像や眼鏡の反射像は著
しく明るく、画素数が少ないので点Bから点Cの分布内
にある。従って、上記実施例30の全体画像の平均濃度
による閾値決定方法では、S/Nの悪い顔面領域や背景
の濃度分布から閾値のを決めることになり、必ずしも最
適な値が得られないことがわかる。本実施例では、濃度
分布の立ち上がり濃度Bを見つけ、濃度B以上の画素の
濃度分布に注目して2値化の閾値を決定するものであ
り、より最適な閾値が求められる。
Example 31. Although the threshold value is determined by using the average density of the entire input image in the above-mentioned Example 30, FIG. 50 shows the density distribution of the entire image including retinal reflection at night, and the number of pixels having the density value a is n.
(A). Here, a takes a value from 0 to 255. A is the minimum density, B is the rising density of the density distribution, and C is the maximum density (density max). Figure 50
In, the face area and the background are dark and therefore have a darker density than point B. On the other hand, the retina reflection image and the reflection image of the eyeglasses are remarkably bright and have a small number of pixels, so that they are within the distribution of points B to C. Therefore, in the threshold value determination method based on the average density of the entire image of the thirty-third embodiment, the threshold value is determined from the density distribution of the face area or the background with poor S / N, and it is found that the optimum value cannot always be obtained. . In this embodiment, the rising density B of the density distribution is found, and the binarization threshold value is determined by paying attention to the density distribution of the pixels having the density B or higher, and a more optimal threshold value is obtained.

【0146】濃度Bの求め方は、例えば次のとおりに計
算する。まず、点Bのおおよその位置を求めるために、
濃度値を例えば16の区画に分割し、区分iの画素数N
(i)を次式により求める。
The method of obtaining the density B is calculated as follows, for example. First, to find the approximate position of point B,
The density value is divided into, for example, 16 sections, and the number of pixels in section i is N
(I) is calculated by the following equation.

【0147】[0147]

【数1】 [Equation 1]

【0148】次に、隣合う区画間の差分M(i)をと
り、 M(i)=N(i)ーN(i−1) 但し、i=1〜15 差分M(i)が一定値以上の画素数Mthを持つ区画 M(i)≧Mth なる区画、j1,j2、...、Jを抽出し、濃度値最
大の区画Jを選択する。点Bはこの区画J内で最小の画
素数を持つ濃度値、即ち、 MIN{n(16J)、n(16J+1)、...n(16J+15)} を与える濃度値とする。
Next, the difference M (i) between the adjacent partitions is calculated as follows: M (i) = N (i) -N (i-1) where i = 1 to 15 The difference M (i) is a constant value. Sections having the above-described number Mth of pixels Mth such that sections M (i) ≧ Mth, j1, j2 ,. . . , J are extracted, and the section J having the maximum density value is selected. Point B is a density value having the smallest number of pixels in this section J, that is, MIN {n (16J), n (16J + 1) ,. . . Let n (16J + 15)} be the density value.

【0149】このようにして求められた点Bに対し、閾
値の選び方は、 th1=濃度B + α1 th2=濃度max − α2 但し、α1、α2はオフセット値であり、例えばα1=
10、α2=20とする。
For the point B thus obtained, the threshold value is selected as follows: th1 = density B + α1 th2 = density max−α2 where α1 and α2 are offset values, for example α1 =
10, and α2 = 20.

【0150】または、 th1=濃度B + 濃度B以上の濃度平均値×β1 + α1 th2=濃度max − 濃度B以上の濃度平均値×β2 − α2 (ここで、α1、α2、β1、β2は、例えば、α1=5、α2=10、 β1=β2=0.2) 閾値の選び方は、後者の閾値のほうが演算時間がかかる
が、確実に特徴点が抽出できるという意味で精度があが
る。
Alternatively, th1 = concentration B + concentration average value above concentration B × β1 + α1 th2 = concentration max−concentration average value above concentration B × β2-α2 (where α1, α2, β1 and β2 are For example, α1 = 5, α2 = 10, β1 = β2 = 0.2) Regarding the method of selecting the threshold value, the latter threshold value requires more calculation time, but the accuracy is higher in the sense that the feature points can be extracted reliably.

【0151】さらに、図51(a)(b)は各々、夜間
の明撮影画像の濃度分布と暗撮影画像の濃度分布であ
る。図51に示すように、眼鏡反射像の濃度は網膜反射
像の濃度より大きいところに位置し、明撮影(例えば強
発光)の場合は、網膜反射像を抽出する必要があるの
で、閾値の選び方を、 th1=濃度B + α1 とし、暗撮影(例えば弱発光)の場合は、眼鏡反射像の
みを抽出する必要があるので、 th2=濃度max − 濃度B以上の濃度平均値×β2 − α2 としてもよい。
Further, FIGS. 51 (a) and 51 (b) respectively show the density distribution of the bright photographed image and the density distribution of the dark photographed image at night. As shown in FIG. 51, the density of the spectacle reflection image is located higher than the density of the retinal reflection image, and in the case of bright photographing (for example, strong light emission), the retinal reflection image needs to be extracted. And th1 = density B + α1, and in the case of dark photography (for example, weak light emission), it is necessary to extract only the eyeglass reflection image, so th2 = density max−density average value of density B or more × β2-α2 Good.

【0152】実施例32. さらに、閾値th1、th2の設定の仕方としては、検
出対象者近傍の照度を照度センサにより検出し、上記照
度をもとに閾値th1、th2を設定することもでき
る。例えば、閾値th1は照度が大きくなるに連れて大
きくなる値、th2は一定としたマップを用い、検出さ
れた照度により閾値th1、th2を決定する。あるい
は、明るいと顔の平均濃度に対する網膜反射像の濃度
が、暗いときに比べて小さくなることを考慮して、上記
(1)式を th1=平均濃度 + x(s)×分散 と設定し、x(s)を照度が大きくなるに連れて小さくな
る値に設定したマップを用いて、入力画像の最大濃度と
平均濃度と分散と、検出された照度をもとに、閾値th
1、th2を決定する。
Example 32. Further, as a method of setting the threshold values th1 and th2, it is possible to detect the illuminance in the vicinity of the person to be detected by the illuminance sensor and set the threshold values th1 and th2 based on the illuminance. For example, a threshold th1 is a value that increases as the illuminance increases, and a map in which th2 is constant is used, and the thresholds th1 and th2 are determined based on the detected illuminance. Alternatively, considering that the density of the retinal reflection image with respect to the average density of the face is smaller when it is bright than when it is dark, the above equation (1) is set as th1 = average density + x (s) × dispersion, Using a map in which x (s) is set to a value that decreases as the illuminance increases, the threshold value th is determined based on the maximum density, average density, and variance of the input image and the detected illuminance.
1. Determine th2.

【0153】実施例33. 検出対象者によって網膜反射像の輝度や大きさは異な
る。また、眼鏡によっても眼鏡反射像の輝度や大きさが
異なる。本実施例は異なる閾値で処理した複数の2値化
処理画像をもとに、最適な閾値を決定し、最適な閾値に
よる画像処理、または画像処理結果を選択するものであ
る。図52は本発明の実施例33による画像処理装置を
示す構成図である。図52において、2値化処理回路C
66は予め定められた濃度に対する4つの閾値th1
1、th12、th13、th2を持っている。th2
は上記各実施例と同様の眼鏡反射像検出用の閾値であ
り、th11、th12、th13は網膜反射像検出用
の閾値であり、th11〉th12〉th13である。
41bは閾値th2で2値化処理した結果を格納する第
2の2値化メモリ、411aは閾値th11で2値化処
理した結果を格納する第1の2値化メモリ、412aは
閾値th12で2値化処理した結果を格納する第1の2
値化メモリ、413aは閾値th13で2値化処理した
結果を格納する第1の2値化メモリ、39は信号切り換
え器であり、特徴計算回路50の指令により、2値化メ
モリ411a、412a、413aのうちの1つの出力
を、マスク回路65に接続する。
Example 33. The brightness and size of the retina reflection image differ depending on the person to be detected. Further, the spectacles also differ in the brightness and size of the spectacles reflected image. In this embodiment, an optimum threshold value is determined based on a plurality of binarized images processed with different threshold values, and image processing by the optimum threshold value or an image processing result is selected. 52 is a block diagram showing an image processing apparatus according to a 33rd embodiment of the present invention. In FIG. 52, a binarization processing circuit C
66 is four threshold values th1 for the predetermined density
It has 1, th12, th13 and th2. th2
Is a threshold for detecting a reflection image of eyeglasses similar to each of the above-mentioned embodiments, and th11, th12, and th13 are thresholds for detecting a reflection image of retina, and th11>th12> th13.
41b is a second binarization memory for storing the result of binarization processing with the threshold value th2, 411a is a first binarization memory for storing the result of binarization processing with the threshold value th11, and 412a is 2 bits for the threshold value th12. The first 2 that stores the result of the binarization process
The binarization memory 413a is a first binarization memory for storing the result of binarization processing with the threshold value th13, 39 is a signal switcher, and the binarization memories 411a, 412a are designated by the command of the feature calculation circuit 50. One output of 413a is connected to the mask circuit 65.

【0154】次に動作について説明する。画像メモリ3
0に画像が入力されると、特徴計算回路50は信号切り
換え器39に指令を送り、2値化メモリ411aとマス
ク回路65を接続する。2値化メモリ411aの2値化
処理画像はマスク回路65で2値化メモリ41bの2値
化処理画像によりマスク処理され、白領域縮退回路62
を経て、2値化メモリ63に格納される。特徴計算回路
50は2値化メモリ63におけるこの画像の白領域の面
積と白領域の個数を調べる。次に、特徴計算回路50は
2値化メモリ412aとマスク回路65を接続し、同様
の処理を行なう。最後に、特徴計算回路50は2値化メ
モリ413aとマスク回路65を接続し、同様の処理を
行なう。次に、特徴計算回路50は2値化メモリ411
a、412a、413aのそれぞれに接続した場合の、
面積情報S1、S2、S3と個数情報N1、N2、N3
を用いて、最適の結果を生み出した結果を選択し、以
下、その閾値に対応した2値化メモリとマスク回路65
を接続する。白領域の面積と個数を用いて、最適値を選
択する選択基準を以下に示す。個数情報N1、N2、N
3が全て3以上の時、最小の個数を持つものを選択す
る。個数が同じ場合は、最小の面積を持つ結果を最適と
する。N1、N2、N3の値が2であるものが存在すれ
ば、個数N=2で、かつ最大の面積を持つ結果を最適と
する。N1、N2、N3が全て2未満の時は、網膜反射
像検出不能とし、再度最適閾値選択処理を行なう。
Next, the operation will be described. Image memory 3
When an image is input to 0, the feature calculation circuit 50 sends a command to the signal switch 39 to connect the binarization memory 411a and the mask circuit 65. The binarized image of the binarized memory 411a is masked by the masked circuit 65 by the binarized image of the binarized memory 41b, and the white area degeneracy circuit 62 is displayed.
After that, it is stored in the binarization memory 63. The feature calculation circuit 50 checks the area of the white area and the number of white areas of this image in the binarization memory 63. Next, the feature calculation circuit 50 connects the binarization memory 412a and the mask circuit 65 and performs the same processing. Finally, the feature calculation circuit 50 connects the binarization memory 413a and the mask circuit 65 and performs the same processing. Next, the feature calculation circuit 50 uses the binarization memory 411.
a, 412a, 413a, respectively,
Area information S1, S2, S3 and number information N1, N2, N3
Is used to select the result that produces the optimum result, and thereafter, the binarization memory and the mask circuit 65 corresponding to the threshold value are selected.
Connect. The selection criteria for selecting the optimum value using the area and number of white regions are shown below. Quantity information N1, N2, N
When all 3 are 3 or more, the one having the smallest number is selected. If the numbers are the same, the result with the smallest area is the best. If there are N1, N2, and N3 values of 2, the number N = 2 and the result having the largest area is optimized. When N1, N2 and N3 are all less than 2, the retina reflection image cannot be detected and the optimum threshold value selection process is performed again.

【0155】図53に眼鏡Aを掛けた場合の最適な閾値
の選択の例を示す。N1=0、N2=2、N3=5、S
1=0、S2=20、S3=40であるので、N=2で
ある2値化メモリ412aによる結果を最適として選択
する。
FIG. 53 shows an example of selecting the optimum threshold value when the glasses A are worn. N1 = 0, N2 = 2, N3 = 5, S
Since 1 = 0, S2 = 20, and S3 = 40, the result by the binarization memory 412a with N = 2 is selected as the optimum.

【0156】図54に眼鏡Bを掛けた場合の最適な閾値
の選択の例を示す。N1=0、N2=2、N3=2、S
1=0、S2=20、S3=30であり、N2=N3=
2なので、S2とS3の大小を比較する。S3の方が大
きいので、2値化メモリ413aによる結果を最適とし
て選択する。
FIG. 54 shows an example of selection of the optimum threshold value when the glasses B are worn. N1 = 0, N2 = 2, N3 = 2, S
1 = 0, S2 = 20, S3 = 30, N2 = N3 =
Since it is 2, the sizes of S2 and S3 are compared. Since S3 is larger, the result of the binarization memory 413a is selected as the optimum one.

【0157】なお、白領域の個数による選択理由は、個
数が2個に近いほど、眼鏡の反射像を除去し、網膜反射
像のみを抽出している可能性が高いからである。また、
N=2の場合の面積による選択の理由は、面積が大きい
ほど、網膜反射像が抽出できている割合が高いからであ
る。N=3以上の場合の面積による選択の理由は、面積
が大きいほど、眼鏡反射像が混入している割合が高いか
らである。
The reason for selecting the number of white areas is that the closer the number is to two, the more likely it is that the reflection image of the glasses is removed and only the retina reflection image is extracted. Also,
The reason for selection by the area when N = 2 is that the larger the area is, the higher the ratio of extracting the retina reflection image is. The reason for selecting by area when N = 3 or more is that the larger the area is, the higher the proportion of the spectacle reflection image is mixed.

【0158】なお、上記実施例33では網膜反射像抽出
用の第1の閾値を3個設けたが、眼鏡反射像抽出用の第
2の閾値を複数個設けて同様の処理を行なってもよい。
Although the three first threshold values for extracting the retina reflection image are provided in the thirty-third embodiment, the same processing may be performed by providing a plurality of second threshold values for extracting the eyeglass reflection image. .

【0159】また、上記実施例33では白領域の縮退処
理を行なったが、縮退処理を行なわずに、白領域の形状
で、閾値の最適値を判断してもよい。例えば、ドーナッ
ツ状の白領域を除いた白領域の個数や面積で判断しても
よい。
Further, although the white area is reduced in the 33rd embodiment, the optimum threshold value may be determined based on the shape of the white area without performing the reduction processing. For example, it may be determined by the number or area of white regions excluding donut-shaped white regions.

【0160】実施例34. 上記実施例33では、複数の閾値による複数の2値化処
理画像を用いて網膜反射像を抽出したが、閾値を変化さ
せた処理結果をもとに、閾値を選択してもよい。図55
は本発明の実施例34による画像処理装置を示す構成図
である。図55において、特徴計算回路50は網膜反射
像抽出のための閾値th11、th12、th13を順
次、2値化処理回路C66に設定し、2値化メモリ63
の画像を基に最適の閾値を設定する。なお、本実施例で
は眼鏡反射像検出用の閾値th2は一定である。
Example 34. In Example 33, the retinal reflection image was extracted using a plurality of binarized images with a plurality of threshold values, but the threshold value may be selected based on the processing result of changing the threshold value. FIG. 55
FIG. 38 is a configuration diagram showing an image processing device according to a thirty-fourth embodiment of the present invention. In FIG. 55, the feature calculation circuit 50 sequentially sets the threshold values th11, th12, and th13 for extracting the retina reflection image in the binarization processing circuit C66, and the binarization memory 63.
The optimum threshold value is set based on the image. In this embodiment, the threshold value th2 for detecting the reflected image of glasses is constant.

【0161】例えば、眼鏡Aを掛けた場合は、th11
とth2で処理すると、実施例33と同様に、結果はN
1=0、S1=0となる。特徴計算回路50は2値化処
理回路C66にth12とth2を設定し、結果N2=
2、S2=20を得る。次に特徴計算回路50は2値化
処理回路C66にth13とth2を設定し、結果N3
=5、S3=40を得る。特徴計算回路50は実施例3
3と同様の選択基準により最適な閾値th12を選択す
る。眼鏡Bの場合は、同様に最適な閾値th13を選択
する。N1=0、N2=2、N3=5、S1=0、S2
=20、S3=40であるので、N=2である2値化メ
モリ412aによる結果を最適として選択する。
For example, when the glasses A are worn, th11
And th2, the result is N as in the 33rd embodiment.
1 = 0 and S1 = 0. The feature calculation circuit 50 sets th12 and th2 in the binarization processing circuit C66, and the result N2 =
2, S2 = 20 is obtained. Next, the feature calculation circuit 50 sets th13 and th2 in the binarization processing circuit C66, and the result N3
= 5 and S3 = 40 are obtained. The feature calculation circuit 50 is the third embodiment.
The optimum threshold value th12 is selected according to the same selection criteria as in 3. In the case of the eyeglasses B, similarly, the optimum threshold value th13 is selected. N1 = 0, N2 = 2, N3 = 5, S1 = 0, S2
= 20 and S3 = 40, the result by the binarization memory 412a with N = 2 is selected as the optimum.

【0162】なお、上記実施例34において、第1の閾
値は3個でなくてもよいし、眼鏡反射像抽出用の第2の
閾値を変化させるようにしてもよい。
In the thirty-fourth embodiment, the first threshold value does not have to be three, and the second threshold value for eyeglass reflection image extraction may be changed.

【0163】また、上記各実施例1〜29に対し、実施
例33、34と同様、複数の閾値で画像処理を行い、最
適な閾値を設定するようにしてもよい。
Further, for each of the above-described first to twenty-ninth embodiments, as in the thirty-third embodiments, the image processing may be performed with a plurality of threshold values to set the optimum threshold value.

【0164】[0164]

【発明の効果】【The invention's effect】

【0165】本発明の請求項1においては、照明光の有
無を制御する照明光制御手段、照明光が有りの検出対象
者の画像を出力する明撮影画像出力手段、照明光が無し
の検出対象者の画像を出力する暗撮影画像出力手段、及
び明撮影画像と暗撮影画像の差分画像を出力する差分画
像出力手段を備え、特徴点抽出手段は、差分画像を第1
の閾値により処理した第1の2値化処理画像と、明撮影
画像を第2の閾値により処理した2値化処理画像を用い
て、眼球からの反射像を顔面上の特徴点として抽出する
ので、眼球の反射像と検出対象者の装着物による反射像
とを確実に識別でき、検出対象者の特徴点抽出を精度よ
く行う画像処理装置が提供できる。
In claim 1 of the present invention, illumination light control means for controlling the presence / absence of illumination light, bright photographic image output means for outputting an image of a person to be detected with illumination light, and detection object without illumination light. And a difference image output unit for outputting a difference image between the bright and dark images, and the feature point extracting unit outputs the difference image as the first difference image.
First binarized image processed with the threshold of
Since the reflection image from the eyeball is extracted as a feature point on the face by using the binarized image obtained by processing the image with the second threshold value, the reflection image of the eyeball and the reflection image of the wearer of the detection target person.
Can be reliably identified, and feature points of the detection target can be accurately extracted.
It is possible to provide an image processing device that can perform various operations.

【0166】また、請求項においては、差分画像を第
1の閾値により処理した第1の2値化処理画像と、明撮
影画像を第2の閾値により処理した第2の2値化処理画
像とを用いて、眼球からの反射像を顔面上の特徴点とし
て抽出するので、請求項1の効果に加え、外乱光が変化
したばあいに対する特徴点抽出精度が向上する。
Further, in claim 2 , a first binarized image obtained by processing the difference image with the first threshold value and a second binarized image obtained by processing the bright photographed image with the second threshold value. Since the reflected image from the eyeball is extracted as a feature point on the face by using and, the ambient light changes in addition to the effect of claim 1.
The feature point extraction accuracy for the case is improved.

【0167】また、請求項においては、照明光の強弱
または光入力手段の入力ゲインを制御する照明光制御手
段、照明光が強または入力ゲインが大の検出対象者の画
像を出力する明撮影画像出力手段、照明光が弱または入
力ゲインが小の検出対象者の画像を出力する暗撮影画像
出力手段、明撮影画像と暗撮影画像の差分画像を出力す
る差分画像出力手段を備え、特徴点抽出手段は、差分画
像を第1の閾値により処理した第1の2値化処理画像
と、暗撮影画像を第2の閾値により処理した第2の2値
化処理画像とを用いて、眼球からの反射像を顔面上の特
徴点として抽出するので、装着物の反射像の影響を消す
ように動作し、請求項1の効果に加え、特徴点検出精度
がさらに向上する。
Further, in claim 3 , the illumination light control means for controlling the intensity of the illumination light or the input gain of the light input means, and the bright photographing for outputting the image of the person to be detected whose illumination light is strong or whose input gain is large. Image output means, dark-photographed image output means for outputting an image of a detection target person whose illumination light is weak or input gain is small, and differential image output means for outputting a differential image between a bright-photographed image and a dark-photographed image. The extraction means is a first binarized image obtained by processing the difference image with a first threshold value.
And the second binarized image obtained by processing the dark image with the second threshold value, the reflection image from the eyeball is extracted as a feature point on the face. In addition to the effect of claim 1, the feature point detection accuracy is further improved.

【0168】また、請求項においては、特徴点抽出手
段は、i番目に撮影した暗撮影画像と、i−1番目に撮
影した明撮影画像と、i−2番目に撮影した暗撮影画像
とを用いて、上記i−1番目に撮影した明撮影画像から
上記i番目に撮影した暗撮影画像を差分処理して得られ
た第1の差分画像と、上記i−1番目に撮影した明撮影
画像から上記iー2番目に撮影した暗撮影画像を差分処
理して得られた第2の差分画像とを求め、第1の差分画
像及び第2の差分画像により、眼球からの反射像を顔面
上の特徴点として抽出するので、請求項の効果に加
え、検出対象者の顔面が動いた場合においても、特徴点
抽出が正確にでき、抽出精度が下がらない。
[0168] In the fourth aspect, the feature point extracting means, and the dark photographed images taken in i-th, and the bright photographic images taken in (i-1) -th, and the dark photographed images taken in i-2 th Using the above, the first difference image obtained by performing a difference process on the i-th imaged bright-photographed image from the i-th imaged dark-photographed image and the i-1-th imaged bright-photographed image A second difference image obtained by performing a difference process on the i-2nd dark image taken from the image is obtained, and the reflection image from the eyeball is obtained by the first difference image and the second difference image. Since it is extracted as the above feature point, in addition to the effect of claim 3 , even when the face of the detection target person moves, the feature point can be accurately extracted, and the extraction accuracy does not decrease.

【0169】また、請求項においては、特徴点抽出手
段は、i番目に撮影した暗撮影画像と、i−1番目に撮
影した明撮影画像と、i−2番目に撮影した暗撮影画像
とを用いて、上記i−1番目に撮影した明撮影画像か
ら、上記i番目に撮影した暗撮影画像と、上記iー2番
目に撮影した暗撮影画像とを差分処理して得られた差分
画像を求め、上記差分画像により、眼球からの反射像を
顔面上の特徴点として抽出するので、請求項と同様の
効果がある。
[0169] In the fifth aspect, the feature point extracting means, and the dark photographed images taken in i-th, and the bright photographic images taken in (i-1) -th, and the dark photographed images taken in i-2 th A difference image obtained by performing a difference process between the i-1th bright-photographed image and the i-th dark-photographed image and the i-2nd dark-photographed image using Is obtained and the reflection image from the eyeball is extracted as a feature point on the face from the difference image, and therefore, the same effect as in claim 4 is obtained.

【0170】また、請求項においては、検出対象者の
顔面を含む所定領域を光入力手段と同軸で照明する同軸
照明手段、検出対象者の顔面を含む所定領域を上記光入
力手段と非同軸で照明する非同軸照明手段、同軸照明手
段と非同軸照明手段の発光の有無を制御する照明光制御
手段、同軸照明光による検出対象者の画像を出力する同
軸画像出力手段、非同軸照明光による検出対象者の画像
を出力する非同軸画像出力手段、同軸画像と非同軸画像
の差分画像を出力する差分画像出力手段を備え、特徴点
抽出手段は、差分画像をを第1の閾値により処理した第
1の2値化処理画像と、非同軸画像を第2の閾値により
処理した2値化処理画像を用いて、眼球からの反射像を
顔面上の特徴点として抽出するので、請求項1の効果に
加え、外乱光が変化したばあいに対する特徴点抽出精度
が向上する。
Further, in claim 6 , a coaxial illumination means for illuminating a predetermined area including the face of the detection target person coaxially with the light input means, and a predetermined area including the face of the detection target person non-coaxial with the light input means. Non-coaxial illumination means for illuminating with, coaxial illumination means for controlling the presence or absence of light emission of the coaxial illumination means and non-coaxial illumination means, coaxial image output means for outputting the image of the person to be detected by the coaxial illumination light, non-coaxial illumination light The non-coaxial image output unit that outputs the image of the detection target person and the difference image output unit that outputs the difference image between the coaxial image and the non-coaxial image are provided, and the feature point extraction unit processes the difference image with the first threshold value. First
Since the reflection image from the eyeball is extracted as the feature point on the face using the binarized image of No. 1 and the binarized image obtained by processing the non-coaxial image with the second threshold value, the effect of claim 1 In addition, the feature point extraction accuracy for the case where the ambient light changes is improved.

【0171】また、請求項においては、特徴点抽出手
段は、i番目に撮影した非同軸画像と、i−1番目に撮
影した同軸画像と、i−2番目に撮影した非同軸画像と
を用いて、上記i−1番目に撮影した同軸画像から上記
i番目に撮影した非同軸画像を差分処理して得られた第
1の差分画像と、上記i−1番目に撮影した同軸画像か
ら上記iー2番目に撮影した非同軸画像を差分処理して
得られた第2の差分画像とを求め、第1の差分画像及び
第2の差分画像により、眼球からの反射像を顔面上の特
徴点として抽出するので、請求項の効果に加え、検出
対象者の顔面が動いた場合においても、特徴点抽出が正
確にでき、抽出精度が下がらない。
[0171] Furthermore, in claim 7, the feature point extraction unit, a non-coaxial images taken in i-th, coaxial image captured in (i-1) -th, and a non-coaxial pictures recorded i-2 th Using the first differential image obtained by subjecting the i-1th captured coaxial image to the i-th captured non-coaxial image, and the i-1st captured coaxial image to the above The second difference image obtained by performing the difference processing on the second captured non-coaxial image is obtained, and the reflection image from the eyeball is determined by the first difference image and the second difference image on the face. Since the points are extracted, in addition to the effect of claim 6 , even when the face of the detection target person moves, the feature points can be accurately extracted, and the extraction accuracy does not decrease.

【0172】また、請求項においては、特徴点抽出手
段は、i番目に撮影した非同軸画像と、i−1番目に撮
影した同軸画像と、i−2番目に撮影した非同軸画像と
を用いて、上記i−1番目に撮影した同軸画像から、上
記i番目に撮影した非同軸画像と上記iー2番目に撮影
した非同軸画像とを差分処理して得られた差分画像を求
め、上記差分画像により、眼球からの反射像を顔面上の
特徴点として抽出するので、請求項と同様の効果があ
る。
[0172] Further, in claim 8, the feature point extraction unit, a non-coaxial images taken in i-th, coaxial image captured in (i-1) -th, and a non-coaxial pictures recorded i-2 th By using the i-1th captured coaxial image, a difference image obtained by performing a difference process between the i-th captured non-coaxial image and the i-2nd captured non-coaxial image is obtained. Since the reflection image from the eyeball is extracted as the feature point on the face from the difference image, the same effect as in claim 7 is obtained.

【0173】また、請求項においては、特徴点抽出手
段は、上記差分画像を第1の閾値により処理した第1の
2値化処理画像と、暗撮影画像または非同軸画像を第2
の閾値により処理した第2の2値化処理画像とを用い
て、眼球からの反射像を顔面上の特徴点として抽出する
ので、請求項または請求項の効果に加え、装着物の
反射像の影響を軽減できるので、特徴点抽出精度が上が
る。
In the ninth aspect, the feature point extracting means may include a first binarized image obtained by processing the difference image with a first threshold value and a dark image or a non-coaxial image as a second image.
The reflection image from the eyeball is extracted as a feature point on the face by using the second binarized image processed by the threshold value of 1. Therefore, in addition to the effect of claim 3 or claim 6 , Since the influence of the image can be reduced, the feature point extraction accuracy is improved.

【0174】また、請求項10においては、特徴点抽出
手段は、第1の差分画像を第1の閾値により処理した第
1の差分処理画像と、第2の差分画像を第1の閾値によ
り処理した第2の差分処理画像とを用いて、眼球からの
反射像を顔面上の特徴点として抽出するので、請求項
または請求項の効果に加え、簡単な画像演算で特徴点
を抽出できる効果がある。
In the tenth aspect, the feature point extracting means processes the first difference image obtained by processing the first difference image with the first threshold value and the second difference image according to the first threshold value. using the a second differential processing images, since to extract the reflected image from the eye as feature points on the face, according to claim 4
Alternatively, in addition to the effect of claim 7 , there is an effect that feature points can be extracted by a simple image calculation.

【0175】また、請求項11においては、照明光の強
弱または光入力手段の入力ゲインを制御する照明光制御
手段、照明光が強または入力ゲインが大の検出対象者の
画像を出力する明撮影画像出力手段、照明光が弱または
入力ゲインが小の検出対象者の画像を出力する暗撮影画
像出力手段を備え、特徴点抽出手段は、明撮影画像を第
1の閾値により処理した第1の2値化処理画像と、暗撮
影画像を第2の閾値により処理した第2の2値化処理画
像とを用いて、眼球からの反射像を顔面上の特徴点とし
て抽出するので、請求項の効果に加え、濃淡画像の差
分処理が無くなる結果、画像用のメモリ容量が小さくな
り、処理回路が簡単になって装置が小型で安価になる効
果がある。
In the eleventh aspect , illumination light control means for controlling the intensity of illumination light or the input gain of the light input means, and bright photographing for outputting an image of a person to be detected having a high illumination light or a large input gain. An image output unit, a dark-photographed image output unit that outputs an image of a detection target person whose illumination light is weak or whose input gain is small, and the feature point extraction unit is a first feature obtained by processing a bright-photographed image with a first threshold value. and binarization image, by using the second binarization image where the dark captured image treated by the second threshold value, since to extract the reflected image from the eye as feature points on the face, according to claim 3 In addition to the above effect, since the difference processing of the grayscale image is eliminated, the memory capacity for the image is reduced, the processing circuit is simplified, and the apparatus is small and inexpensive.

【0176】また、請求項12においては、特徴点抽出
手段は、i番目に撮影した暗撮影画像の2値化処理画像
と、i−1番目に撮影した明撮影画像の2値化処理画像
と、i−2番目に撮影した暗撮影画像の2値化処理画像
とを用いて、上記i−1番目に撮影した明撮影画像の2
値化処理画像を上記i番目に撮影した暗撮影画像の2値
化処理画像でマスク処理して得られた第1のマスク画像
と、上記i−1番目に撮影した明撮影画像の2値化処理
画像を上記iー2番目に撮影した暗撮影画像の2値化処
理画像でマスク処理して得られた第2のマスク画像とを
求め、第1のマスク画像及び第2のマスク画像により、
眼球からの反射像を顔面上の特徴点として抽出するの
で、請求項の効果に加え、画像用のメモリ容量が小さ
くなり、処理回路が簡単になって装置が小型で安価にな
る効果がある。
In the twelfth aspect of the present invention, the feature point extracting means has a binarized image of the i-th photographed dark photographed image and a binarized image of the i-1-th photographed bright photographed image. , The i-th second dark-photographed image is binarized, and the i-th first bright-photographed image
Binarization of the first mask image obtained by masking the binarized image of the i-th dark photographed image and the i-1 th bright photographed image The second mask image obtained by masking the processed image with the binarized image of the dark-photographed image i-2 above is obtained, and using the first mask image and the second mask image,
Since the reflection image from the eyeball is extracted as the feature point on the face, in addition to the effect of claim 4 , there is an effect that the memory capacity for the image becomes small, the processing circuit becomes simple, and the apparatus becomes small and inexpensive. .

【0177】また、請求項13においては、特徴点抽出
手段は、i番目に撮影した暗撮影画像の2値化処理画像
と、i−1番目に撮影した明撮影画像の2値化処理画像
と、i−2番目に撮影した暗撮影画像の2値化処理画像
とを用いて、上記i−1番目に撮影した明撮影画像の2
値化処理画像を、上記i番目に撮影した暗撮影画像の2
値化処理画像と、上記iー2番目に撮影した暗撮影画像
の2値化処理画像とで、マスク処理して得られたマスク
画像を求め、上記マスク画像により、眼球からの反射像
を顔面上の特徴点として抽出するので、請求項12と同
様の効果がある。
Further, in the thirteenth aspect, the feature point extracting means includes a binarized image of the i-th photographed dark photographed image and a binarized image of the i-1-th photographed bright photographed image. , The i-th second dark-photographed image is binarized, and the i-th first bright-photographed image
The binarized image of the i-th captured image is 2
A mask image obtained by performing a masking process is obtained from the binarized image of the i-2nd dark-photographed image and the mask image is used to obtain a reflection image from the eyeball on the face. Since it is extracted as the above feature point, it has the same effect as that of claim 12 .

【0178】また、請求項14においては、検出対象者
の顔面を含む所定領域を光入力手段と同軸で照明する同
軸照明手段、検出対象者の顔面を含む所定領域を光入力
手段と非同軸で照明する非同軸照明手段、同軸照明手段
と非同軸照明手段の発光の有無を制御する照明光制御手
段、同軸照明光による検出対象者の画像を出力する同軸
画像出力手段、非同軸照明光による検出対象者の画像を
出力する非同軸画像出力手段を備え、特徴点抽出手段
は、同軸画像を第1の閾値により処理した第1の2値化
処理画像と、非同軸画像を第2の閾値により処理した第
2の2値化処理画像とを用いて、眼球からの反射像を顔
面上の特徴点として抽出するので、請求項の効果に加
え、濃淡画像の差分処理が無くなる結果、画像用のメモ
リ容量が小さくなり、処理回路が簡単になって装置が小
型で安価になる効果がある。
In the fourteenth aspect of the present invention, the coaxial illumination means illuminates a predetermined area including the face of the detection target person coaxially with the light input means, and the predetermined area including the face of the detection target person is non-coaxial with the light input means. Non-coaxial illumination means for illuminating, illumination light control means for controlling presence / absence of light emission of the coaxial illumination means and non-coaxial illumination means, coaxial image output means for outputting an image of a person to be detected by coaxial illumination light, detection by non-coaxial illumination light The non-coaxial image output means for outputting the image of the subject is provided, and the feature point extraction means uses the first binarized image obtained by processing the coaxial image with the first threshold value and the non-coaxial image with the second threshold value. Since the reflected image from the eyeball is extracted as a feature point on the face using the processed second binarized image, in addition to the effect of claim 6, as a result of eliminating the difference processing of the grayscale image, The memory capacity of Device processing circuit becomes simple an effect of less expensive small.

【0179】また、請求項15においては、特徴点抽出
手段は、i番目に撮影した非同軸画像の2値化処理画像
と、i−1番目に撮影した同軸画像の2値化処理画像
と、i−2番目に撮影した非同軸画像の2値化処理画像
とを用いて、上記i−1番目に撮影した同軸画像の2値
化処理画像を上記i番目に撮影した非同軸画像の2値化
処理画像でマスク処理して得られた第1のマスク画像
と、上記i−1番目に撮影した同軸画像の2値化処理画
像を上記iー2番目に撮影した非同軸画像の2値化処理
画像でマスク処理して得られた第2のマスク画像とを求
め、第1のマスク画像及び第2のマスク画像により、眼
球からの反射像を顔面上の特徴点として抽出するので、
請求項の効果に加え、画像用のメモリ容量が小さくな
り、処理回路が簡単になって装置が小型で安価になる効
果がある。
In the fifteenth aspect, the feature point extracting means includes a binarized image of the i-th captured non-coaxial image and a binarized image of the i-1th captured coaxial image. The i-th second non-coaxial image binarized image is used to convert the i-1 th coaxial image binarized image into the i-th non-coaxial image binarized image The first mask image obtained by masking with the digitized image and the binarized image of the i-1th captured coaxial image are binarized of the i-2nd non-coaxial image. Since the second mask image obtained by performing the mask processing on the processed image is obtained, and the reflection image from the eyeball is extracted as the feature point on the face by the first mask image and the second mask image,
In addition to the effect of the seventh aspect , there is an effect that the memory capacity for an image becomes small, the processing circuit becomes simple, and the apparatus becomes small and inexpensive.

【0180】また、請求項16においては、特徴点抽出
手段は、i番目に撮影した非同軸画像の2値化処理画像
と、i−1番目に撮影した同軸画像の2値化処理画像
と、i−2番目に撮影した非同軸画像の2値化処理画像
とを用いて、上記i−1番目に撮影した同軸画像の2値
化処理画像を、上記i番目に撮影した非同軸画像の2値
化処理画像と上記iー2番目に撮影した非同軸画像の2
値化処理画像でマスク処理して得られたマスク画像を求
め、上記マスク画像により、眼球からの反射像を顔面上
の特徴点として抽出するので、請求項15と同様の効果
がある。
In the sixteenth aspect, the feature point extracting means includes a binarized image of the i-th captured non-coaxial image and a binarized image of the i-1th captured coaxial image. The i-th second non-coaxial image binarized image is used to convert the i-th first coaxial image binarized image into the i-th non-coaxial image binarized image. 2 of the binarized image and the above i-2 non-coaxial image
Since the mask image obtained by performing the masking process with the binarized image is obtained and the reflected image from the eyeball is extracted as the feature point on the face by the mask image, the same effect as in claim 15 is obtained.

【0181】また、請求項17においては、差分処理さ
れる画像またはマスク処理される画像を縮退処理するの
で、装着物の反射像の影響を軽減でき、特徴点抽出精度
が上がる。
Further, in the seventeenth aspect , since the image subjected to the difference processing or the image subjected to the mask processing is degenerated, the influence of the reflected image of the mounted object can be reduced and the feature point extraction accuracy is improved.

【0182】また、請求項18においては、差分処理す
る画像またはマスク処理する画像を拡大処理するので、
装着物の反射像の影響を軽減でき、特徴点抽出精度が上
がる。
In the eighteenth aspect , since the image to be subjected to the difference processing or the image to be masked is enlarged,
The influence of the reflected image of the mounted object can be reduced, and the feature point extraction accuracy is improved.

【0183】また、請求項19においては、同軸照明と
非同軸照明の位置関係に対応して拡大または縮退処理に
方向性を持たせるので、装着物の反射像の影響をさらに
軽減でき、特徴点抽出精度が上がる。
In the nineteenth aspect of the invention, since the enlargement or degeneracy process is given a direction corresponding to the positional relationship between the coaxial illumination and the non-coaxial illumination, the influence of the reflected image of the mounted object can be further reduced, and the characteristic point Extraction accuracy increases.

【0184】また、請求項20においては、検出対象者
の装着物の有無を判定する装着物判定手段を有し、特徴
点抽出手段は、上記装着物判定手段の判定結果によっ
て、第1の2値化処理画像および第2の2値化処理画像
を用いた装着用の画像処理と第1の2値化処理画像を用
いた非装着用の画像処理とを切り換える、または各画像
処理による処理結果を選択するので、眼鏡装着の有無に
より最適な画像処理を選択でき、特徴点抽出の精度が上
がる。
[0184] Also, in claim 20 has a mounting object determining means determines the presence or absence of attachment of the detection subject, the feature point extracting means, depending on the determination result of the mounting object determining means
The first binarized image and the second binarized image
Image processing for mounting using and the first binarized image
Since the image processing for non-wearing is switched or the processing result by each image processing is selected, the optimum image processing can be selected depending on whether or not the glasses are worn, and the accuracy of feature point extraction is improved.

【0185】また、請求項21においては、装着物判定
手段は照明光による反射像の数または最大輝度により装
着物の有無を検出するので、眼鏡装着の有無を精度よく
判定でき、特徴点抽出精度が上がる。
Further, in the twenty-first aspect , since the mounted object determining means detects the presence or absence of the mounted object based on the number of reflection images by the illumination light or the maximum brightness, it is possible to accurately determine the presence or absence of wearing glasses, and the feature point extraction accuracy. Goes up.

【0186】また、請求項22においては、装着物があ
る場合には照明光を強めるので、眼鏡装着時でも裸眼時
でも正しく特徴点を抽出することができる。
In the twenty-second aspect , the attached article is
In this case, since the illumination light is strengthened , the feature points can be correctly extracted even when wearing glasses or the naked eye.

【0187】また、請求項23においては、装着物があ
る場合には光入力手段の入力ゲインを上げるので、請求
項22と同様の効果がある。
In the twenty-third aspect, the attached article is
If you want to increase the input gain of the optical input means,
Item 22 has the same effect.

【0188】また、請求項24においては、特徴点抽出
手段は、第1の2値化処理画像および第2の2値化処理
画像を用いた装着用の画像処理と第1の2値化処理画像
を用いた非装着用の画像処理とを有し、画像処理結果に
よってどちらか一方の画像処理結果を選択するので、装
着物の有無の2つの処理結果から最適な特徴抽出結果を
選択でき、特徴点抽出の精度が上がる。
Further, in the twenty-fourth aspect, the feature point extracting means is configured so that the first binarization image and the second binarization process are performed.
Image processing for mounting using images and first binarized image
Image processing for non-wearing using, and one of the image processing results is selected according to the image processing result, so that the optimum feature extraction result can be selected from the two processing results of the presence or absence of the wearing object. The accuracy of point extraction is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施例1による居眠り検出装置を示
す構成図である。
FIG. 1 is a configuration diagram showing a doze detection device according to a first embodiment of the present invention.

【図2】 本発明の実施例1による居眠り検出装置の動
作を説明する説明図である。
FIG. 2 is an explanatory diagram illustrating an operation of the doze detection device according to the first embodiment of the present invention.

【図3】 本発明の実施例1による居眠り検出装置の動
作を示すフローチャートである。
FIG. 3 is a flowchart showing an operation of the doze detection device according to the first embodiment of the present invention.

【図4】 本発明の実施例1による居眠り検出装置の動
作を説明する説明図である。
FIG. 4 is an explanatory diagram illustrating an operation of the doze detection device according to the first embodiment of the present invention.

【図5】 本発明の実施例1による居眠り検出装置の動
作を説明する説明図である。
FIG. 5 is an explanatory diagram illustrating an operation of the doze detection device according to the first embodiment of the present invention.

【図6】 本発明の実施例2による脇見検出装置を示す
構成図である。
FIG. 6 is a configuration diagram showing an inattentiveness detection device according to a second embodiment of the present invention.

【図7】 本発明の実施例2による脇見検出装置の動作
を説明する説明図である。
FIG. 7 is an explanatory diagram illustrating an operation of the inattentiveness detection device according to the second embodiment of the present invention.

【図8】 本発明の実施例2による脇見検出装置の動作
を説明する説明図である。
FIG. 8 is an explanatory diagram illustrating an operation of the inattentiveness detection device according to the second embodiment of the present invention.

【図9】 本発明の実施例3による居眠り検出装置を示
す構成図である。
FIG. 9 is a configuration diagram showing a doze detection device according to a third embodiment of the present invention.

【図10】 本発明の実施例3による居眠り検出装置の
動作を説明する説明図である。
FIG. 10 is an explanatory diagram illustrating an operation of the doze detection device according to the third embodiment of the present invention.

【図11】 本発明の実施例3による居眠り検出装置の
動作を説明する説明図である。
FIG. 11 is an explanatory diagram illustrating an operation of the doze detection device according to the third embodiment of the present invention.

【図12】 本発明の実施例4による居眠り検出装置を
示す構成図である。
FIG. 12 is a configuration diagram showing a doze detection device according to a fourth embodiment of the present invention.

【図13】 本発明の実施例4による居眠り検出装置の
動作を説明する説明図である。
FIG. 13 is an explanatory diagram illustrating an operation of the doze detection device according to the fourth embodiment of the present invention.

【図14】 本発明の実施例4による居眠り検出装置の
動作を説明する説明図である。
FIG. 14 is an explanatory diagram illustrating an operation of the doze detection device according to the fourth embodiment of the present invention.

【図15】 本発明の実施例5による画像処理装置を示
す構成図である。
FIG. 15 is a configuration diagram showing an image processing apparatus according to a fifth embodiment of the present invention.

【図16】 本発明の実施例6による居眠り検出装置を
示す構成図である。
FIG. 16 is a configuration diagram showing a doze detection device according to a sixth embodiment of the present invention.

【図17】 本発明の実施例7による居眠り検出装置を
示す構成図である。
FIG. 17 is a configuration diagram showing a doze detection device according to a seventh embodiment of the present invention.

【図18】 本発明の実施例8による居眠り検出装置の
動作を説明する説明図である。
FIG. 18 is an explanatory diagram illustrating an operation of the doze detection device according to the eighth embodiment of the present invention.

【図19】 本発明の実施例8による居眠り検出装置を
示す構成図である。
FIG. 19 is a configuration diagram showing a doze detection device according to an eighth embodiment of the present invention.

【図20】 本発明の実施例8による居眠り検出装置の
動作を説明する説明図である。
FIG. 20 is an explanatory diagram illustrating an operation of the doze detection device according to the eighth embodiment of the present invention.

【図21】 本発明の実施例8による居眠り検出装置の
動作を説明する説明図である。
FIG. 21 is an explanatory diagram illustrating an operation of the doze detection device according to the eighth embodiment of the present invention.

【図22】 本発明の実施例9による居眠り検出装置を
示す構成図である。
FIG. 22 is a configuration diagram showing a doze detection device according to a ninth embodiment of the present invention.

【図23】 本発明の実施例10による居眠り検出装置
を示す構成図である。
FIG. 23 is a configuration diagram showing a doze detection device according to a tenth embodiment of the present invention.

【図24】 本発明の実施例11による居眠り検出装置
を示す構成図である。
FIG. 24 is a configuration diagram showing a doze detection device according to an eleventh embodiment of the present invention.

【図25】 本発明の実施例12による居眠り検出装置
を示す構成図である。
FIG. 25 is a configuration diagram showing a doze detection device according to a twelfth embodiment of the present invention.

【図26】 本発明の実施例12に係わるCCDカメラ
の入出力特性を示す特性図である。
FIG. 26 is a characteristic diagram showing input / output characteristics of a CCD camera according to Embodiment 12 of the present invention.

【図27】 本発明の実施例12による居眠り検出装置
の動作を説明する説明図である。
FIG. 27 is an explanatory diagram illustrating an operation of the doze detection device according to the twelfth embodiment of the present invention.

【図28】 本発明の実施例13による居眠り検出装置
を示す構成図である。
FIG. 28 is a configuration diagram showing a doze detection device according to a thirteenth embodiment of the present invention.

【図29】 本発明の実施例13による居眠り検出装置
の動作を説明する説明図である。
FIG. 29 is an explanatory diagram illustrating an operation of the doze detection device according to the thirteenth embodiment of the present invention.

【図30】 本発明の実施例14による居眠り検出装置
を示す構成図である。
FIG. 30 is a configuration diagram showing a doze detection device according to a fourteenth embodiment of the present invention.

【図31】 本発明の実施例16による居眠り検出装置
を示す構成図である。
FIG. 31 is a configuration diagram showing a doze detection device according to a sixteenth embodiment of the present invention.

【図32】 本発明の実施例17による居眠り検出装置
を示す構成図である。
FIG. 32 is a configuration diagram showing a doze detection device according to a seventeenth embodiment of the present invention.

【図33】 本発明の実施例19による居眠り検出装置
を示す構成図である。
FIG. 33 is a configuration diagram showing a doze detection device according to a nineteenth embodiment of the present invention.

【図34】 本発明の実施例20による居眠り検出装置
を示す構成図である。
FIG. 34 is a configuration diagram showing a doze detection device according to a twentieth embodiment of the present invention.

【図35】 本発明の実施例21による居眠り検出装置
を示す構成図である。
FIG. 35 is a configuration diagram showing a doze detection device according to a twenty-first embodiment of the present invention.

【図36】 本発明の実施例21による居眠り検出装置
の動作を説明する説明図である。
FIG. 36 is an explanatory diagram illustrating an operation of the doze detection device according to the twenty-first embodiment of the present invention.

【図37】 本発明の実施例22による居眠り検出装置
を示す構成図である。
FIG. 37 is a configuration diagram showing a doze detection device according to a twenty-second embodiment of the present invention.

【図38】 本発明の実施例22による居眠り検出装置
の動作を説明する説明図である。
FIG. 38 is an explanatory diagram illustrating an operation of the doze detection device according to the twenty-second embodiment of the present invention.

【図39】 本発明の実施例23による居眠り検出装置
を示す構成図である。
FIG. 39 is a configuration diagram showing a doze detection device according to a twenty-third embodiment of the present invention.

【図40】 本発明の実施例24による居眠り検出装置
を示す構成図である。
FIG. 40 is a configuration diagram showing a doze detection device according to a twenty-fourth embodiment of the present invention.

【図41】 本発明の実施例24による居眠り検出装置
の動作を説明する説明図である。
FIG. 41 is an explanatory diagram illustrating an operation of the doze detection device according to the twenty-fourth embodiment of the present invention.

【図42】 本発明の実施例25による居眠り検出装置
を示す構成図である。
FIG. 42 is a configuration diagram showing a doze detection device according to a twenty-fifth embodiment of the present invention.

【図43】 本発明の実施例26による居眠り検出装置
を示す構成図である。
FIG. 43 is a configuration diagram showing a doze detection device according to a twenty-sixth embodiment of the present invention.

【図44】 本発明の実施例27による居眠り検出装置
を示す構成図である。
FIG. 44 is a configuration diagram showing a doze detection device according to a twenty-seventh embodiment of the present invention.

【図45】 本発明の実施例28による居眠り検出装置
を示す構成図である。
FIG. 45 is a configuration diagram showing a doze detection device according to a twenty-eighth embodiment of the present invention.

【図46】 本発明の実施例28による他の居眠り検出
装置を示す構成図である。
FIG. 46 is a configuration diagram showing another doze detection device according to the twenty-eighth embodiment of the present invention.

【図47】 本発明の実施例28によるさらに他の居眠
り検出装置を示す構成図である。
[Fig. 47] Fig. 47 is a configuration diagram showing still another doze detection device according to the twenty-eighth embodiment of the present invention.

【図48】 本発明の実施例30による居眠り検出装置
を示す構成図である。
FIG. 48 is a configuration diagram showing a doze detection device according to a thirtieth embodiment of the present invention.

【図49】 本発明の実施例30による他の居眠り検出
装置を示す構成図である。
FIG. 49 is a configuration diagram showing another doze detection device according to the thirtieth embodiment of the present invention.

【図50】 本発明の実施例31による居眠り検出装置
の動作を説明する説明図である。
FIG. 50 is an explanatory diagram illustrating an operation of the doze detection device according to the thirty-first embodiment of the present invention.

【図51】 本発明の実施例31による他の居眠り検出
装置の動作を説明する説明図である。
FIG. 51 is an explanatory diagram illustrating an operation of another doze detection device according to the thirty-first embodiment of the present invention.

【図52】 本発明の実施例33による画像処理装置を
示す構成図である。
FIG. 52 is a configuration diagram showing an image processing device according to a working example 33 of the invention.

【図53】 本発明の実施例33による画像処理装置の
動作を説明する説明図である。
FIG. 53 is an explanatory diagram illustrating an operation of the image processing apparatus according to the 33rd embodiment of the present invention.

【図54】 本発明の実施例33による画像処理装置の
動作を説明する説明図である。
FIG. 54 is an explanatory diagram illustrating an operation of the image processing apparatus according to the thirty-third embodiment of the present invention.

【図55】 本発明の実施例34による画像処理装置を
示す構成図である。
FIG. 55 is a configuration diagram showing an image processing device according to a thirty-fourth embodiment of the present invention.

【図56】 従来の目の位置検出装置を示す構成図であ
る。
FIG. 56 is a configuration diagram showing a conventional eye position detecting device.

【図57】 従来の居眠り検出装置を示す構成図であ
る。
FIG. 57 is a configuration diagram showing a conventional drowsiness detection device.

【図58】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 58 is an explanatory diagram illustrating an operation of the conventional drowsiness detection device.

【図59】 従来の居眠り検出装置の動作を示すフロー
チャートである。
FIG. 59 is a flowchart showing the operation of the conventional doze detection device.

【図60】 従来の居眠り検出装置の動作を説明する説
明図である。
FIG. 60 is an explanatory diagram illustrating an operation of the conventional drowsiness detection device.

【図61】 眼鏡による反射像の影響を説明する説明図
である。
FIG. 61 is an explanatory diagram illustrating an influence of a reflected image of glasses.

【図62】 眼鏡による反射像の影響を説明する説明図
である。
[Fig. 62] Fig. 62 is an explanatory diagram for explaining the influence of a reflected image of glasses.

【符号の説明】[Explanation of symbols]

1 検出対象者、6 網膜反射像、8 レンズ反射像、
9 眼鏡枠反射像、10 CCDカメラ、12 ハーフ
ミラー、13,13a,13b,13c 赤外線LE
D、15 スイッチ、30,30a,30b,30c,
30d,30e,30f,30g,30h、30I、3
0J 画像メモリ、31 タイミング発生回路、32
縮退処理回路、33 拡大処理回路、34 差分回路、
35 第1の差分回路、36 第2の差分回路、37
AND回路、38 差分回路、39信号切り換え器、4
0a 第1の2値化処理回路、40b 第2の2値化処
理回路、41a 第1の2値化メモリ、41b 第2の
2値化メモリ、41c 第3の2値化メモリ、41d,
41e,41f,41g,41h 2値化メモリ、50
特徴計算回路、60 2値化処理回路B、61 2値
化メモリ、62 白領域縮退処理回路、63 2値化メ
モリ、64 ヒストグラム演算回路、65マスク回路、
66 2値化処理回路C、67 白領域拡大処理回路、
68 2値化メモリ、69 眼鏡装着判定手段、70居
眠り検出回路、71 警報回路、72 脇見検出回路、
80 エッジ抽出回路、81 画像メモリ。
1 detection target, 6 retinal reflection image, 8 lens reflection image,
9 eyeglass frame reflection image, 10 CCD camera, 12 half mirror, 13, 13a, 13b, 13c infrared LE
D, 15 switch, 30, 30a, 30b, 30c,
30d, 30e, 30f, 30g, 30h, 30I, 3
0J image memory, 31 timing generation circuit, 32
Degeneration processing circuit, 33 enlargement processing circuit, 34 difference circuit,
35 first difference circuit, 36 second difference circuit, 37
AND circuit, 38 difference circuit, 39 signal switcher, 4
0a first binary processing circuit, 40b second binary processing circuit, 41a first binary memory, 41b second binary memory, 41c third binary memory, 41d,
41e, 41f, 41g, 41h binary memory, 50
Feature calculation circuit, 60 binarization processing circuit B, 61 binarization memory, 62 white area degeneracy processing circuit, 63 binarization memory, 64 histogram calculation circuit, 65 mask circuit,
66 binarization processing circuit C, 67 white area expansion processing circuit,
68 binarization memory, 69 glasses wearing determination means, 70 dozing detection circuit, 71 alarm circuit, 72 inattentive detection circuit,
80 edge extraction circuit, 81 image memory.

フロントページの続き (72)発明者 佐竹 敏英 尼崎市塚口本町八丁目1番1号 三菱電 機株式会社 産業システム研究所内 (72)発明者 大川 太 尼崎市塚口本町八丁目1番1号 三菱電 機株式会社 生産技術センター内 (56)参考文献 特開 平2−138673(JP,A) 特開 平5−143714(JP,A) 特開 平6−274269(JP,A) 特開 昭62−138987(JP,A) 特開 平7−134800(JP,A) 特開 平7−61256(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 340 B60K 28/06 G08B 21/06 Front page continued (72) Inventor Toshihide Satake 8-1-1 Tsukaguchi Honcho, Amagasaki City Mitsubishi Electric Corporation Industrial Systems Research Laboratories (72) Inventor Tai Okawa 8-1-1 Tsukaguchi Honmachi, Amagasaki Mitsubishi Electric Production Technology Center Co., Ltd. (56) Reference JP-A-2-138673 (JP, A) JP-A-5-143714 (JP, A) JP-A-6-274269 (JP, A) JP-A-62-138987 (JP, A) JP 7-134800 (JP, A) JP 7-61256 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 340 B60K 28 / 06 G08B 21/06

Claims (24)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者の顔面を含む所
定領域を照明する照明手段、及び上記光入力手段から出
力される上記検出対象者の撮影画像から顔面上の特徴点
を抽出する特徴点抽出手段を備えるものにおいて、照明
光の有無を制御する照明光制御手段、照明光が有りの検
出対象者の画像を出力する明撮影画像出力手段、照明光
が無しの検出対象者の画像を出力する暗撮影画像出力手
段、及び明撮影画像と暗撮影画像の差分画像を出力する
差分画像出力手段を備え、上記特徴点抽出手段は、上記
検出対象者の眼球からの反射像を抽出するための第1の
閾値と、上記検出対象者が装着する装着物からの反射像
を抽出するための第2の閾値とを有し、上記差分画像を
第1の閾値により処理した第1の2値化処理画像と、上
記明撮影画像を第2の閾値により処理した第2の2値化
処理画像とを用いて、眼球からの反射像を顔面上の特徴
点として抽出することを特徴とする画像処理装置。
1. A light input unit for inputting an image of a predetermined region including a face of a detection target person, an illumination unit for illuminating a predetermined region including the face of the detection target person, and the output from the light input unit. What is provided with feature point extraction means for extracting feature points on a face from a photographed image of a person to be detected, illumination light control means for controlling the presence or absence of illumination light, and a light for outputting an image of the person to be detected with illumination light. The feature point extracting means includes a captured image output means, a dark captured image output means for outputting an image of a detection target person without illumination light, and a differential image output means for outputting a differential image between a bright captured image and a dark captured image. Has a first threshold value for extracting a reflection image from the eyeball of the detection target person, and a second threshold value for extracting a reflection image from a wearing object worn by the detection target person, the difference image processing by the first threshold value The first processed binary image and
An image processing apparatus, characterized in that a reflected image from an eyeball is extracted as a feature point on a face by using a second binarized image obtained by processing a clearly photographed image with a second threshold value.
【請求項2】 特徴点抽出手段は、差分画像を第1の閾
値により処理した第1の2値化処理画像と、明撮影画像
を第2の閾値により処理した第2の2値化処理画像とを
用いて、眼球からの反射像を顔面上の特徴点として抽出
することを特徴とする請求項記載の画像処理装置。
2. The feature point extracting means includes a first binarized image obtained by processing the difference image with a first threshold value and a second binarized image obtained by processing a bright image with a second threshold value. DOO using the image processing apparatus according to claim 1, wherein the reflected image from the eyeball and extracts as a feature point on the face.
【請求項3】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者の顔面を含む所
定領域を照明する照明手段、及び上記光入力手段から出
力される上記検出対象者の撮影画像から顔面上の特徴点
を抽出する特徴点抽出手段を備えるものにおいて、照明
光の強弱または上記光入力手段の入力ゲインを制御する
照明光制御手段、照明光が強または入力ゲインが大の検
出対象者の画像を出力する明撮影画像出力手段、照明光
が弱または入力ゲインが小の検出対象者の画像を出力す
る暗撮影画像出力手段、明撮影画像と暗撮影画像の差分
画像を出力する差分画像出力手段を備え、上記特徴点抽
出手段は、上記検出対象者の眼球からの反射像を抽出す
るための第1の閾値と、上記検出対象者が装着する装着
物からの反射像を抽出するための第2の閾値とを有し、
上記差分画像を第1の閾値により処理した第1の2値化
処理画像と、上記暗撮影画像を第2の閾値により処理し
た第2の2値化処理画像とを用いて、眼球からの反射像
を顔面上の特徴点として抽出することを特徴とする画像
処理装置。
3. An optical input means for inputting an image of a predetermined area including the face of the detection target person, an illuminating means for illuminating the predetermined area including the face of the detection target person, and the output from the light input means. In a feature point extracting means for extracting feature points on a face from a photographed image of a person to be detected, an illumination light control means for controlling intensity of illumination light or an input gain of the light input means, illumination light being strong or input A bright-photographed image output means for outputting an image of a detection target person with a large gain, a dark-photographed image output means for outputting an image of a detection target person with weak illumination light or a low input gain, and a bright-photographed image and a dark-photographed image. A differential image output means for outputting a differential image, wherein the feature point extraction means is configured to extract a reflection image from the eyeball of the detection target person, and a wearing object worn by the detection target person. Extract the reflection image of And a second threshold to emit,
First binarization of the difference image processed by a first threshold
Image processing characterized by extracting a reflection image from an eyeball as a feature point on a face using a processed image and a second binarized image obtained by processing the dark-captured image with a second threshold value. apparatus.
【請求項4】 特徴点抽出手段は、i番目に撮影した暗
撮影画像と、i−1番目に撮影した明撮影画像と、i−
2番目に撮影した暗撮影画像とを用いて、上記i−1番
目に撮影した明撮影画像から上記i番目に撮影した暗撮
影画像を差分処理して得られた第1の差分画像と、上記
i−1番目に撮影した明撮影画像から上記iー2番目に
撮影した暗撮影画像を差分処理して得られた第2の差分
画像とを求め、第1の差分画像及び第2の差分画像によ
り、眼球からの反射像を顔面上の特徴点として抽出する
ことを特徴とする請求項記載の画像処理装置。
4. The feature point extracting means includes an i-th dark-photographed image, an (i-1) th bright-photographed image, and an i-
A first difference image obtained by performing a difference process on the i-th imaged bright-photographed image to the i-th imaged dark-photographed image using the second image-photographed dark-photographed image; A first difference image and a second difference image are obtained by obtaining a second difference image obtained by performing a difference process on the i−2nd photographed dark image from the i−1th photographed bright image. The image processing apparatus according to claim 3 , wherein the reflected image from the eyeball is extracted as a feature point on the face according to.
【請求項5】 特徴点抽出手段は、i番目に撮影した暗
撮影画像と、i−1番目に撮影した明撮影画像と、i−
2番目に撮影した暗撮影画像とを用いて、上記i−1番
目に撮影した明撮影画像から、上記i番目に撮影した暗
撮影画像と、上記iー2番目に撮影した暗撮影画像とを
差分処理して得られた差分画像を求め、上記差分画像に
より、眼球からの反射像を顔面上の特徴点として抽出す
ることを特徴とする請求項記載の画像処理装置。
5. The feature point extracting means includes an i-th dark-photographed image, an i−1-th bright-photographed image, and an i-
Using the second dark-photographed image, the i-th bright-photographed image, the i-th dark-photographed image, and the i-2nd dark-photographed image are taken. The image processing apparatus according to claim 3 , wherein a difference image obtained by the difference processing is obtained, and the reflected image from the eyeball is extracted as a feature point on the face by the difference image.
【請求項6】 検出対象者の顔面を含む所定の領域の像
を入力する光入力手段、上記検出対象者の顔面を含む所
定領域を上記光入力手段と同軸で照明する同軸照明手
段、上記検出対象者の顔面を含む所定領域を上記光入力
手段と非同軸で照明する非同軸照明手段、及び上記光入
力手段から出力される上記検出対象者の撮影画像から顔
面上の特徴点を抽出する特徴点抽出手段を備えるものに
おいて、上記同軸照明手段と上記非同軸照明手段の発光
の有無を制御する照明光制御手段、同軸照明光による検
出対象者の画像を出力する同軸画像出力手段、非同軸照
明光による検出対象者の画像を出力する非同軸画像出力
手段、同軸画像と非同軸画像の差分画像を出力する差分
画像出力手段を備え、上記特徴点抽出手段は、上記検出
対象者の眼球からの反射像を抽出するための第1の閾値
と、上記検出対象者が装着する装着物からの反射像を抽
出するための第2の閾値とを有し、上記差分画像を第1
の閾値により処理した第1の2値化処理画像と、上記非
同軸画像を第2の閾値により処理した第2の2値化処理
画像とを用いて、眼球からの反射像を顔面上の特徴点と
して抽出することを特徴とする画像処理装置。
6. A light input means for inputting an image of a predetermined area including the face of the detection target person, a coaxial illumination means for illuminating a predetermined area including the face of the detection target person coaxially with the light input means, and the detection. Non-coaxial illumination means for illuminating a predetermined area including the face of the target person non-coaxially with the light input means, and a feature for extracting feature points on the face from the photographed image of the detection target person output from the light input means An illumination light control means for controlling the presence or absence of light emission of the coaxial illumination means and the non-coaxial illumination means, a coaxial image output means for outputting an image of a detection target person by the coaxial illumination light, and a non-coaxial illumination. Non-coaxial image output means for outputting the image of the detection target person by light, comprising a difference image output means for outputting the difference image between the coaxial image and the non-coaxial image, the feature point extraction means, from the eyeball of the detection target person Anti A first threshold value for extracting the Izo, and a second threshold for the detection subject to extract reflection images from the mounting material for mounting, the difference image first
The first binarized image processed by the threshold of
An image processing apparatus characterized by extracting a reflection image from an eyeball as a feature point on a face by using a second binarized image obtained by processing a coaxial image with a second threshold value.
【請求項7】 特徴点抽出手段は、i番目に撮影した非
同軸画像と、i−1番目に撮影した同軸画像と、i−2
番目に撮影した非同軸画像とを用いて、上記i−1番目
に撮影した同軸画像から上記i番目に撮影した非同軸画
像を差分処理して得られた第1の差分画像と、上記i−
1番目に撮影した同軸画像から上記iー2番目に撮影し
た非同軸画像を差分処理して得られた第2の差分画像と
を求め、第1の差分画像及び第2の差分画像により、眼
球からの反射像を顔面上の特徴点として抽出することを
特徴とする請求項記載の画像処理装置。
7. The feature point extracting means includes an i-th captured non-coaxial image, an (i-1) -th captured coaxial image, and an i-2.
A first difference image obtained by performing a difference process on the i-th imaged non-coaxial image from the i-1th imaged coaxial image using the second imaged non-coaxial image;
A second difference image obtained by performing difference processing on the i−2nd non-coaxial image obtained from the first taken coaxial image is obtained, and the eyeball is obtained by the first difference image and the second difference image. 7. The image processing apparatus according to claim 6 , wherein the reflection image from is extracted as a feature point on the face.
【請求項8】 特徴点抽出手段は、i番目に撮影した非
同軸画像と、i−1番目に撮影した同軸画像と、i−2
番目に撮影した非同軸画像とを用いて、上記i−1番目
に撮影した同軸画像から、上記i番目に撮影した非同軸
画像と上記iー2番目に撮影した非同軸画像とを差分処
理して得られた差分画像を求め、上記差分画像により、
眼球からの反射像を顔面上の特徴点として抽出すること
を特徴とする請求項記載の画像処理装置。
8. The feature point extracting means includes an i-th captured non-coaxial image, an (i-1) -th captured coaxial image, and an i-2.
The non-coaxial image captured at the i-th position is used to perform a difference process between the non-coaxial image captured at the i-th position and the non-coaxial image captured at the i-th second position using the non-coaxial image captured at the i-th position. Obtain the difference image obtained by, by the difference image,
The image processing apparatus according to claim 6 , wherein the reflected image from the eyeball is extracted as a feature point on the face.
【請求項9】 特徴点抽出手段は、差分画像を第1の閾
値により処理した第1の2値化処理画像と、暗撮影画像
または非同軸画像を第2の閾値により処理した第2の2
値化処理画像とを用いて、眼球からの反射像を顔面上の
特徴点として抽出することを特徴とする請求項または
記載の画像処理装置。
9. The feature point extracting means includes a first binarized image obtained by processing the difference image with a first threshold value and a second binarized image obtained by processing a dark image or a non-coaxial image with a second threshold value.
By using the binarization image, claim 3 or a reflection image from the eyeball and extracting as feature points on the face
6. The image processing device according to item 6 .
【請求項10】 特徴点抽出手段は、第1の差分画像を
第1の閾値により処理した第1の差分処理画像と、第2
の差分画像を第1の閾値により処理した第2の差分処理
画像とを用いて、眼球からの反射像を顔面上の特徴点と
して抽出することを特徴とする請求項または記載の
画像処理装置。
10. The feature point extracting means includes a first difference processed image obtained by processing the first difference image with a first threshold value, and a second difference processed image.
The difference image by using the second differential processing images processed by the first threshold value, the image processing according to claim 4 or 7, wherein the reflected image and extracting a characteristic point on the face from the eye apparatus.
【請求項11】 検出対象者の顔面を含む所定の領域の
像を入力する光入力手段、上記検出対象者の顔面を含む
所定領域を照明する照明手段、及び上記光入力手段から
出力される上記検出対象者の撮影画像から顔面上の特徴
点を抽出する特徴点抽出手段を備えるものにおいて、照
明光の強弱または上記光入力手段の入力ゲインを制御す
る照明光制御手段、照明光が強または入力ゲインが大の
検出対象者の画像を出力する明撮影画像出力手段、照明
光が弱または入力ゲインが小の検出対象者の画像を出力
する暗撮影画像出力手段を備え、上記特徴点抽出手段
は、上記検出対象者の眼球からの反射像を抽出するため
の第1の閾値と、上記検出対象者が装着する装着物から
の反射像を抽出するための第2の閾値とを有し、明撮影
画像を第1の閾値により処理した第1の2値化処理画像
と、暗撮影画像を第2の閾値により処理した第2の2値
化処理画像とを用いて、眼球からの反射像を顔面上の特
徴点として抽出することを特徴とする画像処理装置。
11. A light input means for inputting an image of a predetermined area including the face of the detection target person, an illuminating means for illuminating the predetermined area including the face of the detection target person, and the output from the light input means. In a feature point extracting means for extracting feature points on a face from a photographed image of a person to be detected, an illumination light control means for controlling intensity of illumination light or an input gain of the light input means, illumination light being strong or input The bright point image output means for outputting the image of the person to be detected with a large gain, the dark point image output means for outputting the image of the person to be detected with weak illumination light or a small input gain, and the feature point extracting means are provided. A first threshold value for extracting a reflection image from the eyeball of the detection target person, and a second threshold value for extracting a reflection image from a wearing object worn by the detection target person, The captured image according to the first threshold The reflected image from the eyeball is extracted as a feature point on the face using the first binarized image subjected to the image processing and the second binarized image obtained by processing the dark image with the second threshold value. An image processing device characterized by:
【請求項12】 特徴点抽出手段は、i番目に撮影した
暗撮影画像の2値化処理画像と、i−1番目に撮影した
明撮影画像の2値化処理画像と、i−2番目に撮影した
暗撮影画像の2値化処理画像とを用いて、上記i−1番
目に撮影した明撮影画像の2値化処理画像を上記i番目
に撮影した暗撮影画像の2値化処理画像でマスク処理し
て得られた第1のマスク画像と、上記i−1番目に撮影
した明撮影画像の2値化処理画像を上記iー2番目に撮
影した暗撮影画像の2値化処理画像でマスク処理して得
られた第2のマスク画像とを求め、第1のマスク画像及
び第2のマスク画像により、眼球からの反射像を顔面上
の特徴点として抽出することを特徴とする請求項11
載の画像処理装置。
12. The feature point extracting means includes a binarized image of the i-th captured dark image, a binarized image of the (i-1) th captured bright image, and an (i-2) th image. Using the binarized image of the captured dark photographed image, the binarized image of the i-1th photographed bright photographed image is a binarized image of the i-th photographed dark photographed image. The first mask image obtained by the mask processing and the binarized image of the i-1th bright photographed image are binarized images of the i-2nd dark photographed image. The second mask image obtained by the mask processing is obtained, and the reflection image from the eyeball is extracted as a feature point on the face by the first mask image and the second mask image. 11. The image processing device according to item 11 .
【請求項13】 特徴点抽出手段は、i番目に撮影した
暗撮影画像の2値化処理画像と、i−1番目に撮影した
明撮影画像の2値化処理画像と、i−2番目に撮影した
暗撮影画像の2値化処理画像とを用いて、上記i−1番
目に撮影した明撮影画像の2値化処理画像を、上記i番
目に撮影した暗撮影画像の2値化処理画像と、上記iー
2番目に撮影した暗撮影画像の2値化処理画像とで、マ
スク処理して得られたマスク画像を求め、上記マスク画
像により、眼球からの反射像を顔面上の特徴点として抽
出することを特徴とする請求項11記載の画像処理装
置。
13. The feature point extracting means includes a binarized image of a dark photographed image captured i-th, a binarized image of a bright photographed image captured i−1 th, and an i−2 th The binarized image of the i-th captured bright image is used to convert the binarized image of the captured dark-captured image into the binarized image of the i-th captured dark-captured image. And a binarized image of the i-2nd dark-photographed image, a mask image obtained by masking is obtained, and a reflection image from the eyeball is used as a feature point on the face by the mask image. The image processing device according to claim 11 , wherein the image processing device is extracted as.
【請求項14】 検出対象者の顔面を含む所定の領域の
像を入力する光入力手段、上記検出対象者の顔面を含む
所定領域を上記光入力手段と同軸で照明する同軸照明手
段、上記検出対象者の顔面を含む所定領域を上記光入力
手段と非同軸で照明する非同軸照明手段、及び上記光入
力手段から出力される上記検出対象者の撮影画像から顔
面上の特徴点を抽出する特徴点抽出手段を備えるものに
おいて、上記同軸照明手段と上記非同軸照明手段の発光
の有無を制御する照明光制御手段、同軸照明光による検
出対象者の画像を出力する同軸画像出力手段、非同軸照
明光による検出対象者の画像を出力する非同軸画像出力
手段を備え、上記特徴点抽出手段は、上記検出対象者の
眼球からの反射像を抽出するための第1の閾値と、上記
検出対象者が装着する装着物からの反射像を抽出するた
めの第2の閾値とを有し、同軸画像を第1の閾値により
処理した第1の2値化処理画像と、非同軸画像を第2の
閾値により処理した第2の2値化処理画像とを用いて、
眼球からの反射像を顔面上の特徴点として抽出すること
を特徴とする画像処理装置。
14. A light input means for inputting an image of a predetermined area including the face of the detection target person, a coaxial illumination means for illuminating a predetermined area including the face of the detection target person coaxially with the light input means, and the detection. Non-coaxial illumination means for illuminating a predetermined area including the face of the target person non-coaxially with the light input means, and feature for extracting feature points on the face from the photographed image of the detection target person output from the light input means An illumination light control means for controlling the presence or absence of light emission of the coaxial illumination means and the non-coaxial illumination means, a coaxial image output means for outputting an image of a detection target person by the coaxial illumination light, and a non-coaxial illumination. A non-coaxial image output unit that outputs an image of a detection target person by light is provided, and the feature point extraction unit includes a first threshold value for extracting a reflection image from the eyeball of the detection target person, and the detection target person. Is installed And a second threshold for extracting a reflection image from the mounted object, the first binarized image obtained by processing the coaxial image with the first threshold, and the non-coaxial image by the second threshold. Using the processed second binarized image,
An image processing device characterized by extracting a reflection image from an eyeball as a feature point on a face.
【請求項15】 特徴点抽出手段は、i番目に撮影した
非同軸画像の2値化処理画像と、i−1番目に撮影した
同軸画像の2値化処理画像と、i−2番目に撮影した非
同軸画像の2値化処理画像とを用いて、上記i−1番目
に撮影した同軸画像の2値化処理画像を上記i番目に撮
影した非同軸画像の2値化処理画像でマスク処理して得
られた第1のマスク画像と、上記i−1番目に撮影した
同軸画像の2値化処理画像を上記iー2番目に撮影した
非同軸画像の2値化処理画像でマスク処理して得られた
第2のマスク画像とを求め、第1のマスク画像及び第2
のマスク画像により、眼球からの反射像を顔面上の特徴
点として抽出することを特徴とする請求項14記載の画
像処理装置。
15. The feature point extracting means includes a binarized image of the i-th captured non-coaxial image, a binarized image of the i−1th captured coaxial image, and an i−2nd captured image. Using the binarized image of the non-coaxial image that has been processed, the masking process of the binarized image of the i-1 th captured coaxial image with the binarized image of the i-th captured non-coaxial image The first mask image thus obtained and the binarized image of the i-1th captured coaxial image are masked with the i-2nd captured non-coaxial image of the binarized image. And a second mask image obtained by
15. The image processing apparatus according to claim 14, wherein the reflected image from the eyeball is extracted as a feature point on the face by the mask image of.
【請求項16】 特徴点抽出手段は、i番目に撮影した
非同軸画像の2値化処理画像と、i−1番目に撮影した
同軸画像の2値化処理画像と、i−2番目に撮影した非
同軸画像の2値化処理画像とを用いて、上記i−1番目
に撮影した同軸画像の2値化処理画像を、上記i番目に
撮影した非同軸画像の2値化処理画像と上記iー2番目
に撮影した非同軸画像の2値化処理画像でマスク処理し
て得られたマスク画像を求め、上記マスク画像により、
眼球からの反射像を顔面上の特徴点として抽出すること
を特徴とする請求項14記載の画像処理装置。
16. The feature point extracting means includes a binarized image of the i-th captured non-coaxial image, a binarized image of the i−1th captured coaxial image, and an i−2nd captured image. The binarized image of the i-th imaged coaxial image is used as the binarized image of the i-th imaged non-coaxial image and the binarized image of the i-th imaged non-coaxial image. i-The mask image obtained by performing the mask processing with the binarized image of the non-coaxial image captured secondly is obtained, and by the mask image,
The image processing apparatus according to claim 14 , wherein the reflection image from the eyeball is extracted as a feature point on the face.
【請求項17】 特徴点抽出手段は、差分処理される画
像またはマスク処理される画像を縮退処理することを特
徴とする請求項1ないし8、12、13、15、16
いずれかに記載の画像処理装置。
17. The feature point extracting means degenerates an image to be subjected to a difference process or an image to be masked, to thereby reduce the image, according to any one of claims 1 to 8 , 12 , 13 , 15 , and 16 . Image processing device.
【請求項18】 特徴点抽出手段は、差分処理する画像
またはマスク処理する画像を拡大処理することを特徴と
する請求項1ないし8、12、13、15、16のいず
れかに記載の画像処理装置。
18. feature point extracting means, the image processing according to any one of claims 1 to 8,12,13,15,16, characterized in that enlarges an image of the image or mask processing difference processing apparatus.
【請求項19】 特徴点抽出手段は、同軸照明と非同軸
照明の位置関係に対応して拡大または縮退処理に方向性
を持たせることを特徴とする請求項17または18に記
載の画像処理装置。
19. feature point extracting means, the image processing apparatus according to claim 17 or 18, characterized in that to provide the directionality to the enlargement or reduction process corresponding to the position relationship between the coaxial illumination and non-coaxial illumination .
【請求項20】 検出対象者の装着物の有無を判定する
装着物判定手段を有し、特徴点抽出手段は、上記装着物
判定手段の判定結果によって、第1の2値化処理画像お
よび第2の2値化処理画像を用いた装着用の画像処理と
第1の2値化処理画像を用いた非装着用の画像処理とを
切り換える、または各画像処理による処理結果を選択す
ることを特徴とする請求項1ないし19のいずれかに記
載の画像処理装置。
20. has a mounting object determining means determines the presence or absence of attachment of the detection subject, the feature point extracting means, depending on the determination result of the mounting object determining means, our first binarization image
And image processing for mounting using the second binarized image and
The image processing apparatus according to any one of switching the image processing for the non-wearing of using the first binarization image, or claims 1 and selects the processing result by the image processing 19 .
【請求項21】 装着物判定手段は照明光による反射像
の数または最大輝度により装着物の有無を検出すること
を特徴とする請求項20記載の画像処理装置。
21. The image processing apparatus according to claim 20, wherein the mounted object determining means detects the presence or absence of the mounted object based on the number of reflection images or the maximum brightness of the illumination light.
【請求項22】 特徴点抽出手段は、装着物がある場合
には照明光を強めることを特徴とする請求項20または
21に記載の画像処理装置。
22. The feature point extracting means is used when there is an attached object.
Claim 20 or, characterized in that to strengthen the illumination light to the
21. The image processing device according to item 21 .
【請求項23】 特徴点抽出手段は、装着物がある場合
には光入力手段の入力ゲインを上げることを特徴とする
請求項20または21に記載の画像処理装置。
23. The feature point extracting means is used when there is an attached object.
Is characterized by increasing the input gain of the optical input means
The image processing device according to claim 20 or 21.
【請求項24】 特徴点抽出手段は、第1の2値化処理
画像および第2の2値化処理画像を用いた装着用の画像
処理と第1の2値化処理画像を用いた非装着用の画像処
とを有し、画像処理結果によってどちらか一方の画像
処理結果を選択することを特徴とする請求項1ないし
のいずれかに記載の画像処理装置。
24. The feature point extracting means comprises a first binarization process.
Image processing for wearing using the image and the second binarized image and image processing for non-wearing using the first binarized image
And a physical, claims 1 and selects either one of the image processing result by the image processing result 1
9. The image processing device according to any one of 9 .
JP32540094A 1994-12-27 1994-12-27 Image processing device Expired - Fee Related JP3364816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32540094A JP3364816B2 (en) 1994-12-27 1994-12-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32540094A JP3364816B2 (en) 1994-12-27 1994-12-27 Image processing device

Publications (2)

Publication Number Publication Date
JPH08185503A JPH08185503A (en) 1996-07-16
JP3364816B2 true JP3364816B2 (en) 2003-01-08

Family

ID=18176428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32540094A Expired - Fee Related JP3364816B2 (en) 1994-12-27 1994-12-27 Image processing device

Country Status (1)

Country Link
JP (1) JP3364816B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4337131B2 (en) * 1999-06-10 2009-09-30 マツダ株式会社 Mobile control device
JP3450801B2 (en) * 2000-05-31 2003-09-29 キヤノン株式会社 Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
JP4469476B2 (en) 2000-08-09 2010-05-26 パナソニック株式会社 Eye position detection method and eye position detection apparatus
JP2002352229A (en) * 2001-05-30 2002-12-06 Mitsubishi Electric Corp Face region detector
JP4151341B2 (en) * 2002-08-02 2008-09-17 日産自動車株式会社 Face condition detection device
JP2005301727A (en) * 2004-04-13 2005-10-27 Honda Motor Co Ltd Inattention determination apparatus
JP2006031636A (en) * 2004-07-21 2006-02-02 Sony Corp Detection device and method for both eyes
JP2007004448A (en) * 2005-06-23 2007-01-11 Honda Motor Co Ltd Line-of-sight detecting apparatus
JP4356733B2 (en) * 2006-11-09 2009-11-04 アイシン精機株式会社 In-vehicle image processing apparatus and control method thereof
JP5145555B2 (en) * 2007-03-30 2013-02-20 国立大学法人静岡大学 Pupil detection method
JP5045212B2 (en) * 2007-04-25 2012-10-10 株式会社デンソー Face image capturing device
JP4853389B2 (en) * 2007-06-07 2012-01-11 株式会社デンソー Face image capturing device
JP5141452B2 (en) * 2008-09-05 2013-02-13 富士通株式会社 Attitude measurement device and attitude measurement method
JP4666062B2 (en) 2008-11-17 2011-04-06 株式会社デンソー Image photographing apparatus and method
JP5156617B2 (en) * 2008-12-26 2013-03-06 日本システムウエア株式会社 Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program
FR2987920B1 (en) * 2012-03-08 2018-03-02 Essilor International METHOD FOR DETERMINING A GEOMETRIC-MORPHOLOGICAL, POSTURE OR BEHAVIORAL CHARACTERISTIC OF A BEARER OF A PAIR OF EYEWEAR

Also Published As

Publication number Publication date
JPH08185503A (en) 1996-07-16

Similar Documents

Publication Publication Date Title
JP3364816B2 (en) Image processing device
JP2937030B2 (en) Image processing device and person state determination device
US8102417B2 (en) Eye closure recognition system and method
US7253739B2 (en) System and method for determining eye closure state
EP1732028B1 (en) System and method for detecting an eye
JP2522859B2 (en) Eye position detection device
US6952498B2 (en) Face portion detecting apparatus
US7253738B2 (en) System and method of detecting eye closure based on edge lines
JP4307496B2 (en) Facial part detection device and program
JP3316725B2 (en) Face image pickup device
EP2060993B1 (en) An awareness detection system and method
JP3969894B2 (en) Face image processing device
JP4313717B2 (en) Gaze detection device
JP3465336B2 (en) Face image capturing device
JP4082203B2 (en) Open / close eye determination device
WO2002035452A1 (en) Eye image obtaining method, iris recognizing method, and system using the same
JPH09198508A (en) Eye state detector
KR102072910B1 (en) A drowsiness detection method using the drowsiness detection apparatus
JPH03202045A (en) Detecting device for state of driver
KR20060022935A (en) Drowsiness detection method and apparatus based on eye image
JP3116674B2 (en) Driver status detection device
JPH0933217A (en) Eyeball-position detection apparatus for vehicle driver
Rohit et al. Drowsiness Detector using HaarCascades Classifier
JPH07208927A (en) Detector of position of vehicle driver's eye balls
JPH10236181A (en) Dozing condition detection device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071101

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081101

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081101

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091101

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091101

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101101

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111101

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121101

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees