JP5018653B2 - Image identification device - Google Patents

Image identification device Download PDF

Info

Publication number
JP5018653B2
JP5018653B2 JP2008147055A JP2008147055A JP5018653B2 JP 5018653 B2 JP5018653 B2 JP 5018653B2 JP 2008147055 A JP2008147055 A JP 2008147055A JP 2008147055 A JP2008147055 A JP 2008147055A JP 5018653 B2 JP5018653 B2 JP 5018653B2
Authority
JP
Japan
Prior art keywords
face
light source
image data
image
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008147055A
Other languages
Japanese (ja)
Other versions
JP2009294854A (en
Inventor
清澄 城殿
泰弘 小野
祐之 宇佐美
清貴 森泉
多美子 仁科
清之 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008147055A priority Critical patent/JP5018653B2/en
Publication of JP2009294854A publication Critical patent/JP2009294854A/en
Application granted granted Critical
Publication of JP5018653B2 publication Critical patent/JP5018653B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To remove influence of disturbance light with high accuracy to identify a portion of an identification target of a face or an identification object with high accuracy. <P>SOLUTION: A face image in lighting time of a first light source 14 and a face image in lighting time of a second light source 16 are imaged by an imaging device 12. A characteristic amount related to a difference of each of a hair area and a skin area is calculated by a characteristic amount calculation part 27, and a correction amount is calculated by a correction amount calculation part 28 such that a distribution of the previously obtained characteristic amount related to each of the hair area and the skin area is acquired. The face image in lighting time of the second light source 16 is corrected by a correction part 30, and the characteristic amount related to the difference is calculated about each pixel by use of the corrected face image by the characteristic amount calculation part 27. Threshold value processing is performed to the calculated characteristic amount of each pixel by a candidate area extraction part 34 to extract a candidate area, and an area representing a black eye of the face is identified by a portion identification part 36. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、画像識別装置に係り、特に、撮像した画像から、識別対象者の顔の部位や識別対象物を識別する画像識別装置に関する。   The present invention relates to an image identification device, and more particularly, to an image identification device that identifies a part of an identification target person's face or an identification target object from a captured image.

従来より、第1の波長域の光及び第2の波長域の光の照射をオンオフして、対象物及び標準白色板を撮像し、第1の波長域の光で照明した状態で撮影した対象物の画像の画素値、第1の波長域の光で照明した状態で撮影した白色板の画像の画素値、第2の波長域の光で照明した状態で撮影した対象物の画像の画素値、及び第2の波長域の光で照明した状態で撮影した白色板の画像の画素値を演算し、演算結果を用いて外乱光の影響を除去し、対象物の各部位、例えばドライバの肌、髪、眼球を判別する部位判別装置が知られている(特許文献1)。
特開2006−242909号公報
Conventionally, an object photographed in a state in which irradiation of light of the first wavelength band and light of the second wavelength band is turned on and off, the object and the standard white plate are imaged, and illuminated with the light of the first wavelength band Pixel value of an image of an object, pixel value of an image of a white plate photographed with light in the first wavelength range, pixel value of an image of an object photographed with light in the second wavelength range And the pixel value of the image of the white plate photographed in the state illuminated with the light of the second wavelength range, the influence of disturbance light is removed using the calculation result, and each part of the object, for example, the skin of the driver A region discriminating apparatus that discriminates hair and eyeball is known (Patent Document 1).
JP 2006-242909 A

しかしながら、上記特許文献1の技術では、標準白色板と対象物とに同じように外乱光が照射するとは限らないため、外乱光の影響を精度よく除去することができない、という問題がある。また、設置した標準白色板が、対象物以外の物体によって隠れてしまった場合には、隠れていることを検知できずに、外乱光の影響を誤って除去してしまう、という問題がある。   However, the technique of Patent Document 1 has a problem in that the influence of disturbance light cannot be removed with high accuracy because the standard white plate and the object are not always irradiated with disturbance light. In addition, when the installed standard white plate is hidden by an object other than the target, there is a problem that the influence of disturbance light is erroneously removed without being detected.

本発明は、上記の問題点を解決するためになされたもので、外乱光の影響を精度よく除去して、顔の識別対象の部位や識別対象物を精度よく識別することができる画像識別装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and is an image identification device capable of accurately removing the influence of disturbance light and accurately identifying a part to be identified as a face and an identification object. The purpose is to provide.

上記の目的を達成するために第1の発明に係る画像識別装置は、第1の波長及び前記第1の波長と異なる第2の波長を含む波長域に感度を有し、前記第1の波長を含みかつ、前記第2の波長を含まない第1の波長域の光を識別対象者の顔に照射して撮像するか、または前記識別対象者の顔から反射された反射光から前記第1の波長域の光を透過させて前記識別対象者の顔を撮像することにより、第1の画像データを出力すると共に、前記第2波長を含みかつ前記第1の波長を含まない第2の波長域の光を前記識別対象者の顔に照射して撮像するか、または前記反射光から前記第2の波長域の光を透過させて前記識別対象者の顔を撮像することにより、第2の画像データを出力する撮像手段と、前記第1の画像データにおける前記識別対象者の顔の予め定められた第1部位を表わす領域の画像データと前記第2の画像データにおける前記第1部位を表わす領域の画像データとの差分に関する特徴量を算出すると共に、前記第1の画像データにおける前記顔の前記第1部位と異なる第2部位を表わす領域の画像データと前記第2の画像データにおける前記第2部位を表わす領域の画像データとの差分に関する特徴量を算出する第1特徴量算出手段と、前記第1特徴量算出手段によって算出された前記第1部位を表わす領域の前記差分に関する特徴量及び前記第2部位を表わす領域の前記差分に関する特徴量に基づいて、予め求められた、前記第1部位を表わす領域の前記差分に関する特徴量と前記第2部位を表わす領域の前記差分に関する特徴量とが得られるように、画像データを補正するための補正量を算出する補正量算出手段と、前記補正量算出手段によって算出された前記補正量に基づいて前記第1の画像データ及び前記第2の画像データの少なくとも一方の画像データを補正したときの、前記第1の画像データと前記第2の画像データとの差分に関する特徴量を各画素について算出する第2特徴量算出手段と、前記第2特徴量算出手段によって算出された各画素の前記差分に関する特徴量と、顔の識別対象の部位を表わす領域の画像データについて予め求められた前記差分に関する特徴量とを比較して、前記第1の画像データ及び前記第2の画像データの少なくとも一方から、前記識別対象の部位を検出する検出手段とを含んで構成されている。   In order to achieve the above object, an image identification device according to a first invention has sensitivity in a wavelength region including a first wavelength and a second wavelength different from the first wavelength, and the first wavelength And irradiating the face of the person to be identified with light in the first wavelength range that does not contain the second wavelength, or the first light from the reflected light reflected from the face of the person to be identified The first wavelength is output by imaging the face of the person to be identified by transmitting light in the wavelength range of the second wavelength, and the second wavelength includes the second wavelength and does not include the first wavelength. Irradiating the face of the person to be identified with the light of the region or imaging the face of the person to be identified by transmitting the light of the second wavelength region from the reflected light Imaging means for outputting image data; and the identification target person in the first image data And calculating a feature amount relating to a difference between the image data of the region representing the predetermined first part and the image data of the region representing the first part in the second image data, and the first image data First feature amount calculation for calculating a feature amount related to a difference between image data of a region representing a second portion different from the first portion of the face and image data of a region representing the second portion in the second image data. And a feature amount related to the difference of the region representing the first part and a feature amount related to the difference of the region representing the second part calculated by the first feature amount calculating means, The image data is corrected so that the feature quantity related to the difference of the area representing the first part and the feature quantity related to the difference of the area representing the second part are obtained. Correction amount calculating means for calculating a correction amount for correcting the image data, and correcting at least one of the first image data and the second image data based on the correction amount calculated by the correction amount calculating means A second feature amount calculating unit that calculates a feature amount relating to a difference between the first image data and the second image data for each pixel, and each pixel calculated by the second feature amount calculating unit. Of the first image data and the second image data are compared with the feature amount related to the difference obtained in advance for the image data of the region representing the part to be identified of the face. And detecting means for detecting the part to be identified from at least one side.

第1の発明に係る画像識別装置によれば、第1の波長及び第1の波長と異なる第2の波長を含む波長域に感度を有する撮像手段によって、第1の波長を含みかつ、第2の波長を含まない第1の波長域の光を識別対象者の顔に照射して撮像するか、または識別対象者の顔から反射された反射光から第1の波長域の光を透過させて識別対象者の顔を撮像することにより、第1の画像データを出力する。また、撮像手段によって、第2波長を含みかつ第1の波長を含まない第2の波長域の光を識別対象者の顔に照射して撮像するか、または反射光から第2の波長域の光を透過させて識別対象者の顔を撮像することにより、第2の画像データを出力する。   According to the image identification device of the first invention, the imaging device having sensitivity in a wavelength range including the first wavelength and the second wavelength different from the first wavelength includes the first wavelength and the second wavelength. Irradiating the face of the identification target person with light in the first wavelength range that does not include the wavelength of the identification target, or transmitting the light in the first wavelength range from the reflected light reflected from the face of the identification target person First image data is output by imaging the face of the person to be identified. Further, the imaging means irradiates the face of the person to be identified with light in the second wavelength range including the second wavelength and not including the first wavelength, or images the reflected light from the second wavelength range. The second image data is output by imaging the face of the person to be identified by transmitting light.

第1特徴量算出手段によって、第1の画像データにおける識別対象者の顔の予め定められた第1部位を表わす領域の画像データと第2の画像データにおける第1部位を表わす領域の画像データとの差分に関する特徴量を算出すると共に、第1の画像データにおける顔の第1部位と異なる第2部位を表わす領域の画像データと第2の画像データにおける第2部位を表わす領域の画像データとの差分に関する特徴量を算出する。   Image data of a region representing a predetermined first part of the face of the person to be identified in the first image data and image data of a region representing the first part in the second image data by the first feature amount calculating means Between the image data of the area representing the second part different from the first part of the face in the first image data and the image data of the area representing the second part in the second image data. A feature amount related to the difference is calculated.

そして、補正量算出手段によって、第1特徴量算出手段によって算出された第1部位を表わす領域の差分に関する特徴量及び第2部位を表わす領域の差分に関する特徴量に基づいて、予め求められた、第1部位を表わす領域の差分に関する特徴量と第2部位を表わす領域の差分に関する特徴量とが得られるように、画像データを補正するための補正量を算出する。   Then, the correction amount calculation means is obtained in advance based on the feature amount relating to the difference between the regions representing the first part and the feature amount relating to the difference between the areas representing the second part calculated by the first feature amount calculating means. A correction amount for correcting the image data is calculated so that a feature amount relating to the difference between the regions representing the first part and a feature amount relating to the difference between the regions representing the second part are obtained.

そして、第2特徴量算出手段によって、補正量算出手段によって算出された補正量に基づいて第1の画像データ及び第2の画像データの少なくとも一方の画像データを補正したときの、第1の画像データと第2の画像データとの差分に関する特徴量を各画素について算出する。検出手段によって、第2特徴量算出手段によって算出された各画素の差分に関する特徴量と、顔の識別対象の部位を表わす領域の画像データについて予め求められた差分に関する特徴量とを比較して、第1の画像データ及び第2の画像データの少なくとも一方から、識別対象の部位を検出する。   The first image when the second feature amount calculation unit corrects at least one of the first image data and the second image data based on the correction amount calculated by the correction amount calculation unit. A feature amount relating to the difference between the data and the second image data is calculated for each pixel. The detection unit compares the feature amount related to the difference between the pixels calculated by the second feature amount calculation unit with the feature amount related to the difference obtained in advance for the image data of the region representing the part to be identified of the face, A part to be identified is detected from at least one of the first image data and the second image data.

このように、顔の第1部位を表わす領域の差分に関する特徴量と第2部位を表わす領域の差分に関する特徴量とに基づいて、補正量を算出し、補正された画像データを用いて、顔の識別対象の部位を検出することにより、外乱光の影響を精度よく除去して、顔の識別対象の部位を精度よく識別することができる。   As described above, the correction amount is calculated based on the feature amount related to the difference between the regions representing the first part of the face and the feature amount related to the difference between the regions representing the second part, and the corrected image data is used to calculate the face. By detecting the part to be identified, it is possible to accurately remove the influence of disturbance light and accurately identify the part to be identified.

第1の発明に係る画像識別装置は、検出手段によって検出された識別対象者の顔の部位を表わす領域の画像データの差分に関する特徴量に基づいて、予め定められた差分に関する特徴量を更新する更新手段を更に含むことができる。これによって、検出対象者の個人の特性や光源の特性に対応して、識別対象者の顔の部位を精度よく検出することができる。   The image identification device according to the first invention updates a feature amount relating to a predetermined difference based on a feature amount relating to a difference in image data of an area representing a part of the face of the person to be identified detected by the detecting means. Update means may further be included. Thereby, the part of the face of the person to be identified can be accurately detected in accordance with the characteristics of the individual of the person to be detected and the characteristics of the light source.

第1の発明に係る第1部位を、髪部分とし、第2部位を、肌部分とすることができる。   The 1st site | part which concerns on 1st invention can be made into a hair part, and a 2nd site | part can be made into a skin part.

上記の第1の波長域及び第2の波長域の各々を、800〜1100nmの範囲内とすることができる。また、第1の波長域を、800〜950nmとし、第2の波長域を、950〜1100nmとすることができる。   Each of said 1st wavelength range and said 2nd wavelength range can be made into the range of 800-1100 nm. The first wavelength range can be 800 to 950 nm, and the second wavelength range can be 950 to 1100 nm.

以上説明したように、本発明の画像識別装置によれば、画像データから外乱光の影響を精度よく除去して、顔の識別対象の部位又は識別対象物を精度よく識別することができる、という効果が得られる。   As described above, according to the image identification device of the present invention, it is possible to accurately remove the influence of disturbance light from the image data and accurately identify the part or identification object of the face identification target. An effect is obtained.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、車両に搭載され、運転者の顔の黒目領域を識別する画像識別装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the present invention is applied to an image identification device that is mounted on a vehicle and identifies a black eye region of a driver's face will be described as an example.

図1に示すように、第1の実施の形態に係る画像識別装置10は、識別対象者としての運転者の顔を含む範囲を撮像するように設けられた撮像装置12と、第1波長域(例えば、870nmを含む800nm〜950nmの波長域)の近赤外光を運転者の顔を含む範囲に照射するように設けられた第1光源14と、第2波長域(例えば、970nmを含む950nm〜1100nmの波長域)の近赤外光を運転者の顔を含む範囲に照射するように設けられた第2光源16と、第1光源14及び第2光源16による照射のオンオフと撮像装置12による撮像とを制御すると共に、撮像した顔画像に対して画像処理を行って運転者の顔の黒目領域を識別するコンピュータ18とを備えている。   As shown in FIG. 1, an image identification device 10 according to the first exemplary embodiment includes an imaging device 12 provided to image a range including a driver's face as a person to be identified, and a first wavelength range. A first light source 14 provided to irradiate a range including a driver's face with near infrared light (for example, a wavelength range of 800 nm to 950 nm including 870 nm) and a second wavelength range (for example, including 970 nm) A second light source 16 provided to irradiate a range including a driver's face with near infrared light in a wavelength range of 950 nm to 1100 nm, on / off of irradiation by the first light source 14 and the second light source 16, and an imaging device 12 and a computer 18 that performs image processing on the captured face image and identifies the black eye region of the driver's face.

撮像装置12は、識別対象者である運転者の顔を含む範囲を撮像し、画像の画像信号を生成する撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。また、撮像装置12の撮像部の撮像素子は、第1波長域及び第2波長域を含む波長域に感度を有している。   The imaging device 12 images a range including the face of the driver who is the identification target, generates an image signal of the image, and A / D converts the image signal generated by the imaging unit. An A / D converter (not shown) and an image memory (not shown) for temporarily storing the A / D converted image signal are provided. In addition, the imaging element of the imaging unit of the imaging device 12 has sensitivity in a wavelength range including the first wavelength range and the second wavelength range.

第1光源14によって照射される光の第1波長域と第2光源16によって照射される光の第2波長域とは、主要な波長域が異なっており、第1波長域に、第2波長域の主要な波長970nmが含まれず、第2波長域に、第1波長域の主要な波長870nmが含まれなければ、波長域の一部が重複していてもよい。   The first wavelength range of the light irradiated by the first light source 14 and the second wavelength range of the light irradiated by the second light source 16 have different main wavelength ranges, and the second wavelength range includes the second wavelength range. If the main wavelength 970 nm is not included and the second wavelength region does not include the main wavelength 870 nm of the first wavelength region, a part of the wavelength region may overlap.

コンピュータ18は、CPU、後述する識別処理ルーチンの識別プログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ18をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12によって2枚の顔画像を連続して撮像させると共に、撮像装置12の撮像タイミング(シャッタータイミング)に合わせて、第1光源14及び第2光源16の各々のオンオフを切り替える撮像光源制御部20と、撮像装置12から出力される第1光源14の点灯時の濃淡画像である顔画像及び第2光源16の点灯時の顔画像を入力する画像入力部22と、画像入力部22によって入力された2枚の顔画像の各画素の差分値に基づいて、顔画像から髪を表わす領域及び肌を表わす領域の各々を抽出する髪肌領域抽出部26と、2枚の顔画像における、抽出された髪を表わす領域及び肌を表わす領域の画像データに基づいて、髪を表わす領域及び肌を表わす領域の各々の差分に関する特徴量を算出すると共に、後述する補正部30によって補正された顔画像を用いて、2枚の顔画像から差分に関する特徴量を各画素について算出する特徴量算出部27と、抽出された髪を表わす領域及び肌を表わす領域の各々の特徴量に基づいて、顔画像を補正するための補正量を算出する補正量算出部28と、算出された補正量に従って、画像入力部22によって入力された顔画像を補正する補正部30とを備えている。   The computer 18 includes a CPU, a ROM that stores an identification program for an identification processing routine, which will be described later, a RAM that stores data, and a bus that connects these. When the computer 18 is described in terms of functional blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 1, the imaging device 12 continuously captures two face images. The imaging light source control unit 20 that switches each of the first light source 14 and the second light source 16 on and off in accordance with the imaging timing (shutter timing) of the imaging device 12 and the lighting of the first light source 14 output from the imaging device 12 Based on the difference value of each pixel of the two face images input by the image input unit 22 and the image input unit 22 that inputs the face image that is the gray image at the time and the face image when the second light source 16 is turned on. A hair skin region extraction unit 26 for extracting each of a region representing hair and a region representing skin from the face image, and a region representing the extracted hair in the two face images, and Based on the image data of the area representing the area, the feature amount related to the difference between the area representing the hair and the area representing the skin is calculated, and two faces are used using the face image corrected by the correction unit 30 described later. A feature amount calculation unit 27 that calculates a feature amount related to a difference from the image for each pixel, and a correction amount for correcting the face image based on the extracted feature amounts of the region representing hair and the region representing skin. A correction amount calculation unit 28 to be calculated and a correction unit 30 to correct the face image input by the image input unit 22 according to the calculated correction amount are provided.

撮像光源制御部20は、撮像装置12によって連続して2枚の顔画像を撮像するように制御すると共に、撮像装置12の撮像タイミングに合わせて、一方の顔画像の撮像時に、第2光源16を消灯させたまま、第1光源14を点灯させ、他方の顔画像の撮像時に、第1光源14を消灯させて第2光源16を点灯させるように、第1光源14及び第2光源16を制御する。これによって、撮像装置12から、第1光源14の点灯時に撮影された顔画像と第2光源16の点灯時に撮影された顔画像が順番に出力される。   The imaging light source control unit 20 controls the imaging device 12 to continuously capture two face images, and in accordance with the imaging timing of the imaging device 12, the second light source 16 is captured at the time of imaging one face image. The first light source 14 and the second light source 16 are turned on so that the first light source 14 is turned on and the second light source 16 is turned on when the other face image is captured. Control. Thereby, the face image photographed when the first light source 14 is turned on and the face image photographed when the second light source 16 is turned on are sequentially output from the imaging device 12.

画像入力部22は、例えば、A/Dコンバータや1画面の画像データを記憶する画像メモリ等で構成される。   The image input unit 22 includes, for example, an A / D converter and an image memory that stores image data of one screen.

肌と髪とでは、図2に示すような分光反射特性が得られる。図2では、横軸が光の波長を示し、縦軸が反射率を示している。近赤外の800nm〜1000nmの波長域では、髪の反射率は右肩上がり(波長が長いほど反射率が高い)の特性を持ち、肌の反射率は右肩下がり(波長が長いほど反射率が低い)の特性を持つ。また、近赤外領域の2つの波長、例えば870nmと970nmとの近赤外光の反射率で比較すると、肌は、870nmの近赤外光の方を強く反射し、髪や黒目は、970nmの近赤外光の方を強く反射する特性を持つ。したがって、870nmの近赤外光を照射して撮影した画像から、970nmの近赤外光を照射して撮影した画像を引く(対応する画素の差分を算出する)と、肌を表わす領域の画素の差分値は、正の値となり、髪や黒目を表わす領域の画素の差分値は、負の値となる。   With skin and hair, spectral reflection characteristics as shown in FIG. 2 are obtained. In FIG. 2, the horizontal axis indicates the wavelength of light, and the vertical axis indicates the reflectance. In the near-infrared wavelength range of 800 nm to 1000 nm, the reflectance of hair has a characteristic of rising right (the longer the wavelength, the higher the reflectance), and the reflectance of skin is decreasing to the right (the longer the wavelength, the higher the reflectance). Is low). Further, when comparing the reflectance of near infrared light at two wavelengths in the near infrared region, for example, 870 nm and 970 nm, the skin strongly reflects near infrared light of 870 nm, and hair and black eyes are 970 nm. It has the characteristic of strongly reflecting near infrared light. Therefore, when an image captured by irradiating 970 nm near-infrared light is subtracted from an image captured by irradiating 870 nm near-infrared light (calculating the difference between the corresponding pixels), pixels in the region representing skin Is a positive value, and the difference value of the pixels in the region representing the hair and black eyes is a negative value.

そこで、髪肌領域抽出部26は、以下の(1)式に示すように、2枚の顔画像の各画素の差分値、及び差分値に関する正の閾値と負の閾値に基づいて、対象画素が髪を表わしているかを識別すると共に、肌を表わしているかを識別し、髪を表わす領域及び肌を表わす領域を抽出する。   Therefore, as shown in the following equation (1), the hair skin region extraction unit 26 determines the target pixel based on the difference value of each pixel of the two face images, and the positive threshold value and the negative threshold value regarding the difference value. Identify hair and at the same time identify whether it represents skin and extract a region representing hair and a region representing skin.

ここで、f870(i,j)は、第1光源14から870nmの波長を含む第1波長域の光を照射したときに撮像された顔画像中の画素(i,j)の画素値を表わし、f970(i,j)は、第2光源16から970nmの波長を含む第2波長域の光を照射したときに撮像された顔画像中の画素(i,j)の画素値を表わしている。また、Thは、正の閾値であり、Thは、負の閾値である。上記のように、肌領域と髪領域とでは、画素値の差分値が大きく異なるため、外乱光の影響で、顔画像における、第1光源14及び第2光源16の2つの波長域の明度バランスが崩れた状態でも、比較的容易に両者を分離する閾値を探索することが可能である。従って、実験的又は統計的に、肌領域と髪領域とを分離する正の閾値と負の閾値とを調べておき、上記の閾値として予め設定しておけばよい。 Here, f 870 (i, j) is the pixel value of the pixel (i, j) in the face image captured when the first light source 14 is irradiated with light in the first wavelength range including the wavelength of 870 nm. F 970 (i, j) represents the pixel value of the pixel (i, j) in the face image captured when the second light source 16 is irradiated with light in the second wavelength range including a wavelength of 970 nm. ing. Th 1 is a positive threshold value, and Th 2 is a negative threshold value. As described above, since the difference value of the pixel value differs greatly between the skin region and the hair region, the brightness balance of the two wavelength regions of the first light source 14 and the second light source 16 in the face image due to the influence of disturbance light. Even in a state in which the state has collapsed, it is possible to search for a threshold value for separating the two relatively easily. Therefore, it is sufficient to examine the positive threshold value and the negative threshold value for separating the skin region and the hair region experimentally or statistically and set the threshold values in advance.

特徴量算出部27は、2枚の顔画像の髪を表わす領域の各画素の画素値、2枚の顔画像の肌を表わす領域の各画素の画素値、及び2枚の顔画像の各画素の画素値に基づいて、各画素に対して以下の(2)式の演算を行い、各画素(i,j)の差分に関する特徴量f(i,j)を算出する。 The feature amount calculation unit 27 includes a pixel value of each pixel in the area representing the hair of the two face images, a pixel value of each pixel in the area representing the skin of the two face images, and each pixel of the two face images. On the basis of the pixel value, the following equation (2) is calculated for each pixel to calculate a feature value f n (i, j) relating to the difference between the pixels (i, j).

光源から撮像対象までの距離によって、撮像画像中での対象物の明るさが変化してしまう。そのため、上記(2)式では、注目画素の画素値の差を、対象物に照射される光の波長域が異なる2枚の撮像画像における注目画素の画素値の和で正規化し、距離に依存した明るさ変化に影響されない特徴量を算出している。また、正規化しているため、上記(2)式で表される特徴量は、−1から1の範囲内の値となる。   Depending on the distance from the light source to the imaging target, the brightness of the target in the captured image changes. Therefore, in the above equation (2), the difference between the pixel values of the target pixel is normalized by the sum of the pixel values of the target pixel in the two captured images having different wavelength ranges of the light irradiated on the object, and depends on the distance. The feature quantity that is not affected by the brightness change is calculated. Moreover, since it has normalized, the feature-value represented by said Formula (2) becomes a value within the range of -1 to 1.

また、上記特許文献1に開示されているとおり、肌や髪、黒目(瞳孔、虹彩)は、近赤外領域においてそれぞれ異なる分光反射特性を持つため、図3に示すように、顔の各部位を表わす領域について、異なる特徴量の分布が得られる。なお、黒目領域の特徴量の分布は、肌領域や白目領域の特徴量の分布と異なり、髪領域の特徴量の分布に近い。   Further, as disclosed in Patent Document 1, skin, hair, and black eyes (pupil, iris) have different spectral reflection characteristics in the near-infrared region. Therefore, as shown in FIG. Different distributions of feature quantities are obtained for regions representing. Note that the distribution of feature amounts in the black eye region is close to the distribution of feature amounts in the hair region, unlike the distribution of feature amounts in the skin region and the white eye region.

また、2つの波長域の光(870nmを含む波長域と970nmを含む波長域)の強度バランスは、外乱光に含まれる2つの波長域の光の量によって影響を受ける。したがって、太陽光などの強い外乱光が存在する場合には、上記(2)式で算出される特徴量の値が変化し、図4(A)、図4(B)に示すように、肌や髪を表わす領域の特徴量の分布が偏ってしまうため、特徴量の分布に基づく肌や髪を表わす領域の分離が困難になる。また、上記図3に示したように瞳孔や虹彩を表わす領域の特徴量の分布は、肌を表わす領域の特徴量の分布と髪を表わす領域の特徴量の分布との中間に位置するため、特徴量の分布に基づく肌や髪を表わす領域の分離がさらに難しくなり、精度よく識別することができなくなる。   In addition, the intensity balance of light in two wavelength regions (a wavelength region including 870 nm and a wavelength region including 970 nm) is affected by the amount of light in the two wavelength regions included in the disturbance light. Therefore, when strong disturbance light such as sunlight is present, the value of the feature amount calculated by the above equation (2) changes, and as shown in FIGS. 4 (A) and 4 (B) Since the distribution of the feature quantity of the area representing the hair and the hair is biased, it becomes difficult to separate the area representing the skin and the hair based on the distribution of the feature quantity. In addition, as shown in FIG. 3 above, the distribution of the feature amount of the region representing the pupil and the iris is positioned between the distribution of the feature amount of the region representing the skin and the distribution of the feature amount of the region representing the hair. Separation of areas representing skin and hair based on the distribution of feature amounts becomes even more difficult, making it impossible to identify with high accuracy.

そこで、補正量算出部28は、抽出された髪を表わす領域及び肌を表わす領域の各々の特徴量の分布が、予め定められた、図4(C)に示すような外乱光の影響がない場合における特徴量の軸で差が大きい特徴量の分布となるように、以下に説明するように、画像を補正するための補正量を算出する。   Therefore, the correction amount calculation unit 28 has no influence of disturbance light as shown in FIG. 4C, in which the distribution of the feature amounts of the extracted region representing hair and the region representing skin is determined in advance. As described below, the correction amount for correcting the image is calculated so that the distribution of the feature amount having a large difference in the feature amount axis in the case is obtained.

まず、顔画像における870nmを含む第1波長域と970nmを含む第2波長域との強度バランスを補正するために第2光源16の点灯時の顔画像を補正する補正量をαとすると、補正量αで補正された場合の差分に関する特徴量は、以下の(3)式で表される。   First, in order to correct the intensity balance between the first wavelength region including 870 nm and the second wavelength region including 970 nm in the face image, the correction amount for correcting the face image when the second light source 16 is turned on is α. The feature amount related to the difference when corrected by the amount α is expressed by the following equation (3).

上記の補正量αを様々に変化させ、上記(3)式で算出される肌領域及び髪領域の各々の特徴量の分布が、予め記憶されている肌領域及び髪領域の各々の特徴量の分布に近くなるときの補正量αを求め、第2光源16の点灯時の顔画像を補正するための補正量を決定する。   By varying the correction amount α in various ways, the distribution of the feature amounts of the skin region and the hair region calculated by the above equation (3) is the characteristic amount of each of the skin region and the hair region stored in advance. A correction amount α when the distribution is close is obtained, and a correction amount for correcting the face image when the second light source 16 is turned on is determined.

なお、予め定められた肌領域の特徴量の分布と髪領域の特徴量の分布との差が大きいという関係が得られるように、肌領域と髪領域から算出された特徴量の分布の差を大きくする補正量を決定するようにしてもよい。   Note that the difference between the distribution of feature amounts calculated from the skin region and the hair region is calculated so that the relationship between the distribution of the feature amount of the skin region and the distribution of the feature amount of the hair region is large. The amount of correction to be increased may be determined.

補正部30は、補正量算出部28によって算出された補正量に従って、第2光源16の点灯時の顔画像の各画素の画素値を補正する。これによって、第1光源16の点灯時の顔画像と第2光源16の点灯時の補正後の顔画像とから算出される差分に関する特徴量の分布は、上記図4(C)のようになるため、肌と髪との各々を表わす領域の特徴量の分布の中間に位置する、瞳孔や虹彩を表わす領域の特徴量の分布を分離しやすくなり、黒目領域の識別が可能となる。   The correction unit 30 corrects the pixel value of each pixel of the face image when the second light source 16 is turned on according to the correction amount calculated by the correction amount calculation unit 28. As a result, the distribution of the feature amount related to the difference calculated from the face image when the first light source 16 is turned on and the corrected face image when the second light source 16 is turned on is as shown in FIG. Therefore, it becomes easy to separate the distribution of the feature amount of the region representing the pupil or the iris located in the middle of the distribution of the feature amount of the region representing each of the skin and the hair, and the black eye region can be identified.

また、コンピュータ18は、図1に示すように、黒目領域の特徴量の分布に基づく特徴量の範囲を規定する閾値を記憶した閾値記憶部32と、補正された顔画像を用いて算出された差分に関する各画素の特徴量、及び閾値記憶部32に記憶された特徴量に関する閾値とに基づいて、顔画像から黒目領域の候補領域を抽出する候補領域抽出部34と、抽出された候補領域から、識別対象部位としての黒目を表わす領域を識別する部位識別部36と、識別された黒目領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新する更新部38とを備えている。   Further, as shown in FIG. 1, the computer 18 is calculated using a threshold value storage unit 32 that stores a threshold value that defines a feature amount range based on the feature amount distribution of the black eye region, and a corrected face image. Based on the feature amount of each pixel related to the difference and the threshold value related to the feature value stored in the threshold value storage unit 32, a candidate region extraction unit 34 that extracts a candidate region of a black eye region from the face image, and the extracted candidate region A part identifying unit 36 for identifying a region representing a black eye as a part to be identified, and an updating unit 38 for updating the threshold value stored in the threshold value storage unit 32 based on the distribution of the feature amount of the identified black eye region. I have.

閾値記憶部32に記憶された閾値は以下のように決定される。まず、外乱光の影響が除去された顔画像又は外乱光の影響がない顔画像から、黒目領域の特徴量の分布を求めておき、求められた黒目領域の特徴量の分布に基づいて、黒目領域の特徴量の範囲を定め、定められた特徴量の範囲を規定する閾値を決定して、閾値記憶部32に記憶しておく。   The threshold value stored in the threshold value storage unit 32 is determined as follows. First, from the face image from which the influence of disturbance light has been removed or from the face image without the influence of disturbance light, the feature amount distribution of the black eye region is obtained, and based on the obtained feature amount distribution of the black eye region, The range of the feature amount of the region is determined, a threshold value that defines the determined feature amount range is determined, and stored in the threshold value storage unit 32.

候補領域抽出部34は、補正された顔画像を用いて算出された差分に関する各画素の特徴量に基づいて、抽出された肌領域の内側から、特徴量が、閾値で定められる範囲内となる領域を、黒目領域の候補領域として抽出する。このとき、黒目領域の特徴量の分布と髪領域の特徴量の分布とが近いため、眉を表わす領域も、黒目領域の候補領域として抽出される。   Based on the feature amount of each pixel relating to the difference calculated using the corrected face image, the candidate region extraction unit 34 has the feature amount within the range determined by the threshold from the inside of the extracted skin region. The region is extracted as a candidate region for the black eye region. At this time, since the distribution of the feature amount of the black eye region is close to the distribution of the feature amount of the hair region, the region representing the eyebrow is also extracted as a candidate region for the black eye region.

部位識別部36は、顔画像における、抽出された黒目領域の候補領域の位置関係から、上側に存在する候補領域を、眉を表わす領域として除外して、黒目領域の候補領域から、黒目を表わす領域を検出して、黒目を表わす領域を識別する。   The part identifying unit 36 excludes the upper candidate area from the positional relationship of the extracted candidate area of the black eye area in the face image, and expresses the black eye from the candidate area of the black eye area. A region is detected to identify a region representing a black eye.

黒目領域における近赤外光の反射特性は個人差を持ち、黒目内の部位(瞳孔や虹彩)によって反射率は異なるため、図5(A)、(B)に示すように、瞳孔の大きさ(周辺環境の明るさや光源の明るさにより変化)に応じて、差分に関する特徴量の値や分布が変化する。また、図6(A)、(B)に示すように、差分に関する特徴量は、光源(LEDなど)の照射強度や撮像条件(シャッター速度やゲイン制御)にも影響を受けるため、光源装置の個体差や周辺の明るさなどに応じて、特徴量の値や分布が変化する。   The reflection characteristics of near-infrared light in the black eye region have individual differences, and the reflectivity varies depending on the region (pupil and iris) in the black eye. Therefore, as shown in FIGS. 5A and 5B, the size of the pupil Depending on the brightness of the surrounding environment and the brightness of the light source, the value and distribution of the feature amount regarding the difference change. Further, as shown in FIGS. 6A and 6B, the feature quantity regarding the difference is also affected by the irradiation intensity of the light source (LED, etc.) and the imaging conditions (shutter speed and gain control). The value and distribution of the feature value change according to individual differences and surrounding brightness.

そこで、更新部38では、閾値記憶部32に記憶された閾値が、運転者の瞳孔の大きさや第1光源14及び第2光源16から照射される光の強度を考慮した特徴量の分布から求められる閾値となるように、識別された黒目領域の特徴量の分布に応じて、閾値記憶部32に記憶された閾値を更新する。   Therefore, in the update unit 38, the threshold value stored in the threshold value storage unit 32 is obtained from the distribution of the feature amount considering the size of the driver's pupil and the intensity of light emitted from the first light source 14 and the second light source 16. The threshold value stored in the threshold value storage unit 32 is updated in accordance with the distribution of the feature amount of the identified black eye region so that the threshold value is set to the threshold value.

次に、第1の実施の形態に係る画像識別装置10の作用について説明する。以下では、撮像装置12の撮像範囲、第1光源14の照射範囲、及び第2光源16の照射範囲に、識別対象者である運転者の顔が位置している場合を例に説明する。   Next, the operation of the image identification device 10 according to the first embodiment will be described. Below, the case where the face of the driver who is a candidate for identification is located in the imaging range of imaging device 12, the irradiation range of the 1st light source 14, and the irradiation range of the 2nd light source 16 is explained as an example.

コンピュータ18において、図7に示す識別処理ルーチンが実行される。まず、ステップ100において、第1光源14及び第2光源16がオンオフするように制御すると共に、第1光源14のみの点灯時及び第2光源16のみの点灯時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。   In the computer 18, an identification processing routine shown in FIG. 7 is executed. First, in step 100, the first light source 14 and the second light source 16 are controlled to be turned on and off, and when the first light source 14 is turned on and only the second light source 16 is turned on, the imaging device 12 causes the driver to Control is performed so that the region including the face is continuously imaged.

そして、ステップ102において、撮像装置12から、第1光源14の点灯時の顔画像と第2光源16の点灯時の顔画像とを取得し、次のステップ104で、上記ステップ102で取得した2枚の顔画像の画素値に基づいて、各画素の差分値を算出する。   In step 102, a face image when the first light source 14 is turned on and a face image when the second light source 16 is turned on are acquired from the imaging device 12, and in step 104, 2 acquired in step 102 above. Based on the pixel values of one face image, a difference value of each pixel is calculated.

そして、ステップ106で、上記ステップ104で算出された各画素の差分値に基づいて、上記(1)式に従って、髪を表わす領域を抽出し、ステップ108で、上記ステップ104で算出された各画素の差分値に基づいて、上記(1)式に従って、肌を表わす領域を抽出する。   Then, in step 106, based on the difference value of each pixel calculated in step 104, a region representing hair is extracted according to the above equation (1). In step 108, each pixel calculated in step 104 is extracted. Based on the difference value, an area representing the skin is extracted according to the above equation (1).

次のステップ109では、上記ステップ106で抽出された髪を表わす領域について、上記ステップ102で取得した2枚の顔画像の画素値に基づいて、上記(2)式に従って、各画素の特徴量を算出し、上記ステップ108で抽出された肌を表わす領域について、同様に、各画素の特徴量を算出する。   In the next step 109, for the region representing the hair extracted in step 106, the feature amount of each pixel is calculated according to the above equation (2) based on the pixel values of the two face images acquired in step 102. In the same manner, the feature amount of each pixel is calculated for the region representing the skin extracted in step 108.

そして、ステップ110では、上記ステップ109で算出された髪を表わす領域の特徴量の分布、肌を表わす領域の特徴量の分布、及び予め定められた髪を表わす領域と肌を表わす領域の各々の特徴量の分布に基づいて、第2光源16の点灯時の顔画像を補正するための補正量を算出する。   In step 110, the distribution of the feature amount of the region representing the hair calculated in step 109, the distribution of the feature amount of the region representing the skin, and each of the predetermined region representing the hair and the region representing the skin. Based on the distribution of the feature amount, a correction amount for correcting the face image when the second light source 16 is turned on is calculated.

そして、ステップ112において、上記ステップ102で取得された第2光源16の点灯時の顔画像の各画素の画素値を、上記ステップ110で算出された補正量に従って補正する。   In step 112, the pixel value of each pixel of the face image obtained when the second light source 16 is turned on acquired in step 102 is corrected according to the correction amount calculated in step 110.

次のステップ114では、上記ステップ102で取得された第1光源14の点灯時の顔画像の画素値と、上記ステップ112で補正された第2光源16の点灯時の顔画像の画素値とに基づいて、上記(2)式に従って、差分に関する特徴量を各画素について算出する。   In the next step 114, the pixel value of the face image when the first light source 14 is turned on acquired in step 102 and the pixel value of the face image when the second light source 16 is corrected corrected in step 112 are used. Based on the above equation (2), the feature quantity related to the difference is calculated for each pixel.

そして、ステップ116において、上記ステップ114で算出された特徴量に基づいて、上記ステップ108で抽出された肌領域の内側から、特徴量が、閾値記憶部32で記憶された閾値で規定される範囲内となる領域を、黒目領域の候補領域として抽出する。次のステップ118では、上記ステップ116で抽出された黒目領域の候補領域の中から、顔画像における黒目領域の候補領域の位置関係に基づいて、黒目を表わす領域を識別する。   Then, in step 116, the range in which the feature amount is defined by the threshold stored in the threshold storage unit 32 from the inside of the skin region extracted in step 108 based on the feature amount calculated in step 114. The inner area is extracted as a candidate area for the black eye area. In the next step 118, a region representing a black eye is identified from the candidate regions of the black eye region extracted in step 116 based on the positional relationship of the candidate regions of the black eye region in the face image.

そして、ステップ120において、上記ステップ118で識別された黒目を表わす領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新して、識別処理ルーチンを終了する。   In step 120, the threshold value stored in the threshold value storage unit 32 is updated based on the feature amount distribution of the region representing the black eye identified in step 118, and the identification processing routine is terminated.

以上説明したように、第1の実施の形態に係る画像識別装置によれば、顔の髪を表わす領域について算出された差分に関する特徴量の分布と肌を表わす領域について算出された差分に関する特徴量の分布とが、所定の特徴量の分布となるように、顔画像を補正するための補正量を算出し、補正された顔画像を用いて、顔の黒目領域を検出することにより、外乱光の影響を精度よく除去して、顔の黒目領域を精度よく識別することができる。   As described above, according to the image identification device according to the first embodiment, the distribution of the feature amount related to the difference calculated for the region representing the facial hair and the feature amount related to the difference calculated for the region representing the skin. By calculating the correction amount for correcting the face image so that the distribution of the predetermined feature amount is the distribution of the predetermined feature amount, and detecting the black eye region of the face using the corrected face image, disturbance light Thus, the black eye region of the face can be accurately identified.

また、運転者の黒目の反射特性の個人差や光源の照射強度の個体差に対応して、運転者の顔の黒目を表わす領域を精度よく検出することができる。   In addition, it is possible to accurately detect a region representing the black eye of the driver's face corresponding to the individual difference in the reflection characteristics of the driver's black eyes and the individual difference in the irradiation intensity of the light source.

また、顔領域に含まれる肌と髪とは反射特性が既知であるため、顔画像における肌と髪の領域の明るさから、正確な補正量を算出でき、運転者に照射されている太陽光などの外乱光の影響を除去するように補正することができる。   In addition, since the reflection characteristics of the skin and hair included in the face area are known, an accurate correction amount can be calculated from the brightness of the skin and hair area in the face image, and the sunlight irradiated to the driver It can correct | amend so that the influence of disturbance light, such as.

なお、上記の実施の形態では、黒目領域の候補領域から、候補領域の位置関係に基づいて、黒目を表わす領域を検出する場合を例に説明したが、これに限定されるものではなく、黒目領域の候補領域における特徴量の分布を手掛かりに、パターン認識手法により、黒目を表わす領域を検出してもよい。図8(A)、(B)に示すような顔画像において、黒目を表わす領域では、図8(C)に示すような特徴量の分布が得られるため、この特徴量の分布を用いたパターン認識手法により、候補領域から黒目を表わす領域を検出するようにすればよい。   In the above embodiment, the case where a region representing a black eye is detected from the candidate region of the black eye region based on the positional relationship between the candidate regions has been described as an example. However, the present invention is not limited to this. A region representing a black eye may be detected by a pattern recognition method based on the distribution of the feature amount in the candidate region. In a face image as shown in FIGS. 8A and 8B, a feature amount distribution as shown in FIG. 8C is obtained in a region representing a black eye. Therefore, a pattern using this feature amount distribution is used. An area representing a black eye may be detected from the candidate area by the recognition method.

また、補正量に従って第2光源の点灯時の顔画像のみを補正する場合を例に説明したが、これに限定されるものではなく、第1光源の点灯時の顔画像と第2光源の点灯時の顔画像との双方を補正するようにしてもよい。この場合には、抽出された髪を表わす領域及び肌を表わす領域の各々の特徴量の分布が、予め定められた各々の特徴量の分布に近くなるときの、第1光源の点灯時の顔画像を補正するための補正量及び第2光源の点灯時の顔画像を補正するための補正量を求めるようにすればよい。また、第1光源の点灯時の顔画像のみを補正するようにしてもよい。   Moreover, although the case where only the face image when the second light source is turned on according to the correction amount has been described as an example, the present invention is not limited to this, and the face image when the first light source is turned on and the second light source is turned on. You may make it correct | amend both with the face image of time. In this case, the face when the first light source is turned on when the distribution of the feature amounts of the extracted hair region and the skin region is close to the predetermined feature amount distribution. A correction amount for correcting the image and a correction amount for correcting the face image when the second light source is turned on may be obtained. Alternatively, only the face image when the first light source is turned on may be corrected.

また、2枚の顔画像の差分値に基づいて、肌領域と髪領域とを抽出する場合を例に説明したが、これに限定されるものではなく、顔画像における肌領域及び髪領域の各々の位置を予め設定してもおいてもよい。また、顔画像に対して、エッジ情報などから人の頭部領域を探索し、探索結果を用いて、肌領域と髪領域とを抽出するようにしてもよい。   Further, the case where the skin region and the hair region are extracted based on the difference value between the two face images has been described as an example, but the present invention is not limited to this, and each of the skin region and the hair region in the face image is described. These positions may be set in advance. Further, a human head region may be searched for face images from edge information or the like, and a skin region and a hair region may be extracted using the search result.

また、補正量を算出するために、差分に関する特徴量を算出する場合と、補正された顔画像から差分に関する特徴量を算出する場合とにおいて、上記(2)式で表される同じ算出式を用いて、差分に関する特徴量を算出する場合を例に説明したが、これに限定されるものではなく、補正量を算出するために、差分に関する特徴量を算出する場合と、補正された顔画像から差分に関する特徴量を算出する場合とにおいて、異なる算出式を使い分けて、差分に関する特徴量を算出するようにしてもよい。   Further, in order to calculate the correction amount, the same calculation formula expressed by the above equation (2) is used when calculating the feature amount regarding the difference and when calculating the feature amount regarding the difference from the corrected face image. However, the present invention is not limited to this. However, the present invention is not limited to this, and the case where the feature amount related to the difference is calculated to calculate the correction amount and the corrected face image are used. The feature amount related to the difference may be calculated by using different calculation formulas in the case of calculating the feature amount related to the difference.

次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、光源の消灯時の顔画像に基づいて、補正量を算出している点が第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that the correction amount is calculated based on the face image when the light source is turned off.

図9に示すように、第2の実施の形態に係る画像識別装置210のコンピュータ218は、撮像装置12によって3枚の顔画像を連続して撮像させると共に、撮像装置12の撮像タイミング(シャッタータイミング)に合わせて、第1光源14及び第2光源16の各々のオンオフを切り替える撮像光源制御部220と、撮像装置12から出力される第1光源14の点灯時の顔画像、第2光源16の点灯時の顔画像、及び第1光源14と第2光源16との双方の消灯時の顔画像を入力する画像入力部222と、消灯時の顔画像に基づいて、顔画像の補正量を算出する補正量算出部228と、算出された補正量に従って、画像入力部222によって入力された第1光源14の点灯時の顔画像及び第2光源16の点灯時の顔画像の各々を補正する補正部230と、補正部230によって補正された顔画像を用いて、差分に関する特徴量を各画素について算出する特徴量算出部227と、閾値記憶部32と、候補領域抽出部34と、部位識別部36と、更新部38とを備えている。   As illustrated in FIG. 9, the computer 218 of the image identification device 210 according to the second embodiment causes the imaging device 12 to continuously capture three face images, and the imaging timing (shutter timing) of the imaging device 12. ), The imaging light source control unit 220 that switches each of the first light source 14 and the second light source 16 on and off, the face image when the first light source 14 that is output from the imaging device 12 is turned on, and the second light source 16 The correction amount of the face image is calculated based on the image input unit 222 that inputs the face image when the light source is turned on and the face image when both the first light source 14 and the second light source 16 are turned off, and the face image when the light source is turned off. And a correction amount calculating unit 228 that performs correction for correcting the face image when the first light source 14 is turned on and the face image when the second light source 16 is turned on, which are input by the image input unit 222, according to the calculated correction amount. 230, a feature amount calculation unit 227 that calculates a feature amount related to a difference for each pixel using the face image corrected by the correction unit 230, a threshold storage unit 32, a candidate region extraction unit 34, and a part identification unit 36 and an update unit 38.

撮像光源制御部220は、撮像装置12によって連続して3枚の顔画像を撮像するように制御すると共に、撮像装置12の撮像タイミングに合わせて、1枚目の顔画像の撮像時に、第2光源16を消灯させたまま、第1光源14を点灯させ、2枚目の顔画像の撮像時に、第1光源14を消灯させて第2光源16を点灯させ、3枚目の顔画像の撮像時に、第1光源14と第2光源16とを消灯させるように、第1光源14及び第2光源16を制御する。これによって、撮像装置12から、第1光源14の点灯時に撮影された顔画像と、第2光源16の点灯時で撮影された顔画像と、光源消灯時に撮像された顔画像とが順番に出力される。   The imaging light source control unit 220 controls the imaging device 12 to continuously capture three face images, and at the time of capturing the first face image in accordance with the imaging timing of the imaging device 12, With the light source 16 turned off, the first light source 14 is turned on, and when the second face image is picked up, the first light source 14 is turned off and the second light source 16 is turned on to pick up the third face image. Sometimes, the first light source 14 and the second light source 16 are controlled so that the first light source 14 and the second light source 16 are turned off. As a result, a face image taken when the first light source 14 is turned on, a face image taken when the second light source 16 is turned on, and a face image taken when the light source is turned off are sequentially output from the imaging device 12. Is done.

光源消灯時の顔画像の各画素の値が、外乱光成分であると推定されるため、補正量算出部228は、消灯時に撮像された顔画像の各画素の画素値を、補正量として算出する。   Since the value of each pixel of the face image when the light source is turned off is estimated to be a disturbance light component, the correction amount calculation unit 228 calculates the pixel value of each pixel of the face image captured when the light source is turned off as the correction amount. To do.

補正部230は、算出された各画素の補正量に従って、第1光源14の点灯時に撮影された顔画像、及び第2光源16の点灯時に撮影された顔画像の各画素の画素値から、対応する補正量だけ引くことにより補正を行う。   In accordance with the calculated correction amount of each pixel, the correction unit 230 responds from the pixel value of each pixel of the face image taken when the first light source 14 is turned on and the face image taken when the second light source 16 is turned on. Correction is performed by subtracting the correction amount to be applied.

特徴量算出部227は、補正された第1光源14の点灯時の顔画像及び補正された第2光源16の点灯時の顔画像の各画素値に基づいて、各画素(i,j)に対して、上記(2)式に従って、差分に関する特徴量f(i,j) を算出する。 The feature amount calculation unit 227 applies the pixel value to each pixel (i, j) based on the corrected face image when the first light source 14 is turned on and the corrected face image when the second light source 16 is turned on. On the other hand, the feature quantity f n (i, j) regarding the difference is calculated according to the above equation (2).

次に、第2の実施の形態に係る識別処理ルーチンの内容について図10を用いて説明する。なお、第1の実施の形態と同様の処理については同一符号を付して説明を省略する。   Next, the contents of the identification processing routine according to the second embodiment will be described with reference to FIG. Note that the same processes as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

まず、ステップ250において、第1光源14及び第2光源16がオンオフするように制御すると共に、第1光源14のみの点灯時、第2光源16のみの点灯時、及び第1光源14と第2光源16との双方の消灯時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。次のステップ252において、撮像装置12から、第1光源14の点灯時の顔画像と第2光源16の点灯時の顔画像と光源消灯時の顔画像とを取得する。   First, in step 250, the first light source 14 and the second light source 16 are controlled to be turned on / off, and only the first light source 14 is turned on, only the second light source 16 is turned on, and the first light source 14 and the second light source 14 are turned on. When both the light source 16 and the light source 16 are turned off, the imaging device 12 performs control so that an area including the driver's face is continuously imaged. In the next step 252, a face image when the first light source 14 is turned on, a face image when the second light source 16 is turned on, and a face image when the light source is turned off are acquired from the imaging device 12.

そして、ステップ254で、上記ステップ252で取得された光源消灯時の顔画像に基づいて、顔画像を補正するための補正量を各画素について算出し、ステップ256において、上記ステップ252で取得された第1光源14の点灯時の顔画像及び第2光源16の点灯時の顔画像の各々について、上記ステップ254で算出された補正量に従って各画素の画素値を補正する。   In step 254, a correction amount for correcting the face image is calculated for each pixel based on the face image when the light source is extinguished acquired in step 252. In step 256, the correction amount acquired in step 252 is calculated. For each of the face image when the first light source 14 is turned on and the face image when the second light source 16 is turned on, the pixel value of each pixel is corrected according to the correction amount calculated in step 254.

次のステップ114では、上記ステップ256で補正された第1光源14の点灯時の顔画像の画素値と第2光源16の点灯時の顔画像の画素値とに基づいて、上記(2)式に従って、差分に関する特徴量を各画素について算出する。   In the next step 114, based on the pixel value of the face image when the first light source 14 is lit corrected in step 256 and the pixel value of the face image when the second light source 16 is lit, the above equation (2) In accordance with the above, a feature amount regarding the difference is calculated for each pixel.

そして、ステップ116において、上記ステップ114で算出された特徴量に基づいて、黒目領域の候補領域を抽出し、次のステップ118では、上記ステップ116で抽出された黒目領域の候補領域の中から、黒目を表わす領域を識別する。   In step 116, a candidate area for the black eye region is extracted based on the feature amount calculated in step 114. In the next step 118, the candidate area for the black eye region extracted in step 116 is extracted. An area representing a black eye is identified.

そして、ステップ120において、上記ステップ118で識別された黒目を表わす領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新して、識別処理ルーチンを終了する。   In step 120, the threshold value stored in the threshold value storage unit 32 is updated based on the feature amount distribution of the region representing the black eye identified in step 118, and the identification processing routine is terminated.

上記で説明したように、第2の実施の形態に係る画像識別装置によれば、光源消灯時に撮像された顔画像に基づいて、補正量を算出し、補正された顔画像を用いて、顔の黒目を表わす領域を検出することにより、外乱光の影響を精度よく除去して、黒目を表わす領域を精度よく識別することができる。   As described above, according to the image identification device according to the second embodiment, the correction amount is calculated based on the face image captured when the light source is turned off, and the face is corrected using the corrected face image. By detecting the area representing the black eye, it is possible to accurately remove the influence of disturbance light and accurately identify the area representing the black eye.

また、光源消灯時の顔画像の明るさから、外乱光がどの程度含まれるかを推測することができるため、黒目識別のために適切な画像の補正量を算出することができ、運転者に照射されている外乱光の影響を除去するように補正することができる。   In addition, since it is possible to estimate how much disturbance light is included from the brightness of the face image when the light source is turned off, it is possible to calculate an appropriate image correction amount for black eye identification, and Correction can be made so as to remove the influence of the disturbance light being irradiated.

なお、補正量に従って第1光源の点灯時の顔画像と第2光源の点灯時の顔画像との双方を補正する場合を例に説明したが、これに限定されるものではなく、第1光源の点灯時の顔画像のみ、または第2光源の点灯時の顔画像のみを補正するようにしてもよい。この場合には、消灯時の顔画像に基づいて、第1光源の点灯時の顔画像のみを補正するための補正量、または第2光源の点灯時の顔画像のみを補正するための補正量を求めるようにすればよい。   In addition, although the case where both the face image when the first light source is lit and the face image when the second light source is lit is corrected according to the correction amount is described as an example, the present invention is not limited to this. Only the face image when lit or only the face image when the second light source is lit may be corrected. In this case, a correction amount for correcting only the face image when the first light source is turned on or a correction amount for correcting only the face image when the second light source is turned on based on the face image when the light source is turned off. Should be requested.

次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a third embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態では、照度計によって計測された照度に基づいて、顔画像を補正するための補正量を算出している点が第1の実施の形態と異なっている。   The third embodiment is different from the first embodiment in that the correction amount for correcting the face image is calculated based on the illuminance measured by the illuminometer.

図11に示すように、第3の実施の形態に係る画像識別装置310は、撮像装置12と、第1光源14と、第2光源16と、撮像装置12の撮像素子に入射する光の照度を計測するように設けられた照度計312と、第1光源14及び第2光源16による照射のオンオフと撮像装置12による撮像とを制御すると共に、照度計312によって計測された照度を用いて、撮像した顔画像に対して画像処理を行って、運転者の顔の黒目を表わす領域を識別するコンピュータ318とを備えている。   As illustrated in FIG. 11, an image identification device 310 according to the third embodiment includes an imaging device 12, a first light source 14, a second light source 16, and an illuminance of light incident on an imaging device of the imaging device 12. Illuminance meter 312 provided to measure illuminance, and on / off of irradiation by first light source 14 and second light source 16 and imaging by imaging device 12, and using the illuminance measured by illuminance meter 312, And a computer 318 that performs image processing on the captured face image and identifies a region representing the black eye of the driver's face.

また、コンピュータ318は、撮像光源制御部20と、画像入力部22と、照度計312によって計測された照度に基づいて、顔画像の補正量を算出する補正量算出部328と、算出された補正量に従って、画像入力部222によって入力された2枚の顔画像の各々を補正する補正部330と、特徴量算出部227と、閾値記憶部32と、候補領域抽出部34と、部位識別部36と、更新部38とを備えている。   The computer 318 also includes a correction amount calculation unit 328 that calculates the correction amount of the face image based on the illuminance measured by the imaging light source control unit 20, the image input unit 22, and the illuminance meter 312, and the calculated correction. A correction unit 330 that corrects each of the two face images input by the image input unit 222 according to the amount, a feature amount calculation unit 227, a threshold storage unit 32, a candidate area extraction unit 34, and a part identification unit 36 And an update unit 38.

ここで、本実施の形態の原理について説明する。太陽光や道路周辺照明などの外乱光のスペクトル強度については、前もって知ることができる。また、撮像装置の撮像素子の分光感度やレンズなどの分光透過率も、前もって知ることができる。したがって、上記のスペクトル強度や、分光感度、分光透過率を予め調べておき、撮像装置に入射する光の照度を計測すれば、撮像画像の画素値に含まれる外乱光の比率を推定することが可能である。   Here, the principle of the present embodiment will be described. The spectral intensity of disturbance light such as sunlight and road ambient lighting can be known in advance. Further, the spectral sensitivity of the image sensor of the imaging device and the spectral transmittance of the lens can be known in advance. Therefore, if the spectral intensity, spectral sensitivity, and spectral transmittance described above are examined in advance and the illuminance of light incident on the imaging device is measured, the ratio of disturbance light included in the pixel value of the captured image can be estimated. Is possible.

そこで、本実施の形態では、補正量算出部328によって、予め求められた、外乱光のスペクトル強度、撮像装置12の撮像素子の分光感度、及びレンズの分光透過率と、照度計312によって計測された光の照度とに基づいて、計測された光を撮像装置12によって受光した量として、撮像画像の画素値に含まれる外乱光の比率を算出し、算出した比率を、顔画像を補正するための補正量とする。   Therefore, in this embodiment, the correction amount calculation unit 328 measures the spectral intensity of disturbance light, the spectral sensitivity of the imaging device of the imaging device 12, and the spectral transmittance of the lens, and the illuminometer 312. Based on the illuminance of the measured light, the ratio of disturbance light included in the pixel value of the captured image is calculated as the amount of the measured light received by the imaging device 12, and the calculated ratio is used to correct the face image. Correction amount.

補正部330は、算出された補正量に従って、第1光源14の点灯時に撮影された顔画像及び第2光源16の点灯時で撮影された顔画像の各画素の画素値を補正する。   The correction unit 330 corrects the pixel value of each pixel of the face image shot when the first light source 14 is turned on and the face image shot when the second light source 16 is turned on according to the calculated correction amount.

次に、第3の実施の形態に係る識別処理ルーチンについて図12を用いて説明する。なお、第1の実施の形態と同様の処理については同一符号を付して説明を省略する。   Next, an identification processing routine according to the third embodiment will be described with reference to FIG. Note that the same processes as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

まず、ステップ100において、第1光源14及び第2光源16がオンオフするように制御すると共に、第1光源14のみの点灯時及び第2光源16のみの点灯時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。   First, in step 100, the first light source 14 and the second light source 16 are controlled to be turned on and off, and when the first light source 14 is turned on and only the second light source 16 is turned on, the imaging device 12 causes the driver to Control is performed so that the region including the face is continuously imaged.

そして、ステップ102において、撮像装置12から、第1光源14の点灯時の顔画像と第2光源16の点灯時の顔画像とを取得し、次のステップ350で、照度計312より計測された光の照度を取得する。   In step 102, a face image when the first light source 14 is turned on and a face image when the second light source 16 is turned on are acquired from the imaging device 12, and measured by the illuminometer 312 in the next step 350. Get the illuminance of light.

そして、ステップ352において、上記ステップ350で取得された光の照度と、予め求められた、外乱光のスペクトル強度、撮像装置12の撮像素子の分光感度、及びレンズの分光透過率とに基づいて、顔画像を補正するための補正量を算出し、ステップ354において、上記ステップ102で取得された第1光源14の点灯時の顔画像及び第2光源16の点灯時の顔画像の各々について、上記ステップ352で算出された補正量に従って各画素の画素値を補正する。   In step 352, based on the illuminance of the light acquired in step 350, the spectral intensity of disturbance light, the spectral sensitivity of the imaging device of the imaging device 12, and the spectral transmittance of the lens obtained in advance. A correction amount for correcting the face image is calculated, and in step 354, for each of the face image when the first light source 14 is turned on and the face image when the second light source 16 is turned on, acquired in step 102, The pixel value of each pixel is corrected according to the correction amount calculated in step 352.

次のステップ114では、上記ステップ354で補正された第1光源14の点灯時の顔画像の画素値と第2光源16の点灯時の顔画像の画素値とに基づいて、上記(2)式に従って、差分に関する特徴量を各画素について算出する。   In the next step 114, based on the pixel value of the face image when the first light source 14 is lit corrected in step 354 and the pixel value of the face image when the second light source 16 is lit, the above equation (2) In accordance with the above, a feature amount regarding the difference is calculated for each pixel.

そして、ステップ116において、上記ステップ114で算出された特徴量に基づいて、黒目領域の候補領域を抽出し、次のステップ118では、上記ステップ116で抽出された黒目領域の候補領域の中から、黒目を表わす領域を識別する。   In step 116, a candidate area for the black eye region is extracted based on the feature amount calculated in step 114. In the next step 118, the candidate area for the black eye region extracted in step 116 is extracted. An area representing a black eye is identified.

そして、ステップ120において、上記ステップ118で識別された黒目を表わす領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新して、識別処理ルーチンを終了する。   In step 120, the threshold value stored in the threshold value storage unit 32 is updated based on the feature amount distribution of the region representing the black eye identified in step 118, and the identification processing routine is terminated.

以上説明したように、第3の実施の形態に係る画像識別装置によれば、照度計によって計測された光の照度に基づいて、顔画像を補正するための補正量を算出し、補正された顔画像を用いて、顔の黒目を表わす領域を検出することにより、外乱光の影響を精度よく除去して、顔の黒目を表わす領域を精度よく識別することができる。   As described above, according to the image identification device according to the third embodiment, the correction amount for correcting the face image is calculated and corrected based on the illuminance of the light measured by the illuminometer. By detecting the area representing the black eyes of the face using the face image, the area representing the black eyes of the face can be accurately identified by accurately removing the influence of ambient light.

また、外乱光のスペクトル分布を予め調べておき、照度計で光の照度を計測することにより、外乱光がどの程度含まれるかを推測することができるため、黒目識別のために適切な画像の補正量を算出することができ、運転者に照射されている外乱光の影響を除去するように補正することができる。   In addition, since the spectrum distribution of disturbance light is examined in advance and the illuminance of the light is measured with an illuminometer, it can be estimated how much disturbance light is included. The correction amount can be calculated, and correction can be made so as to remove the influence of disturbance light applied to the driver.

なお、補正量に従って第1光源の点灯時の顔画像と第2光源の点灯時の顔画像との双方を補正する場合を例に説明したが、これに限定されるものではなく、第1光源の点灯時の顔画像のみ、または第2光源の点灯時の顔画像のみを補正するようにしてもよい。この場合には、予め求められた外乱光のスペクトル強度等と計測された光の照度とに基づいて、撮像画像の画素値に含まれる外乱光の比率を算出し、外乱光の比率に基づいて、第1光源の点灯時の顔画像のみを補正するための補正量、または第2光源の点灯時の顔画像のみを補正するための補正量を求めるようにすればよい。   In addition, although the case where both the face image when the first light source is lit and the face image when the second light source is lit is corrected according to the correction amount is described as an example, the present invention is not limited to this. Only the face image when lit or only the face image when the second light source is lit may be corrected. In this case, the ratio of disturbance light included in the pixel value of the captured image is calculated based on the spectral intensity of disturbance light obtained in advance and the illuminance of the measured light, and based on the ratio of disturbance light The correction amount for correcting only the face image when the first light source is turned on or the correction amount for correcting only the face image when the second light source is turned on may be obtained.

次に、第4の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については同一符号を付して説明を省略する。   Next, a fourth embodiment will be described. In addition, the same code | symbol is attached | subjected about the part which becomes the same structure as 1st Embodiment, and description is abbreviate | omitted.

第4の実施の形態では、バンドパスフィルタを用いて、運転者の顔からの反射光から第1波長域及び第2波長域の各々の近赤外光を透過させて、顔画像を撮像している点が第1の実施の形態と異なっている。   In the fourth embodiment, a near-infrared light in each of the first wavelength range and the second wavelength range is transmitted from the reflected light from the driver's face using a bandpass filter to capture a face image. This is different from the first embodiment.

図13に示すように、第4の実施の形態に係る画像識別装置410は、撮像装置12と、運転者の顔から反射された光のうち、第1波長域(例えば、870nmを含む800nm〜950nmの波長域)の近赤外光、及び第2波長域(例えば、970nmを含む950nm〜1100nmの波長域)の近赤外光を切り替えて、撮像装置12に透過させるバンドパスフィルタ414と、バンドパスフィルタ414によって透過させる波長域の切り替えと撮像装置12による撮像とを制御すると共に、撮像した顔画像に対して画像処理を行って運転者の顔の黒目を表わす領域を識別するコンピュータ418とを備えている。   As shown in FIG. 13, the image identification device 410 according to the fourth embodiment includes a first wavelength region (e.g., 800 nm to 870 nm including 870 nm) among the light reflected from the imaging device 12 and the driver's face. A band-pass filter 414 that switches near-infrared light in a wavelength range of 950 nm and near-infrared light in a second wavelength range (for example, a wavelength range of 950 nm to 1100 nm including 970 nm) and transmits it to the imaging device 12; A computer 418 that controls switching of the wavelength range transmitted by the band-pass filter 414 and imaging by the imaging device 12, and performs image processing on the captured face image to identify a region representing the black eyes of the driver's face; It has.

バンドパスフィルタ414は、第1波長域の近赤外光を透過させるフィルタと、第2波長域の近赤外光を透過させるフィルタと、2つのフィルタを切り替える機構とを備え、コンピュータ418からの制御に応じて、運転者の顔から反射された光のうち、撮像装置12に透過させる光の波長域を、第1波長域及び第2波長域の何れかに切り替える。   The band-pass filter 414 includes a filter that transmits near-infrared light in the first wavelength range, a filter that transmits near-infrared light in the second wavelength range, and a mechanism that switches between the two filters. According to the control, the wavelength range of the light that is transmitted through the imaging device 12 among the light reflected from the driver's face is switched to either the first wavelength range or the second wavelength range.

コンピュータ418は、撮像装置12によって2枚の顔画像を連続して撮像させると共に、撮像装置12の撮像タイミング(シャッタータイミング)に合わせて、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域及び第2波長域の何れかに切り替える撮像フィルタ制御部420と、撮像装置12から出力される第1波長域の近赤外光透過時の顔画像及び第2波長域の近赤外光透過時の顔画像を入力する画像入力部422と、髪肌領域抽出部26と、特徴量算出部27と、補正量算出部28と、補正部30と、閾値記憶部32と、候補領域抽出部34と、部位識別部36と、更新部38とを備えている。   The computer 418 continuously captures two face images by the imaging device 12 and sets the wavelength range of light transmitted by the band-pass filter 414 in accordance with the imaging timing (shutter timing) of the imaging device 12 for the first time. An imaging filter control unit 420 that switches to either the wavelength range or the second wavelength range, and a face image and near-infrared light in the second wavelength range that are output from the imaging device 12 when transmitting near-infrared light in the first wavelength range An image input unit 422 for inputting a face image at the time of transmission, a hair skin region extraction unit 26, a feature amount calculation unit 27, a correction amount calculation unit 28, a correction unit 30, a threshold storage unit 32, and candidate region extraction Unit 34, part identifying unit 36, and updating unit 38.

第4の実施の形態に係る識別処理ルーチンでは、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域及び第2波長域の一方から他方に切り替えるように制御すると共に、第1波長域の近赤外光透過時及び第2波長域の近赤外光透過時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。   In the identification processing routine according to the fourth embodiment, the wavelength range of the light transmitted by the bandpass filter 414 is controlled to be switched from one of the first wavelength range and the second wavelength range to the other, and the first wavelength When the near-infrared light in the region is transmitted and the near-infrared light in the second wavelength region is transmitted, the imaging device 12 performs control so that the region including the driver's face is continuously imaged.

そして、撮像装置12から、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを取得し、取得した2枚の顔画像の画素値に基づいて、各画素の差分値を算出する。次に、算出された各画素の差分値に基づいて、第1の実施の形態と同様に、上記(1)式に従って、髪を表わす領域を抽出すると共に、肌を表わす領域を抽出する。   And the face image at the time of near-infrared light transmission of the 1st wavelength range and the face image at the time of near-infrared light transmission of the 2nd wavelength range are acquired from the imaging device 12, and the pixel of two acquired face images Based on the value, the difference value of each pixel is calculated. Next, based on the calculated difference value of each pixel, similarly to the first embodiment, a region representing hair is extracted and a region representing skin is extracted according to the above equation (1).

そして、抽出された髪を表わす領域について、第1の実施の形態と同様に、上記(2)式に従って、差分に関する各画素の特徴量を算出すると共に、抽出された肌を表わす領域について、同様に、差分に関する各画素の特徴量を算出する。次に、算出された髪を表わす領域の特徴量の分布、肌を表わす領域の特徴量の分布、及び予め定められた髪を表わす領域と肌を表わす領域との各々の特徴量の分布に基づいて、第1の実施の形態と同様な方法により、第2波長域の近赤外光透過時の顔画像を補正するための補正量を算出する。そして、取得された第2波長域の近赤外光透過時の顔画像の各画素の画素値を、算出された補正量に従って補正する。   Then, as in the first embodiment, the feature amount of each pixel relating to the difference is calculated according to the above equation (2) for the region representing the extracted hair, and the same for the region representing the extracted skin. Then, the feature amount of each pixel relating to the difference is calculated. Next, based on the distribution of the feature amount of the area representing the calculated hair, the distribution of the feature amount of the area representing the skin, and the distribution of the feature amount of each of the area representing the hair and the area representing the skin. Thus, the correction amount for correcting the face image when transmitting near-infrared light in the second wavelength region is calculated by the same method as in the first embodiment. And the pixel value of each pixel of the face image at the time of near-infrared light transmission of the acquired 2nd wavelength range is correct | amended according to the calculated correction amount.

次に、取得された第1波長域の近赤外光透過時の顔画像の画素値と、補正された第2波長域の近赤外光透過時の顔画像の画素値とに基づいて、上記(2)式に従って、差分に関する特徴量を各画素について算出する。そして、算出された特徴量に基づいて、上記で抽出された肌領域の内側から、特徴量が、閾値記憶部32で記憶された閾値で規定される範囲内となる領域を、黒目領域の候補領域として抽出する。次に、抽出された黒目領域の候補領域の中から、顔画像における黒目領域の候補領域の位置関係に基づいて、黒目を表わす領域を識別する。   Next, based on the acquired pixel value of the face image when transmitting near-infrared light in the first wavelength range and the corrected pixel value of the face image when transmitting near-infrared light in the second wavelength range, In accordance with the above equation (2), a feature amount related to the difference is calculated for each pixel. Then, based on the calculated feature value, a region where the feature value is within the range defined by the threshold value stored in the threshold value storage unit 32 from the inside of the skin region extracted above is selected as a candidate for the black eye region. Extract as a region. Next, an area representing a black eye is identified from the extracted candidate areas for the black eye area based on the positional relationship of the candidate areas for the black eye area in the face image.

そして、識別された黒目を表わす領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新して、識別処理ルーチンを終了する。   Then, the threshold value stored in the threshold value storage unit 32 is updated based on the feature amount distribution of the area representing the identified black eye, and the identification processing routine is terminated.

このように、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを用いて、顔画像を補正するための補正量を算出し、補正された顔画像を用いて、顔の黒目領域を検出することにより、外乱光の影響を精度よく除去して、顔の黒目領域を精度よく識別することができる。   In this way, the correction amount for correcting the face image is calculated using the face image when transmitting near-infrared light in the first wavelength region and the face image when transmitting near-infrared light in the second wavelength region. By detecting the black eye area of the face using the corrected face image, it is possible to accurately remove the influence of disturbance light and accurately identify the black eye area of the face.

次に、第5の実施の形態について説明する。なお、第1の実施の形態〜第4の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a fifth embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment-4th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第5の実施の形態では、バンドパスフィルタを用いて、運転者の顔からの反射光から第1波長域及び第2波長域の各々の近赤外光を透過させて、顔画像を撮像している点が第3の実施の形態と異なっている。   In the fifth embodiment, a near-infrared light in each of the first wavelength region and the second wavelength region is transmitted from the reflected light from the driver's face using a bandpass filter to capture a face image. This is different from the third embodiment.

図14に示すように、第5の実施の形態に係る画像識別装置510は、撮像装置12と、バンドパスフィルタ414と、照度計312と、バンドパスフィルタ414によって透過させる波長域の切り替えと撮像装置12による撮像とを制御すると共に、照度計312によって計測された照度を用いて、撮像した顔画像に対して画像処理を行って、運転者の顔の黒目を表わす領域を識別するコンピュータ518とを備えている。   As illustrated in FIG. 14, the image identification device 510 according to the fifth embodiment is configured to switch and pick up an image with the imaging device 12, the bandpass filter 414, the illuminance meter 312, and the wavelength band transmitted by the bandpass filter 414. A computer 518 that controls imaging by the device 12 and performs image processing on the captured face image using the illuminance measured by the illuminometer 312 to identify a region representing the black eyes of the driver's face; It has.

コンピュータ518は、撮像フィルタ制御部420と、画像入力部422と、補正量算出部328と、補正部330と、特徴量算出部227と、閾値記憶部32と、候補領域抽出部34と、部位識別部36と、更新部38とを備えている。   The computer 518 includes an imaging filter control unit 420, an image input unit 422, a correction amount calculation unit 328, a correction unit 330, a feature amount calculation unit 227, a threshold value storage unit 32, a candidate area extraction unit 34, a part An identification unit 36 and an update unit 38 are provided.

補正量算出部328では、予め求められた、外乱光のスペクトル強度、撮像装置12の撮像素子の分光感度、レンズの分光透過率、及びバンドパスフィルタ414の各フィルタの分光透過率と、照度計312によって計測された光の照度とに基づいて、撮像画像の画素値に含まれる外乱光の比率を、顔画像を補正するための補正量として、第1波長域及び第2波長域の各々について、算出する。   In the correction amount calculation unit 328, the spectral intensity of disturbance light, the spectral sensitivity of the imaging device of the imaging device 12, the spectral transmittance of the lens, the spectral transmittance of each filter of the bandpass filter 414, and the illuminometer Based on the illuminance of the light measured by 312, the ratio of disturbance light included in the pixel value of the captured image is used as a correction amount for correcting the face image for each of the first wavelength region and the second wavelength region. ,calculate.

第5の実施の形態に係る識別処理ルーチンでは、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域及び第2波長域の一方から他方に切り替えるように制御すると共に、第1波長域の近赤外光透過時及び第2波長域の近赤外光透過時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。   In the identification processing routine according to the fifth embodiment, the wavelength range of the light transmitted by the bandpass filter 414 is controlled to be switched from one of the first wavelength range and the second wavelength range to the other, and the first wavelength When the near-infrared light in the region is transmitted and the near-infrared light in the second wavelength region is transmitted, the imaging device 12 performs control so that the region including the driver's face is continuously imaged.

そして、撮像装置12から、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを取得し、次に、照度計350より計測された光の照度を取得する。   Then, a face image when transmitting near-infrared light in the first wavelength region and a face image when transmitting near-infrared light in the second wavelength region are acquired from the imaging device 12, and then measured by the illuminometer 350. Get the illuminance of the light.

そして、取得された光の照度と、予め求められた、外乱光のスペクトル強度、撮像装置12の撮像素子の分光感度、レンズの分光透過率、及びバンドパスフィルタ414の各フィルタの分光透過率とに基づいて、顔画像を補正するための補正量を、第1波長域の近赤外光透過時の顔画像及び第2波長域の近赤外光透過時の顔画像の各々について算出し、取得された第1波長域の近赤外光透過時の顔画像及び第2波長域の近赤外光透過時の顔画像の各々について、対応する補正量に従って各画素の画素値を補正する。   Then, the illuminance of the acquired light, the spectral intensity of disturbance light, the spectral sensitivity of the imaging device of the imaging device 12, the spectral transmittance of the lens, and the spectral transmittance of each filter of the bandpass filter 414, which are obtained in advance, Based on the above, a correction amount for correcting the face image is calculated for each of the face image when transmitting near infrared light in the first wavelength range and the face image when transmitting near infrared light in the second wavelength range, For each of the acquired face image when transmitting near-infrared light in the first wavelength region and face image when transmitting near-infrared light in the second wavelength region, the pixel value of each pixel is corrected according to the corresponding correction amount.

次に、補正された第1波長域の近赤外光透過時の顔画像の画素値と第2波長域の近赤外光透過時の顔画像の画素値とに基づいて、上記(2)式に従って、差分に関する特徴量を各画素について算出する。そして、算出された特徴量に基づいて、黒目領域の候補領域を抽出し、抽出された黒目領域の候補領域の中から、黒目を表わす領域を識別する。   Next, based on the corrected pixel value of the face image when transmitting near-infrared light in the first wavelength range and the pixel value of the face image when transmitting near-infrared light in the second wavelength range, the above (2) In accordance with the equation, a feature amount relating to the difference is calculated for each pixel. Then, based on the calculated feature amount, a candidate area for the black eye area is extracted, and an area representing the black eye is identified from the extracted candidate areas for the black eye area.

そして、識別された黒目を表わす領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新して、識別処理ルーチンを終了する。   Then, the threshold value stored in the threshold value storage unit 32 is updated based on the feature amount distribution of the area representing the identified black eye, and the identification processing routine is terminated.

このように、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを用いて、顔画像を補正するための補正量を算出し、補正された顔画像を用いて、顔の黒目領域を検出することにより、外乱光の影響を精度よく除去して、顔の黒目領域を精度よく識別することができる。   In this way, the correction amount for correcting the face image is calculated using the face image when transmitting near-infrared light in the first wavelength region and the face image when transmitting near-infrared light in the second wavelength region. By detecting the black eye area of the face using the corrected face image, it is possible to accurately remove the influence of disturbance light and accurately identify the black eye area of the face.

次に、第6の実施の形態について説明する。なお、第1の実施の形態〜第4の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a sixth embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment-4th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第6の実施の形態では、バンドパスフィルタを用いて、運転者の顔からの反射光から第1波長域及び第2波長域の各々の近赤外光を透過させて、顔画像を撮像している点が第2の実施の形態と異なっている。   In the sixth embodiment, a near-infrared light in each of the first wavelength region and the second wavelength region is transmitted from reflected light from the driver's face using a bandpass filter, and a face image is captured. This is different from the second embodiment.

図15に示すように、第6の実施の形態に係る画像識別装置610は、撮像装置12と、バンドパスフィルタ414と、第1波長域及び第2波長域を含む広い波長域の光を運転者の顔に照射する光源614と、バンドパスフィルタ414によって透過させる波長域の切り替えと撮像装置12による撮像と光源614のオンオフとを制御すると共に、撮像した顔画像に対して画像処理を行って、運転者の顔の黒目を表わす領域を識別するコンピュータ618とを備えている。   As shown in FIG. 15, the image identification device 610 according to the sixth embodiment operates an imaging device 12, a bandpass filter 414, and light in a wide wavelength range including the first wavelength range and the second wavelength range. The light source 614 that irradiates the person's face, the switching of the wavelength range transmitted by the band-pass filter 414, the imaging by the imaging device 12, and the on / off of the light source 614 are controlled, and image processing is performed on the captured face image And a computer 618 for identifying a region representing the black eyes of the driver's face.

コンピュータ618は、撮像装置12によって4枚の顔画像を連続して撮像させると共に、撮像装置12の撮像タイミング(シャッタータイミング)に合わせて、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域及び第2波長域の何れかに切り替え、光源614のオンオフを切り替える撮像光源フィルタ制御部620と、撮像装置12から出力される、光源614の点灯時であって、かつ、第1波長域の近赤外光透過時の顔画像、光源614の点灯時であって、かつ、第2波長域の近赤外光透過時の顔画像、光源614の消灯時であって、かつ、第1波長域の近赤外光透過時の顔画像、及び光源614の消灯時であって、かつ、第2波長域の近赤外光透過時の顔画像を入力する画像入力部622と、光源消灯時かつ第1波長域の近赤外光透過時の顔画像、及び光源消灯時かつ第2波長域の近赤外光透過時の顔画像の各々に基づいて、顔画像の補正量を算出する補正量算出部628と、算出された補正量に従って、画像入力部622によって入力された、光源点灯時かつ第1波長域の近赤外光透過時の顔画像、及び光源点灯時かつ第2波長域の近赤外光透過時の顔画像の各々を補正する補正部630と、特徴量算出部227と、閾値記憶部32と、候補領域抽出部34と、部位識別部36と、更新部38とを備えている。   The computer 618 continuously captures four face images by the imaging device 12 and sets the wavelength range of light transmitted by the band-pass filter 414 in accordance with the imaging timing (shutter timing) of the imaging device 12 for the first time. The imaging light source filter control unit 620 that switches between the wavelength range and the second wavelength range and switches the light source 614 on and off, and the light source 614 that is output from the imaging device 12 and is in the first wavelength range The face image when transmitting near-infrared light, when the light source 614 is turned on, and when the face image when transmitting near-infrared light in the second wavelength range, when the light source 614 is turned off, and the first An image input unit 622 for inputting a face image when transmitting near-infrared light in the wavelength range and a face image when light source 614 is turned off and transmitting near-infrared light in the second wavelength range, and turning off the light source Time and first A correction amount calculation unit that calculates a correction amount of the face image based on each of the face image when transmitting near-infrared light in the wavelength region and the face image when the light source is turned off and transmitting near-infrared light in the second wavelength region. 628 and the face image when the light source is turned on and near-infrared light is transmitted in the first wavelength range and the near red color in the second wavelength range when the light source is turned on and input by the image input unit 622 according to the calculated correction amount A correction unit 630 that corrects each face image when transmitting external light, a feature amount calculation unit 227, a threshold storage unit 32, a candidate area extraction unit 34, a part identification unit 36, and an update unit 38 are provided. Yes.

撮像光源フィルタ制御部620は、撮像装置12によって連続して4枚の顔画像を撮像するように制御する。また、撮像光源フィルタ制御部620は、撮像装置12の撮像タイミングに合わせて、1枚目の顔画像の撮像時に、光源614を点灯させると共に、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域に切り替え、2枚目の顔画像の撮像時に、光源614を点灯させたまま、バンドパスフィルタ414によって透過させる光の波長域を、第2波長域に切り替える。また、撮像光源フィルタ制御部620は、3枚目の顔画像の撮像時に、光源614を消灯させると共に、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域に切り替え、4枚目の顔画像の撮像時に、光源614を消灯させたまま、バンドパスフィルタ414によって透過させる光の波長域を、第2波長域に切り替える。   The imaging light source filter control unit 620 controls the imaging device 12 to continuously capture four face images. In addition, the imaging light source filter control unit 620 turns on the light source 614 and adjusts the wavelength range of the light transmitted by the bandpass filter 414 at the time of imaging the first face image in accordance with the imaging timing of the imaging device 12. Switching to the first wavelength range, the second wavelength range is switched to the wavelength range of the light transmitted by the bandpass filter 414 while the light source 614 is turned on when the second face image is captured. Further, the imaging light source filter control unit 620 turns off the light source 614 and switches the wavelength range of light transmitted by the band pass filter 414 to the first wavelength range when the third face image is captured. When the face image is captured, the wavelength range of light transmitted by the bandpass filter 414 is switched to the second wavelength range while the light source 614 is turned off.

補正量算出部628は、光源614の消灯時であって、かつ第1波長域の近赤外光透過時に撮像された顔画像の各画素の画素値を、第1波長域に対する補正量として算出し、また、光源614の消灯時であって、かつ第2波長域の近赤外光透過時に撮像された顔画像の各画素の画素値を、第2波長域に対する補正量として算出する。   The correction amount calculation unit 628 calculates the pixel value of each pixel of the face image captured when the light source 614 is turned off and transmitted near-infrared light in the first wavelength region as the correction amount for the first wavelength region. In addition, the pixel value of each pixel of the face image captured when the light source 614 is turned off and the near-infrared light in the second wavelength region is transmitted is calculated as a correction amount for the second wavelength region.

補正部630は、算出された第1波長域に対する各画素の補正量に従って、光源614の点灯時であって、かつ第1波長域の近赤外光透過時に撮影された顔画像の各画素の画素値から、対応する補正量だけ引くことにより補正を行う。また、補正部630は、算出された第2波長域に対する各画素の補正量に従って、光源614の点灯時であって、かつ第2波長域の近赤外光透過時に撮影された顔画像の各画素の画素値から、対応する補正量だけ引くことにより補正を行う。   In accordance with the calculated correction amount of each pixel with respect to the first wavelength range, the correction unit 630 is configured for each pixel of the face image that is captured when the light source 614 is turned on and near-infrared light is transmitted in the first wavelength range. Correction is performed by subtracting the corresponding correction amount from the pixel value. Further, the correction unit 630 determines each face image captured when the light source 614 is turned on and near-infrared light is transmitted in the second wavelength range according to the calculated correction amount of each pixel for the second wavelength range. Correction is performed by subtracting the corresponding correction amount from the pixel value of the pixel.

第6の実施の形態に係る識別処理ルーチンでは、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域及び第2波長域の一方から他方に切り替えるように制御すると共に、光源614を点灯させて、第1波長域の近赤外光透過時及び第2波長域の近赤外光透過時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。また、バンドパスフィルタ414によって透過させる光の波長域を、第1波長域及び第2波長域の一方から他方に切り替えるように制御すると共に、光源614を消灯させて、第1波長域の近赤外光透過時及び第2波長域の近赤外光透過時に、撮像装置12によって、運転者の顔を含む領域を連続して撮像するように制御する。   In the identification processing routine according to the sixth embodiment, the wavelength range of the light transmitted by the band pass filter 414 is controlled to be switched from one of the first wavelength range and the second wavelength range to the other, and the light source 614 is turned on. Turn on and control the imaging device 12 to continuously capture an area including the driver's face when transmitting near-infrared light in the first wavelength range and transmitting near-infrared light in the second wavelength range. . In addition, the wavelength range of the light transmitted by the bandpass filter 414 is controlled so as to be switched from one of the first wavelength range and the second wavelength range to the other, and the light source 614 is turned off so that the near red in the first wavelength range is displayed. When the outside light is transmitted and the near-infrared light in the second wavelength range is transmitted, the imaging device 12 performs control so that the region including the driver's face is continuously imaged.

そして、撮像装置12から、光源点灯時であって、かつ、第1波長域の近赤外光透過時の顔画像と、光源点灯時であって、かつ、第2波長域の近赤外光透過時の顔画像と、光源消灯時であって、かつ、第1波長域の近赤外光透過時の顔画像と、光源消灯時であって、かつ、第2波長域の近赤外光透過時の顔画像とを取得する。   Then, from the image pickup device 12, a face image when the light source is turned on and near-infrared light transmission in the first wavelength range, and a near-infrared light in the second wavelength range when the light source is turned on. A face image when transmitting, a face image when the light source is turned off and near-infrared light in the first wavelength range is transmitted, and a face image when the light source is turned off and near-infrared light in the second wavelength range The face image at the time of transmission is acquired.

そして、取得された光源消灯時の2枚の顔画像に基づいて、第1波長域の近赤外光透過時の顔画像を補正するための補正量を各画素について算出すると共に、第2波長域の近赤外光透過時の顔画像を補正するための補正量を各画素について算出する。   Then, based on the obtained two face images when the light source is turned off, a correction amount for correcting the face image when transmitting near-infrared light in the first wavelength region is calculated for each pixel, and the second wavelength is calculated. A correction amount for correcting the face image when transmitting near-infrared light in the region is calculated for each pixel.

そして、取得された光源点灯時であって、かつ、第1波長域の近赤外光透過時の顔画像、及び光源点灯時であって、かつ、第2波長域の近赤外光透過時の顔画像の各々について、算出された対応する補正量に従って、各画素の画素値を補正する。次に、補正された光源点灯時であって、かつ、第1波長域の近赤外光透過時の顔画像の画素値と、光源点灯時であって、かつ、第2波長域の近赤外光透過時の顔画像の画素値とに基づいて、差分に関する特徴量を各画素について算出する。   Then, when the acquired light source is turned on and the face image when the near-infrared light is transmitted in the first wavelength range, and when the light source is turned on and the near-wavelength light is transmitted in the second wavelength range For each of the face images, the pixel value of each pixel is corrected in accordance with the calculated corresponding correction amount. Next, the pixel value of the face image when the corrected light source is turned on and near-infrared light in the first wavelength range is transmitted, and the near-red color in the second wavelength range when the light source is turned on. Based on the pixel value of the face image at the time of transmission of external light, a feature amount related to the difference is calculated for each pixel.

そして、算出された特徴量に基づいて、黒目領域の候補領域を抽出し、抽出された黒目領域の候補領域の中から、黒目を表わす領域を識別する。次に、識別された黒目を表わす領域の特徴量の分布に基づいて、閾値記憶部32に記憶された閾値を更新して、識別処理ルーチンを終了する。   Then, based on the calculated feature amount, a candidate area for the black eye area is extracted, and an area representing the black eye is identified from the extracted candidate areas for the black eye area. Next, the threshold value stored in the threshold value storage unit 32 is updated based on the feature amount distribution of the area representing the identified black eye, and the identification processing routine is terminated.

このように、光源消灯時であって、かつ第1波長域の近赤外光透過時の顔画像と、光源消灯時であって、かつ第2波長域の近赤外光透過時の顔画像とを用いて、顔画像を補正するための補正量を算出し、補正された顔画像を用いて、顔の黒目領域を検出することにより、外乱光の影響を精度よく除去して、顔の黒目領域を精度よく識別することができる。   Thus, the face image when the light source is turned off and near-infrared light is transmitted in the first wavelength range, and the face image when the light source is turned off and near-infrared light is transmitted in the second wavelength range Is used to calculate the correction amount for correcting the face image, and the corrected face image is used to detect the black eye area of the face, thereby accurately removing the influence of ambient light and The black eye area can be accurately identified.

なお、上記の第4の実施の形態〜第6の実施の形態では、バンドパスフィルタを用いて、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを撮像する場合を例に説明したが、これに限定されるものではなく、第1波長域の光及び第2波長域の光をそれぞれ分離することができるプリズムを用いて、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを撮像するようにしてもよい。また、運転者の顔からの反射光をプリズムで分光した後に、バンドパスフィルタによって第1波長域の近赤外光を透過させて、顔画像を撮像すると共に、同様に反射光をプリズムで分光した後に、バンドパスフィルタによって第2波長域の近赤外光を透過させて、顔画像を撮像するようにしてもよい。   In the fourth to sixth embodiments, the band image is used to transmit the face image when transmitting near-infrared light in the first wavelength region and the near-infrared light in the second wavelength region. The case of capturing a face image during transmission has been described as an example. However, the present invention is not limited to this, and a prism that can separate light in the first wavelength range and light in the second wavelength range is used. A face image when transmitting near-infrared light in the first wavelength region and a face image when transmitting near-infrared light in the second wavelength region may be captured. In addition, after the reflected light from the driver's face is spectrally separated by the prism, the near-infrared light in the first wavelength range is transmitted by the bandpass filter to capture the face image, and similarly the reflected light is spectrally separated by the prism. After that, the near-infrared light in the second wavelength region may be transmitted by the band pass filter to capture the face image.

また、画素や画素列単位で、異なる波長域を透過させるバンドパスフィルタを設置するようにしてもよい。この場合には、画素や画素列単位で、第1波長域の近赤外光を透過させるためのバンドパスフィルタと第2波長域の近赤外光を透過させるためのバンドパスフィルタとを設置し、撮像した画像データから、第1波長域の近赤外光透過時の顔画像と第2波長域の近赤外光透過時の顔画像とを取得するようにすればよい。   In addition, band pass filters that transmit different wavelength ranges may be provided for each pixel or pixel column. In this case, a band-pass filter for transmitting near-infrared light in the first wavelength region and a band-pass filter for transmitting near-infrared light in the second wavelength region are installed in units of pixels or pixel columns. Then, a face image when transmitting near-infrared light in the first wavelength region and a face image when transmitting near-infrared light in the second wavelength region may be acquired from the captured image data.

また、第1波長域及び第2波長域を含む広い波長域の光を運転者の顔に照射する光源を更に設けて、顔画像の撮像時に光源を点灯させるようにしてもよい。   Further, a light source that irradiates the driver's face with light in a wide wavelength range including the first wavelength range and the second wavelength range may be further provided so that the light source is turned on when the face image is captured.

また、上記の第1の実施の形態〜第6の実施の形態では、第1波長域及び第2波長域が、近赤外光の波長域内に含まれている場合を例に説明したが、これに限定されるものではなく、第1波長域及び第2波長域が、可視光波長域を含んでいてもよい。   Moreover, in said 1st Embodiment-6th Embodiment, although the 1st wavelength range and the 2nd wavelength range demonstrated as an example the case where it was contained in the wavelength range of near-infrared light, However, the present invention is not limited to this, and the first wavelength region and the second wavelength region may include a visible light wavelength region.

また、算出した補正量に基づいて補正された2枚の顔画像から、差分に関する特徴量を算出する場合を例に説明したが、これに限定されるものではなく、顔画像を補正せずに、補正前の2枚の顔画像と算出した補正量とに基づいて、補正量に基づいて2枚の顔画像を補正した場合に得られる、差分に関する特徴量を算出するようにしてもよい。   Moreover, although the case where the feature amount related to the difference is calculated from the two face images corrected based on the calculated correction amount has been described as an example, the present invention is not limited to this, and the face image is not corrected. Based on the two face images before correction and the calculated correction amount, a feature amount related to the difference obtained when the two face images are corrected based on the correction amount may be calculated.

また、撮像装置から濃淡画像が出力される場合を例に説明したが、これに限定されるものではなく、撮像装置からカラー画像が出力されるようにしてもよい。   Further, the case where a grayscale image is output from the imaging device has been described as an example, but the present invention is not limited to this, and a color image may be output from the imaging device.

本発明の第1の実施の形態に係る画像識別装置を示すブロック図である。It is a block diagram which shows the image identification device which concerns on the 1st Embodiment of this invention. 髪及び肌についての光の波長域と反射率との関係を示すグラフ図である。It is a graph which shows the relationship between the wavelength range and the reflectance of the light about hair and skin. 顔の各部位の特徴量の分布を示すイメージ図である。It is an image figure which shows distribution of the feature-value of each site | part of a face. (A)外乱光の影響により偏っている特徴量の分布を示すグラフ、(B)外乱光の影響により偏っている特徴量の分布を示すグラフ、及び(C)外乱光の影響がない場合の特徴量の分布を示すグラフである。(A) A graph showing a distribution of feature values biased by the influence of disturbance light, (B) a graph showing a distribution of feature quantities biased by the influence of disturbance light, and (C) a case where there is no influence of disturbance light It is a graph which shows distribution of feature-value. (A)瞳孔の大きさが小さい場合の特徴量の分布を示すイメージ図、及び(B)瞳孔の大きさが大きい場合の特徴量の分布を示すイメージ図である。(A) Image diagram showing distribution of feature quantity when pupil size is small, and (B) Image diagram showing distribution of feature quantity when pupil size is large. (A)光源の照射強度が小さい場合の特徴量の分布を示すイメージ図、及び(B)光源の照射強度が大きい場合の特徴量の分布を示すイメージ図である。(A) Image diagram showing distribution of feature quantity when light source irradiation intensity is low, and (B) Image diagram showing distribution of feature quantity when light source irradiation intensity is high. 本発明の第1の実施の形態に係る画像識別装置における識別処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the identification process routine in the image identification device which concerns on the 1st Embodiment of this invention. (A)顔画像を示すイメージ図、(B)顔画像の拡大画像を示すイメージ図、及び(B)黒目を表わす領域の特徴量の分布を示すイメージ図である。(A) An image diagram showing a face image, (B) An image diagram showing an enlarged image of the face image, and (B) An image diagram showing a distribution of feature quantities in a region representing a black eye. 本発明の第2の実施の形態に係る画像識別装置を示すブロック図である。It is a block diagram which shows the image identification device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る画像識別装置における識別処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the identification process routine in the image identification device which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る画像識別装置を示すブロック図である。It is a block diagram which shows the image identification device which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る画像識別装置における識別処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the identification process routine in the image identification device which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る画像識別装置を示すブロック図である。It is a block diagram which shows the image identification device which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る画像識別装置を示すブロック図である。It is a block diagram which shows the image identification device which concerns on the 5th Embodiment of this invention. 本発明の第6の実施の形態に係る画像識別装置を示すブロック図である。It is a block diagram which shows the image identification device which concerns on the 6th Embodiment of this invention.

符号の説明Explanation of symbols

10、210、310、410、510、610 画像識別装置
12 撮像装置
14 第1光源
16 第2光源
18、218、318、418、518、618 コンピュータ
20、220 撮像光源制御部
26 髪肌領域抽出部
27、227 特徴量算出部
28、228、328、628 補正量算出部
30、230、330、630 補正部
32 閾値記憶部
34 候補領域抽出部
36 部位識別部
38 更新部
312 照度計
414 バンドパスフィルタ
420 撮像フィルタ制御部
620 撮像光源フィルタ制御部
10, 210, 310, 410, 510, 610 Image identification device 12 Imaging device 14 First light source 16 Second light source 18, 218, 318, 418, 518, 618 Computer 20, 220 Imaging light source control unit 26 Hair skin region extraction unit 27, 227 Feature amount calculation unit 28, 228, 328, 628 Correction amount calculation unit 30, 230, 330, 630 Correction unit 32 Threshold storage unit 34 Candidate region extraction unit 36 Region identification unit 38 Update unit 312 Illuminometer 414 Band pass filter 420 Imaging Filter Control Unit 620 Imaging Light Source Filter Control Unit

Claims (5)

第1の波長及び前記第1の波長と異なる第2の波長を含む波長域に感度を有し、前記第1の波長を含みかつ、前記第2の波長を含まない第1の波長域の光を識別対象者の顔に照射して撮像するか、または前記識別対象者の顔から反射された反射光から前記第1の波長域の光を透過させて前記識別対象者の顔を撮像することにより、第1の画像データを出力すると共に、前記第2波長を含みかつ前記第1の波長を含まない第2の波長域の光を前記識別対象者の顔に照射して撮像するか、または前記反射光から前記第2の波長域の光を透過させて前記識別対象者の顔を撮像することにより、第2の画像データを出力する撮像手段と、
前記第1の画像データにおける前記識別対象者の顔の予め定められた第1部位を表わす領域の画像データと前記第2の画像データにおける前記第1部位を表わす領域の画像データとの差分に関する特徴量を算出すると共に、前記第1の画像データにおける前記顔の前記第1部位と異なる第2部位を表わす領域の画像データと前記第2の画像データにおける前記第2部位を表わす領域の画像データとの差分に関する特徴量を算出する第1特徴量算出手段と、
前記第1特徴量算出手段によって算出された前記第1部位を表わす領域の前記差分に関する特徴量及び前記第2部位を表わす領域の前記差分に関する特徴量に基づいて、予め求められた、前記第1部位を表わす領域の前記差分に関する特徴量と前記第2部位を表わす領域の前記差分に関する特徴量とが得られるように、画像データを補正するための補正量を算出する補正量算出手段と、
前記補正量算出手段によって算出された前記補正量に基づいて前記第1の画像データ及び前記第2の画像データの少なくとも一方の画像データを補正したときの、前記第1の画像データと前記第2の画像データとの差分に関する特徴量を各画素について算出する第2特徴量算出手段と、
前記第2特徴量算出手段によって算出された各画素の前記差分に関する特徴量と、顔の識別対象の部位を表わす領域の画像データについて予め求められた前記差分に関する特徴量とを比較して、前記第1の画像データ及び前記第2の画像データの少なくとも一方から、前記識別対象の部位を検出する検出手段と、
を含む画像識別装置。
Light in a first wavelength range having sensitivity in a wavelength range including a first wavelength and a second wavelength different from the first wavelength, including the first wavelength and not including the second wavelength. Or imaging the face of the identification target person by transmitting light in the first wavelength range from the reflected light reflected from the face of the identification target person. And outputting the first image data and irradiating the face of the identification subject with the light of the second wavelength range including the second wavelength and not including the first wavelength, or Imaging means for outputting second image data by imaging the face of the person to be identified by transmitting light in the second wavelength range from the reflected light;
Features relating to a difference between image data of a region representing a predetermined first part of the face of the person to be identified in the first image data and image data of a region representing the first part in the second image data Calculating the amount, and image data of a region representing a second part different from the first part of the face in the first image data, and image data of a region representing the second part in the second image data; First feature value calculating means for calculating a feature value related to the difference between the two,
Based on the feature amount related to the difference of the region representing the first part and the feature amount related to the difference of the region representing the second part calculated by the first feature amount calculating means, the first feature is obtained in advance. Correction amount calculation means for calculating a correction amount for correcting image data so that a feature amount related to the difference of the region representing the part and a feature amount related to the difference of the region representing the second part are obtained;
The first image data and the second image data when at least one of the first image data and the second image data is corrected based on the correction amount calculated by the correction amount calculation means. Second feature value calculating means for calculating a feature value related to a difference from the image data for each pixel;
Comparing the feature amount relating to the difference of each pixel calculated by the second feature amount calculating means with the feature amount relating to the difference obtained in advance for the image data of the region representing the part of the face to be identified; Detecting means for detecting the part to be identified from at least one of the first image data and the second image data;
An image identification device including:
前記検出手段によって検出された前記識別対象者の顔の部位を表わす領域の画像データの前記差分に関する特徴量に基づいて、前記予め定められた前記差分に関する特徴量を更新する更新手段を更に含む請求項1記載の画像識別装置。   An update means for updating the predetermined feature quantity related to the difference based on the feature quantity related to the difference in the image data of the area representing the part of the face of the person to be identified detected by the detection means. Item 2. The image identification device according to Item 1. 前記第1部位を、髪部分とし、
前記第2部位を、肌部分とした請求項1記載の画像識別装置。
The first part is a hair part,
Wherein the second portion, the image identification apparatus according to claim 1 Symbol placement and the skin portion.
前記第1の波長域及び第2の波長域の各々を、800〜1100nmの範囲内とした請求項1〜請求項の何れか1項記載の画像識別装置。 The first wavelength band and each of the second wavelength band, the image identification apparatus according to any one of claims 1 to 3 which is in the range of 800 to 1100 nm. 前記第1の波長域を、800〜950nmとし、
前記第2の波長域を、950〜1100nmとした請求項1〜請求項の何れか1項記載の画像識別装置。
The first wavelength range is 800 to 950 nm,
Wherein the second wavelength range, the image identification apparatus according to any one of claims 1 to 4 in which the 950~1100Nm.
JP2008147055A 2008-06-04 2008-06-04 Image identification device Expired - Fee Related JP5018653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008147055A JP5018653B2 (en) 2008-06-04 2008-06-04 Image identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008147055A JP5018653B2 (en) 2008-06-04 2008-06-04 Image identification device

Publications (2)

Publication Number Publication Date
JP2009294854A JP2009294854A (en) 2009-12-17
JP5018653B2 true JP5018653B2 (en) 2012-09-05

Family

ID=41542999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008147055A Expired - Fee Related JP5018653B2 (en) 2008-06-04 2008-06-04 Image identification device

Country Status (1)

Country Link
JP (1) JP5018653B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650225B2 (en) 2016-12-27 2020-05-12 Canon Kabushiki Kaisha Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010117006A1 (en) * 2009-04-06 2010-10-14 ソニー株式会社 Switching device, switching method, and electronic instrument
JP2012068762A (en) * 2010-09-21 2012-04-05 Sony Corp Detection device, detection method, program, and electronic apparatus
US8520074B2 (en) * 2010-12-14 2013-08-27 Xerox Corporation Determining a total number of people in an IR image obtained via an IR imaging system
JP2013191137A (en) * 2012-03-15 2013-09-26 Seiko Epson Corp Diet history retrieval apparatus, diet history retrieval method and computer program
JP5988093B2 (en) * 2012-07-30 2016-09-07 株式会社豊田中央研究所 Image processing apparatus, object identification apparatus, and program
WO2016051694A1 (en) * 2014-09-29 2016-04-07 パナソニックIpマネジメント株式会社 Hair region detection device and hair region detection method
JP6663278B2 (en) * 2016-04-05 2020-03-11 アルパイン株式会社 Installation support method of vehicle interior camera and vehicle interior camera
JP2017191374A (en) * 2016-04-11 2017-10-19 シャープ株式会社 Organism determination device, terminal apparatus, control method of organism determination device, and control program
JP7044120B2 (en) * 2020-02-07 2022-03-30 カシオ計算機株式会社 Discriminator, discriminator learning method, discriminating method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2917953B2 (en) * 1997-02-05 1999-07-12 日本電気株式会社 View point position detection device
JP4442472B2 (en) * 2005-03-07 2010-03-31 株式会社豊田中央研究所 Device part identification device
JP2007025758A (en) * 2005-07-12 2007-02-01 Gen Tec:Kk Face image extracting method for person, and device therefor
JP2007148988A (en) * 2005-11-30 2007-06-14 Toshiba Corp Face authentication unit, face authentication method, and entrance/exit management device
JP4819606B2 (en) * 2006-07-21 2011-11-24 株式会社豊田中央研究所 Device part discrimination device and gender judgment device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650225B2 (en) 2016-12-27 2020-05-12 Canon Kabushiki Kaisha Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus

Also Published As

Publication number Publication date
JP2009294854A (en) 2009-12-17

Similar Documents

Publication Publication Date Title
JP5018653B2 (en) Image identification device
JP5145555B2 (en) Pupil detection method
JP4442472B2 (en) Device part identification device
JP4819606B2 (en) Device part discrimination device and gender judgment device
US8345922B2 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
US8810642B2 (en) Pupil detection device and pupil detection method
EP3572975B1 (en) A multispectral image processing system for face detection
US7912251B2 (en) Eyelid detection apparatus and program therefor
US10891479B2 (en) Image processing method and system for iris recognition
KR101123834B1 (en) Method and camera device for determination of photograph cheating using controllable ir light
JP2008123113A (en) Pedestrian detection device
WO2018051681A1 (en) Line-of-sight measurement device
US20070263908A1 (en) Iris Authentication Device
CN108710844B (en) Authentication method and device for detecting face
JP5825588B2 (en) Blink measurement device and blink measurement method
JP2009031002A (en) Potation determiner
JP2009080706A (en) Personal authentication device
JP4527088B2 (en) Living body eye determination method and living body eye determination device
JP7078386B2 (en) Image processing equipment
JP3813043B2 (en) Glasses reflection detection apparatus and glasses reflection detection method
KR101032499B1 (en) System and the method for iris recognition using of ccd filer
JP7262412B2 (en) Image processing device and image processing program
JP2023032776A (en) Image processing apparatus, image processing method, and program
JPH0761256A (en) Forward carelessness detecting device for vehicle
KR100604022B1 (en) System and the method for iris recognition

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20101104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees