JP2008027242A - Part determination device of object, and sex determination device - Google Patents

Part determination device of object, and sex determination device Download PDF

Info

Publication number
JP2008027242A
JP2008027242A JP2006199892A JP2006199892A JP2008027242A JP 2008027242 A JP2008027242 A JP 2008027242A JP 2006199892 A JP2006199892 A JP 2006199892A JP 2006199892 A JP2006199892 A JP 2006199892A JP 2008027242 A JP2008027242 A JP 2008027242A
Authority
JP
Japan
Prior art keywords
light
amount
pixel value
image
wavelength range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006199892A
Other languages
Japanese (ja)
Other versions
JP4819606B2 (en
Inventor
Michinori Ando
道則 安藤
Yoshiki Ninomiya
芳樹 二宮
Kazuhiko Yamamoto
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2006199892A priority Critical patent/JP4819606B2/en
Publication of JP2008027242A publication Critical patent/JP2008027242A/en
Application granted granted Critical
Publication of JP4819606B2 publication Critical patent/JP4819606B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P20/00Technologies relating to chemical industry
    • Y02P20/50Improvements relating to the production of bulk chemicals
    • Y02P20/52Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts

Abstract

<P>PROBLEM TO BE SOLVED: To determine a predetermined part of an object without being affected by ambient light. <P>SOLUTION: The difference (120) between the pixel value of the image of an object taken while being illuminated with light of the near-infrared wavelength region, when projecting the light of the near-infrared wavelength region to the object, and the pixel value of the image of the object taken while being not irradiated with light is calculated for eliminating the influence of the ambient light. Based on the calculated difference, the respective parts of the object, such as a driver's skin, hair and eyeballs, are determined, and the facial region is detected (130). The occupancy of the pixel having the pixel value of mustaches or the like in a part of the facial region between a nose and a mouth is obtained (134 and 136), and based on the result, it is determined whether the object is male or female. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、対象物の部位判別装置及び性別判定装置にかかり、特に、太陽光等の外乱光に影響されることなくドライバの頭部等の対象物の肌、髪、眼球等の部位を区別して判定することができる対象物の部位判別装置及び性別判定装置に関する。   The present invention relates to an object region discriminating device and a gender determining device, and in particular, distinguishes a region such as skin, hair, eyeball, etc. of an object such as a driver's head without being affected by ambient light such as sunlight. The present invention relates to a part determination apparatus and a gender determination apparatus for an object that can be determined separately.

人物を撮影した画像から顔画像を特定するパターン認識等の画像処理することにより、人物を判別する技術が一般的に知られている。非特許文献1には、人物を判定する技術の応用として、性別判定する技術が知られている。この技術では、顔画像から特徴量を抽出し、その特徴量を用いて性別と年代を推定している。
画像ラボ 2003.3 35頁〜38頁「顔画像による自動性別年代推定システム」
A technique for discriminating a person by performing image processing such as pattern recognition for identifying a face image from an image of a person is generally known. Non-Patent Document 1 discloses a gender determination technique as an application of a person determination technique. In this technique, feature amounts are extracted from face images, and the gender and age are estimated using the feature amounts.
Image Lab 2003. pages 35-38 “Automatic Gender Dating System Using Face Images”

しかしながら、上記非特許文献1には偽装した人物に対する考慮がなされておらず、偽装した人物の性別判定は誤判定する場合がある。例えば、変装等の偽装により容易に、実際とは異なる性別として認識される顔画像の撮影が可能である。これは、対象物の各部位を判別することが不十分なためと考えられる。   However, the non-patent document 1 does not consider a person who is camouflaged, and the gender determination of the person who camouflaged may be erroneously determined. For example, it is possible to easily capture a face image that is recognized as a gender that is different from the actual sex by disguise such as disguise. This is thought to be because it is insufficient to determine each part of the object.

本発明は、上記問題を解決すべく成されたもので、対象物の所定部位を簡便かつ確実に判別することができる対象物の部位判別装置及び性別判定装置を提供することを目的とする。   The present invention has been made to solve the above-described problem, and an object thereof is to provide an object part discriminating apparatus and a gender determining apparatus capable of easily and reliably discriminating a predetermined part of an object.

上記目的を達成するために本発明は、近赤外波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、前記第1光量の光による照明状態で撮影した対象物の画像の画素値と、前記第2光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、を含んで構成されている。   In order to achieve the above object, the present invention provides illumination means for irradiating light in a near-infrared wavelength region, light having a predetermined first light amount and light having a second light amount less than the first light amount. Control means for controlling the amount of light so that each is irradiated, photographing means for photographing an object in synchronization with the light quantity control of the control means, and an image of the object photographed in an illumination state by the light of the first light quantity An arithmetic means for calculating a difference between a pixel value and a pixel value of an image of an object photographed in an illumination state with the second light amount, and based on the difference calculated by the arithmetic means, the skin of the object Detection means for detecting the area and the face area of the object, setting means for setting a part of the face area detected by the detection means as a search area, and within the search area set by the setting means, The skin area and a pixel value different from the pixel value of the skin area Calculation means for calculating the ratio of the specific region consisting of pixels having, based on the ratio calculated by the calculation means is configured to include a discriminating means for discriminating a predetermined portion of the object.

本発明では、第1光量の光による照明状態で撮影した対象物の画像の画素値と、第1光量未満の第2光量の光による照明状態で撮影した対象物の画像の画素値との差に基づいて対象物の各部位を判別する。例えば対象物に外乱光が照射された状態で撮影した対象物の画像の画素値に対応する照明手段から光が照射されていない状態で撮影した対象物の画像の画素値を用い、近赤外波長域の光で照明した状態で撮影した対象物の画像の画素値と照明手段から光が照射されていない状態で撮影した対象物の画像の画素値との差に基づいて、対象物の各部位を判別しているため、外乱光に影響されることなく対象物の各部位を判別することができる。この対象物の各部位のうち肌領域及び顔領域を検出する。顔領域内には男女差を有する髭などの毛根部位等が多数あるので、顔領域内の一部を探索領域として肌領域と肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を求めて、その比率から対象物の所定部位を判別する。このように、顔領域内の一部の探索領域から求める肌領域の画素値と異なる画素値となる特定領域の比率により対象物の所定部位を判別しているため、性別判定に必要となる対象物の所定部位を判別することができる。   In the present invention, the difference between the pixel value of the image of the object photographed in the illumination state with the first light amount and the pixel value of the image of the object photographed in the illumination state with the second light amount less than the first light amount. Based on the above, each part of the object is determined. For example, using the pixel value of the image of the object taken in the state where no light is irradiated from the illumination means corresponding to the pixel value of the image of the object taken in the state where the object is exposed to ambient light, the near infrared Based on the difference between the pixel value of the image of the object imaged in a state illuminated with light in the wavelength range and the pixel value of the image of the object imaged in a state where no light is emitted from the illumination means, Since the part is discriminated, each part of the object can be discriminated without being influenced by disturbance light. A skin area and a face area are detected from each part of the object. Since there are many hair root parts such as wrinkles having gender differences in the face region, the skin region and a specific region made up of pixels having pixel values different from the pixel values of the skin region using a part of the face region as a search region, Is determined, and a predetermined part of the object is determined from the ratio. As described above, since the predetermined part of the target object is determined based on the ratio of the specific region having a pixel value different from the pixel value of the skin region obtained from a part of the search region in the face region, the target necessary for gender determination A predetermined part of an object can be determined.

また、第1の波長域の光及び第1の波長域と異なる第2の波長域の光を照射する照明手段と、
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、を含んで構成してもよい。
Moreover, the illumination means which irradiates the light of the 1st wavelength range and the light of the 2nd wavelength range different from the 1st wavelength range,
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light, and in synchronization with the light amount control of the control means Photographed with photographing means for photographing an object, pixel values of an image of an object photographed in the illumination state with the first light amount in the first wavelength region, and illumination state with the first light amount in the second wavelength region Calculating means for calculating a difference between the pixel value of the image of the target object, and detecting means for detecting a skin area of the target object and a face area of the target object based on the difference calculated by the calculating means; A setting unit that sets a part of the face area detected by the detection unit as a search area, and a pixel value different from the pixel value of the skin area in the search area set by the setting unit A calculation method for calculating a ratio with a specific area including pixels having If, based on the ratio calculated by the calculation means, and determination means for determining a predetermined portion of the object may be configured to include.

この場合、前記制御手段は、前記第1の波長域の第1光量の光と前記第2の波長域の第1光量の光が交互に照射されるように照明手段を光量制御するようにすることができる。   In this case, the control unit controls the light amount of the illumination unit so that the first light amount light in the first wavelength region and the first light amount light in the second wavelength region are alternately irradiated. be able to.

また、第1の波長域の光及び第1の波長域と異なる第2の波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第1の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第1の差、及び第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第2の差を演算しかつ前記第1の差と第2の差の差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、を含んで構成することができる。   Further, an illumination unit that irradiates light in a first wavelength region and light in a second wavelength region different from the first wavelength region, and the illumination unit has a predetermined first light amount and less than the first light amount. Control means for controlling the amount of light so that each of the second amount of light is emitted, photographing means for photographing an object in synchronization with the light amount control of the control means, and light of the first amount of light in the first wavelength range A first difference between a pixel value of the image of the object photographed in the illumination state by the light source and a pixel value of the image of the object photographed in the illumination state by the second amount of light in the first wavelength range; The pixel value of the image of the object imaged in the illumination state with the first light amount light in the wavelength range and the pixel value of the image of the object imaged in the illumination state with the second light amount light in the second wavelength region A calculation means for calculating a difference between the first difference and a second difference, and a difference calculated by the calculation means Based on the detection means for detecting the skin area of the object and the face area of the object, a setting means for setting a part of the face area detected by the detection means as a search area, and the setting means Based on the ratio calculated by the calculation means for calculating a ratio between the skin area and a specific area composed of pixels having a pixel value different from the pixel value of the skin area for the set search area And determining means for determining a predetermined part of the object.

この場合、前記制御手段は、前記第1の波長域の第1光量の光と前記第2の波長域の第1光量の光とが順に照射されるように、前記第1光量の光が照射されるように前記照明手段を光量制御してから前記第2光量の光が照射されるように前記照明手段を光量制御するようにすることができる。   In this case, the control means irradiates the first light amount of light so that the first light amount light of the first wavelength region and the first light amount of the second wavelength region are sequentially irradiated. As described above, it is possible to control the amount of light of the illumination unit so that the second amount of light is irradiated after the amount of light of the illumination unit is controlled.

また、第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えた撮影手段と、前記第1のフィルタの透過光により撮影または前記第2のフィルタの透過光により撮影されるように、前記撮影手段を切換制御する制御手段と、第1のフィルタの透過光により撮影した対象物の画像の画素値、及び第2のフィルタの透過光により撮影した対象物の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、を含んで構成することができる。   An imaging means comprising a first filter that transmits light in a first wavelength range, and a second filter that transmits light in a second wavelength range different from the first wavelength range, and the first filter A control unit that switches and controls the imaging unit so that the image is captured by the transmitted light of the filter or the transmitted light of the second filter, and the pixel value of the image of the object captured by the transmitted light of the first filter And calculating means for calculating the difference between the pixel value of the image of the object photographed by the transmitted light of the second filter, and the skin area of the object and the object based on the difference calculated by the calculating means Detecting means for detecting a face area of an object, setting means for setting a part of the face area detected by the detecting means as a search area, and the skin area for the search area set by the setting means Different from the pixel value of the skin area Comprising: a calculating means for calculating a ratio with a specific area composed of pixels having prime values; and a determining means for determining a predetermined part of the object based on the ratio calculated by the calculating means. Can do.

また、第1の波長域及び第2の波長域を含む波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えかつ、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、前記照明手段から第1光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値との第1の差、及び前記照明手段から第1光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値との第2の差を演算し、かつ前記第1の差と第2の差の差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、を含んで構成することができる。   In addition, an illuminating unit that irradiates light in a wavelength range including the first wavelength range and the second wavelength range, a predetermined first light amount of light, and a second light amount less than the first light amount. A control means for controlling the amount of light so that each of the light is irradiated, a first filter that transmits light in the first wavelength range, and a second that transmits light in a second wavelength range different from the first wavelength range. An image capturing means for capturing an image of the object in synchronism with the light amount control of the control means, and an object imaged by the transmitted light of the first filter in the irradiation state with the light of the first light amount from the illumination means. The first difference between the pixel value of the image of the image and the pixel value of the image of the object imaged by the transmitted light of the first filter in the irradiation state with the second light amount from the illumination unit, and the first value from the illumination unit Photographed with the light transmitted through the second filter in the irradiation state with one light amount Calculating a second difference between the pixel value of the image of the target object and the pixel value of the image of the target object captured by the transmitted light of the second filter in the irradiation state with the second light amount from the illumination unit; And a calculating means for calculating the difference between the first difference and the second difference, and a detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means. And setting means for setting a part of the face area detected by the detecting means as a search area, and the skin area and the pixel value of the skin area are different for the search area set by the setting means Comprising: a calculating means for calculating a ratio with a specific area composed of pixels having pixel values; and a determining means for determining a predetermined part of the object based on the ratio calculated by the calculating means. Can do.

この場合、前記設定手段は、前記検出手段で検出された顔領域の中心軸を求め、求めた中心軸周辺の一部を探索領域として設定するようにすることができる。   In this case, the setting means can obtain the central axis of the face area detected by the detecting means and set a part around the obtained central axis as a search area.

本発明では、前記第1の波長域及び第2の波長域は、800nm〜1100nmの近赤外領域の波長を設定することが好ましい。   In the present invention, the first wavelength region and the second wavelength region are preferably set to wavelengths in the near infrared region of 800 nm to 1100 nm.

また、前記第1の波長域を800nm〜970nmの間の波長域とし、前記第2の波長域を970nm〜1100nmの間の波長域とすることが好ましい。   Moreover, it is preferable that the first wavelength region is a wavelength region between 800 nm and 970 nm, and the second wavelength region is a wavelength region between 970 nm and 1100 nm.

前記制御手段は、前記照明手段から光が照射される状態を前記第1光量の光が照射される状態とするオン制御及び前記照明手段から光が照射されない状態を前記第1光量未満の第2光量の光が照射される状態とするオフ制御のオンオフ制御を前記光量制御として実行することが好ましい。   The control means sets the state in which light from the illuminating means is irradiated to the state in which light of the first light quantity is emitted, and the state in which no light is emitted from the illuminating means as the second less than the first light quantity. It is preferable to execute the on / off control of the off control in a state where a light amount of light is irradiated as the light amount control.

前記の部位判別装置を備えて、前記判別手段の判別結果に基づいて、前記人物の性別を判定する判定手段を含む要に構成することで、対象物の性別判定を簡便かつ確実に実行できる。   By including the part determination device and including a determination unit that determines the gender of the person based on the determination result of the determination unit, the gender determination of the target can be easily and reliably performed.

以上説明したように本発明によれば、顔領域内の一部の探索領域から求める肌領域の画素値と異なる画素値となる特定領域の比率により対象物の所定部位を判別しているので例えば性別判定に必要となる対象物の所定部位を判別することができる、という優れた効果が得られる。   As described above, according to the present invention, the predetermined part of the object is determined based on the ratio of the specific area having a pixel value different from the pixel value of the skin area obtained from the partial search area in the face area. An excellent effect is obtained that it is possible to determine a predetermined part of an object necessary for gender determination.

以下、図面を参照して、本発明をドライバの頭部の各部位を判別する車両用の判別装置に適用した実施の形態について詳細に説明する。第1実施の形態には、図1に示すように、近赤外波長λ0域の光を照射するLED等で構成された照明手段である光源11から構成された照明装置と、照明装置で照明された対象物等を撮影するCCDカメラ等で構成されたカメラ14が設けられている。   Hereinafter, an embodiment in which the present invention is applied to a vehicle discriminating device that discriminates each part of a driver's head will be described in detail with reference to the drawings. In the first embodiment, as shown in FIG. 1, an illuminating device composed of a light source 11 that is an illuminating means composed of an LED or the like that irradiates light in the near-infrared wavelength λ0 region, and an illumination device A camera 14 composed of a CCD camera or the like for photographing the target object or the like is provided.

光源11、及びカメラ14は、光源11のオンオフ制御に同期させてカメラのシャッタを開閉制御する光源・カメラ制御16に接続されている。また、カメラ14には、カメラで撮影された画像の各画素の画像濃度値等の画素値を記憶するメモリで構成された画素値記憶装置18、及び以下で説明する処理ルーチンに従って演算された画素値の差及びデータベース22に記憶されている反射率データに基づいて対象物の各部位が何であるかを判定する演算・判定装置20に接続されている。演算・判定装置20は、光源・カメラ制御16にも接続することができる。なお、光源・カメラ制御装置16及び演算・判定装置20は、各々コンピュータで構成することができるが、1つのコンピュータで構成するようにしてもよい。   The light source 11 and the camera 14 are connected to a light source / camera control 16 that controls opening and closing of a shutter of the camera in synchronization with on / off control of the light source 11. Further, the camera 14 includes a pixel value storage device 18 configured by a memory that stores a pixel value such as an image density value of each pixel of an image captured by the camera, and a pixel calculated according to a processing routine described below. It is connected to the arithmetic / determination device 20 that determines what each part of the object is based on the difference in values and the reflectance data stored in the database 22. The arithmetic / judgment device 20 can also be connected to the light source / camera control 16. Note that the light source / camera control device 16 and the calculation / determination device 20 can each be configured by a computer, but may be configured by one computer.

なお、以下の説明では、光源をオンオフ制御する場合を説明するが、本発明はこれに限定されるものではない。オンオフ制御に代えて、光源の光量制御をするようにしてもよい。この場合、複数の異なる光量で光が照射されるように光源を制御すればよい。例えば、光源を予め定めた第1光量の光及び第1光量未満の第2光量の光の各々が照射されるように光量制御すればよい。この第1光量はカメラで反射光が検知できる程度の光量であればよく、また第2光量はカメラで反射光が検知で困難な程度の光量であればよい。また、カメラで反射光を検知するときに差異が得られる程度、すなわち第1光量と第2光量に所定光量差があればよい。この第1光量の光が照射されるように制御することの典型例がオン制御であり、第2光量の光が照射されるように制御することの典型例がオフ制御である。   In the following description, a case where the light source is on / off controlled will be described, but the present invention is not limited to this. Instead of the on / off control, the light amount of the light source may be controlled. In this case, what is necessary is just to control a light source so that light may be irradiated with several different light quantity. For example, the light amount may be controlled so that the light source is irradiated with a predetermined first light amount and a second light amount less than the first light amount. The first light amount may be a light amount that allows the reflected light to be detected by the camera, and the second light amount may be a light amount that is difficult to detect the reflected light by the camera. Further, it is sufficient that the difference is obtained when the reflected light is detected by the camera, that is, there is a predetermined light amount difference between the first light amount and the second light amount. A typical example of controlling so that the first amount of light is irradiated is ON control, and a typical example of controlling so that the second amount of light is irradiated is OFF control.

上記のCCDとしては、近赤外域に感度を有するXC−E150(ソニー(株)製、商品名)を使用することができる。このCCDは、図2に示すように、400nm〜1000nmの波長域に感度を有している。   As the CCD, XC-E150 (trade name, manufactured by Sony Corporation) having sensitivity in the near infrared region can be used. As shown in FIG. 2, the CCD has sensitivity in a wavelength range of 400 nm to 1000 nm.

本実施の形態において、対象物を車両のドライバの頭部としてドライバの肌、及び髪の各部位を検出して性別判定に用いる場合を例に説明する。図3は肌の分光反射率、及び髪の分光反射率を示すものである。図3の符号33は、人物の肌の分光反射率、34は人物の髪の分光反射率である。肌の分光反射率及び髪の分光反射率を比較すると、可視波長域を超える近赤外波長域では、略1100nm以下における分光反射率が髪のものより肌のものが大きい。このため、画像処理において肌に対応して定めた設定値の閾値による肌領域を抽出できる。   In the present embodiment, a case will be described as an example where an object is used as a head of a driver of a vehicle and each part of the driver's skin and hair is detected and used for gender determination. FIG. 3 shows the spectral reflectance of the skin and the spectral reflectance of the hair. In FIG. 3, reference numeral 33 denotes the spectral reflectance of the human skin, and reference numeral 34 denotes the spectral reflectance of the human hair. When the spectral reflectance of the skin and the spectral reflectance of the hair are compared, in the near-infrared wavelength region exceeding the visible wavelength region, the spectral reflectance at approximately 1100 nm or less is larger than that of the hair. For this reason, it is possible to extract a skin region based on a threshold value of a set value determined corresponding to the skin in image processing.

従って、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出し、撮像した画像の画素値について閾値を超える画素を抽出することで、頭部領域の中の肌部位を検出することが可能となる。   Therefore, the driver's head region is extracted as an object by image processing such as template matching, and the skin part in the head region is detected by extracting pixels that exceed the threshold for the pixel value of the captured image. Is possible.

なお、波長(近赤外波長λ0)については、880nmや970nmが好ましいが、これに限定する必要はない。ただし、以下の条件を満たす必要がある。   The wavelength (near infrared wavelength λ0) is preferably 880 nm or 970 nm, but it is not necessary to limit to this. However, the following conditions must be satisfied.

第1に、近赤外領域の光を用いることである。この理由は、車載で運転中に使用する場合には、運転者の気を散らさないために不可視光でドライバの顔を照明することになるが、紫外領域の光を用いると眼に害を与えるおそれがあり望ましくないからである。   The first is to use light in the near infrared region. The reason for this is that when used while driving in a vehicle, the driver's face is illuminated with invisible light in order not to distract the driver, but using ultraviolet light will harm the eyes. This is because there is a fear and it is not desirable.

第2に、1100nm以下の波長の光を用いることである。この理由は、コスト、信頼性、及び応答性の点で優れているシリコン半導体で構成された撮像素子は、図2に例示したように1107nmまでの波長にしか感度を有さないからである。   Secondly, light having a wavelength of 1100 nm or less is used. The reason for this is that an imaging device made of a silicon semiconductor that is excellent in terms of cost, reliability, and responsiveness has sensitivity only to wavelengths up to 1107 nm as illustrated in FIG.

第3に、波長λ0における反射率が、肌や髪の各々で異なることである。また、可視領域近傍の波長の光を照射する照明装置を用いると、光が可視領域に漏れる可能性があること、撮像素子の感度が1000nm以上では殆ど無いことも考慮する必要がある。   Third, the reflectance at the wavelength λ0 is different for each skin and hair. In addition, when an illumination device that irradiates light having a wavelength in the vicinity of the visible region is used, it is necessary to consider that light may leak into the visible region and that the sensitivity of the image sensor is almost not 1000 nm or more.

また、本実施の形態では、データベース22に、図3に示した分光反射率分布のデータが予め記憶されている。   In the present embodiment, the database 22 stores in advance the spectral reflectance distribution data shown in FIG.

次に、本実施の形態の演算・判定装置で実行される頭部の各部位を判別する処理について説明する。   Next, processing for determining each part of the head executed by the calculation / determination device of the present embodiment will be described.

まず、光源・カメラ制御装置16では、図6に示すように、光源11を点滅する(光源がオンで状態A、点灯後の光源11がオフで状態C)ことを繰り返すように制御する。従って、光源11は、波長λ0の光のみ照射(状態A)、光源11がオフ(状態C)の2つの状態をとる。   First, as shown in FIG. 6, the light source / camera control device 16 performs control so as to repeatedly blink the light source 11 (the light source is turned on and in the state A, and the lighted light source 11 is turned off and in the state C). Therefore, the light source 11 takes two states, that is, only the light of wavelength λ0 is irradiated (state A) and the light source 11 is off (state C).

また、状態A、及び状態Cの各々においてカメラにより対象物であるドライバの頭部が撮影されるように、光源11のオンオフ制御に同期させてカメラのシャッタを開閉して対象物を撮影する。これにより、状態A、及び状態Cの各々において対象物の画像が撮影される。   In addition, in each of the state A and the state C, the object is photographed by opening and closing the shutter of the camera in synchronization with the on / off control of the light source 11 so that the head of the driver as the object is photographed by the camera. Thereby, an image of the object is taken in each of the state A and the state C.

図4は、演算・判定装置20における処理を示す流れ図であり、ステップ100及びステップ102において状態Cか、状態Aかを判断する。ステップ100で状態Cと判断された場合には、ステップ110において状態Cでカメラで撮影された画像の画素値Vnを演算して画素値記憶装置18に記憶する。また、ステップ102において状態Aと判断された場合には、ステップ112において状態Aでカメラで撮影された画像の各画素の画素値V(λ0)を演算して画素値記憶装置18に記憶する。次のステップ120では、状態Aの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ0)−Vn)を演算して各画素毎に記憶する。このように状態Aでの画素値から状態Cでの画素値を減算することで、近赤外波長のみの分光強度による画素値(V(λ0)−Vn)を得ることができ、外乱光の影響を除去することができる。   FIG. 4 is a flowchart showing processing in the calculation / determination device 20. In step 100 and step 102, it is determined whether the state is C or A. If it is determined in step 100 that the state is C, the pixel value Vn of the image captured by the camera in state C is calculated in step 110 and stored in the pixel value storage device 18. If the state A is determined in step 102, the pixel value V (λ 0) of each pixel of the image captured by the camera in the state A is calculated in step 112 and stored in the pixel value storage device 18. In the next step 120, a difference (V (λ0) −Vn) obtained by subtracting the pixel value of each corresponding pixel of the state C image from the pixel value of each pixel in the state A is calculated and stored for each pixel. Thus, by subtracting the pixel value in the state C from the pixel value in the state A, it is possible to obtain a pixel value (V (λ0) −Vn) based on the spectral intensity of only the near-infrared wavelength. The influence can be removed.

以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。   By performing the above processing, the pixel value of each pixel is calculated on the basis of the state where the object is not illuminated with the light source.

次のステップ130では、顔領域を検出する。上記のように、近赤外波長域の光を顔面に照射した画像と、非照射の画像の2枚の画像を取得し、2枚の画像から差分画像を演算することにより,背景に影響されることなく、顔領域だけが明るい画素値となる画像を取得できる。その後、画像の明るさにより、適切な閾値を設定して、顔領域を取り出す。この顔領域は輪郭やエッジでもよくまた最外郭でもよい。また、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出してもよい。   In the next step 130, a face area is detected. As described above, the background is affected by obtaining two images, an image obtained by irradiating the face with light in the near-infrared wavelength region and a non-irradiated image, and calculating a difference image from the two images. An image in which only the face area has a bright pixel value can be acquired. Thereafter, an appropriate threshold is set according to the brightness of the image, and a face area is extracted. This face area may be a contour, an edge, or an outermost contour. Further, the head region of the driver may be extracted as an object by image processing such as template matching.

この顔領域の検出処理では、頭部領域の中の肌部位の検出が可能である。つまり撮像した画像の画素値について閾値を超える画素を抽出することで、頭部領域の中の肌部位を検出できる。   In this face area detection process, the skin part in the head area can be detected. That is, the skin part in the head region can be detected by extracting pixels that exceed the threshold value for the pixel value of the captured image.

光源の明るさはあらかじめ分かっているので、データベースに状態Aの時の肌や髪の画素値の大小関係を記憶しておくことができる。データベースと各画素の差(V(λ0)−Vn)の値を比較することで、各画素が髪や肌に属するかを判定することができる。従って、各画素毎にデータベースに記憶された分光反射率の分布と差(V(λ0)−Vn)から、各画素が髪及び肌の部位に属するかを判定できる。そして、各画素に判断した属性を与えることで識別可能な情報としてを出力することができる。   Since the brightness of the light source is known in advance, the magnitude relationship between the skin and hair pixel values in the state A can be stored in the database. By comparing the difference between the database and each pixel (V (λ0) −Vn), it can be determined whether each pixel belongs to hair or skin. Therefore, it is possible to determine whether each pixel belongs to the hair and skin from the spectral reflectance distribution and difference (V (λ0) −Vn) stored in the database for each pixel. Then, it is possible to output identifiable information by giving the determined attribute to each pixel.

ところで、近赤外波長域の光を顔面に照射した場合、毛髪等の毛と肌とでは反射率が大きく異なる。このため、近赤外波長域の光を顔面に照射して撮影した画像は、表面に毛が現れていない毛根に対応する領域が肌領域とは異なった画素値となる。これは、近赤外波長域の光が皮膚内部に進入して反射する特性を有するためである。従って、可視光では肌として確認される部位であっても、皮膚下に毛根を含んだ領域が存在する場合、近赤外波長域の光の反射率で判別が可能である。特に、顔領域内で毛根を含んだ領域として、性別に左右される固有領域が存在する。例えば、成人男性の多くは口周辺に髭が存在する。これは、口周辺に毛根が集中する可能性が高いことを示している。本実施形態では、顔領域内における毛根が集中する所定部位を判別する。   By the way, when the face is irradiated with light in the near-infrared wavelength region, the reflectance differs greatly between hair such as hair and skin. For this reason, in an image taken by irradiating the face with light in the near-infrared wavelength region, the region corresponding to the hair root where no hair appears on the surface has a pixel value different from that of the skin region. This is because light in the near-infrared wavelength region has a characteristic of entering and reflecting inside the skin. Therefore, even if it is a site | part confirmed as skin with visible light, when the area | region containing a hair root exists under skin, it can discriminate | determine by the reflectance of the light of a near-infrared wavelength range. In particular, as a region including the hair root in the face region, there is a unique region that depends on gender. For example, many adult men have wrinkles around the mouth. This indicates that there is a high possibility that the hair roots are concentrated around the mouth. In the present embodiment, a predetermined part where the hair root concentrates in the face region is determined.

そこで、ステップ132では、顔領域の中心軸を検出する。顔領域は、垂直線に対して対象形状であることが多い。そこで、検出された顔領域の水平中心を求めてその近似直線を顔領域の中心軸とすることができる。なお、顔領域の中心軸の導出はこれに限定されるものではなく、他の算出方法でもよい。   In step 132, the center axis of the face area is detected. The face area is often the target shape with respect to the vertical line. Therefore, the horizontal center of the detected face area can be obtained and the approximate straight line can be used as the center axis of the face area. Note that the derivation of the central axis of the face region is not limited to this, and other calculation methods may be used.

次のステップ134では、顔領域の中心軸と顔領域を基に、顔領域内の鼻領域と口領域の間の領域を探索領域に設定する。顔領域内の鼻領域と口領域は、顔領域の中心軸上において所定の配置になる確度が高い。本実施の形態では、データベース22に、顔領域の中心軸上の鼻領域と口領域の標準的な位置関係が予め記憶されている。従って、データベースの位置関係と顔領域の中心軸とから鼻領域と口領域の間の標準的な領域を定めることができ、これを探索領域に設定する。なお、探索領域の設定はこの方法に限定されるものではなく、顔領域内の鼻領域や口領域を特定する画像から求めても良い。   In the next step 134, an area between the nose area and the mouth area in the face area is set as a search area based on the central axis of the face area and the face area. There is a high probability that the nose region and the mouth region in the face region will be in a predetermined arrangement on the central axis of the face region. In the present embodiment, the standard positional relationship between the nose region and the mouth region on the central axis of the face region is stored in the database 22 in advance. Therefore, a standard area between the nose area and the mouth area can be determined from the positional relationship of the database and the central axis of the face area, and this is set as the search area. The setting of the search area is not limited to this method, and the search area may be obtained from an image specifying a nose area or a mouth area in the face area.

次に、ステップ136において、ステップ134で設定された探索領域内について、肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、この特定領域が探索領域に占める割合(占有率)を求める。この肌領域の画素値と異なる画素値としては、データベース22に記憶された髪の画素値でもよく、また皮膚下で毛根を含んだ領域として予め定められた画素値をデータベース22に記憶して用いても良い。これによって、鼻領域と口領域の間の皮膚下に毛根が集中する領域(髭領域)の比率を求めることができる。   Next, in step 136, a specific area composed of pixels having a pixel value different from the pixel value of the skin area is obtained in the search area set in step 134, and the ratio (occupancy) of the specific area to the search area Ask for. The pixel value different from the pixel value of the skin region may be the pixel value of the hair stored in the database 22, or the pixel value predetermined as the region including the hair root under the skin is stored in the database 22 and used. May be. Thereby, the ratio of the region where the hair root concentrates under the skin between the nose region and the mouth region (the heel region) can be obtained.

次のステップ138では、鼻領域と口領域の間の領域に毛根が集中する領域の比率を判別結果として出力する。この判別結果は、予め定めた占有率以上の場合に、顔領域内における毛根が集中する領域を髭領域であることが予測される所定部位と判別し、その結果を出力してもよい。また、求めた占有率が、予めデータベース22に記憶した男性であることが推定される所定占有率以上の場合に、対象人物が男性であるという判定結果を出力することができる。また、求めた占有率が、所定占有率未満の場合に、対象人物が女性であるという判定結果を出力することができる。   In the next step 138, the ratio of the region where the hair roots concentrate in the region between the nose region and the mouth region is output as a determination result. When the determination result is equal to or greater than a predetermined occupation ratio, the region where the hair roots concentrate in the face region may be determined as a predetermined portion predicted to be a wrinkle region, and the result may be output. In addition, when the obtained occupancy is equal to or higher than a predetermined occupancy estimated to be a male stored in the database 22 in advance, a determination result that the target person is a male can be output. Further, when the obtained occupancy rate is less than the predetermined occupancy rate, a determination result that the target person is a woman can be output.

以上のように、近赤外波長域の光を顔面に照射して鼻領域と口領域の間の領域に毛根が集中する領域の比率を求めて、髭領域の有無及び量を確認できる。また、可視域の波長では確認が困難な皮膚下の毛根を近赤外波長域の光の照射によって得ることができるので、顔面に内在する部位を判別でき、性別判定を容易に行うことができる。   As described above, the presence / absence and amount of the wrinkle region can be confirmed by irradiating the face with light in the near-infrared wavelength region to obtain the ratio of the region where the hair root concentrates in the region between the nose region and the mouth region. In addition, since the hair root under the skin, which is difficult to confirm at visible wavelengths, can be obtained by irradiation with light in the near-infrared wavelength region, it is possible to determine the part existing on the face and easily determine sex. .

次に、第2の実施の形態について説明する。本実施の形態は、異なる2つの近赤外波長(λ1,λ2)域の光を交互に照射して対象物の各部位を判定するものである。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。   Next, a second embodiment will be described. In this embodiment, each part of an object is determined by alternately irradiating light in two different near-infrared wavelength (λ1, λ2) regions. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.

図5に示すように、本実施形態は、第1波長λ1域の光を照射するLED等で構成された照明手段である第1光源10、及び第2波長λ2域の光を照射するLED等で構成された照明手段である第2光源12から構成された照明装置と、照明装置で照明された対象物等を撮影するCCDカメラ等で構成されたカメラ14が設けられている。   As shown in FIG. 5, in the present embodiment, the first light source 10 that is an illuminating unit configured by an LED that irradiates light in the first wavelength λ1 region, the LED that irradiates light in the second wavelength λ2 region, and the like. And a camera 14 constituted by a CCD camera or the like for photographing an object or the like illuminated by the illumination device.

本実施の形態では、異なる2つのは近赤外波長域の光により対象物を車両のドライバの頭部としてドライバの肌や髪等の各部位を検出する場合を例に説明する。図3に示すように、肌の分光反射率及び髪の分光反射率について、波長870nmと970nmの分光反射率を比較すると、以下の関係になる。   In the present embodiment, two different cases will be described by taking as an example a case in which each part such as the driver's skin or hair is detected by using light in the near-infrared wavelength region as the head of the driver of the vehicle. As shown in FIG. 3, the spectral reflectance of skin and the spectral reflectance of hair are compared as follows when the spectral reflectances at wavelengths of 870 nm and 970 nm are compared.

・肌:870nmでの反射率>970nmでの反射率
・髪:870nmでの反射率<970nmでの反射率
-Skin: reflectance at 870 nm> reflectance at 970 nm-Hair: reflectance at 870 nm <reflectance at 970 nm

従って、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出し、撮像した画像の画素値を870nmと970nmの各々の波長において比較し比較結果の符号を判断することで、頭部領域の中の肌や髪の各部位を判別することが可能となる。   Accordingly, the head region of the driver is extracted as an object by image processing such as template matching, the pixel values of the captured images are compared at the respective wavelengths of 870 nm and 970 nm, and the sign of the comparison result is determined. It becomes possible to discriminate each part of skin and hair in the region.

なお、本実施形態において、波長については、870nm及び970nmに限定する必要はないが、以下の条件を満たす必要がある。   In the present embodiment, the wavelength need not be limited to 870 nm and 970 nm, but the following conditions must be satisfied.

第1条件及び第2条件は上記実施形態と同様である。第3条件は、2つの波長λ1、λ2における反射率が、肌及び髪で異なることである。また、可視領域近傍の波長の光を照射する照明装置を用いると、光が可視領域に漏れる可能性があること、撮像素子の感度が1000nm以上では殆ど無いことも考慮する必要がある。   The first condition and the second condition are the same as in the above embodiment. The third condition is that the reflectance at the two wavelengths λ1 and λ2 differs between skin and hair. In addition, when an illumination device that irradiates light having a wavelength in the vicinity of the visible region is used, it is necessary to consider that light may leak into the visible region and that the sensitivity of the image sensor is almost not 1000 nm or more.

なお、本実施の形態では、970nm以上の光(波長λ1の光)を照射する第1光源と970nm未満の光(波長λ2の光)を照射する第2光源の2つの照明装置を用いている。   Note that in this embodiment, two illumination devices are used: a first light source that emits light of 970 nm or more (light with a wavelength λ1) and a second light source that emits light of less than 970 nm (light with a wavelength λ2). .

次に、本実施の形態の演算・判定装置で実行される頭部の各部位を判別する処理について説明する。本実施の形態は、第1波長λ1域の光を照射するLED等で構成された照明手段である第1光源10、及び第2波長λ2域の光を照射するLED等で構成された照明手段である第2光源12から構成された照明装置に状態Cを生じさせることなく、第1光源のみオン(状態A)、第2光源のみオン(状態B)の2つの状態を生じさせて対象物の各部位を判定するものである。第1光源及び第2光源は、図6に示すように交互に発光させた2つの光源に同期して、カメラのシャッタを開閉させるか、または図7に示すように制御手段16によってカメラのシャッタに同期させたタイミングで2つの光源を発光させる。   Next, processing for determining each part of the head executed by the calculation / determination device of the present embodiment will be described. In the present embodiment, a first light source 10 that is an illumination unit configured to irradiate light having a first wavelength λ1 region, and an illumination unit configured to include an LED unit that irradiates light having a second wavelength λ2 region. Without causing the lighting device configured by the second light source 12 to generate the state C, only the first light source is turned on (state A) and only the second light source is turned on (state B), thereby causing the object Are determined. The first light source and the second light source open or close the shutter of the camera in synchronization with the two light sources alternately emitted as shown in FIG. 6, or the shutter of the camera by the control means 16 as shown in FIG. Two light sources are caused to emit light at a timing synchronized with each other.

図8は、演算・判定装置20における処理を示す流れ図であり、ステップ102及びステップ104において状態Aか、状態Bかを判断する。   FIG. 8 is a flowchart showing processing in the calculation / determination device 20. In step 102 and step 104, it is determined whether the state is A or B.

すなわち、図6に示すタイミングで第1の光源及び第2の光源のオンオフ制御、及びカメラのシャッタの開閉が制御されている状態で対象物を撮影し、図8のステップ102で第1の光源をオンして対象物を照明した状態(状態A)での撮影か否かを判断すると共に、ステップ104で第2の光源をオンして対象物を照明した状態(状態B)での撮影か否かを判断する。   That is, the object is photographed in a state in which the on / off control of the first light source and the second light source and the opening / closing of the shutter of the camera are controlled at the timing shown in FIG. 6, and in step 102 in FIG. Whether or not shooting is performed in a state where the object is illuminated (state A) and whether the second light source is turned on in step 104 to illuminate the object (state B). Judge whether or not.

状態Aの場合には、ステップ112において、第1の光源からの第1波長λ1域の光による対象物の撮影により得られた画像の画素値V(λ1)を演算して記憶する。状態Bの場合には、ステップ114において、第2の光源からの第2波長λ2域の光による対象物の撮影により得られた画像の画素値V(λ2)を演算して記憶する。   In the case of the state A, in step 112, the pixel value V (λ1) of the image obtained by photographing the object with the light of the first wavelength λ1 from the first light source is calculated and stored. In the case of the state B, in step 114, the pixel value V (λ2) of the image obtained by photographing the object with the light of the second wavelength λ2 from the second light source is calculated and stored.

次のステップ122では、状態Aでカメラで撮影された画像の各画素の画素値V(λ1)と状態Bでカメラで撮影された画像の各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このように状態Aでの画素値から状態Bでの画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。   In the next step 122, the difference (V) between the pixel value V (λ1) of each pixel of the image captured by the camera in the state A and the pixel value V (λ2) of each pixel of the image captured by the camera in the state B. (Λ1) −V (λ2)) is calculated and stored in the pixel value storage device 18 for each pixel. Thus, by subtracting the pixel value in state B from the pixel value in state A, a pixel value based on the spectral intensity between the first wavelength and the second wavelength can be obtained, and the influence of disturbance light is removed. be able to. By performing the above processing, the pixel value of each pixel is calculated on the basis of the relative state when the object is illuminated with light sources in two different wavelength ranges while removing the influence of disturbance light.

光源の明るさはあらかじめ分かっているので、データベースに状態A、状態Bの時の肌、髪、眼の画素値の大小関係を記憶しておくことができる。データベースと各画素の差(V(λ1)−V(λ2))の値とを比較することで、各画素が髪及び肌に属するかを判定することができる。   Since the brightness of the light source is known in advance, the magnitude relationship among the pixel values of the skin, hair, and eyes in the state A and the state B can be stored in the database. By comparing the database with the difference between each pixel (V (λ1) −V (λ2)), it can be determined whether each pixel belongs to hair and skin.

ステップ131では、各画素毎にデータベースに記憶された分光反射率の分布と差(V(λ1)−V(λ2)とを比較して、各画素が髪及び肌のいずれの部位に属するかを判定する。例えば、差分値(V(λ1)−V(λ2))の符号が負符号でれば顔領域(少なくとも肌)に属す判断し、差分値(V(λ1)−V(λ2))の符号が正符号でればであれば髪に属すと判断することができ、各画素に判断した属性を与える。そして、顔領域(少なくとも肌)に属する画素を含む領域を顔領域として検出する。   In step 131, the distribution of spectral reflectance stored in the database for each pixel and the difference (V (λ1) −V (λ2)) are compared to determine which part of the hair or skin each pixel belongs to. For example, if the sign of the difference value (V (λ1) −V (λ2)) is a negative sign, it is determined that it belongs to the face region (at least skin), and the difference value (V (λ1) −V (λ2)) If the sign of is positive, it can be determined that it belongs to the hair, and the determined attribute is given to each pixel, and an area including pixels belonging to the face area (at least skin) is detected as a face area. .

なお、顔領域の検出は、上記のように、異なる2つの近赤外波長域の光を顔面に照射した2枚の画像を取得し、2枚の画像から差分画像を演算することにより,背景に影響されることなく、顔領域だけが明るい画素値となる画像を取得できる。その後、画像の明るさにより、適切な閾値を設定して、顔領域を取り出す。この顔領域は輪郭やエッジでもよくまた最外郭でもよい。また、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出してもよい。   As described above, the face area is detected by acquiring two images obtained by irradiating the face with light of two different near-infrared wavelength regions and calculating a difference image from the two images, thereby obtaining a background image. It is possible to acquire an image in which only the face area has a bright pixel value without being affected by the above. Thereafter, an appropriate threshold is set according to the brightness of the image, and a face area is extracted. This face area may be a contour, an edge, or an outermost contour. Further, the head region of the driver may be extracted as an object by image processing such as template matching.

従って、ステップ122では、対象物の波長λ1、λ2での画素値V(λ1),V(λ2)を用いて、対象物の異なる波長における分光反射率の差を演算し、ステップ131において演算された差分値とデータベースに記憶されている既知の対象物の各部位の分光反射率データとを比較することで各画素に髪及び顔面(少なくとも肌)のいずれの属性を付与することができ、これにより対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別することができる。   Accordingly, in step 122, the difference in spectral reflectance at different wavelengths of the object is calculated using the pixel values V (λ1) and V (λ2) at the wavelengths λ1 and λ2 of the object. Each attribute of hair and face (at least skin) can be given to each pixel by comparing the difference value and the spectral reflectance data of each part of the known object stored in the database. Thus, it can be determined whether each part of the object is hair or face (at least skin).

次に、第3の実施の形態について説明する。本実施の形態は、第1光源のみオン(状態A)、第2光源のみオン(状態B)、2つの光源を共にオフ(状態C)の3つの状態を生じさせて対象物の各部位を判定するものである。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。   Next, a third embodiment will be described. In the present embodiment, three states of the first light source only (state A), only the second light source only on (state B), and two light sources both off (state C) are generated, and each part of the object is determined. Judgment. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.

まず、光源・カメラ制御装置16では、図9に示すように、第1光源10及び第2光源12を交互にオンさせて点灯する(第1光源がオンで第2光源がオフの状態を状態A、及び第1光源がオフで第2光源がオンの状態を状態B)と共に、交互に点灯した後第1光源10及び第2光源12をオフにして消灯する(状態C)ことを繰り返すように制御する。従って、2つの光源は、第1波長λ1の光のみ照射(状態A)、第2波長λ2の光のみ照射(状態B)、第1光源及び第2光源共にオフ(状態C)の3つの状態をとる。   First, as shown in FIG. 9, the light source / camera control device 16 turns on and turns on the first light source 10 and the second light source 12 alternately (the first light source is on and the second light source is off). A, and the state where the first light source is off and the second light source is on (state B), and after alternately turning on, the first light source 10 and the second light source 12 are turned off and turned off (state C). To control. Accordingly, the two light sources are irradiated with only light of the first wavelength λ1 (state A), irradiated only with light of the second wavelength λ2 (state B), and both the first light source and the second light source are off (state C). Take.

また、状態A、状態B、及び状態Cの各々においてカメラにより対象物であるドライバの頭部が撮影されるように、第1光源10及び第2光源12のオンオフ制御に同期させてカメラのシャッタを開閉して対象物を撮影する。これにより、状態A、状態B、及び状態Cの各々において対象物の画像が撮影される。   Further, the camera shutter is synchronized with the on / off control of the first light source 10 and the second light source 12 so that the head of the driver as the object is photographed by the camera in each of the state A, the state B, and the state C. Open and close to shoot the object. Thereby, an image of the object is captured in each of the state A, the state B, and the state C.

図10は、本実施形態における演算・判定装置20における処理を示す流れ図であり、ステップ100〜ステップ104の各々において状態Cか、状態Aか、状態Bかを判断する。ステップ100で状態Cと判断された場合には、ステップ110において状態Cでカメラで撮影された画像の画素値Vnを演算して画素値記憶装置18に記憶する。   FIG. 10 is a flowchart showing processing in the calculation / determination device 20 in this embodiment. In each of Step 100 to Step 104, it is determined whether the state is C, A, or B. If it is determined in step 100 that the state is C, the pixel value Vn of the image captured by the camera in state C is calculated in step 110 and stored in the pixel value storage device 18.

また、ステップ102において状態Aと判断された場合には、ステップ112において状態Aでカメラで撮影された画像の各画素の画素値V(λ1)を演算して画素値記憶装置18に記憶し、ステップ104において状態Bと判断された場合には、ステップ114において状態Bでカメラで撮影された画像の各画素の画素値V(λ2)を演算して画素値記憶装置18に記憶する。   If it is determined in step 102 that the state is A, the pixel value V (λ1) of each pixel of the image captured by the camera in state A is calculated in step 112 and stored in the pixel value storage device 18; If it is determined in step 104 that the state is B, the pixel value V (λ2) of each pixel of the image captured by the camera in state B is calculated in step 114 and stored in the pixel value storage device 18.

次のステップ120では、状態Aと状態Cの各々による画像についての差分画像aの画素値を求めるために、状態Aの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ1)−Vn)を演算して各画素毎に記憶する。次に、ステップ124では、状態Bと状態Cの各々による画像についての差分画像bの画素値を求めるために、状態Bの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ2)−Vn)を演算して各画素毎に記憶する。このように状態A及び状態Bでの各画素値から状態Cでの画素値を減算することで、近赤外波長のみの分光強度による画素値(V(λ1)−Vn、V(λ2)−Vn)を得ることができる。以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。   In the next step 120, in order to obtain the pixel value of the difference image a for the images in each of the states A and C, the pixel value of each corresponding pixel in the state C image is obtained from the pixel value of each pixel in the state A. The subtracted difference (V (λ1) −Vn) is calculated and stored for each pixel. Next, in step 124, in order to obtain the pixel value of the difference image b for the image in each of the states B and C, the pixel value of each corresponding pixel in the state C image is determined from the pixel value of each pixel in the state B. The difference (V (λ2) −Vn) obtained by subtracting is calculated and stored for each pixel. Thus, by subtracting the pixel value in the state C from the pixel values in the state A and the state B, the pixel values (V (λ1) −Vn, V (λ2) − based on the spectral intensity of only the near infrared wavelength are obtained. Vn) can be obtained. By performing the above processing, the pixel value of each pixel is calculated on the basis of the state where the object is not illuminated with the light source.

次のステップ126では、状態Aと状態Bの各々による画像についての差分画像の画素値を求めるために、ステップ120で求めた差分画像aの各画素の画素値V(λ1)と、ステップ124で求めた差分画像bの各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このように状態Aでの画素値から状態Bでの画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。   In the next step 126, the pixel value V (λ1) of each pixel of the difference image a obtained in step 120 and the pixel value V (λ1) obtained in step 120 in order to obtain the pixel value of the difference image for the image in each of the states A and B. The difference (V (λ1) −V (λ2)) from the pixel value V (λ2) of each pixel of the obtained difference image b is calculated and stored in the pixel value storage device 18 for each pixel. Thus, by subtracting the pixel value in state B from the pixel value in state A, a pixel value based on the spectral intensity between the first wavelength and the second wavelength can be obtained, and the influence of disturbance light is removed. be able to. By performing the above processing, the pixel value of each pixel is calculated on the basis of the state where the object is not illuminated with the light source. By performing the above processing, the pixel value of each pixel is calculated on the basis of the relative state when the object is illuminated with light sources in two different wavelength ranges while removing the influence of disturbance light.

そして、上記と同様にステップ131以降の処理によって、差分値(V(λ1)−V(λ2))の符号で各画素が髪及び肌のいずれの部位に属するかを判定し、顔領域として検出した後に、対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別する。   Then, in the same manner as described above, the process after step 131 determines whether each pixel belongs to the part of the hair or skin with the sign of the difference value (V (λ1) −V (λ2)), and detects it as a face region. After that, it is determined whether each part of the object is hair or face (at least skin).

次に、第4の実施の形態について説明する。本実施の形態は、光源を用いることなく、近赤外波長域の光を含む通常光をカメラ側で第1波長λ1域の光と第2波長λ2域の光とに分割して撮影するようにしたものである。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。   Next, a fourth embodiment will be described. In the present embodiment, normal light including light in the near-infrared wavelength region is divided into light in the first wavelength λ1 region and light in the second wavelength λ2 region on the camera side without using a light source. It is a thing. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.

本実施の形態には、図11に示すように、第1波長λ1域の光を通過させるバンドパスフィルタ14A(BPF_A)を備えたカメラ14、及び第2波長λ2域の光を通過させるバンドパスフィルタ15A(BPF_B)を備えたカメラ15が設けられている。なお、本実施の形態では、光源・カメラ制御16が光源を直接制御することないが、光源のオンオフ制御に同期に代えて所定の周波数に同期させてカメラのシャッタを開閉制御すると共にカメラ14,15を切り換える。すなわち、光源・カメラ制御16は、シャッタの切換及びカメラの切換が光源のオンオフ制御に対応する。   In this embodiment, as shown in FIG. 11, a camera 14 provided with a bandpass filter 14A (BPF_A) that passes light in the first wavelength λ1 region, and a bandpass that passes light in the second wavelength λ2 region. A camera 15 including a filter 15A (BPF_B) is provided. In the present embodiment, the light source / camera control 16 does not directly control the light source. However, the camera shutter 14 is controlled to be opened and closed in synchronization with a predetermined frequency instead of being synchronized with the on / off control of the light source, and the camera 14, 15 is switched. That is, in the light source / camera control 16, shutter switching and camera switching correspond to light source on / off control.

次に、本実施の形態の対象物の各部位を判定する処理ルーチンについて図12を参照して説明する。光源・カメラ制御手段によって所定周波数に同期してカメラのシャッタが開閉されると共にシャッタ開放側のカメラが対象のカメラとして切り換えられ、カメラ14による対象物の画像及びカメラ15による対象物の画像が撮影される。   Next, a processing routine for determining each part of the object according to the present embodiment will be described with reference to FIG. The shutter of the camera is opened and closed in synchronization with a predetermined frequency by the light source / camera control means, and the camera on the shutter opening side is switched as the target camera, and the image of the object by the camera 14 and the image of the object by the camera 15 are taken. Is done.

ステップ103では対象のカメラが第1カメラ14か否かを判断し、ステップ105では対象のカメラが第2カメラ15か否かを判断し、第1カメラ14の場合は、ステップ113において第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(A画像)の画素値を演算して記憶し、第2カメラ15の場合は、ステップ115において第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(B画像)の画素値を演算して記憶する。   In step 103, it is determined whether or not the target camera is the first camera 14. In step 105, it is determined whether or not the target camera is the second camera 15. In the case of the first camera 14, the first wavelength is determined in step 113. The pixel value of the image (A image) obtained by the light passing through the band pass filter 14A is calculated and stored, and in the case of the second camera 15, it passes through the band pass filter 15A of the second wavelength in step 115. The pixel value of the image (B image) obtained by light is calculated and stored.

次のステップ123では、第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(A画像)の各画素の画素値V(λ1)と第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(B画像)の各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このようにA画像の画素値からB画像での画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。   In the next step 123, the pixel value V (λ1) of each pixel of the image (A image) obtained by the light that has passed through the first wavelength bandpass filter 14A and the light that has passed through the second wavelength bandpass filter 15A. The difference (V (λ1) −V (λ2)) from the pixel value V (λ2) of each pixel of the image (B image) obtained by the above is calculated and stored in the pixel value storage device 18 for each pixel. In this way, by subtracting the pixel value in the B image from the pixel value in the A image, a pixel value based on the spectral intensity between the first wavelength and the second wavelength can be obtained, and the influence of disturbance light can be removed. Can do. By performing the above processing, the pixel value of each pixel is calculated on the basis of the relative state when the object is illuminated with light sources in two different wavelength ranges while removing the influence of disturbance light.

そして、上記と同様にステップ131以降の処理によって、差分値(V(λ1)−V(λ2))の符号で各画素が髪及び肌のいずれの部位に属するかを判定し、顔領域として検出した後に、対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別する。   Then, in the same manner as described above, the process after step 131 determines whether each pixel belongs to the part of the hair or skin with the sign of the difference value (V (λ1) −V (λ2)), and detects it as a face region. After that, it is determined whether each part of the object is hair or face (at least skin).

なお、本実施形態では、光軸が異なる2台のカメラ14,15を用いた一例を説明したが、本発明はこれに限定されるものではない。例えば、図13に示すように、同一光軸を複数に分岐してその分岐先でフィルタを挿入するようにしてもよい。図13では、対象物に対する光軸L上に3分岐プリズム13を挿入した一例である。対象物からの入射光は、3分岐プリズム13により3つの光軸に分岐される。この3分岐プリズムでは、第1分岐光軸は第1波長λ1域の光を通過させるバンドパスフィルタ14A(BPF_A)、第2分岐光軸は第2波長λ2域の光を通過させるバンドパスフィルタ15A(BPF_B)、そして第3分岐光軸は通常の可視波長域のフィルタ(図13ではRGB)へ向けて案内するようになっている。   In this embodiment, an example using two cameras 14 and 15 having different optical axes has been described, but the present invention is not limited to this. For example, as shown in FIG. 13, the same optical axis may be branched into a plurality and a filter may be inserted at the branch destination. FIG. 13 shows an example in which a three-branch prism 13 is inserted on the optical axis L with respect to the object. Incident light from the object is branched into three optical axes by the three-branching prism 13. In the three-branch prism, the first branch optical axis is a bandpass filter 14A (BPF_A) that passes light in the first wavelength λ1 region, and the second branch optical axis is a bandpass filter 15A that passes light in the second wavelength λ2 region. (BPF_B) and the third branch optical axis are guided toward a normal visible wavelength range filter (RGB in FIG. 13).

次に、第5の実施の形態について説明する。本実施の形態は、単一の光源を用い、カメラ側で第1波長λ1域の光と第2波長λ2域の光とに分割して撮影するようにしたものである。本実施の形態は、図14に示すように、第4の実施の形態に光源11を設けたものである。本実施の形態の光源11としては第1波長λ1及び第2波長λ2を含む波長域の光を照射する単一の光源を用いている。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。   Next, a fifth embodiment will be described. In the present embodiment, a single light source is used, and the camera side divides and shoots light in the first wavelength λ1 region and light in the second wavelength λ2 region. In this embodiment, as shown in FIG. 14, a light source 11 is provided in the fourth embodiment. As the light source 11 of the present embodiment, a single light source that irradiates light in a wavelength region including the first wavelength λ1 and the second wavelength λ2 is used. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.

次に、本実施の形態の対象物の各部位を判定する処理ルーチンについて図14を参照して説明する。光源・カメラ制御手段によって光源11がオンオフ制御されると共に、光源のオンオフに同期してカメラのシャッタが開閉されると共にシャッタ開放側のカメラが対象のカメラとして切り換えられ、光源オン時のカメラ14による対象物の画像及びカメラ15による対象物の画像、そして光源オフ時の対象物の画像が撮影される。   Next, a processing routine for determining each part of the object of the present embodiment will be described with reference to FIG. The light source 11 is turned on / off by the light source / camera control means, the shutter of the camera is opened and closed in synchronization with the on / off of the light source, and the camera on the shutter open side is switched as the target camera. An image of the object, an image of the object by the camera 15, and an image of the object when the light source is off are taken.

ステップ101では光源がオンされたか否かを判断し、光源オンの場合は、対象が第1カメラ14か(ステップ103)、第2カメラ15か(ステップ105)否かを判断し、第1カメラ14の場合は第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(A画像)の画素値(ステップ113)、第2カメラ15の場合は第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(B画像)の画素値(ステップ115)を演算して記憶する。光源オフの場合は(ステップ101で肯定)、ステップ111において光源オフ時に第1波長のバンドパスフィルタ14Aを通過した光により得られた画像の画素値を演算して記憶すると共に、第2波長のバンドパスフィルタ15Aを通過した光により得られた画像の画素値を演算して記憶する。   In step 101, it is determined whether the light source is turned on. If the light source is turned on, it is determined whether the target is the first camera 14 (step 103) or the second camera 15 (step 105). In the case of 14, the pixel value (step 113) of the image (A image) obtained by the light passing through the first wavelength bandpass filter 14A, in the case of the second camera 15, the second wavelength bandpass filter 15A is passed. The pixel value (step 115) of the image (B image) obtained by the processed light is calculated and stored. If the light source is off (Yes in step 101), the pixel value of the image obtained by the light that has passed through the bandpass filter 14A of the first wavelength when the light source is off in step 111 is calculated and stored, and the second wavelength of the light source is off. The pixel value of the image obtained by the light passing through the band pass filter 15A is calculated and stored.

次のステップ127では、第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(a画像)の各画素の画素値V(λ1)と、ステップ125で求めた光源で対象物を照明しない状態を基準として第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(b画像)の各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このようにa画像の画素値からb画像での画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。   In the next step 127, the object is illuminated with the pixel value V (λ1) of each pixel of the image (a image) obtained by the light passing through the bandpass filter 14A of the first wavelength and the light source obtained in step 125. The difference (V (λ1) −V (λ2)) from the pixel value V (λ2) of each pixel of the image (b image) obtained by the light that has passed through the bandpass filter 15A of the second wavelength on the basis of the state that is not And is stored in the pixel value storage device 18 for each pixel. Thus, by subtracting the pixel value of the b image from the pixel value of the a image, a pixel value based on the spectral intensity between the first wavelength and the second wavelength can be obtained, and the influence of disturbance light can be removed. Can do. By performing the above processing, the pixel value of each pixel is calculated on the basis of the relative state when the object is illuminated with light sources in two different wavelength ranges while removing the influence of disturbance light.

そして、上記と同様にステップ131以降の処理によって、差分値(V(λ1)−V(λ2))の符号で各画素が髪及び肌のいずれの部位に属するかを判定し、顔領域として検出した後に、対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別する。   Then, in the same manner as described above, the process after step 131 determines whether each pixel belongs to the part of the hair or skin with the sign of the difference value (V (λ1) −V (λ2)), and detects it as a face region. After that, it is determined whether each part of the object is hair or face (at least skin).

以上説明したように、上記の各実施の形態によれば、外乱光に影響されることなくドライバの髪や肌、特に男性特有の髭の各部位を正確に判定することができる。従って、性別判定に特に有効である。   As described above, according to each of the above-described embodiments, it is possible to accurately determine each part of a driver's hair and skin, particularly a man-specific wrinkle, without being affected by ambient light. Therefore, it is particularly effective for gender determination.

本発明の第1の実施の形態を示すブロック図である。It is a block diagram which shows the 1st Embodiment of this invention. 本発明の実施の形態に使用されているカメラのCCDの分光感度特性を示す線図である。It is a diagram which shows the spectral sensitivity characteristic of CCD of the camera used for embodiment of this invention. 人間の肌と髪の分光反射率特性を示す線図である。It is a diagram which shows the spectral reflectance characteristic of human skin and hair. 第1の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 1st Embodiment. 本発明の第2の実施の形態を示すブロック図である。It is a block diagram which shows the 2nd Embodiment of this invention. 第2の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの例を示す線図である。It is a diagram which shows the example of the on-off state of the light source of 2nd Embodiment, and the opening / closing timing of the shutter of a camera. 第2の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの他の例を示す線図である。It is a diagram which shows the other example of the on-off state of the light source of 2nd Embodiment, and the opening / closing timing of the shutter of a camera. 第2の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 2nd Embodiment. 第3の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの例を示す線図である。It is a diagram which shows the example of the on-off state of the light source of 3rd Embodiment, and the opening / closing timing of the shutter of a camera. 第4の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 4th Embodiment. 本発明の第4の実施の形態を示すブロック図である。It is a block diagram which shows the 4th Embodiment of this invention. 第4の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 4th Embodiment. 光軸を分岐するプリズムの光路図である。It is an optical path figure of the prism which branches an optical axis. 第5の実施の形態を示すブロック図である。It is a block diagram which shows 5th Embodiment. 第5の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 5th Embodiment.

符号の説明Explanation of symbols

10 第1光源
11 光源
12 第2光源
14 カメラ
15 カメラ
16 光源・カメラ制御装置
18 記憶装置
DESCRIPTION OF SYMBOLS 10 1st light source 11 Light source 12 2nd light source 14 Camera 15 Camera 16 Light source and camera control apparatus 18 Memory | storage device

Claims (12)

近赤外波長域の光を照射する照明手段と、
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
前記第1光量の光による照明状態で撮影した対象物の画像の画素値と、前記第2光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illumination means for irradiating light in the near-infrared wavelength region;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
Photographing means for photographing the object in synchronization with the light amount control of the control means;
An arithmetic means for calculating a difference between a pixel value of an image of an object photographed in an illumination state with the first light amount of light and a pixel value of an object image photographed in an illumination state of the second light amount of light;
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
Setting means for setting a part of the face area detected by the detection means as a search area;
For the search area set by the setting means, a calculation means for calculating a ratio between the skin area and a specific area composed of pixels having pixel values different from the pixel values of the skin area;
Discrimination means for discriminating a predetermined portion of the object based on the ratio calculated by the calculation means;
Discriminating device for an object including
第1の波長域の光及び第1の波長域と異なる第2の波長域の光を照射する照明手段と、
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illuminating means for irradiating light in a first wavelength range and light in a second wavelength range different from the first wavelength range;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
Photographing means for photographing the object in synchronization with the light amount control of the control means;
The pixel value of the image of the object imaged in the illumination state with the first light amount light in the first wavelength range and the pixel value of the image of the object imaged in the illumination state with the first light amount light in the second wavelength region Computing means for computing the difference between
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
Setting means for setting a part of the face area detected by the detection means as a search area;
For the search area set by the setting means, a calculation means for calculating a ratio between the skin area and a specific area composed of pixels having pixel values different from the pixel values of the skin area;
Discrimination means for discriminating a predetermined portion of the object based on the ratio calculated by the calculation means;
Discriminating device for an object including
前記制御手段は、前記第1の波長域の第1光量の光と前記第2の波長域の第1光量の光が交互に照射されるように照明手段を光量制御することを特徴とする請求項2記載の対象物の部位判別装置。   The control means controls the light quantity of the illuminating means so that the first light quantity light in the first wavelength range and the first light quantity light in the second wavelength range are alternately irradiated. Item 2. The object region discriminating apparatus according to Item 2. 第1の波長域の光及び第1の波長域と異なる第2の波長域の光を照射する照明手段と、
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第1の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第1の差、及び第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第2の差を演算しかつ前記第1の差と第2の差の差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illuminating means for irradiating light in a first wavelength range and light in a second wavelength range different from the first wavelength range;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
Photographing means for photographing the object in synchronization with the light amount control of the control means;
The pixel value of the image of the object imaged in the illumination state with the first light amount light in the first wavelength range and the pixel value of the image of the object imaged in the illumination state with the second light amount light in the first wavelength region The pixel value of the image of the object imaged in the illumination state with the first light amount in the second wavelength range and the illumination state in the illumination state with the second light amount in the second wavelength region Calculating means for calculating a second difference between the pixel value of the image of the target object and calculating a difference between the first difference and the second difference;
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
Setting means for setting a part of the face area detected by the detection means as a search area;
For the search area set by the setting means, a calculation means for calculating a ratio between the skin area and a specific area composed of pixels having pixel values different from the pixel values of the skin area;
Discrimination means for discriminating a predetermined portion of the object based on the ratio calculated by the calculation means;
Discriminating device for an object including
前記制御手段は、前記第1の波長域の第1光量の光と前記第2の波長域の第1光量の光とが順に照射されるように、前記第1光量の光が照射されるように前記照明手段を光量制御してから前記第2光量の光が照射されるように前記照明手段を光量制御することを特徴とする請求項4記載の対象物の部位判別装置。   The controller emits the first light amount so that the first light amount light in the first wavelength region and the first light amount light in the second wavelength region are sequentially irradiated. 5. The apparatus for discriminating a part of an object according to claim 4, wherein the light amount of the illumination unit is controlled so that the second amount of light is irradiated after the light amount of the illumination unit is controlled. 第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えた撮影手段と、
前記第1のフィルタの透過光により撮影または前記第2のフィルタの透過光により撮影されるように、前記撮影手段を切換制御する制御手段と、
第1のフィルタの透過光により撮影した対象物の画像の画素値、及び第2のフィルタの透過光により撮影した対象物の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、
を含む対象物の部位判別装置。
An imaging means comprising a first filter that transmits light in a first wavelength range, and a second filter that transmits light in a second wavelength range different from the first wavelength range;
Control means for switching and controlling the photographing means so as to be photographed by the transmitted light of the first filter or photographed by the transmitted light of the second filter;
A computing means for computing a difference between a pixel value of the image of the object photographed by the transmitted light of the first filter and a pixel value of the image of the object photographed by the transmitted light of the second filter;
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
Setting means for setting a part of the face area detected by the detection means as a search area;
For the search area set by the setting means, a calculation means for calculating a ratio between the skin area and a specific area composed of pixels having pixel values different from the pixel values of the skin area;
Discrimination means for discriminating a predetermined portion of the object based on the ratio calculated by the calculation means;
Discriminating device for an object including
第1の波長域及び第2の波長域を含む波長域の光を照射する照明手段と、
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えかつ、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
前記照明手段から第1光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値との第1の差、及び前記照明手段から第1光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値との第2の差を演算し、かつ前記第1の差と第2の差の差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域内の一部を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域と、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、前記対象物の所定部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illumination means for irradiating light in a wavelength range including the first wavelength range and the second wavelength range;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
A first filter that transmits light in the first wavelength range; and a second filter that transmits light in a second wavelength range different from the first wavelength range; and synchronized with the light amount control of the control means. Photographing means for photographing the object,
The pixel value of the image of the object photographed with the transmitted light of the first filter in the irradiation state with the first light amount from the illumination unit, and the first filter in the irradiation state with the second light amount from the illumination unit. The first difference from the pixel value of the image of the object photographed with the transmitted light, and the pixel value of the image of the object photographed with the transmitted light of the second filter in the irradiation state with the first amount of light from the illumination means And the second difference between the pixel value of the image of the object photographed by the transmitted light of the second filter in the irradiation state with the second light amount from the illumination means, and the first difference and the first difference Computing means for computing the difference between the two,
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
Setting means for setting a part of the face area detected by the detection means as a search area;
For the search area set by the setting means, a calculation means for calculating a ratio between the skin area and a specific area composed of pixels having pixel values different from the pixel values of the skin area;
Discrimination means for discriminating a predetermined portion of the object based on the ratio calculated by the calculation means;
Discriminating device for an object including
前記設定手段は、前記検出手段で検出された顔領域の中心軸を求め、求めた中心軸周辺の一部を探索領域として設定することを特徴とする請求項1乃至請求項7の何れか1項記載の対象物の部位判別装置。   The said setting means calculates | requires the center axis | shaft of the face area detected by the said detection means, and sets a part around the calculated | required center axis | shaft as a search area | region. An apparatus for discriminating a part of an object according to item. 前記第1の波長域及び第2の波長域は、800nm〜1100nmの近赤外領域の波長を設定したことを特徴とする請求項2乃至請求項8の何れか1項記載の対象物の部位判別装置。   The region of the object according to any one of claims 2 to 8, wherein the first wavelength region and the second wavelength region are set to wavelengths in a near infrared region of 800 nm to 1100 nm. Discriminator. 前記第1の波長域を800nm〜970nmの間の波長域とし、前記第2の波長域を970nm〜1100nmの間の波長域としたことを特徴とする請求項2乃至請求項9の何れか1項記載の対象物の部位判別装置。   The first wavelength range is a wavelength range between 800 nm and 970 nm, and the second wavelength range is a wavelength range between 970 nm and 1100 nm. An apparatus for discriminating a part of an object according to item. 前記制御手段は、前記照明手段から光が照射される状態を前記第1光量の光が照射される状態とするオン制御及び前記照明手段から光が照射されない状態を前記第1光量未満の第2光量の光が照射される状態とするオフ制御のオンオフ制御を前記光量制御として実行することを特徴とする請求項1乃至請求項10の何れか1項記載の対象物の部位判別装置。   The control means sets the state in which light from the illuminating means is irradiated to the state in which light of the first light quantity is emitted, and the state in which no light is emitted from the illuminating means as the second less than the first light quantity. 11. The object region discriminating apparatus according to claim 1, wherein on / off control of off control in which a light amount of light is irradiated is executed as the light amount control. 請求項1乃至請求項11の何れか1項の部位判別装置を備え、
前記判別手段の判別結果に基づいて、前記人物の性別を判定する判定手段を含む対象物の性別判定装置。
A part discriminating device according to any one of claims 1 to 11, comprising:
A gender determination device for an object including a determination unit for determining the gender of the person based on a determination result of the determination unit.
JP2006199892A 2006-07-21 2006-07-21 Device part discrimination device and gender judgment device Expired - Fee Related JP4819606B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006199892A JP4819606B2 (en) 2006-07-21 2006-07-21 Device part discrimination device and gender judgment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006199892A JP4819606B2 (en) 2006-07-21 2006-07-21 Device part discrimination device and gender judgment device

Publications (2)

Publication Number Publication Date
JP2008027242A true JP2008027242A (en) 2008-02-07
JP4819606B2 JP4819606B2 (en) 2011-11-24

Family

ID=39117808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006199892A Expired - Fee Related JP4819606B2 (en) 2006-07-21 2006-07-21 Device part discrimination device and gender judgment device

Country Status (1)

Country Link
JP (1) JP4819606B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276849A (en) * 2008-05-12 2009-11-26 Toyota Motor Corp Driver image pickup device and driver image pickup method
JP2009294854A (en) * 2008-06-04 2009-12-17 Toyota Central R&D Labs Inc Image identification device
JP2010124043A (en) * 2008-11-17 2010-06-03 Denso Corp Image capturing apparatus and method
JP2010147879A (en) * 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd Imaging apparatus
JP2010152791A (en) * 2008-12-26 2010-07-08 Nippon Syst Wear Kk Image processor for detecting object, method, program, and computer readable medium storing the program
JP2012128862A (en) * 2010-12-14 2012-07-05 Xerox Corp Method of determining total number of people in ir image obtained via ir imaging system
JP2014027597A (en) * 2012-07-30 2014-02-06 Toyota Central R&D Labs Inc Image processor, object identification device, and program
US9013402B2 (en) 2010-09-14 2015-04-21 Sony Corporation Information processing device, information processing method, and program
US9234800B2 (en) 2010-04-09 2016-01-12 Toyota Jidosha Kabushiki Kaisha Spectrometer
US9305220B2 (en) 2010-04-09 2016-04-05 Toyota Jidosha Kabushiki Kaisha Spectrum measurement device
US9784834B2 (en) 2014-08-18 2017-10-10 Samsung Electronics Co., Ltd. Image sensing apparatus and operations using burst mode
JP2019139433A (en) * 2018-02-08 2019-08-22 株式会社アサヒ電子研究所 Face authentication apparatus, face authentication method, and face authentication program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133400A (en) * 2000-10-24 2002-05-10 Oki Electric Ind Co Ltd Object extraction image processor
JP2003536303A (en) * 2000-06-08 2003-12-02 ハネウェル・インターナショナル・インコーポレーテッド Near infrared camouflage detection
WO2005070301A1 (en) * 2004-01-22 2005-08-04 Nihondensikougaku Co., Ltd. Male/female distinguishing means

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003536303A (en) * 2000-06-08 2003-12-02 ハネウェル・インターナショナル・インコーポレーテッド Near infrared camouflage detection
JP2002133400A (en) * 2000-10-24 2002-05-10 Oki Electric Ind Co Ltd Object extraction image processor
WO2005070301A1 (en) * 2004-01-22 2005-08-04 Nihondensikougaku Co., Ltd. Male/female distinguishing means

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8724858B2 (en) 2008-05-12 2014-05-13 Toyota Jidosha Kabushiki Kaisha Driver imaging apparatus and driver imaging method
JP2009276849A (en) * 2008-05-12 2009-11-26 Toyota Motor Corp Driver image pickup device and driver image pickup method
JP2009294854A (en) * 2008-06-04 2009-12-17 Toyota Central R&D Labs Inc Image identification device
JP2010124043A (en) * 2008-11-17 2010-06-03 Denso Corp Image capturing apparatus and method
JP4666062B2 (en) * 2008-11-17 2011-04-06 株式会社デンソー Image photographing apparatus and method
US8208027B2 (en) 2008-11-17 2012-06-26 Denso Corporation Image shooting device and method for shooting image
DE102009046481B4 (en) 2008-11-17 2018-12-13 Denso Corporation Image pickup device and method for image acquisition
JP2010147879A (en) * 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd Imaging apparatus
JP2010152791A (en) * 2008-12-26 2010-07-08 Nippon Syst Wear Kk Image processor for detecting object, method, program, and computer readable medium storing the program
US9234800B2 (en) 2010-04-09 2016-01-12 Toyota Jidosha Kabushiki Kaisha Spectrometer
US9305220B2 (en) 2010-04-09 2016-04-05 Toyota Jidosha Kabushiki Kaisha Spectrum measurement device
US9013402B2 (en) 2010-09-14 2015-04-21 Sony Corporation Information processing device, information processing method, and program
JP2015181033A (en) * 2010-12-14 2015-10-15 ゼロックス コーポレイションXerox Corporation Method for determining number of organisms within ir image
JP2012128862A (en) * 2010-12-14 2012-07-05 Xerox Corp Method of determining total number of people in ir image obtained via ir imaging system
JP2014027597A (en) * 2012-07-30 2014-02-06 Toyota Central R&D Labs Inc Image processor, object identification device, and program
US9784834B2 (en) 2014-08-18 2017-10-10 Samsung Electronics Co., Ltd. Image sensing apparatus and operations using burst mode
JP2019139433A (en) * 2018-02-08 2019-08-22 株式会社アサヒ電子研究所 Face authentication apparatus, face authentication method, and face authentication program

Also Published As

Publication number Publication date
JP4819606B2 (en) 2011-11-24

Similar Documents

Publication Publication Date Title
JP4819606B2 (en) Device part discrimination device and gender judgment device
US20210334526A1 (en) Living body detection device, living body detection method, and recording medium
JP4442472B2 (en) Device part identification device
KR101286454B1 (en) Fake face identification apparatus and method using characteristic of eye image
US8983151B2 (en) Apparatus for recognizing face based on environment adaptation
KR100743780B1 (en) Biometric identification device, authentication device using same, and biometric identification method
RU2331107C2 (en) Method of identification through iris and device for implementing this method
TWI539386B (en) The use of a variety of physiological information mixed identification of the identity of the system and methods
JP2022111340A (en) Biological authentication device and biological authentication method
KR101123834B1 (en) Method and camera device for determination of photograph cheating using controllable ir light
KR100983346B1 (en) System and method for recognition faces using a infra red light
JP5018653B2 (en) Image identification device
JP2012113687A (en) Method of authenticating driver&#39;s face in vehicle
EP3572975B1 (en) A multispectral image processing system for face detection
US8965068B2 (en) Apparatus and method for discriminating disguised face
US20080304716A1 (en) Face recognition device
KR20180134280A (en) Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information
CN108710844B (en) Authentication method and device for detecting face
US10650225B2 (en) Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus
CN108388858B (en) Iris anti-fake method and device
JP2007058507A (en) Line of sight detecting device
JP6819653B2 (en) Detection device
CN113532653A (en) Face living body detection method and system and face recognition system
CN110235178A (en) Driver status estimating device and driver status estimate method
JP7343020B2 (en) information processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110901

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees