JP4819606B2 - Device part discrimination device and gender judgment device - Google Patents
Device part discrimination device and gender judgment device Download PDFInfo
- Publication number
- JP4819606B2 JP4819606B2 JP2006199892A JP2006199892A JP4819606B2 JP 4819606 B2 JP4819606 B2 JP 4819606B2 JP 2006199892 A JP2006199892 A JP 2006199892A JP 2006199892 A JP2006199892 A JP 2006199892A JP 4819606 B2 JP4819606 B2 JP 4819606B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- region
- amount
- pixel value
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 210000003491 skin Anatomy 0.000 claims description 59
- 210000004209 hair Anatomy 0.000 claims description 58
- 238000005286 illumination Methods 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 19
- 239000012141 concentrate Substances 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 13
- 230000001678 irradiating effect Effects 0.000 claims description 10
- 241001222097 Xenocypris argentea Species 0.000 claims description 9
- 210000003780 hair follicle Anatomy 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000020509 sex determination Effects 0.000 claims 1
- 230000003595 spectral effect Effects 0.000 description 23
- 210000003128 head Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 230000035945 sensitivity Effects 0.000 description 6
- 230000037303 wrinkles Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P20/00—Technologies relating to chemical industry
- Y02P20/50—Improvements relating to the production of bulk chemicals
- Y02P20/52—Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、対象物の部位判別装置及び性別判定装置にかかり、特に、太陽光等の外乱光に影響されることなくドライバの頭部等の対象物の肌、髪、眼球等の部位を区別して判定することができる対象物の部位判別装置及び性別判定装置に関する。 The present invention relates to an object region discriminating device and a gender determining device, and in particular, distinguishes a region such as skin, hair, eyeball, etc. of an object such as a driver's head without being affected by ambient light such as sunlight. The present invention relates to a part determination apparatus and a gender determination apparatus for an object that can be determined separately.
人物を撮影した画像から顔画像を特定するパターン認識等の画像処理することにより、人物を判別する技術が一般的に知られている。非特許文献1には、人物を判定する技術の応用として、性別判定する技術が知られている。この技術では、顔画像から特徴量を抽出し、その特徴量を用いて性別と年代を推定している。
しかしながら、上記非特許文献1には偽装した人物に対する考慮がなされておらず、偽装した人物の性別判定は誤判定する場合がある。例えば、変装等の偽装により容易に、実際とは異なる性別として認識される顔画像の撮影が可能である。これは、対象物の各部位を判別することが不十分なためと考えられる。
However, the
本発明は、上記問題を解決すべく成されたもので、対象物の所定部位を簡便かつ確実に判別することができる対象物の部位判別装置及び性別判定装置を提供することを目的とする。 The present invention has been made to solve the above-described problem, and an object thereof is to provide an object part discriminating apparatus and a gender determining apparatus capable of easily and reliably discriminating a predetermined part of an object.
上記目的を達成するために本発明は、近赤外波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、前記第1光量の光による照明状態で撮影した対象物の画像の画素値と、前記第2光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、を含んで構成されている。 In order to achieve the above object, the present invention provides illumination means for irradiating light in a near-infrared wavelength region, light having a predetermined first light amount and light having a second light amount less than the first light amount. Control means for controlling the amount of light so that each is irradiated, photographing means for photographing an object in synchronization with the light quantity control of the control means, and an image of the object photographed in an illumination state by the light of the first light quantity An arithmetic means for calculating a difference between a pixel value and a pixel value of an image of an object photographed in an illumination state with the second light amount, and based on the difference calculated by the arithmetic means, the skin of the object Detecting means for detecting the area and the face area of the object; and setting means for setting a predetermined part of the area that is predicted to include a hair root as the search area for the face area detected by the detecting means; for the set search region by the setting means, Seeking a specific region consisting of pixels having pixel values different from a pixel value of yellowfin region, a calculation unit for the specific region is calculated the ratio indicating the percentage of the search area, based on the ratio calculated by the calculating means And determining means for determining the specific area of the object as a predetermined part where hair follicles concentrate in the face area when the ratio is equal to or higher than a predetermined ratio .
本発明では、第1光量の光による照明状態で撮影した対象物の画像の画素値と、第1光量未満の第2光量の光による照明状態で撮影した対象物の画像の画素値との差に基づいて対象物の各部位を判別する。例えば対象物に外乱光が照射された状態で撮影した対象物の画像の画素値に対応する照明手段から光が照射されていない状態で撮影した対象物の画像の画素値を用い、近赤外波長域の光で照明した状態で撮影した対象物の画像の画素値と照明手段から光が照射されていない状態で撮影した対象物の画像の画素値との差に基づいて、対象物の各部位を判別しているため、外乱光に影響されることなく対象物の各部位を判別することができる。この対象物の各部位のうち肌領域及び顔領域を検出する。顔領域内には男女差を有する髭などの毛根部位等が多数あるので、顔領域内の一部を探索領域として肌領域と肌領域の画素値と異なる画素値を有する画素からなる特定領域との比率を求めて、その比率から対象物の所定部位を判別する。このように、顔領域内の一部の探索領域から求める肌領域の画素値と異なる画素値となる特定領域の比率により対象物の所定部位を判別しているため、性別判定に必要となる対象物の所定部位を判別することができる。 In the present invention, the difference between the pixel value of the image of the object photographed in the illumination state with the first light amount and the pixel value of the image of the object photographed in the illumination state with the second light amount less than the first light amount. Based on the above, each part of the object is determined. For example, using the pixel value of the image of the object taken in the state where no light is irradiated from the illumination means corresponding to the pixel value of the image of the object taken in the state where the object is exposed to ambient light, the near infrared Based on the difference between the pixel value of the image of the object imaged in a state illuminated with light in the wavelength range and the pixel value of the image of the object imaged in a state where no light is emitted from the illumination means, Since the part is discriminated, each part of the object can be discriminated without being influenced by disturbance light. A skin area and a face area are detected from each part of the object. Since there are many hair root parts such as wrinkles having gender differences in the face region, the skin region and a specific region made up of pixels having pixel values different from the pixel values of the skin region using a part of the face region as a search region, Is determined, and a predetermined part of the object is determined from the ratio. As described above, since the predetermined part of the target object is determined based on the ratio of the specific region having a pixel value different from the pixel value of the skin region obtained from a part of the search region in the face region, the target necessary for gender determination A predetermined part of an object can be determined.
また、第1の波長域の光及び第1の波長域と異なる第2の波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、を含んで構成してもよい。 Further, an illumination unit that irradiates light in a first wavelength region and light in a second wavelength region different from the first wavelength region, and the illumination unit has a predetermined first light amount and less than the first light amount. Control means for controlling the amount of light so that each of the second amount of light is emitted, photographing means for photographing an object in synchronization with the light amount control of the control means, and light of the first amount of light in the first wavelength range Calculating means for calculating a difference between a pixel value of the image of the object photographed in the illumination state by the light source and a pixel value of the image of the object photographed in the illumination state by the first light amount of light in the second wavelength range; Based on the difference calculated by the calculation means, the detection means for detecting the skin area of the object and the face area of the object, and the face area detected by the detection means are predicted to include a hair root in advance. setting means for setting a part of the area defined as a search area, said setting means For the set search region, obtains the specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, a calculation unit for the specific region is calculated the ratio indicating the percentage of the search area, the Discriminating means for discriminating, based on the ratio calculated by the calculating means, the specific area of the object as a predetermined part where a hair root concentrates in the face area when the ratio is equal to or higher than a predetermined ratio. It may be configured.
この場合、前記制御手段は、前記第1の波長域の第1光量の光と前記第2の波長域の第1光量の光が交互に照射されるように照明手段を光量制御するようにすることができる。 In this case, the control unit controls the light amount of the illumination unit so that the first light amount light in the first wavelength region and the first light amount light in the second wavelength region are alternately irradiated. be able to.
また、第1の波長域の光及び第1の波長域と異なる第2の波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第1の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第1の差、及び第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第2の差を演算しかつ前記第1の差と第2の差の差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、を含んで構成することができる。 Further, an illumination unit that irradiates light in a first wavelength region and light in a second wavelength region different from the first wavelength region, and the illumination unit has a predetermined first light amount and less than the first light amount. Control means for controlling the amount of light so that each of the second amount of light is emitted, photographing means for photographing an object in synchronization with the light amount control of the control means, and light of the first amount of light in the first wavelength range A first difference between a pixel value of the image of the object photographed in the illumination state by the light source and a pixel value of the image of the object photographed in the illumination state by the second amount of light in the first wavelength range; The pixel value of the image of the object imaged in the illumination state with the first light amount light in the wavelength range and the pixel value of the image of the object imaged in the illumination state with the second light amount light in the second wavelength region A calculation means for calculating a difference between the first difference and a second difference, and a difference calculated by the calculation means Based on the search and detection means for detecting the skin region and the face region of the object of the object, the area of a portion where the the detected face region detecting means may include a root a predetermined expected setting means for setting a region for the set search region in the setting unit obtains a specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, occupies the specific area within the search area Based on the ratio calculated by the calculation means and the ratio calculated by the calculation means , the hair roots in the face area concentrate on the specific area of the object when the ratio is equal to or higher than a predetermined ratio. And discriminating means for discriminating as the predetermined part.
この場合、前記制御手段は、前記第1の波長域の第1光量の光と前記第2の波長域の第1光量の光とが順に照射されるように、前記第1光量の光が照射されるように前記照明手段を光量制御してから前記第2光量の光が照射されるように前記照明手段を光量制御するようにすることができる。 In this case, the control means irradiates the first light amount of light so that the first light amount light of the first wavelength region and the first light amount of the second wavelength region are sequentially irradiated. As described above, it is possible to control the amount of light of the illumination unit so that the second amount of light is irradiated after the amount of light of the illumination unit is controlled.
また、第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えた撮影手段と、前記第1のフィルタの透過光により撮影または前記第2のフィルタの透過光により撮影されるように、前記撮影手段を切換制御する制御手段と、第1のフィルタの透過光により撮影した対象物の画像の画素値、及び第2のフィルタの透過光により撮影した対象物の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、を含んで構成することができる。 An imaging means comprising a first filter that transmits light in a first wavelength range, and a second filter that transmits light in a second wavelength range different from the first wavelength range, and the first filter A control unit that switches and controls the imaging unit so that the image is captured by the transmitted light of the filter or the transmitted light of the second filter, and the pixel value of the image of the object captured by the transmitted light of the first filter And calculating means for calculating the difference between the pixel value of the image of the object photographed by the transmitted light of the second filter, and the skin area of the object and the object based on the difference calculated by the calculating means A detection means for detecting a face area of an object, a setting means for setting a predetermined partial area predicted to include a hair root in the face area detected by the detection means as a search area, and the setting means Within the set search area Te, before seeking a specific region consisting of pixels having pixel values different from a pixel value of yellowfin region, a calculation unit for the specific region is calculated the ratio indicating the percentage of the search area, calculated by the calculating means Based on the ratio, it is possible to include a discriminating means that discriminates the specific area of the object as a predetermined part where a hair root concentrates in the face area when the ratio is equal to or higher than a predetermined ratio .
また、第1の波長域及び第2の波長域を含む波長域の光を照射する照明手段と、前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えかつ、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、前記照明手段から第1光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値との第1の差、及び前記照明手段から第1光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値との第2の差を演算し、かつ前記第1の差と第2の差の差を演算する演算手段と、前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、を含んで構成することができる。 In addition, an illuminating unit that irradiates light in a wavelength range including the first wavelength range and the second wavelength range, a predetermined first light amount of light, and a second light amount less than the first light amount. A control means for controlling the amount of light so that each of the light is irradiated, a first filter that transmits light in the first wavelength range, and a second that transmits light in a second wavelength range different from the first wavelength range. An image capturing means for capturing an image of the object in synchronism with the light amount control of the control means, and an object imaged by the transmitted light of the first filter in the irradiation state with the light of the first light amount from the illumination means. The first difference between the pixel value of the image of the image and the pixel value of the image of the object imaged by the transmitted light of the first filter in the irradiation state with the second light amount from the illumination unit, and the first value from the illumination unit Photographed with the light transmitted through the second filter in the irradiation state with one light amount Calculating a second difference between the pixel value of the image of the target object and the pixel value of the image of the target object captured by the transmitted light of the second filter in the irradiation state with the second light amount from the illumination unit; And a calculating means for calculating the difference between the first difference and the second difference, and a detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means. When the setting means for the detected face area by the detection means comprise a root sets an area of a portion a predetermined predicted as a search area, the set search region by the setting means, before Based on the ratio calculated by the calculation means for obtaining a specific area composed of pixels having a pixel value different from the pixel value of the skin area and calculating a ratio indicating the ratio of the specific area to the search area Te, the ratio of the ratio is determined in advance Can be configured to include a discriminating means for discriminating a predetermined site hair root is concentrated in the specific area of the face region of the object when the above.
この場合、前記設定手段は、前記検出手段で検出された顔領域の中心軸を求め、求めた中心軸周辺の顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定するようにすることができる。 In this case, the setting means obtains the central axis of the face area detected by the detecting means, and searches for a predetermined partial area that is predicted to include a hair root for the face area around the obtained central axis. Can be set as
本発明では、前記第1の波長域及び第2の波長域は、800nm〜1100nmの近赤外領域の波長を設定することが好ましい。 In the present invention, the first wavelength region and the second wavelength region are preferably set to wavelengths in the near infrared region of 800 nm to 1100 nm.
また、前記第1の波長域を800nm〜970nmの間の波長域とし、前記第2の波長域を970nm〜1100nmの間の波長域とすることが好ましい。 Moreover, it is preferable that the first wavelength region is a wavelength region between 800 nm and 970 nm, and the second wavelength region is a wavelength region between 970 nm and 1100 nm.
前記制御手段は、前記照明手段から光が照射される状態を前記第1光量の光が照射される状態とするオン制御及び前記照明手段から光が照射されない状態を前記第1光量未満の第2光量の光が照射される状態とするオフ制御のオンオフ制御を前記光量制御として実行することが好ましい。 The control means sets the state in which light from the illuminating means is irradiated to the state in which light of the first light quantity is emitted, and the state in which no light is emitted from the illuminating means as the second less than the first light quantity. It is preferable to execute the on / off control of the off control in a state where a light amount of light is irradiated as the light amount control.
前記の部位判別装置を備えて、前記判別手段の判別結果として前記特定領域を毛根が集中する所定部位と判別したとき、前記特定領域が前記探索領域に占める割合を示す比率について人物の性別に対応する比率を予め記憶した記憶手段から読み出した性別に対応する比率と、前記算出手段の算出結果の比率とから、人物の性別を判定する判定手段を含むように構成することで、対象物の性別判定を簡便かつ確実に実行できる。 When the specific region is determined as a predetermined region where hair follicles are concentrated as a result of determination by the determining unit , the ratio indicating the ratio of the specific region to the search region corresponds to the gender of the person. a ratio corresponding to the sex read from the storage means stores in advance a ratio of from a ratio of the calculation result of the calculating means is be configured to include a determination means for determining sex of the human object, the object Gender determination can be performed easily and reliably.
以上説明したように本発明によれば、顔領域内の一部の探索領域から求める肌領域の画素値と異なる画素値となる特定領域の比率により対象物の所定部位を判別しているので例えば性別判定に必要となる対象物の所定部位を判別することができる、という優れた効果が得られる。 As described above, according to the present invention, the predetermined part of the object is determined based on the ratio of the specific area having a pixel value different from the pixel value of the skin area obtained from the partial search area in the face area. An excellent effect is obtained that it is possible to determine a predetermined part of an object necessary for gender determination.
以下、図面を参照して、本発明をドライバの頭部の各部位を判別する車両用の判別装置に適用した実施の形態について詳細に説明する。第1実施の形態には、図1に示すように、近赤外波長λ0域の光を照射するLED等で構成された照明手段である光源11から構成された照明装置と、照明装置で照明された対象物等を撮影するCCDカメラ等で構成されたカメラ14が設けられている。
Hereinafter, an embodiment in which the present invention is applied to a vehicle discriminating device that discriminates each part of a driver's head will be described in detail with reference to the drawings. In the first embodiment, as shown in FIG. 1, an illuminating device composed of a
光源11、及びカメラ14は、光源11のオンオフ制御に同期させてカメラのシャッタを開閉制御する光源・カメラ制御16に接続されている。また、カメラ14には、カメラで撮影された画像の各画素の画像濃度値等の画素値を記憶するメモリで構成された画素値記憶装置18、及び以下で説明する処理ルーチンに従って演算された画素値の差及びデータベース22に記憶されている反射率データに基づいて対象物の各部位が何であるかを判定する演算・判定装置20に接続されている。演算・判定装置20は、光源・カメラ制御16にも接続することができる。なお、光源・カメラ制御装置16及び演算・判定装置20は、各々コンピュータで構成することができるが、1つのコンピュータで構成するようにしてもよい。
The
なお、以下の説明では、光源をオンオフ制御する場合を説明するが、本発明はこれに限定されるものではない。オンオフ制御に代えて、光源の光量制御をするようにしてもよい。この場合、複数の異なる光量で光が照射されるように光源を制御すればよい。例えば、光源を予め定めた第1光量の光及び第1光量未満の第2光量の光の各々が照射されるように光量制御すればよい。この第1光量はカメラで反射光が検知できる程度の光量であればよく、また第2光量はカメラで反射光が検知で困難な程度の光量であればよい。また、カメラで反射光を検知するときに差異が得られる程度、すなわち第1光量と第2光量に所定光量差があればよい。この第1光量の光が照射されるように制御することの典型例がオン制御であり、第2光量の光が照射されるように制御することの典型例がオフ制御である。 In the following description, a case where the light source is on / off controlled will be described, but the present invention is not limited to this. Instead of the on / off control, the light amount of the light source may be controlled. In this case, what is necessary is just to control a light source so that light may be irradiated with several different light quantity. For example, the light amount may be controlled so that the light source is irradiated with a predetermined first light amount and a second light amount less than the first light amount. The first light amount may be a light amount that allows the reflected light to be detected by the camera, and the second light amount may be a light amount that is difficult to detect the reflected light by the camera. Further, it is sufficient that the difference is obtained when the reflected light is detected by the camera, that is, there is a predetermined light amount difference between the first light amount and the second light amount. A typical example of controlling so that the first amount of light is irradiated is ON control, and a typical example of controlling so that the second amount of light is irradiated is OFF control.
上記のCCDとしては、近赤外域に感度を有するXC−E150(ソニー(株)製、商品名)を使用することができる。このCCDは、図2に示すように、400nm〜1000nmの波長域に感度を有している。 As the CCD, XC-E150 (trade name, manufactured by Sony Corporation) having sensitivity in the near infrared region can be used. As shown in FIG. 2, the CCD has sensitivity in a wavelength range of 400 nm to 1000 nm.
本実施の形態において、対象物を車両のドライバの頭部としてドライバの肌、及び髪の各部位を検出して性別判定に用いる場合を例に説明する。図3は肌の分光反射率、及び髪の分光反射率を示すものである。図3の符号33は、人物の肌の分光反射率、34は人物の髪の分光反射率である。肌の分光反射率及び髪の分光反射率を比較すると、可視波長域を超える近赤外波長域では、略1100nm以下における分光反射率が髪のものより肌のものが大きい。このため、画像処理において肌に対応して定めた設定値の閾値による肌領域を抽出できる。 In the present embodiment, a case will be described as an example where an object is used as a head of a driver of a vehicle and each part of the driver's skin and hair is detected and used for gender determination. FIG. 3 shows the spectral reflectance of the skin and the spectral reflectance of the hair. In FIG. 3, reference numeral 33 denotes the spectral reflectance of the human skin, and reference numeral 34 denotes the spectral reflectance of the human hair. When the spectral reflectance of the skin and the spectral reflectance of the hair are compared, in the near-infrared wavelength region exceeding the visible wavelength region, the spectral reflectance at approximately 1100 nm or less is larger than that of the hair. For this reason, it is possible to extract a skin region based on a threshold value of a set value determined corresponding to the skin in image processing.
従って、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出し、撮像した画像の画素値について閾値を超える画素を抽出することで、頭部領域の中の肌部位を検出することが可能となる。 Therefore, the driver's head region is extracted as an object by image processing such as template matching, and the skin part in the head region is detected by extracting pixels that exceed the threshold for the pixel value of the captured image. Is possible.
なお、波長(近赤外波長λ0)については、880nmや970nmが好ましいが、これに限定する必要はない。ただし、以下の条件を満たす必要がある。 The wavelength (near infrared wavelength λ0) is preferably 880 nm or 970 nm, but it is not necessary to limit to this. However, the following conditions must be satisfied.
第1に、近赤外領域の光を用いることである。この理由は、車載で運転中に使用する場合には、運転者の気を散らさないために不可視光でドライバの顔を照明することになるが、紫外領域の光を用いると眼に害を与えるおそれがあり望ましくないからである。 The first is to use light in the near infrared region. The reason for this is that when used while driving in a vehicle, the driver's face is illuminated with invisible light in order not to distract the driver, but using ultraviolet light will harm the eyes. This is because there is a fear and it is not desirable.
第2に、1100nm以下の波長の光を用いることである。この理由は、コスト、信頼性、及び応答性の点で優れているシリコン半導体で構成された撮像素子は、図2に例示したように1107nmまでの波長にしか感度を有さないからである。 Secondly, light having a wavelength of 1100 nm or less is used. The reason for this is that an imaging device made of a silicon semiconductor that is excellent in terms of cost, reliability, and responsiveness has sensitivity only to wavelengths up to 1107 nm as illustrated in FIG.
第3に、波長λ0における反射率が、肌や髪の各々で異なることである。また、可視領域近傍の波長の光を照射する照明装置を用いると、光が可視領域に漏れる可能性があること、撮像素子の感度が1000nm以上では殆ど無いことも考慮する必要がある。 Third, the reflectance at the wavelength λ0 is different for each skin and hair. In addition, when an illumination device that irradiates light having a wavelength in the vicinity of the visible region is used, it is necessary to consider that light may leak into the visible region and that the sensitivity of the image sensor is almost not 1000 nm or more.
また、本実施の形態では、データベース22に、図3に示した分光反射率分布のデータが予め記憶されている。
In the present embodiment, the
次に、本実施の形態の演算・判定装置で実行される頭部の各部位を判別する処理について説明する。 Next, processing for determining each part of the head executed by the calculation / determination device of the present embodiment will be described.
まず、光源・カメラ制御装置16では、図6に示すように、光源11を点滅する(光源がオンで状態A、点灯後の光源11がオフで状態C)ことを繰り返すように制御する。従って、光源11は、波長λ0の光のみ照射(状態A)、光源11がオフ(状態C)の2つの状態をとる。
First, as shown in FIG. 6, the light source /
また、状態A、及び状態Cの各々においてカメラにより対象物であるドライバの頭部が撮影されるように、光源11のオンオフ制御に同期させてカメラのシャッタを開閉して対象物を撮影する。これにより、状態A、及び状態Cの各々において対象物の画像が撮影される。
In addition, in each of the state A and the state C, the object is photographed by opening and closing the shutter of the camera in synchronization with the on / off control of the
図4は、演算・判定装置20における処理を示す流れ図であり、ステップ100及びステップ102において状態Cか、状態Aかを判断する。ステップ100で状態Cと判断された場合には、ステップ110において状態Cでカメラで撮影された画像の画素値Vnを演算して画素値記憶装置18に記憶する。また、ステップ102において状態Aと判断された場合には、ステップ112において状態Aでカメラで撮影された画像の各画素の画素値V(λ0)を演算して画素値記憶装置18に記憶する。次のステップ120では、状態Aの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ0)−Vn)を演算して各画素毎に記憶する。このように状態Aでの画素値から状態Cでの画素値を減算することで、近赤外波長のみの分光強度による画素値(V(λ0)−Vn)を得ることができ、外乱光の影響を除去することができる。
FIG. 4 is a flowchart showing processing in the calculation /
以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。 By performing the above processing, the pixel value of each pixel is calculated on the basis of the state where the object is not illuminated with the light source.
次のステップ130では、顔領域を検出する。上記のように、近赤外波長域の光を顔面に照射した画像と、非照射の画像の2枚の画像を取得し、2枚の画像から差分画像を演算することにより,背景に影響されることなく、顔領域だけが明るい画素値となる画像を取得できる。その後、画像の明るさにより、適切な閾値を設定して、顔領域を取り出す。この顔領域は輪郭やエッジでもよくまた最外郭でもよい。また、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出してもよい。
In the
この顔領域の検出処理では、頭部領域の中の肌部位の検出が可能である。つまり撮像した画像の画素値について閾値を超える画素を抽出することで、頭部領域の中の肌部位を検出できる。 In this face area detection process, the skin part in the head area can be detected. That is, the skin part in the head region can be detected by extracting pixels that exceed the threshold value for the pixel value of the captured image.
光源の明るさはあらかじめ分かっているので、データベースに状態Aの時の肌や髪の画素値の大小関係を記憶しておくことができる。データベースと各画素の差(V(λ0)−Vn)の値を比較することで、各画素が髪や肌に属するかを判定することができる。従って、各画素毎にデータベースに記憶された分光反射率の分布と差(V(λ0)−Vn)から、各画素が髪及び肌の部位に属するかを判定できる。そして、各画素に判断した属性を与えることで識別可能な情報としてを出力することができる。 Since the brightness of the light source is known in advance, the magnitude relationship between the skin and hair pixel values in the state A can be stored in the database. By comparing the difference between the database and each pixel (V (λ0) −Vn), it can be determined whether each pixel belongs to hair or skin. Therefore, it is possible to determine whether each pixel belongs to the hair and skin from the spectral reflectance distribution and difference (V (λ0) −Vn) stored in the database for each pixel. Then, it is possible to output identifiable information by giving the determined attribute to each pixel.
ところで、近赤外波長域の光を顔面に照射した場合、毛髪等の毛と肌とでは反射率が大きく異なる。このため、近赤外波長域の光を顔面に照射して撮影した画像は、表面に毛が現れていない毛根に対応する領域が肌領域とは異なった画素値となる。これは、近赤外波長域の光が皮膚内部に進入して反射する特性を有するためである。従って、可視光では肌として確認される部位であっても、皮膚下に毛根を含んだ領域が存在する場合、近赤外波長域の光の反射率で判別が可能である。特に、顔領域内で毛根を含んだ領域として、性別に左右される固有領域が存在する。例えば、成人男性の多くは口周辺に髭が存在する。これは、口周辺に毛根が集中する可能性が高いことを示している。本実施形態では、顔領域内における毛根が集中する所定部位を判別する。 By the way, when the face is irradiated with light in the near-infrared wavelength region, the reflectance differs greatly between hair such as hair and skin. For this reason, in an image taken by irradiating the face with light in the near-infrared wavelength region, the region corresponding to the hair root where no hair appears on the surface has a pixel value different from that of the skin region. This is because light in the near-infrared wavelength region has a characteristic of entering and reflecting inside the skin. Therefore, even if it is a site | part confirmed as skin with visible light, when the area | region containing a hair root exists under skin, it can discriminate | determine by the reflectance of the light of a near-infrared wavelength range. In particular, as a region including the hair root in the face region, there is a unique region that depends on gender. For example, many adult men have wrinkles around the mouth. This indicates that there is a high possibility that the hair roots are concentrated around the mouth. In the present embodiment, a predetermined part where the hair root concentrates in the face region is determined.
そこで、ステップ132では、顔領域の中心軸を検出する。顔領域は、垂直線に対して対象形状であることが多い。そこで、検出された顔領域の水平中心を求めてその近似直線を顔領域の中心軸とすることができる。なお、顔領域の中心軸の導出はこれに限定されるものではなく、他の算出方法でもよい。
In
次のステップ134では、顔領域の中心軸と顔領域を基に、顔領域内の鼻領域と口領域の間の領域を探索領域に設定する。顔領域内の鼻領域と口領域は、顔領域の中心軸上において所定の配置になる確度が高い。本実施の形態では、データベース22に、顔領域の中心軸上の鼻領域と口領域の標準的な位置関係が予め記憶されている。従って、データベースの位置関係と顔領域の中心軸とから鼻領域と口領域の間の標準的な領域を定めることができ、これを探索領域に設定する。なお、探索領域の設定はこの方法に限定されるものではなく、顔領域内の鼻領域や口領域を特定する画像から求めても良い。
In the
次に、ステップ136において、ステップ134で設定された探索領域内について、肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、この特定領域が探索領域に占める割合(占有率)を求める。この肌領域の画素値と異なる画素値としては、データベース22に記憶された髪の画素値でもよく、また皮膚下で毛根を含んだ領域として予め定められた画素値をデータベース22に記憶して用いても良い。これによって、鼻領域と口領域の間の皮膚下に毛根が集中する領域(髭領域)の比率を求めることができる。
Next, in
次のステップ138では、鼻領域と口領域の間の領域に毛根が集中する領域の比率を判別結果として出力する。この判別結果は、予め定めた占有率以上の場合に、顔領域内における毛根が集中する領域を髭領域であることが予測される所定部位と判別し、その結果を出力してもよい。また、求めた占有率が、予めデータベース22に記憶した男性であることが推定される所定占有率以上の場合に、対象人物が男性であるという判定結果を出力することができる。また、求めた占有率が、所定占有率未満の場合に、対象人物が女性であるという判定結果を出力することができる。
In the
以上のように、近赤外波長域の光を顔面に照射して鼻領域と口領域の間の領域に毛根が集中する領域の比率を求めて、髭領域の有無及び量を確認できる。また、可視域の波長では確認が困難な皮膚下の毛根を近赤外波長域の光の照射によって得ることができるので、顔面に内在する部位を判別でき、性別判定を容易に行うことができる。 As described above, the presence / absence and amount of the wrinkle region can be confirmed by irradiating the face with light in the near-infrared wavelength region to obtain the ratio of the region where the hair root concentrates in the region between the nose region and the mouth region. In addition, since the hair root under the skin, which is difficult to confirm at visible wavelengths, can be obtained by irradiation with light in the near-infrared wavelength region, it is possible to determine the part existing on the face and easily determine sex. .
次に、第2の実施の形態について説明する。本実施の形態は、異なる2つの近赤外波長(λ1,λ2)域の光を交互に照射して対象物の各部位を判定するものである。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。 Next, a second embodiment will be described. In this embodiment, each part of an object is determined by alternately irradiating light in two different near-infrared wavelength (λ1, λ2) regions. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.
図5に示すように、本実施形態は、第1波長λ1域の光を照射するLED等で構成された照明手段である第1光源10、及び第2波長λ2域の光を照射するLED等で構成された照明手段である第2光源12から構成された照明装置と、照明装置で照明された対象物等を撮影するCCDカメラ等で構成されたカメラ14が設けられている。
As shown in FIG. 5, in the present embodiment, the
本実施の形態では、異なる2つのは近赤外波長域の光により対象物を車両のドライバの頭部としてドライバの肌や髪等の各部位を検出する場合を例に説明する。図3に示すように、肌の分光反射率及び髪の分光反射率について、波長870nmと970nmの分光反射率を比較すると、以下の関係になる。 In the present embodiment, two different cases will be described by taking as an example a case in which each part such as the driver's skin or hair is detected by using light in the near-infrared wavelength region as the head of the driver of the vehicle. As shown in FIG. 3, the spectral reflectance of skin and the spectral reflectance of hair are compared as follows when the spectral reflectances at wavelengths of 870 nm and 970 nm are compared.
・肌:870nmでの反射率>970nmでの反射率
・髪:870nmでの反射率<970nmでの反射率
-Skin: reflectance at 870 nm> reflectance at 970 nm-Hair: reflectance at 870 nm <reflectance at 970 nm
従って、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出し、撮像した画像の画素値を870nmと970nmの各々の波長において比較し比較結果の符号を判断することで、頭部領域の中の肌や髪の各部位を判別することが可能となる。 Accordingly, the head region of the driver is extracted as an object by image processing such as template matching, the pixel values of the captured images are compared at the respective wavelengths of 870 nm and 970 nm, and the sign of the comparison result is determined. It becomes possible to discriminate each part of skin and hair in the region.
なお、本実施形態において、波長については、870nm及び970nmに限定する必要はないが、以下の条件を満たす必要がある。 In the present embodiment, the wavelength need not be limited to 870 nm and 970 nm, but the following conditions must be satisfied.
第1条件及び第2条件は上記実施形態と同様である。第3条件は、2つの波長λ1、λ2における反射率が、肌及び髪で異なることである。また、可視領域近傍の波長の光を照射する照明装置を用いると、光が可視領域に漏れる可能性があること、撮像素子の感度が1000nm以上では殆ど無いことも考慮する必要がある。 The first condition and the second condition are the same as in the above embodiment. The third condition is that the reflectance at the two wavelengths λ1 and λ2 differs between skin and hair. In addition, when an illumination device that irradiates light having a wavelength in the vicinity of the visible region is used, it is necessary to consider that light may leak into the visible region and that the sensitivity of the image sensor is almost not 1000 nm or more.
なお、本実施の形態では、970nm以上の光(波長λ1の光)を照射する第1光源と970nm未満の光(波長λ2の光)を照射する第2光源の2つの照明装置を用いている。 Note that in this embodiment, two illumination devices are used: a first light source that emits light of 970 nm or more (light with a wavelength λ1) and a second light source that emits light of less than 970 nm (light with a wavelength λ2). .
次に、本実施の形態の演算・判定装置で実行される頭部の各部位を判別する処理について説明する。本実施の形態は、第1波長λ1域の光を照射するLED等で構成された照明手段である第1光源10、及び第2波長λ2域の光を照射するLED等で構成された照明手段である第2光源12から構成された照明装置に状態Cを生じさせることなく、第1光源のみオン(状態A)、第2光源のみオン(状態B)の2つの状態を生じさせて対象物の各部位を判定するものである。第1光源及び第2光源は、図6に示すように交互に発光させた2つの光源に同期して、カメラのシャッタを開閉させるか、または図7に示すように制御手段16によってカメラのシャッタに同期させたタイミングで2つの光源を発光させる。
Next, processing for determining each part of the head executed by the calculation / determination device of the present embodiment will be described. In the present embodiment, a
図8は、演算・判定装置20における処理を示す流れ図であり、ステップ102及びステップ104において状態Aか、状態Bかを判断する。
FIG. 8 is a flowchart showing processing in the calculation /
すなわち、図6に示すタイミングで第1の光源及び第2の光源のオンオフ制御、及びカメラのシャッタの開閉が制御されている状態で対象物を撮影し、図8のステップ102で第1の光源をオンして対象物を照明した状態(状態A)での撮影か否かを判断すると共に、ステップ104で第2の光源をオンして対象物を照明した状態(状態B)での撮影か否かを判断する。
That is, the object is photographed in a state in which the on / off control of the first light source and the second light source and the opening / closing of the shutter of the camera are controlled at the timing shown in FIG. 6, and in
状態Aの場合には、ステップ112において、第1の光源からの第1波長λ1域の光による対象物の撮影により得られた画像の画素値V(λ1)を演算して記憶する。状態Bの場合には、ステップ114において、第2の光源からの第2波長λ2域の光による対象物の撮影により得られた画像の画素値V(λ2)を演算して記憶する。
In the case of the state A, in
次のステップ122では、状態Aでカメラで撮影された画像の各画素の画素値V(λ1)と状態Bでカメラで撮影された画像の各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このように状態Aでの画素値から状態Bでの画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。
In the
光源の明るさはあらかじめ分かっているので、データベースに状態A、状態Bの時の肌、髪、眼の画素値の大小関係を記憶しておくことができる。データベースと各画素の差(V(λ1)−V(λ2))の値とを比較することで、各画素が髪及び肌に属するかを判定することができる。 Since the brightness of the light source is known in advance, the magnitude relationship among the pixel values of the skin, hair, and eyes in the state A and the state B can be stored in the database. By comparing the database with the difference between each pixel (V (λ1) −V (λ2)), it can be determined whether each pixel belongs to hair and skin.
ステップ131では、各画素毎にデータベースに記憶された分光反射率の分布と差(V(λ1)−V(λ2)とを比較して、各画素が髪及び肌のいずれの部位に属するかを判定する。例えば、差分値(V(λ1)−V(λ2))の符号が負符号でれば顔領域(少なくとも肌)に属す判断し、差分値(V(λ1)−V(λ2))の符号が正符号でればであれば髪に属すと判断することができ、各画素に判断した属性を与える。そして、顔領域(少なくとも肌)に属する画素を含む領域を顔領域として検出する。
In
なお、顔領域の検出は、上記のように、異なる2つの近赤外波長域の光を顔面に照射した2枚の画像を取得し、2枚の画像から差分画像を演算することにより,背景に影響されることなく、顔領域だけが明るい画素値となる画像を取得できる。その後、画像の明るさにより、適切な閾値を設定して、顔領域を取り出す。この顔領域は輪郭やエッジでもよくまた最外郭でもよい。また、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出してもよい。 As described above, the face area is detected by acquiring two images obtained by irradiating the face with light of two different near-infrared wavelength regions and calculating a difference image from the two images, thereby obtaining a background image. It is possible to acquire an image in which only the face area has a bright pixel value without being affected by the above. Thereafter, an appropriate threshold is set according to the brightness of the image, and a face area is extracted. This face area may be a contour, an edge, or an outermost contour. Further, the head region of the driver may be extracted as an object by image processing such as template matching.
従って、ステップ122では、対象物の波長λ1、λ2での画素値V(λ1),V(λ2)を用いて、対象物の異なる波長における分光反射率の差を演算し、ステップ131において演算された差分値とデータベースに記憶されている既知の対象物の各部位の分光反射率データとを比較することで各画素に髪及び顔面(少なくとも肌)のいずれの属性を付与することができ、これにより対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別することができる。
Accordingly, in
次に、第3の実施の形態について説明する。本実施の形態は、第1光源のみオン(状態A)、第2光源のみオン(状態B)、2つの光源を共にオフ(状態C)の3つの状態を生じさせて対象物の各部位を判定するものである。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。 Next, a third embodiment will be described. In the present embodiment, three states of the first light source only (state A), only the second light source only on (state B), and two light sources both off (state C) are generated, and each part of the object is determined. Judgment. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.
まず、光源・カメラ制御装置16では、図9に示すように、第1光源10及び第2光源12を交互にオンさせて点灯する(第1光源がオンで第2光源がオフの状態を状態A、及び第1光源がオフで第2光源がオンの状態を状態B)と共に、交互に点灯した後第1光源10及び第2光源12をオフにして消灯する(状態C)ことを繰り返すように制御する。従って、2つの光源は、第1波長λ1の光のみ照射(状態A)、第2波長λ2の光のみ照射(状態B)、第1光源及び第2光源共にオフ(状態C)の3つの状態をとる。
First, as shown in FIG. 9, the light source /
また、状態A、状態B、及び状態Cの各々においてカメラにより対象物であるドライバの頭部が撮影されるように、第1光源10及び第2光源12のオンオフ制御に同期させてカメラのシャッタを開閉して対象物を撮影する。これにより、状態A、状態B、及び状態Cの各々において対象物の画像が撮影される。
Further, the camera shutter is synchronized with the on / off control of the
図10は、本実施形態における演算・判定装置20における処理を示す流れ図であり、ステップ100〜ステップ104の各々において状態Cか、状態Aか、状態Bかを判断する。ステップ100で状態Cと判断された場合には、ステップ110において状態Cでカメラで撮影された画像の画素値Vnを演算して画素値記憶装置18に記憶する。
FIG. 10 is a flowchart showing processing in the calculation /
また、ステップ102において状態Aと判断された場合には、ステップ112において状態Aでカメラで撮影された画像の各画素の画素値V(λ1)を演算して画素値記憶装置18に記憶し、ステップ104において状態Bと判断された場合には、ステップ114において状態Bでカメラで撮影された画像の各画素の画素値V(λ2)を演算して画素値記憶装置18に記憶する。
If it is determined in
次のステップ120では、状態Aと状態Cの各々による画像についての差分画像aの画素値を求めるために、状態Aの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ1)−Vn)を演算して各画素毎に記憶する。次に、ステップ124では、状態Bと状態Cの各々による画像についての差分画像bの画素値を求めるために、状態Bの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ2)−Vn)を演算して各画素毎に記憶する。このように状態A及び状態Bでの各画素値から状態Cでの画素値を減算することで、近赤外波長のみの分光強度による画素値(V(λ1)−Vn、V(λ2)−Vn)を得ることができる。以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。
In the
次のステップ126では、状態Aと状態Bの各々による画像についての差分画像の画素値を求めるために、ステップ120で求めた差分画像aの各画素の画素値V(λ1)と、ステップ124で求めた差分画像bの各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このように状態Aでの画素値から状態Bでの画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。
In the
そして、上記と同様にステップ131以降の処理によって、差分値(V(λ1)−V(λ2))の符号で各画素が髪及び肌のいずれの部位に属するかを判定し、顔領域として検出した後に、対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別する。
Then, in the same manner as described above, the process after
次に、第4の実施の形態について説明する。本実施の形態は、光源を用いることなく、近赤外波長域の光を含む通常光をカメラ側で第1波長λ1域の光と第2波長λ2域の光とに分割して撮影するようにしたものである。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。 Next, a fourth embodiment will be described. In the present embodiment, normal light including light in the near-infrared wavelength region is divided into light in the first wavelength λ1 region and light in the second wavelength λ2 region on the camera side without using a light source. It is a thing. In addition, since this embodiment is a structure substantially the same as the said embodiment, the same code | symbol is attached | subjected to the same part and detailed description is abbreviate | omitted.
本実施の形態には、図11に示すように、第1波長λ1域の光を通過させるバンドパスフィルタ14A(BPF_A)を備えたカメラ14、及び第2波長λ2域の光を通過させるバンドパスフィルタ15A(BPF_B)を備えたカメラ15が設けられている。なお、本実施の形態では、光源・カメラ制御16が光源を直接制御することないが、光源のオンオフ制御に同期に代えて所定の周波数に同期させてカメラのシャッタを開閉制御すると共にカメラ14,15を切り換える。すなわち、光源・カメラ制御16は、シャッタの切換及びカメラの切換が光源のオンオフ制御に対応する。
In this embodiment, as shown in FIG. 11, a
次に、本実施の形態の対象物の各部位を判定する処理ルーチンについて図12を参照して説明する。光源・カメラ制御手段によって所定周波数に同期してカメラのシャッタが開閉されると共にシャッタ開放側のカメラが対象のカメラとして切り換えられ、カメラ14による対象物の画像及びカメラ15による対象物の画像が撮影される。
Next, a processing routine for determining each part of the object according to the present embodiment will be described with reference to FIG. The shutter of the camera is opened and closed in synchronization with a predetermined frequency by the light source / camera control means, and the camera on the shutter opening side is switched as the target camera, and the image of the object by the
ステップ103では対象のカメラが第1カメラ14か否かを判断し、ステップ105では対象のカメラが第2カメラ15か否かを判断し、第1カメラ14の場合は、ステップ113において第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(A画像)の画素値を演算して記憶し、第2カメラ15の場合は、ステップ115において第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(B画像)の画素値を演算して記憶する。
In
次のステップ123では、第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(A画像)の各画素の画素値V(λ1)と第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(B画像)の各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このようにA画像の画素値からB画像での画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。
In the
そして、上記と同様にステップ131以降の処理によって、差分値(V(λ1)−V(λ2))の符号で各画素が髪及び肌のいずれの部位に属するかを判定し、顔領域として検出した後に、対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別する。
Then, in the same manner as described above, the process after
なお、本実施形態では、光軸が異なる2台のカメラ14,15を用いた一例を説明したが、本発明はこれに限定されるものではない。例えば、図13に示すように、同一光軸を複数に分岐してその分岐先でフィルタを挿入するようにしてもよい。図13では、対象物に対する光軸L上に3分岐プリズム13を挿入した一例である。対象物からの入射光は、3分岐プリズム13により3つの光軸に分岐される。この3分岐プリズムでは、第1分岐光軸は第1波長λ1域の光を通過させるバンドパスフィルタ14A(BPF_A)、第2分岐光軸は第2波長λ2域の光を通過させるバンドパスフィルタ15A(BPF_B)、そして第3分岐光軸は通常の可視波長域のフィルタ(図13ではRGB)へ向けて案内するようになっている。
In this embodiment, an example using two
次に、第5の実施の形態について説明する。本実施の形態は、単一の光源を用い、カメラ側で第1波長λ1域の光と第2波長λ2域の光とに分割して撮影するようにしたものである。本実施の形態は、図14に示すように、第4の実施の形態に光源11を設けたものである。本実施の形態の光源11としては第1波長λ1及び第2波長λ2を含む波長域の光を照射する単一の光源を用いている。なお、本実施形態は、上記実施形態とほぼ同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
Next, a fifth embodiment will be described. In the present embodiment, a single light source is used, and the camera side divides and shoots light in the first wavelength λ1 region and light in the second wavelength λ2 region. In this embodiment, as shown in FIG. 14, a
次に、本実施の形態の対象物の各部位を判定する処理ルーチンについて図14を参照して説明する。光源・カメラ制御手段によって光源11がオンオフ制御されると共に、光源のオンオフに同期してカメラのシャッタが開閉されると共にシャッタ開放側のカメラが対象のカメラとして切り換えられ、光源オン時のカメラ14による対象物の画像及びカメラ15による対象物の画像、そして光源オフ時の対象物の画像が撮影される。
Next, a processing routine for determining each part of the object of the present embodiment will be described with reference to FIG. The
ステップ101では光源がオンされたか否かを判断し、光源オンの場合は、対象が第1カメラ14か(ステップ103)、第2カメラ15か(ステップ105)否かを判断し、第1カメラ14の場合は第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(A画像)の画素値(ステップ113)、第2カメラ15の場合は第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(B画像)の画素値(ステップ115)を演算して記憶する。光源オフの場合は(ステップ101で肯定)、ステップ111において光源オフ時に第1波長のバンドパスフィルタ14Aを通過した光により得られた画像の画素値を演算して記憶すると共に、第2波長のバンドパスフィルタ15Aを通過した光により得られた画像の画素値を演算して記憶する。
In
次のステップ127では、第1波長のバンドパスフィルタ14Aを通過した光により得られた画像(a画像)の各画素の画素値V(λ1)と、ステップ125で求めた光源で対象物を照明しない状態を基準として第2波長のバンドパスフィルタ15Aを通過した光により得られた画像(b画像)の各画素の画素値V(λ2)との差分(V(λ1)−V(λ2))を演算して各画素毎に画素値記憶装置18に記憶する。このようにa画像の画素値からb画像での画素値を減算することで、第1波長及び第2波長の間の分光強度による画素値を得ることができ、外乱光の影響を除去することができる。以上の処理を行なうことにより、外乱光の影響を除去すると共に異なる2つの波長域の光源で対象物を照明したときの相対的な状態を基準として各画素の画素値が演算される。
In the
そして、上記と同様にステップ131以降の処理によって、差分値(V(λ1)−V(λ2))の符号で各画素が髪及び肌のいずれの部位に属するかを判定し、顔領域として検出した後に、対象物の各部位が髪及び顔面(少なくとも肌)のいずれであるかを判別する。
Then, in the same manner as described above, the process after
以上説明したように、上記の各実施の形態によれば、外乱光に影響されることなくドライバの髪や肌、特に男性特有の髭の各部位を正確に判定することができる。従って、性別判定に特に有効である。 As described above, according to each of the above-described embodiments, it is possible to accurately determine each part of a driver's hair and skin, particularly a man-specific wrinkle, without being affected by ambient light. Therefore, it is particularly effective for gender determination.
10 第1光源
11 光源
12 第2光源
14 カメラ
15 カメラ
16 光源・カメラ制御装置
18 記憶装置
DESCRIPTION OF
Claims (12)
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
前記第1光量の光による照明状態で撮影した対象物の画像の画素値と、前記第2光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、
を含む対象物の部位判別装置。 Illumination means for irradiating light in the near-infrared wavelength region;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
Photographing means for photographing the object in synchronization with the light amount control of the control means;
An arithmetic means for calculating a difference between a pixel value of an image of an object photographed in an illumination state with the first light amount of light and a pixel value of an object image photographed in an illumination state of the second light amount of light;
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
A setting means for setting a predetermined partial area predicted to include a hair root as a search area for the face area detected by the detection means;
For the set search region in the setting unit obtains a specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, calculating said specific region is calculated the ratio indicating the percentage of the search area Means,
A discriminating means for discriminating the specific area of the object as a predetermined part where hair follicles concentrate in a face area when the ratio is equal to or higher than a predetermined ratio based on the ratio calculated by the calculating means;
Discriminating device for an object including
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、
を含む対象物の部位判別装置。 Illuminating means for irradiating light in a first wavelength range and light in a second wavelength range different from the first wavelength range;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
Photographing means for photographing the object in synchronization with the light amount control of the control means;
The pixel value of the image of the object imaged in the illumination state with the first light amount light in the first wavelength range and the pixel value of the image of the object imaged in the illumination state with the first light amount light in the second wavelength region Computing means for computing the difference between
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
A setting means for setting a predetermined partial area predicted to include a hair root as a search area for the face area detected by the detection means;
For the set search region in the setting unit obtains a specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, calculating said specific region is calculated the ratio indicating the percentage of the search area Means,
A discriminating means for discriminating the specific area of the object as a predetermined part where hair follicles concentrate in a face area when the ratio is equal to or higher than a predetermined ratio based on the ratio calculated by the calculating means;
Discriminating device for an object including
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
第1の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第1の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第1の差、及び第2の波長域の第1光量の光による照明状態で撮影した対象物の画像の画素値と、第2の波長域の第2光量の光による照明状態で撮影した対象物の画像の画素値との第2の差を演算しかつ前記第1の差と第2の差の差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、
を含む対象物の部位判別装置。 Illuminating means for irradiating light in a first wavelength range and light in a second wavelength range different from the first wavelength range;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
Photographing means for photographing the object in synchronization with the light amount control of the control means;
The pixel value of the image of the object imaged in the illumination state with the first light amount light in the first wavelength range and the pixel value of the image of the object imaged in the illumination state with the second light amount light in the first wavelength range The pixel value of the image of the object imaged in the illumination state with the first light amount in the second wavelength range and the illumination state in the illumination state with the second light amount in the second wavelength region Calculating means for calculating a second difference between the pixel value of the image of the target object and calculating a difference between the first difference and the second difference;
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
A setting means for setting a predetermined partial area predicted to include a hair root as a search area for the face area detected by the detection means;
For the set search region in the setting unit obtains a specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, calculating said specific region is calculated the ratio indicating the percentage of the search area Means,
Based on the ratio calculated by the calculation means, a determination means for determining the specific area of the object as a predetermined part where hair follicles concentrate in a face area when the ratio is equal to or higher than a predetermined ratio ;
Discriminating device for an object including
前記第1のフィルタの透過光により撮影または前記第2のフィルタの透過光により撮影されるように、前記撮影手段を切換制御する制御手段と、
第1のフィルタの透過光により撮影した対象物の画像の画素値、及び第2のフィルタの透過光により撮影した対象物の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、
を含む対象物の部位判別装置。 An imaging means comprising a first filter that transmits light in a first wavelength range, and a second filter that transmits light in a second wavelength range different from the first wavelength range;
Control means for switching and controlling the photographing means so as to be photographed by the transmitted light of the first filter or photographed by the transmitted light of the second filter;
A computing means for computing a difference between a pixel value of the image of the object photographed by the transmitted light of the first filter and a pixel value of the image of the object photographed by the transmitted light of the second filter;
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
A setting means for setting a predetermined partial area predicted to include a hair root as a search area for the face area detected by the detection means;
For the set search region in the setting unit obtains a specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, calculating said specific region is calculated the ratio indicating the percentage of the search area Means,
A discriminating means for discriminating the specific area of the object as a predetermined part where hair follicles concentrate in a face area when the ratio is equal to or higher than a predetermined ratio based on the ratio calculated by the calculating means;
Discriminating device for an object including
前記照明手段を予め定めた第1光量の光及び前記第1光量未満の第2光量の光の各々が照射されるように光量制御する制御手段と、
第1の波長域の光を透過する第1のフィルタ、及び第1の波長域と異なる第2の波長域の光を透過する第2のフィルタを備えかつ、前記制御手段の光量制御に同期して対象物を撮影する撮影手段と、
前記照明手段から第1光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第1のフィルタの透過光により撮影した対象物の画像の画素値との第1の差、及び前記照明手段から第1光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値と、前記照明手段から第2光量の光による照射状態で第2のフィルタの透過光により撮影した対象物の画像の画素値との第2の差を演算し、かつ前記第1の差と第2の差の差を演算する演算手段と、
前記演算手段で演算された差に基づいて、前記対象物の肌領域及び前記対象物の顔領域を検出する検出手段と、
前記検出手段で検出された顔領域について毛根を含むことが予測される予め定めた一部の領域を探索領域として設定する設定手段と、
前記設定手段で設定された探索領域内について、前記肌領域の画素値と異なる画素値を有する画素からなる特定領域を求め、前記特定領域が前記探索領域に占める割合を示す比率を算出する算出手段と、
前記算出手段で算出された比率に基づいて、該比率が予め定めた比率以上のときに前記対象物の前記特定領域を顔領域内における毛根が集中する所定部位として判別する判別手段と、
を含む対象物の部位判別装置。 Illumination means for irradiating light in a wavelength range including the first wavelength range and the second wavelength range;
Control means for controlling the amount of light so that the illumination means is irradiated with each of a predetermined first amount of light and a second amount of light less than the first amount of light;
A first filter that transmits light in the first wavelength range; and a second filter that transmits light in a second wavelength range different from the first wavelength range; and synchronized with the light amount control of the control means. Photographing means for photographing the object,
The pixel value of the image of the object photographed with the transmitted light of the first filter in the irradiation state with the first light amount from the illumination unit, and the first filter in the irradiation state with the second light amount from the illumination unit. The first difference from the pixel value of the image of the object photographed with the transmitted light, and the pixel value of the image of the object photographed with the transmitted light of the second filter in the irradiation state with the first amount of light from the illumination means And the second difference between the pixel value of the image of the object photographed by the transmitted light of the second filter in the irradiation state with the second light amount from the illumination means, and the first difference and the first difference Computing means for computing the difference between the two,
Detecting means for detecting a skin area of the object and a face area of the object based on the difference calculated by the calculating means;
A setting means for setting a predetermined partial area predicted to include a hair root as a search area for the face area detected by the detection means;
For the set search region in the setting unit obtains a specific region consisting of pixels having pixel values different from a pixel value before yellowfin region, calculating said specific region is calculated the ratio indicating the percentage of the search area Means,
A discriminating means for discriminating the specific area of the object as a predetermined part where hair follicles concentrate in a face area when the ratio is equal to or higher than a predetermined ratio based on the ratio calculated by the calculating means;
Discriminating device for an object including
前記判別手段の判別結果として前記特定領域を毛根が集中する所定部位と判別したとき、前記特定領域が前記探索領域に占める割合を示す比率について人物の性別に対応する比率を予め記憶した記憶手段から読み出した性別に対応する比率と、前記算出手段の算出結果の比率とから、人物の性別を判定する判定手段を含む対象物の性別判定装置。 A part discriminating device according to any one of claims 1 to 11, comprising:
When the specific area is determined as a predetermined part where hair follicles are concentrated as a determination result of the determination means, from a storage means that stores in advance a ratio corresponding to the gender of the person with respect to the ratio indicating the ratio of the specific area to the search area sex determination device object including the ratio from the ratio of the calculation result of the calculating means, a judgment means for judging sex of the person object corresponding to the read gender.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006199892A JP4819606B2 (en) | 2006-07-21 | 2006-07-21 | Device part discrimination device and gender judgment device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006199892A JP4819606B2 (en) | 2006-07-21 | 2006-07-21 | Device part discrimination device and gender judgment device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008027242A JP2008027242A (en) | 2008-02-07 |
JP4819606B2 true JP4819606B2 (en) | 2011-11-24 |
Family
ID=39117808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006199892A Expired - Fee Related JP4819606B2 (en) | 2006-07-21 | 2006-07-21 | Device part discrimination device and gender judgment device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4819606B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4888838B2 (en) | 2008-05-12 | 2012-02-29 | トヨタ自動車株式会社 | Driver imaging device and driver imaging method |
JP5018653B2 (en) * | 2008-06-04 | 2012-09-05 | 株式会社豊田中央研究所 | Image identification device |
JP4666062B2 (en) | 2008-11-17 | 2011-04-06 | 株式会社デンソー | Image photographing apparatus and method |
JP5179338B2 (en) * | 2008-12-19 | 2013-04-10 | パナソニック株式会社 | Imaging device |
JP5156617B2 (en) * | 2008-12-26 | 2013-03-06 | 日本システムウエア株式会社 | Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program |
JP5519381B2 (en) | 2010-04-09 | 2014-06-11 | トヨタ自動車株式会社 | Spectrum measuring device |
JP5060580B2 (en) | 2010-04-09 | 2012-10-31 | トヨタ自動車株式会社 | Spectrum measuring device |
JP2012063824A (en) | 2010-09-14 | 2012-03-29 | Sony Corp | Information processing equipment, information processing method and program |
US8520074B2 (en) * | 2010-12-14 | 2013-08-27 | Xerox Corporation | Determining a total number of people in an IR image obtained via an IR imaging system |
JP5988093B2 (en) * | 2012-07-30 | 2016-09-07 | 株式会社豊田中央研究所 | Image processing apparatus, object identification apparatus, and program |
KR102251374B1 (en) | 2014-08-18 | 2021-05-12 | 삼성전자주식회사 | Image sensing apparatus and operating method thereof |
JP2019139433A (en) * | 2018-02-08 | 2019-08-22 | 株式会社アサヒ電子研究所 | Face authentication apparatus, face authentication method, and face authentication program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7076088B2 (en) * | 1999-09-03 | 2006-07-11 | Honeywell International Inc. | Near-infrared disguise detection |
JP4483067B2 (en) * | 2000-10-24 | 2010-06-16 | 沖電気工業株式会社 | Target object extraction image processing device |
WO2005070301A1 (en) * | 2004-01-22 | 2005-08-04 | Nihondensikougaku Co., Ltd. | Male/female distinguishing means |
-
2006
- 2006-07-21 JP JP2006199892A patent/JP4819606B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008027242A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4819606B2 (en) | Device part discrimination device and gender judgment device | |
US20210334526A1 (en) | Living body detection device, living body detection method, and recording medium | |
JP4442472B2 (en) | Device part identification device | |
US8983151B2 (en) | Apparatus for recognizing face based on environment adaptation | |
TWI539386B (en) | The use of a variety of physiological information mixed identification of the identity of the system and methods | |
RU2331107C2 (en) | Method of identification through iris and device for implementing this method | |
KR101286454B1 (en) | Fake face identification apparatus and method using characteristic of eye image | |
JP3869545B2 (en) | Finger feature pattern feature detection device and personal identification device | |
KR100743780B1 (en) | Biometric identification device, authentication device using same, and biometric identification method | |
JP2022111340A (en) | Biological authentication device and biological authentication method | |
KR100983346B1 (en) | System and method for recognition faces using a infra red light | |
US8965068B2 (en) | Apparatus and method for discriminating disguised face | |
KR102317180B1 (en) | Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information | |
JP2012113687A (en) | Method of authenticating driver's face in vehicle | |
KR101123834B1 (en) | Method and camera device for determination of photograph cheating using controllable ir light | |
JP5018653B2 (en) | Image identification device | |
EP3572975B1 (en) | A multispectral image processing system for face detection | |
CN105320932B (en) | Iris recognition terminal and method | |
JP2007516525A (en) | Method and system for facial image acquisition and identification | |
US20080304716A1 (en) | Face recognition device | |
US10650225B2 (en) | Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus | |
KR101919090B1 (en) | Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information | |
CN108710844B (en) | Authentication method and device for detecting face | |
CN108388858B (en) | Iris anti-fake method and device | |
KR20170116530A (en) | Apparatus and Method for Recognizing Fake Fingerprint Using Wave Length of Light |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110901 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140909 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140909 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |