JP4442472B2 - Device part identification device - Google Patents
Device part identification device Download PDFInfo
- Publication number
- JP4442472B2 JP4442472B2 JP2005062745A JP2005062745A JP4442472B2 JP 4442472 B2 JP4442472 B2 JP 4442472B2 JP 2005062745 A JP2005062745 A JP 2005062745A JP 2005062745 A JP2005062745 A JP 2005062745A JP 4442472 B2 JP4442472 B2 JP 4442472B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- wavelength range
- wavelength
- pixel value
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
Description
本発明は、対象物の部位判別装置にかかり、特に、太陽光等の外乱光に影響されることなくドライバの頭部等の対象物の肌、髪、眼球等の部位を区別して判定することができる対象物の部位判別装置に関する。 The present invention relates to a region determination device for an object, and in particular, distinguishes and determines a region such as skin, hair, and eyeball of an object such as a driver's head without being affected by ambient light such as sunlight. The present invention relates to a part discriminating apparatus for an object that can be used.
特許文献1には、近赤外線スペクトルの上方帯域の光で人口材料で偽装した人物を検出する偽装検出器が開示されている。この偽装検出器では、近赤外線スペクトルの上方帯域である少なくとも1400nm以上の波長域の光を使用している。しかしながら、通常用いられるシリコン半導体で構成された撮像素子では1400nm以上に感度は有していないため、別の素材(例えばガリウム砒素)で構成された撮像素子を用いる必要がある。従って、ガリウム砒素を用いた近赤外上方帯域用カメラとシリコンを用いた近赤外下方帯域用カメラの2台のカメラが必要となり、経済性及び車両搭載性の点で車載で使用するには問題がある。
特許文献2には、光源で照明された物体からの中心波長が970nm付近の部分波長帯の強度を測定し、予め求めた検知対象物体の分光強度の特徴と比較することにより、生体物を検知する生体物検知装置が記載されている。特許文献2ではシリコン半導体で構成された撮像素子が有する感度に含まれる中心波長が970nm付近の部分波長帯の強度を測定してるので、特許文献1で発生する問題を解消することが可能である。
In Patent Document 2, a biological object is detected by measuring the intensity of a partial wavelength band whose center wavelength is around 970 nm from an object illuminated by a light source and comparing it with the characteristic of spectral intensity of a detection target object obtained in advance. A living body detection device is described. In Patent Document 2, since the intensity of a partial wavelength band in which the center wavelength included in the sensitivity of an imaging element made of a silicon semiconductor is around 970 nm is measured, it is possible to solve the problem that occurs in
また、特許文献3には、メタリックペア印刷物に波長1及び波長2の近赤外線を透光し、フォトダイオードで反射光を受光し、メタリックインキである第1及び第2インキの近赤外線領域の性質を利用して真正なメタリックペア印刷物であるか否かを判別する判別方法が記載されている。特許文献3では2種類の波長の光源を使用しているが、各々の波長で反射率の異なる特殊なインクを対象としているため、車両のドライバ等の乗員の検出には使用することができず、判別可能な対象物が限定される。
しかしながら、上記特許文献1〜特許文献3のいずれにも外乱光に対する対策がなされておらず、外乱光が影響する環境下では対象物の材質等を判別して対象物の各部位を判別することが困難である、という問題がある。例えば、自動車のウィンドシールド及びサイド・ウィンドウは、1000nm(1.0ミクロン)以下の領域ではかなりの量の近赤外光が透過する赤外線透過特性を有しており、透過した太陽光等の近赤外線が外乱光として作用する。強度等が未知の外乱光が存在する状況では、対象物からの分光強度を予め記憶領域に保持しておくことはできず、車載環境で対象物の各部位を判別するためには太陽光等の外乱光の影響を除去する工夫が必要となる。
However, none of the
本発明は、上記問題を解決すべく成されたもので、外乱光に影響されることなく対象物の各部位を判別することができる対象物の判別装置を提供することを目的とする。 The present invention has been made to solve the above problem, and an object of the present invention is to provide an object discriminating apparatus that can discriminate each part of an object without being affected by ambient light.
上記目的を達成するために本発明は、近赤外領域の第1の波長域の光及び近赤外領域の第1の波長域と異なる第2の波長域の光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部を撮影する撮影手段と、第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成されている。 To accomplish the above object, irradiated with light of a first wavelength band different from a second wavelength range of the light and near-infrared region of the first wavelength range in the near infrared region to the human head An illuminating means, a control means for controlling on / off of the illuminating means, an imaging means for photographing the head of the person in synchronization with the on / off control of the control means, and a state illuminated with light in the first wavelength range the difference between the pixel values of the captured the person's head of an image pixel value and the lighting means from the person's head light taken in a state of not being irradiated image, and the second wavelength region light calculating means for light pixel values of the image of the person's head taken in the illuminated state from the illumination means for calculating a difference between the pixel values of the image of the person's head taken in a state of not being irradiated , the magnitude relation of the calculated difference by the calculating means, or the magnitude relationship and the difference between the calculated difference Min based, and is configured to include a discriminating means for discriminating each site including skin of the person's head, eye, and at least one of the hair.
本発明では、人の頭部に外乱光が照射された状態で撮影した人の頭部の画像の画素値に対応する照明手段から光が照射されていない状態で撮影した人の頭部の画像の画素値を用い、第1の波長域の光で照明した状態で撮影した人の頭部の画像の画素値と照明手段から光が照射されていない状態で撮影した人の頭部の画像の画素値との差、及び第2の波長域の光で照明した状態で撮影した人の頭部の画像の画素値と照明手段から光が照射されていない状態で撮影した人の頭部の画像の画素値との差に基づいて、人の頭部の各部位を判別しているため、外乱光に影響されることなく人の頭部の各部位を判別することができる。
人の頭部が外乱光によって照明されていない場合には、人の頭部に外乱光が照射された状態で撮影した人の頭部の画像の画素値は必要性が少ないので、本発明では照明手段から光が照射されていない状態が発生する頻度が所定値以下になるように、例えば照明手段から光が照射されていない状態が発生しないようにすることができる。
In the present invention, the person's head where the light from the illumination means is captured in a state of not being irradiated the head to disturbance light person corresponding to the pixel values of the image of the head of the person photographed while being irradiated image of using the pixel values, the first person light from the pixel value and the illumination means human head images taken while illuminated with light in a wavelength range were taken in a state of not being irradiated in the head of the image the difference between the pixel value, and the second wavelength region who light from the pixel value and the illumination means human head images taken while illuminated with light was taken in a state of not being irradiated in the head of the image Since each part of the human head is discriminated based on the difference from the pixel value, each part of the human head can be discriminated without being affected by ambient light .
If the person's head is not illuminated by ambient light, since disturbance light into the human's head pixel values of the image of the head of the person photographed while being irradiated it is less need, in the present invention For example, it is possible to prevent a state in which no light is emitted from the illumination unit from occurring, so that the frequency in which the state in which the illumination unit is not irradiated with light is equal to or less than a predetermined value.
本発明では、人の頭部に外乱光が照射された状態で撮影した人の頭部の画像の画素値に対応する画素値として、分光反射率が既知の物体を撮影したときの画像の画素値を用い、近赤外領域の第1の波長域の光及び近赤外領域の第1の波長域と異なる第2の波長域の光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を撮影する撮影手段と、第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値、第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、及び第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値を演算する演算手段と、前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成してもよい。 In the present invention, as a pixel value corresponding to pixel values of the image of the head of the person photographed in a state where disturbance light is irradiated on the human head, the pixels of the image when the spectral reflectance was taken known object Lighting means for irradiating a human head with light in a first wavelength region in the near infrared region and light in a second wavelength region different from the first wavelength region in the near infrared region , using the value, and the illumination Control means for on / off control of the means , and the spectral reflectance of each of the human head and the light in the first wavelength range and the light in the second wavelength range in synchronization with the on / off control of the control means Is taken with a photographing means for photographing a known object, a pixel value of an image of the human head photographed with light in the first wavelength range, and illuminated with light in the first wavelength range pixel values of the image of the object, pixel values of the second of the person of the head of the image photographed in a state of being illuminated with light in the wavelength range, and A calculating means for calculating a pixel value of an image of the object taken in a state of being illuminated by a second wavelength region light, the calculated calculation result in the calculating means, and the light of the first wavelength region of the object Based on the ratio of the spectral reflectance in the first wavelength region and the second wavelength region of the human head, which is calculated based on the spectral reflectance of each of the light in the second wavelength region. And discriminating means for discriminating each part including at least one of the skin, eyeball, and hair of the human head .
この場合、判別手段は、前記演算手段で演算された第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値と第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値とが同一になるように前記照明手段を調整し、前記照明手段を調整した後に得られた第1の波長域の光で照明した状態で撮影した人の頭部の画像の画素値と第2の波長域の光で照明した状態で撮影した人の頭部の画像の画素値とに基づいて、前記人の頭部の各部位を判別するようにすることができる。 In this case, the discriminating means is photographed with the pixel value of the image of the object photographed in the state illuminated with the light of the first wavelength range calculated by the computing means and the light illuminated with the light of the second wavelength range. The illumination means is adjusted so that the pixel values of the image of the object are the same, and the head of a person photographed in a state illuminated with light of the first wavelength band obtained after adjusting the illumination means Each part of the person's head can be determined based on the pixel value of the image and the pixel value of the image of the person's head photographed in a state illuminated with light in the second wavelength range. .
また、第1の波長域の光及び第2の波長域の光を照射する照明手段に代えて、第1の波長域及び第2の波長域を含む波長域の光を照射する照明手段を用い、近赤外領域の第1の波長域及び第2の波長域を含む光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成してもよい。 Further, instead of the illumination means for irradiating the light in the first wavelength range and the light in the second wavelength range, an illumination means for irradiating light in the wavelength range including the first wavelength range and the second wavelength range is used. Illuminating means for irradiating a person's head with light including the first wavelength region and the second wavelength region in the near-infrared region, control means for controlling on / off of the illumination means, and on / off control of the control means In synchronism, the human head is divided into light having a first wavelength range and a second wavelength range different from the first wavelength range, and an imaging unit that divides the head into light of the first wavelength range. the difference between the pixel values of the captured the person's head of an image pixel value and said illuminating means off state in the person's head divided for shooting the first wavelength region light image, and the in a state in which the pixel value of the person's head of an image divided and photographed to light of the second wavelength region and to turn off the illuminating means divided into a second wavelength region light A calculating means for calculating a difference between the pixel value of the person's head images captured Te, magnitude relation of the calculated difference by the arithmetic unit, or to the difference of the magnitude relationship and the difference between the calculated difference And a discriminating means for discriminating each part including at least one of the skin, eyeball, and hair of the person's head .
また、近赤外領域の第1の波長域及び第2の波長域を含む光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値、前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記物体の画像の画素値、第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値、及び前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記物体の画像の画素値を演算する演算手段と、前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成することも可能である。 Further, illumination means for irradiating a human head with light including the first wavelength region and the second wavelength region in the near infrared region, control means for controlling on / off of the illumination means, and on / off control of the control means In synchronization with the human head, an object having a known spectral reflectance of each of the light in the first wavelength range and the light in the first wavelength range is changed to the first wavelength range and the first wavelength. The photographing means for dividing and photographing the light in the second wavelength range different from the region, the pixel value of the human head image photographed by dividing the light in the first wavelength range, the illumination means turned off The pixel value of the image of the object taken by dividing into light of the first wavelength region in the state, the pixel value of the image of the human head taken by dividing into light of the second wavelength region, and the illumination Computing means for computing a pixel value of the image of the object taken by dividing the light into the second wavelength region with the means turned off; The calculated operation result in stages, and is calculated based on each of the spectral reflectance of the light of the light with the second wavelength band of the first wavelength region of the object, said of the person's head Discrimination means for discriminating each part including at least one of skin, eyeballs, and hair of the human head based on a ratio of spectral reflectances in the first wavelength range and the second wavelength range; It is also possible to include it.
本発明の照明手段から、800nm〜1100nmの近赤外領域の光を照射するようにすることが効果的であり、この場合、第1の波長域を800nm〜970nmの間の波長域とし、第2の波長域を970nm〜1100nmの間の波長域とするのが好ましい。 It is effective to irradiate light in the near infrared region of 800 nm to 1100 nm from the illumination means of the present invention. In this case, the first wavelength region is set to a wavelength region between 800 nm to 970 nm, The wavelength range of 2 is preferably a wavelength range between 970 nm and 1100 nm.
以上説明したように本発明によれば、外乱光に影響されることなく人の頭部の各部位を判別することができるという効果がえられる。 As described above, according to the present invention, it is possible to determine each part of the human head without being affected by disturbance light.
以下、図面を参照して、本発明をドライバの頭部の各部位を判別する車両用の判別装置に適用した実施の形態について詳細に説明する。第1の実施の形態には、図1に示すように、第1波長λ1域の光を照射するLED等で構成された照明手段である第1光源10、及び第2波長λ2域の光を照射するLED等で構成された照明手段である第2光源12から構成された照明装置と、照明装置で照明された対象物等を撮影するCCDカメラ等で構成されたカメラ14が設けられている。
Hereinafter, an embodiment in which the present invention is applied to a vehicle discriminating device that discriminates each part of a driver's head will be described in detail with reference to the drawings. In the first embodiment, as shown in FIG. 1, the
第1光源10、第2光源12、及びカメラ14は、第1光源10及び第2光源12のオンオフ制御に同期させてカメラのシャッタを開閉制御する光源・カメラ制御16に接続されている。
The
また、カメラ14には、カメラで撮影された画像の各画素の画像濃度値等の画素値を記憶するメモリで構成された画素値記憶装置18、及び以下で説明する処理ルーチンに従って演算された画素値の差及びデータベース22に記憶されている反射率データに基づいて対象物の各部位が何であるかを判定する演算・判定装置20に接続されている。
Further, the
なお、光源・カメラ制御装置16及び演算・判定装置20は、各々コンピュータで構成することができるが、1つのコンピュータで構成するようにしてもよい。
Note that the light source /
上記のCCDとしては、近赤外域に感度を有するXC−E150(ソニー(株)製、商品名)を使用している。このCCDは、図2に示すように、400nm〜1000nmの波長域に感度を有している。 As the CCD, XC-E150 (trade name, manufactured by Sony Corporation) having sensitivity in the near infrared region is used. As shown in FIG. 2, the CCD has sensitivity in a wavelength range of 400 nm to 1000 nm.
本実施の形態において、対象物を車両のドライバの頭部としてドライバの肌、髪、及び眼球の各部位を検出する場合を例に説明する。図3は肌の分光反射率、図4は髪の分光反射率、図5は眼球の分光透過率分布を示すものである。図3の符号33は、明るい肌の人物の分光反射率、34は暗い肌の人物の分光反射率である。肌の分光反射率及び髪の分光反射率について、波長880nmと970nmの分光反射率を比較すると、以下の関係になる。
In the present embodiment, a case will be described as an example in which each part of the driver's skin, hair, and eyeball is detected using the object as the head of the driver of the vehicle. 3 shows the spectral reflectance of the skin, FIG. 4 shows the spectral reflectance of the hair, and FIG. 5 shows the spectral transmittance distribution of the eyeball.
・肌:880nmでの反射率>970nmでの反射率
・髪:880nmでの反射率<970nmでの反射率
分光透過率については、分光反射率=1.0−(分光透過率)の関係にあるため、眼球の波長880nmと970nmの分光反射率に関しては以下の関係になる。
-Skin: reflectivity at 880 nm> reflectivity at 970 nm-Hair: reflectivity at 880 nm <reflectance at 970 nm For spectral transmittance, spectral reflectance = 1.0-(spectral transmittance) For this reason, the spectral reflectance of the eyeballs at wavelengths of 880 nm and 970 nm has the following relationship.
・眼球:880nmでの反射率<970nmでの反射率
(880nmでの透過率>970nmでの透過率)
従って、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出し、撮像した画像の画素値を880nmと970nmの各々の波長において比較することで、頭部領域の中の肌、髪、及び眼球の各部位を判別することが可能となる。
Eyeball: reflectivity at 880 nm <reflectance at 970 nm
(Transmittance at 880 nm> Transmittance at 970 nm)
Therefore, the head region of the driver is extracted as an object by image processing such as template matching, and the pixel value of the captured image is compared at each wavelength of 880 nm and 970 nm, so that the skin and hair in the head region can be compared. And each part of the eyeball can be discriminated.
なお、波長については、880nm及び970nmに限定する必要はないが、以下の条件を満たす必要がある。 The wavelength need not be limited to 880 nm and 970 nm, but the following conditions must be satisfied.
第1に、近赤外領域の光を用いることである。この理由は、車載で運転中に使用する場合には、運転者の気を散らさないために不可視光でドライバの顔を照明することになるが、紫外領域の光を用いると眼に害を与えるおそれがあり望ましくないからである。 The first is to use light in the near infrared region. The reason for this is that when used while driving in a vehicle, the driver's face is illuminated with invisible light in order not to distract the driver, but using ultraviolet light will harm the eyes. This is because there is a fear and it is not desirable.
第2に、1100nm以下の波長の光を用いることである。この理由は、コスト、信頼性、及び応答性の点で優れているシリコン半導体で構成された撮像素子は、図2に例示したように1107nmまでの波長にしか感度を有さないからである。 Secondly, light having a wavelength of 1100 nm or less is used. The reason for this is that an imaging device made of a silicon semiconductor that is excellent in terms of cost, reliability, and responsiveness has sensitivity only to wavelengths up to 1107 nm as illustrated in FIG.
第3に、2つの波長λ1、λ2における反射率が、肌、髪、及び眼球の各々で異なることである。また、可視領域近傍の波長の光を照射する照明装置を用いると、光が可視領域に漏れる可能性があること、撮像素子の感度が1000nm以上では殆ど無いことも考慮する必要がある。 Third, the reflectance at the two wavelengths λ1 and λ2 is different for each of skin, hair, and eyeball. In addition, when an illumination device that irradiates light having a wavelength in the vicinity of the visible region is used, it is necessary to consider that light may leak into the visible region and that the sensitivity of the image sensor is almost not 1000 nm or more.
特に、眼球の反射率が970nmを境に急激に変化していることから眼球の検出を行うには、970nm以上の光と970nm未満の光を照射するのが好ましく、本実施の形態では、970nm以上の光(波長λ1の光)を照射する第1光源と970nm未満の光(波長λ2の光)を照射する第2光源の2つの照明装置を用いている。 In particular, since the reflectance of the eyeball changes abruptly around 970 nm, in order to detect the eyeball, it is preferable to irradiate light of 970 nm or more and light of less than 970 nm. In this embodiment, 970 nm Two illumination devices are used: a first light source that emits the above light (light with a wavelength λ1) and a second light source that emits light with a wavelength less than 970 nm (light with a wavelength λ2).
また、本実施の形態では、データベース22に、図3及び図4に示した分光反射率分布のデータ、及び図5の分光透過率分布を分光反射率分布に変換したデータが予め記憶されている。
In the present embodiment, the
次に、本実施の形態の演算・判定装置で実行される頭部の各部位を判別する処理について説明する。 Next, processing for determining each part of the head executed by the calculation / determination device of the present embodiment will be described.
まず、光源・カメラ制御装置16では、図6に示すように、第1光源10及び第2光源12を交互にオンさせて点灯する(第1光源がオンで第2光源がオフの状態を状態A、及び第1光源がオフで第2光源がオンの状態を状態B)と共に、交互に点灯した後第1光源10及び第2光源12をオフにして消灯する(状態C)ことを繰り返すように制御する。従って、2つの光源は、第1波長λ1の光のみ照射(状態A)、第2波長λ2の光のみ照射(状態B)、第1光源及び第2光源共にオフ(状態C)の3つの状態をとる。
First, in the light source /
また、状態A、状態B、及び状態Cの各々においてカメラにより対象物であるドライバの頭部が撮影されるように、第1光源10及び第2光源12のオンオフ制御に同期させてカメラのシャッタを開閉して対象物を撮影する。これにより、状態A、状態B、及び状態Cの各々において対象物の画像が撮影される。
Further, the camera shutter is synchronized with the on / off control of the
図7は、演算・判定装置20における処理を示す流れ図であり、ステップ100〜ステップ104の各々において状態Cか、状態Aか、状態Bかを判断する。ステップ100で状態Cと判断された場合には、ステップ106において状態Cでカメラで撮影された画像の画素値Vnを演算して画素値記憶装置18に記憶する。
FIG. 7 is a flowchart showing the processing in the calculation /
また、ステップ102において状態Aと判断された場合には、ステップ108において状態Aでカメラで撮影された画像の各画素の画素値V(λ1)を演算して画素値記憶装置18に記憶し、次のステップ110において状態Aの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ1)−Vn)を演算して各画素毎に記憶する。このように状態Aでの画素値から状態Cでの画素値を減算することで、第1波長のみの分光強度による画素値(V(λ1)−Vn)を得ることができ、外乱光の影響を除去することができる。
If it is determined in
そして、ステップ104において状態Bと判断された場合には、ステップ112において状態Bでカメラで撮影された画像の各画素の画素値V(λ2)を演算して画素値記憶装置18に記憶し、次のステップ114において状態Bの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ2)−Vn)を演算して各画素毎に記憶する。上記と同様に、状態Bでの画素値から状態Cでの画素値を減算することで、第2波長のみの分光強度による画素値(V(λ2)−Vn)を得ることができ、外乱光の影響を除去することができる。
If the state B is determined in
以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。 By performing the above processing, the pixel value of each pixel is calculated on the basis of the state where the object is not illuminated with the light source.
光源の明るさはあらかじめ分かっているので、データベースに状態A、状態Bの時の肌、髪、眼の画素値の大小関係を記憶しておくことができる。データベースと各画素の差(V(λ1)−Vn)の値と差(V(λ2)−Vn)の値とを比較することで、各画素が髪、肌、眼球のいずれに属するかを判定することができる。 Since the brightness of the light source is known in advance, the magnitude relationship among the pixel values of the skin, hair, and eyes in the state A and the state B can be stored in the database. By comparing the difference between the database and each pixel (V (λ1) −Vn) and the difference (V (λ2) −Vn), it is determined whether each pixel belongs to hair, skin, or eyeball. can do.
ステップ116では、各画素毎にデータベースに記憶された分光反射率の分布と差(V(λ1)−Vn)、差(V(λ2)−Vn)とを比較して、各画素が髪、眼球、及び肌のいずれの部位に属するかを判定する。例えば、差(V(λ1)−Vn)<差(V(λ2)−Vn)で差(V(λ1)−Vn)と差(V(λ2)−Vn)との差が小さければ肌に属し、大きければ眼球に属す判断し、差(V(λ1)−Vn)>差(V(λ2)−Vn)であれば髪に属すと判断することができ、各画素に判断した属性を与える。そして、ステップ118において各画素毎に与えられた属性を出力する。
In
以上のように、各画素毎に対象物のどの部位に属しているかが判断されるので、対象物の各部位を判断することができる。 As described above, since it is determined which part of the target object belongs to each pixel, each part of the target object can be determined.
なお、上記では、光源・カメラ制御装置16によって、光源のオンオフに同期させてカメラのシャッタを開閉する例について説明したが、図8に示されるように、カメラのシャッタを開閉させる信号に同期させて第1光源及び第2光源をオンオフ制御するようにしてもよい。
In the above description, the example in which the light source /
次に第2の実施の形態について説明する。本実施の形態は、2つの光源に状態Cを生じさせることなく、第1光源のみオン(状態A)、第2光源のみオン(状態B)の2つの状態を生じさせて対象物の各部位を判定するものである。第1光源及び第2光源は、図9に示すように交互に発光させた2つの光源に同期して、カメラのシャッタを開閉させるか、または図10に示すように制御手段16によってカメラのシャッタに同期させたタイミングで2つの光源を発光させる。 Next, a second embodiment will be described. In the present embodiment, each state of the object is generated by generating two states of only the first light source (state A) and only the second light source (state B) without causing the state C of the two light sources. Is determined. The first light source and the second light source open or close the shutter of the camera in synchronization with the two light sources alternately emitted as shown in FIG. 9, or the camera shutter by the control means 16 as shown in FIG. The two light sources are caused to emit light at a timing synchronized with each other.
第2の実施の形態では、分光反射率が既知の標準白色板を用いると共に、データベースに波長λ1、λ2における対象物の分光反射率O(λ1)、O(λ2)の比O(λ1)/O(λ2)のデータを記憶した点が第1の実施の形態と異なっているが、その他の点は第1の実施の形態と同様であるので同様な部分については説明を省略する。 In the second embodiment, a standard white plate having a known spectral reflectance is used, and the ratio of spectral reflectances O (λ1) and O (λ2) of the object at wavelengths λ1 and λ2 to the database is O (λ1) / Although the point that the data of O (λ2) is stored is different from that of the first embodiment, the other points are the same as those of the first embodiment, and the description of the same parts is omitted.
次に、図11を参照して第2の実施の形態の対象物の各部位を判定する処理ルーチンについて説明する。 Next, a processing routine for determining each part of the object according to the second embodiment will be described with reference to FIG.
図9に示すタイミングで第1の光源及び第2の光源のオンオフ制御、及びカメラのシャッタの開閉が制御されている状態で標準白色板及び対象物を撮影し、図11のステップ120で第1の光源をオンして標準白色板及び対象物を照明した状態(状態A)での撮影か否かを判断すると共に、ステップ122で第2の光源をオンして標準白色板及び対象物を照明した状態(状態B)での撮影か否かを判断する。
The standard white plate and the object are photographed while the on / off control of the first light source and the second light source and the opening / closing of the shutter of the camera are controlled at the timing shown in FIG. In
状態Aの場合には、ステップ121において標準白色板の領域を判断し、ステップ124において標準白色板の領域のデータを用いて標準白色板の撮影により得られた画像の画素値Vs(λ1)を演算して記憶し、標準白色板の領域以外の領域が対象物に相当するので、ステップ134において標準白色板の領域以外の領域のデータを用いて対象物の撮影により得られた画像の画素値V(λ1)を演算して記憶する。
In the case of the state A, the area of the standard white plate is determined in
状態Bの場合には、ステップ123において標準白色板の領域を判断し、ステップ126において標準白色板の領域のデータを用いて標準白色板の撮影により得られた画像の画素値Vs(λ2)を演算して記憶し、ステップ136において、標準白色板の領域以外の領域のデータを用いて対象物の撮影により得られた画像の画素値V(λ2)を演算して記憶する。
In the case of state B, the standard white plate region is determined in
この時の第1波長の光と第2波長の光との分光強度の比(E(λ1):E(λ2))は以下の(1)式で表わされる。 The ratio (E (λ1): E (λ2)) of the spectral intensity between the first wavelength light and the second wavelength light at this time is expressed by the following equation (1).
E(λ1):E(λ2)
=Vs(λ1)/Os(λ1):Vs(λ2)/Os(λ2)
・・・(1)
ただし、E(λ1)、E(λ2)は、各々波長λ1、λ2での分光強度、Vs(λ1)、Vs(λ2)は各々上記の波長λ1、λ2での標準反射板の画素値、Os(λ1)、Os(λ2)は各々λ1、λ2でのリファレンス反射率である。
E (λ1): E (λ2)
= Vs (λ1) / Os (λ1): Vs (λ2) / Os (λ2)
... (1)
Where E (λ1) and E (λ2) are the spectral intensities at wavelengths λ1 and λ2, respectively, Vs (λ1) and Vs (λ2) are the pixel values of the standard reflector at the wavelengths λ1 and λ2, respectively, and Os (Λ1) and Os (λ2) are reference reflectances at λ1 and λ2, respectively.
また、対象物の分光反射率の比O(λ1):O(λ2)は、対象物の波長λ1、λ2での画素値V(λ1),V(λ2)を用いて以下の(2)式で表すことができる。
O(λ1):O(λ2)
=Vs(λ1)/Os(λ1):Vs(λ2)/Os(λ2)/V(λ1)×V(λ2)
・・・(2)
従って、ステップ138では、上記(2)式に従って対象物の波長λ1、λ2での画素値V(λ1),V(λ2)、標準白色板の画素値Vs(λ1)、Vs(λ2)、リファレンス反射率Os(λ1)、Os(λ2)を用いて、対象物の異なる波長における分光反射率の比を演算し、ステップ140において演算された比とデータベースに記憶されている既知の対象物の各部位の分光反射率データとを比較することで各画素に髪、眼球、及び肌のいずれの属性を付与することができ、これにより対象物の各部位が髪、眼球、及び肌のいずれであるかを判別することができる。
Further, the spectral reflectance ratio O (λ1): O (λ2) of the object is expressed by the following equation (2) using the pixel values V (λ1) and V (λ2) at the wavelengths λ1 and λ2 of the object. Can be expressed as
O (λ1): O (λ2)
= Vs (λ1) / Os (λ1): Vs (λ2) / Os (λ2) / V (λ1) × V (λ2)
... (2)
Accordingly, in
なお、上記では標準白色板と対象物とを同時に撮影する例について説明したが、別々に撮影するようにしてもよい。 In addition, although the example which image | photographs a standard white board and a target object simultaneously was demonstrated above, you may make it image | photograph separately.
次に第3の実施の形態について説明する。本実施の形態は、図12に示すように、第2の実施の形態に第1光源及び第2光源の照明光量を調整する光源調整装置26を設けたものである。本実施の形態では、各光源で対象物を照明して撮影する直前に標準白色板24を撮影して得られた各画素の画素値Vs(λ1)、Vs(λ2)の値が等しくなるように照明調整手段26によって第1光源及び第2光源の少なくとも一方の光量の強さを調整する。
Next, a third embodiment will be described. In the present embodiment, as shown in FIG. 12, a light
これにより、波長λ1と波長λ2とで反射率が等しい標準白色板での画素値Vs(λ1)、Vs(λ2)が等しくなり、反射率が波長λ1と波長λ2とで異なる対象物に対してVs(λ1)>Vs(λ2)またはVs(λ1)<Vs(λ2)の2分類を簡単に行なうことができる。 As a result, the pixel values Vs (λ1) and Vs (λ2) on the standard white plate having the same reflectance at the wavelengths λ1 and λ2 are equal, and the reflectance is different for the wavelengths λ1 and λ2. Two classifications of Vs (λ1)> Vs (λ2) or Vs (λ1) <Vs (λ2) can be easily performed.
そして、対象物を撮影して得られた対象物の各波長における画素値V(λ1)、V(λ2)の大小関係を調べることで対象物の各部位が髪、眼球、肌のいずれであるかを判別する。 Then, by examining the magnitude relationship between the pixel values V (λ1) and V (λ2) at each wavelength of the target obtained by photographing the target, each part of the target is hair, eyeball, or skin. Is determined.
次に、第4の実施の形態について説明する。本実施の形態は、単一の光源を用い、カメラ側で第1波長λ1域の光と第2波長λ2域の光とに分割して撮影するようにしたものである。 Next, a fourth embodiment will be described. In the present embodiment, a single light source is used, and the camera side divides and shoots light in the first wavelength λ1 region and light in the second wavelength λ2 region.
本実施の形態には、図13に示すように、第1波長λ1域の光を通過させるバンドパスフィルタ14A、及び第2波長λ2域の光を通過させるバンドパスフィルタ14Bを備えたカメラ14が設けられている。バンドパスフィルタ14A、及びバンドパスフィルタ14Bは、図14に示すように、交互に2次元状に配列することにより格子状に配列されて構成されている。
In the present embodiment, as shown in FIG. 13, a
また光源としては第1波長λ1及び第2波長λ2を含む波長域の光を照射する単一の光源28を用いている。光源28には、光源をオンオフ制御する照明制御手段30が接続されている。
As a light source, a single
次に、本実施の形態の対象物の各部位を判定する処理ルーチンについて図15を参照して説明する。光源・カメラ制御手段によって光源28がオンオフ制御されると共に、光源のオンオフに同期してカメラのシャッタが開閉され、光源オン時の対象物の画像及び光源オフ時の対象物の画像が撮影される。
Next, a processing routine for determining each part of the object according to the present embodiment will be described with reference to FIG. The
ステップ150では光源がオンされたか否かを判断し、光源オンの場合は、ステップ152において光源オン時に第1波長のバンドパスフィルタ14Aを通過した光により得られた画像の画素値を演算して記憶すると共に、第2波長のバンドパスフィルタ14Bを通過した光により得られた画像の画素値を演算して記憶し、光源オフの場合は、ステップ154において光源オフ時に第1波長のバンドパスフィルタ14Aを通過した光により得られた画像の画素値を演算して記憶すると共に、第2波長のバンドパスフィルタ14Bを通過した光により得られた画像の画素値を演算して記憶する。
In
次のステップ156では、第1波長の光より得られた画素値について、各画素毎に光源オン時の画素値から光源オフ時の画素値を減算することで、第1波長の光のみの分光強度による画素値V(λ1)−Vn(λ1)を求めると共に、第2波長の光より得られた画素値について、各画素毎に光源オン時の画素値から光源オフ時の画素値を減算することで、第2波長の光のみの分光強度による画素値V(λ2)−Vn(λ2)を求める。
In the
光源の分光強度は予め分かっているので、データベースに第1波長のバンドパスフィルタを通過した光により得られる肌、髪、眼球の画素値と第2波長のバンドパスフィルタを通過した光により得られる肌、髪、眼球の画素値との関係を記憶しておき、データベースに記憶されたデータと各画素の画素値V(λ1)−Vn(λ1)、V(λ2)−Vn(λ2)の値とを比較することで、対象物の部位が髪、肌、眼球のいずれであるかを判別することができる。 Since the spectral intensity of the light source is known in advance, the pixel value of skin, hair, and eyeball obtained from the light that has passed through the bandpass filter of the first wavelength and the light that has passed through the bandpass filter of the second wavelength are obtained in the database. The relationship between the pixel values of skin, hair, and eyeballs is stored, and the data stored in the database and the pixel values V (λ1) −Vn (λ1) and V (λ2) −Vn (λ2) of each pixel are stored. , It can be determined whether the part of the object is hair, skin, or eyeball.
次に第5の実施の形態について説明する。本実施の形態は、第4の実施の形態において、標準白色板を用い、第2の実施の形態と同様にして対象物の髪、肌、眼球を判定するようにしたものである。 Next, a fifth embodiment will be described. In the fourth embodiment, a standard white plate is used in the fourth embodiment, and the hair, skin, and eyeball of the object are determined in the same manner as in the second embodiment.
図17を参照して本実施の形態の対象物の髪、肌、眼球を判定するルーチンについて説明する。ステップ162では、光源により標準白色板を照明した状態でカメラにより標準白色板を撮影し、第1波長のバンドパスフィルタを通過した光により得られる画像の画素値Vs(λ1)を演算して記憶すると共に、第2波長のバンドパスフィルタを通過した光により得られる画像の画素値Vs(λ2)を演算して記憶する。
A routine for determining the hair, skin, and eyeballs of the object of the present embodiment will be described with reference to FIG. In
次のステップ166では、光源をオンして対象物を照明し、ステップ168において第1波長のバンドパスフィルタを通過した光により得られる画像の画素値V(λ1)を求めて記憶すると共に、第2波長のバンドパスフィルタを通過した光により得られる画像の画素値V(λ2)を求めて記憶する。
In the
次のステップ170では対象物の分光反射率の比O(λ1)/O(λ2)を上記(2)式に基づいて演算し、ステップ172で対象物の分光反射率の比とデータベースに記憶されている既知の対象物の各部位の分光反射率データとを比較することで対象物の各部位を判別する。
In the
次に、本発明の第6の実施の形態について説明する。本実施の形態は、上記第1の実施の形態において環境の明るさに応じて状態Cが発生する頻度を変更するようにしたものである。図18に示すように、本実施の形態には、太陽光を検出する太陽光センサ36、及び車内灯が点灯しているか否かを検出する車内灯センサ38で構成されて外界の明るさを検出する外部環境検出装置が設けられている。
Next, a sixth embodiment of the present invention will be described. In the present embodiment, the frequency of occurrence of the state C is changed according to the brightness of the environment in the first embodiment. As shown in FIG. 18, the present embodiment includes a
なお、上記では車内灯センサを用いて明るさを判断する例について説明したが、車内灯センサを用いることなくカメラで撮影した画像から外界の明るさを検出するようにしてもよい。画像から外界の明るさを検出するには、例えば、第1の実施の形態の光源オフ時に撮影した画像の特定の領域(例えば、サイドウインドウが撮影されている領域)の画素値から明るさを判断したり、第1の実施の形態の光源オフ時に撮影した画像の周辺領域の平均画素値から明るさを判断すればよい。 In addition, although the example which judges brightness using an interior light sensor was demonstrated above, you may make it detect the brightness of the external field from the image image | photographed with the camera, without using an interior light sensor. In order to detect the brightness of the external environment from the image, for example, the brightness is determined from the pixel value of a specific region (for example, a region where the side window is captured) of the image captured when the light source is turned off in the first embodiment. The brightness may be determined based on the average pixel value in the peripheral area of the image captured when the light source is turned off in the first embodiment.
本実施の形態では、太陽光センサ36により外界の光(太陽光)が検出されなかったと判定され、かつ車内灯センサ38により車内が消灯していると判定されたときは、対象物に外乱光が照射されていないと判断し、図19に示すように、状態Cが発生する頻度を外界が明るい場合に比較して低減する。この場合、状態Cの発生頻度は0とし、状態Cを発生させないようにしてもよい。
In the present embodiment, when it is determined that the outside light (sunlight) has not been detected by the
なお、本実施の形態では、太陽光センサ36に代えて時刻を計測する時計を設け、時刻により昼夜を判定して太陽光が車室内に照射されているか否かを判定するようにしてもよい。また、GPSセンサを設け、車両がトンネル内を走行しているか否かを判断し、トンネル内を走行しているときに太陽光が車室内に照射されていないと判断するようにしても良い。
In the present embodiment, a clock for measuring time may be provided in place of the
以上説明したように、上記の各実施の形態によれば、外乱光に影響されることなくドライバの髪、肌、眼球の各部位を正確に判定することができる。なお、上記の各実施の形態では、ドライバの顔の各部位を判定する例について説明したが、例えば、シート布、プラスチック、衣服、眼鏡等の他の対象物の各部位の材質等の判定に用いることもできる。 As described above, according to each of the above embodiments, it is possible to accurately determine each part of the driver's hair, skin, and eyeball without being affected by ambient light. In each of the above embodiments, the example of determining each part of the driver's face has been described. For example, for determining the material of each part of other objects such as sheet cloth, plastic, clothes, glasses, etc. It can also be used.
10 第1光源
12 第2光源
14 カメラ
16 光源・カメラ制御装置
18 記憶装置
10 First
Claims (8)
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部を撮影する撮影手段と、
第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。 Illuminating means for irradiating light of a first wavelength band different from a second wavelength range of the light and near-infrared region of the first wavelength range in the near infrared region to the human head,
Control means for on / off controlling the illumination means;
Photographing means for photographing the head of the person in synchronization with on / off control of the control means;
The pixel value of the first of the person of the head of the image light from the pixel value and the illumination means of the person's head images taken while illuminated with light in a wavelength range were taken in a state of not being irradiated differences, and the second of the person of the head of the image light from the pixel value and the illumination means of the person's head images taken while illuminated with light in a wavelength range were taken in a state of not being irradiated Computing means for computing the difference between the pixel value of
Each part including at least one of the skin of the human head , the eyeball, and the hair based on the magnitude relation of the difference computed by the computing means , or the magnitude relation of the computed difference and the difference of the difference Discrimination means for discriminating;
Discriminating device for an object including
前記制御手段は、前記人の頭部が外乱光によって照明されていない場合には、前記照明手段から光が照射されていない状態が発生する頻度が所定値以下になるように前記照明手段をオンオフ制御する請求項1記載の対象物の部位判別装置 Providing detection means for detecting whether or not the human head is illuminated by ambient light;
When the human head is not illuminated by ambient light, the control means turns the illumination means on and off so that the frequency of occurrence of no light from the illumination means is less than or equal to a predetermined value. The object part discrimination | determination apparatus of Claim 1 to control
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を撮影する撮影手段と、
第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値、第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、及び第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値を演算する演算手段と、
前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。 Illuminating means for irradiating light of a first wavelength band different from a second wavelength range of the light and near-infrared region of the first wavelength range in the near infrared region to the human head,
Control means for on / off controlling the illumination means;
Imaging means for imaging the human head and an object with known spectral reflectances of the light in the first wavelength range and the light in the second wavelength range in synchronization with the on / off control of the control means When,
A pixel value of an image of the human head imaged in a state illuminated with light of a first wavelength range, a pixel value of an image of the object imaged in a state illuminated with light of a first wavelength range, a second A calculation means for calculating a pixel value of the human head image captured in a state illuminated with light in a wavelength range and a pixel value of the image of the object captured in a state illuminated with light in a second wavelength range; ,
The human head that is calculated based on the calculation result calculated by the calculation means and the spectral reflectance of each of the light in the first wavelength region and the light in the second wavelength region of the object. Discrimination means for discriminating each part including at least one of skin, eyeball, and hair of the human head based on a ratio of spectral reflectances in the first wavelength range and the second wavelength range of ,
Discriminating device for an object including
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、
第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。 Illumination means for irradiating the human head with light including the first wavelength region and the second wavelength region in the near infrared region ;
Control means for on / off controlling the illumination means;
An imaging unit that divides and images the human head in a second wavelength range different from the first wavelength range and the first wavelength range in synchronization with the on / off control of the control unit,
The person's head taken is divided into a first wavelength region light while turning off the first pixel value and the illumination means of the person's head of an image divided and taken light in a wavelength range And the pixel value of the human head image taken by dividing into the light of the second wavelength region and the light of the second wavelength region with the illumination means turned off. A calculation means for calculating a difference between the pixel value of the image of the person's head taken by dividing;
Each part including at least one of the skin of the human head , the eyeball, and the hair based on the magnitude relation of the difference computed by the computing means , or the magnitude relation of the computed difference and the difference of the difference Discriminating means for discriminating;
Discriminating device for an object including
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、
第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値、前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記物体の画像の画素値、第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値、及び前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記物体の画像の画素値を演算する演算手段と、
前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部の肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。 Illumination means for irradiating the human head with light including the first wavelength region and the second wavelength region in the near infrared region ;
Control means for on / off controlling the illumination means;
Synchronizing with the on / off control of the control means, the human head and an object having a known spectral reflectance of each of the light in the first wavelength range and the light in the second wavelength range are set to the first wavelength. An imaging unit that divides and shoots light in a second wavelength region different from the first wavelength region;
The pixel value of the human head image captured by dividing the light into the first wavelength range, and the image of the object captured by dividing the light into the first wavelength range with the illumination means turned off. The pixel value, the pixel value of the human head image taken by dividing the light into the second wavelength band, and the light divided into the second wavelength band with the illumination means turned off. A computing means for computing the pixel value of the image of the object;
The human head that is calculated based on the calculation result calculated by the calculation means and the spectral reflectance of each of the light in the first wavelength region and the light in the second wavelength region of the object. Discrimination means for discriminating each part including at least one of skin, eyeball, and hair of the human head based on a ratio of spectral reflectances in the first wavelength range and the second wavelength range of ,
Discriminating device for an object including
前記照明手段を調整した後に得られた第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値とに基づいて、前記前記人の頭部の各部位を判別する請求項3記載の対象物の部位判別装置。 The discrimination means includes the pixel value of the image of the object photographed in a state illuminated with light in the first wavelength range calculated by the computing means and the object photographed in a state illuminated with light in the second wavelength range. Adjusting the illumination means so that the pixel value of the image of
The shot while illuminated with light of a first pixel value and the second wavelength region of the person's head images taken while illuminated with light in a wavelength range obtained after adjusting the illumination means based on the pixel values of the human head image, the region determining apparatus according to claim 3 object, wherein determining the respective portions of said person's head.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005062745A JP4442472B2 (en) | 2005-03-07 | 2005-03-07 | Device part identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005062745A JP4442472B2 (en) | 2005-03-07 | 2005-03-07 | Device part identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006242909A JP2006242909A (en) | 2006-09-14 |
JP4442472B2 true JP4442472B2 (en) | 2010-03-31 |
Family
ID=37049458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005062745A Expired - Fee Related JP4442472B2 (en) | 2005-03-07 | 2005-03-07 | Device part identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4442472B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4860502B2 (en) * | 2007-02-20 | 2012-01-25 | 富士フイルム株式会社 | Face discrimination device, method, and program |
JP5026854B2 (en) * | 2007-04-27 | 2012-09-19 | 国立大学法人東京工業大学 | Region extraction apparatus and region extraction method |
JP5018653B2 (en) * | 2008-06-04 | 2012-09-05 | 株式会社豊田中央研究所 | Image identification device |
JP5505761B2 (en) * | 2008-06-18 | 2014-05-28 | 株式会社リコー | Imaging device |
JP5354008B2 (en) * | 2009-04-06 | 2013-11-27 | ソニー株式会社 | Switching device, switching method, and electronic device |
JP4548542B1 (en) | 2009-06-30 | 2010-09-22 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
KR101146017B1 (en) * | 2009-06-30 | 2012-05-15 | 소니 주식회사 | Information processing apparatus and information processing method |
JP5431810B2 (en) * | 2009-07-03 | 2014-03-05 | 株式会社豊田中央研究所 | Image sensor and light receiving device used for the image sensor |
JP2011039812A (en) * | 2009-08-12 | 2011-02-24 | Sony Corp | Image processing apparatus and electronic apparatus |
JP5060580B2 (en) | 2010-04-09 | 2012-10-31 | トヨタ自動車株式会社 | Spectrum measuring device |
JP5519381B2 (en) | 2010-04-09 | 2014-06-11 | トヨタ自動車株式会社 | Spectrum measuring device |
JP5287792B2 (en) * | 2010-05-10 | 2013-09-11 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2012068762A (en) * | 2010-09-21 | 2012-04-05 | Sony Corp | Detection device, detection method, program, and electronic apparatus |
JP2013032920A (en) * | 2011-08-01 | 2013-02-14 | Sumitomo Electric Ind Ltd | Object detection device, and object detection method |
JP5845858B2 (en) * | 2011-11-30 | 2016-01-20 | 住友電気工業株式会社 | Object detection apparatus and object detection method |
US20180239979A1 (en) * | 2015-09-03 | 2018-08-23 | Nec Corporation | Living body recognition device, living body recognition method, and living body recognition program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2823564B2 (en) * | 1988-05-27 | 1998-11-11 | 日本電信電話株式会社 | Organism detection device |
JP2995805B2 (en) * | 1990-06-28 | 1999-12-27 | オムロン株式会社 | Color parameter setting device |
JP3214195B2 (en) * | 1993-11-11 | 2001-10-02 | 三菱電機株式会社 | Driver photography device |
JPH0997363A (en) * | 1995-10-02 | 1997-04-08 | Oki Electric Ind Co Ltd | Coin image pickup device |
JP3674289B2 (en) * | 1998-01-30 | 2005-07-20 | 富士電機リテイルシステムズ株式会社 | Image acquisition method and apparatus for paper sheet media |
JP3709539B2 (en) * | 1999-04-05 | 2005-10-26 | 独立行政法人 国立印刷局 | Authenticity discrimination printed matter mechanical discrimination method and apparatus |
US7076088B2 (en) * | 1999-09-03 | 2006-07-11 | Honeywell International Inc. | Near-infrared disguise detection |
JP4092158B2 (en) * | 2001-08-28 | 2008-05-28 | 松下電器産業株式会社 | Irradiation light variable device and method, and component mounting device |
JP2004144512A (en) * | 2002-10-22 | 2004-05-20 | Denso Corp | Occupant detection system |
JP2005039408A (en) * | 2003-07-17 | 2005-02-10 | Ricoh Co Ltd | Apparatus and method for image processing, program, and recording medium |
JP2006047067A (en) * | 2004-08-03 | 2006-02-16 | Funai Electric Co Ltd | Human body detecting device and human body detecting method |
-
2005
- 2005-03-07 JP JP2005062745A patent/JP4442472B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006242909A (en) | 2006-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4442472B2 (en) | Device part identification device | |
CN107408298B (en) | Living body detection device, living body detection method, and recording medium | |
JP5145555B2 (en) | Pupil detection method | |
KR101286454B1 (en) | Fake face identification apparatus and method using characteristic of eye image | |
JP5761074B2 (en) | Imaging control apparatus and program | |
JP4853389B2 (en) | Face image capturing device | |
EP1452127B1 (en) | Apparatus for detecting pupils | |
JP5018653B2 (en) | Image identification device | |
US10579891B2 (en) | Optical overlay device | |
CN104838644B (en) | Seek the camera chain and method of detection zone image information | |
KR101123834B1 (en) | Method and camera device for determination of photograph cheating using controllable ir light | |
JPH07134800A (en) | Device for photographing driver | |
US20190364229A1 (en) | Multispectral image processing system for face detection | |
Chang et al. | Multispectral visible and infrared imaging for face recognition | |
JP2004171350A (en) | Eye imaging device and information device using the same | |
TWI601074B (en) | Certification devices and certification prism body | |
JP2006351011A (en) | Color imaging system for locating retroreflector | |
CN108710844B (en) | Authentication method and device for detecting face | |
Rost et al. | A user-friendly technical set-up for infrared photography of forensic findings | |
WO2008099146A1 (en) | Method and apparatus for counting vehicle occupants | |
WO2005119571A1 (en) | Imaging apparatus and method for vehicle occupant determination | |
CN113532653B (en) | Face living body detection method, face living body detection system and face recognition system | |
US20200221000A1 (en) | Camera system, vehicle and method for configuring light source of camera system | |
JP2018173991A (en) | Detection device | |
CN110235178A (en) | Driver status estimating device and driver status estimate method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100104 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140122 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |