JP4442472B2 - Device part identification device - Google Patents

Device part identification device Download PDF

Info

Publication number
JP4442472B2
JP4442472B2 JP2005062745A JP2005062745A JP4442472B2 JP 4442472 B2 JP4442472 B2 JP 4442472B2 JP 2005062745 A JP2005062745 A JP 2005062745A JP 2005062745 A JP2005062745 A JP 2005062745A JP 4442472 B2 JP4442472 B2 JP 4442472B2
Authority
JP
Japan
Prior art keywords
light
wavelength range
wavelength
pixel value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005062745A
Other languages
Japanese (ja)
Other versions
JP2006242909A (en
Inventor
真一 小島
道則 安藤
芳樹 二宮
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2005062745A priority Critical patent/JP4442472B2/en
Publication of JP2006242909A publication Critical patent/JP2006242909A/en
Application granted granted Critical
Publication of JP4442472B2 publication Critical patent/JP4442472B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

本発明は、対象物の部位判別装置にかかり、特に、太陽光等の外乱光に影響されることなくドライバの頭部等の対象物の肌、髪、眼球等の部位を区別して判定することができる対象物の部位判別装置に関する。   The present invention relates to a region determination device for an object, and in particular, distinguishes and determines a region such as skin, hair, and eyeball of an object such as a driver's head without being affected by ambient light such as sunlight. The present invention relates to a part discriminating apparatus for an object that can be used.

特許文献1には、近赤外線スペクトルの上方帯域の光で人口材料で偽装した人物を検出する偽装検出器が開示されている。この偽装検出器では、近赤外線スペクトルの上方帯域である少なくとも1400nm以上の波長域の光を使用している。しかしながら、通常用いられるシリコン半導体で構成された撮像素子では1400nm以上に感度は有していないため、別の素材(例えばガリウム砒素)で構成された撮像素子を用いる必要がある。従って、ガリウム砒素を用いた近赤外上方帯域用カメラとシリコンを用いた近赤外下方帯域用カメラの2台のカメラが必要となり、経済性及び車両搭載性の点で車載で使用するには問題がある。   Patent Document 1 discloses a camouflage detector that detects a person camouflaged with artificial material using light in the upper band of the near-infrared spectrum. This camouflaged detector uses light having a wavelength range of at least 1400 nm, which is the upper band of the near infrared spectrum. However, since an image sensor made up of a silicon semiconductor that is usually used does not have a sensitivity of 1400 nm or more, it is necessary to use an image sensor made up of another material (for example, gallium arsenide). Therefore, two cameras, a near-infrared upper band camera using gallium arsenide and a near-infrared lower band camera using silicon, are required. There's a problem.

特許文献2には、光源で照明された物体からの中心波長が970nm付近の部分波長帯の強度を測定し、予め求めた検知対象物体の分光強度の特徴と比較することにより、生体物を検知する生体物検知装置が記載されている。特許文献2ではシリコン半導体で構成された撮像素子が有する感度に含まれる中心波長が970nm付近の部分波長帯の強度を測定してるので、特許文献1で発生する問題を解消することが可能である。   In Patent Document 2, a biological object is detected by measuring the intensity of a partial wavelength band whose center wavelength is around 970 nm from an object illuminated by a light source and comparing it with the characteristic of spectral intensity of a detection target object obtained in advance. A living body detection device is described. In Patent Document 2, since the intensity of a partial wavelength band in which the center wavelength included in the sensitivity of an imaging element made of a silicon semiconductor is around 970 nm is measured, it is possible to solve the problem that occurs in Patent Document 1. .

また、特許文献3には、メタリックペア印刷物に波長1及び波長2の近赤外線を透光し、フォトダイオードで反射光を受光し、メタリックインキである第1及び第2インキの近赤外線領域の性質を利用して真正なメタリックペア印刷物であるか否かを判別する判別方法が記載されている。特許文献3では2種類の波長の光源を使用しているが、各々の波長で反射率の異なる特殊なインクを対象としているため、車両のドライバ等の乗員の検出には使用することができず、判別可能な対象物が限定される。
特表2003−536303号公報 特許第2823564号公報 特開2000−293729号公報
Patent Document 3 discloses the properties of the near-infrared region of the first and second inks, which are metallic inks, by transmitting near-infrared light of wavelength 1 and wavelength 2 to the metallic pair printed matter, receiving reflected light by a photodiode. A discrimination method for discriminating whether or not it is a genuine metallic pair printed matter is described. In Patent Document 3, a light source having two types of wavelengths is used, but special inks having different reflectances at the respective wavelengths are targeted, and thus cannot be used for detection of a passenger such as a vehicle driver. The object that can be discriminated is limited.
Special table 2003-536303 gazette Japanese Patent No. 2823564 JP 2000-293729 A

しかしながら、上記特許文献1〜特許文献3のいずれにも外乱光に対する対策がなされておらず、外乱光が影響する環境下では対象物の材質等を判別して対象物の各部位を判別することが困難である、という問題がある。例えば、自動車のウィンドシールド及びサイド・ウィンドウは、1000nm(1.0ミクロン)以下の領域ではかなりの量の近赤外光が透過する赤外線透過特性を有しており、透過した太陽光等の近赤外線が外乱光として作用する。強度等が未知の外乱光が存在する状況では、対象物からの分光強度を予め記憶領域に保持しておくことはできず、車載環境で対象物の各部位を判別するためには太陽光等の外乱光の影響を除去する工夫が必要となる。   However, none of the above Patent Documents 1 to 3 takes measures against disturbance light, and in an environment affected by disturbance light, the material of the object is determined to determine each part of the object. There is a problem that is difficult. For example, automobile windshields and side windows have infrared transmission characteristics that allow a considerable amount of near-infrared light to pass through in the region of 1000 nm (1.0 micron) or less. Infrared rays act as disturbance light. In situations where ambient light with unknown intensity is present, the spectral intensity from the object cannot be stored in advance in the storage area, and sunlight or the like is used to determine each part of the object in an in-vehicle environment. It is necessary to devise a method for removing the influence of ambient light.

本発明は、上記問題を解決すべく成されたもので、外乱光に影響されることなく対象物の各部位を判別することができる対象物の判別装置を提供することを目的とする。   The present invention has been made to solve the above problem, and an object of the present invention is to provide an object discriminating apparatus that can discriminate each part of an object without being affected by ambient light.

上記目的を達成するために本発明は、近赤外領域の第1の波長域の光及び近赤外領域の第1の波長域と異なる第2の波長域の光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部を撮影する撮影手段と、第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成されている。 To accomplish the above object, irradiated with light of a first wavelength band different from a second wavelength range of the light and near-infrared region of the first wavelength range in the near infrared region to the human head An illuminating means, a control means for controlling on / off of the illuminating means, an imaging means for photographing the head of the person in synchronization with the on / off control of the control means, and a state illuminated with light in the first wavelength range the difference between the pixel values of the captured the person's head of an image pixel value and the lighting means from the person's head light taken in a state of not being irradiated image, and the second wavelength region light calculating means for light pixel values of the image of the person's head taken in the illuminated state from the illumination means for calculating a difference between the pixel values of the image of the person's head taken in a state of not being irradiated , the magnitude relation of the calculated difference by the calculating means, or the magnitude relationship and the difference between the calculated difference Min based, and is configured to include a discriminating means for discriminating each site including skin of the person's head, eye, and at least one of the hair.

本発明では、人の頭部に外乱光が照射された状態で撮影した人の頭部の画像の画素値に対応する照明手段から光が照射されていない状態で撮影した人の頭部の画像の画素値を用い、第1の波長域の光で照明した状態で撮影した人の頭部の画像の画素値と照明手段から光が照射されていない状態で撮影した人の頭部の画像の画素値との差、及び第2の波長域の光で照明した状態で撮影した人の頭部の画像の画素値と照明手段から光が照射されていない状態で撮影した人の頭部の画像の画素値との差に基づいて、人の頭部の各部位を判別しているため、外乱光に影響されることなく人の頭部の各部位を判別することができる
人の頭部が外乱光によって照明されていない場合には、人の頭部に外乱光が照射された状態で撮影した人の頭部の画像の画素値は必要性が少ないので、本発明では照明手段から光が照射されていない状態が発生する頻度が所定値以下になるように、例えば照明手段から光が照射されていない状態が発生しないようにすることができる。
In the present invention, the person's head where the light from the illumination means is captured in a state of not being irradiated the head to disturbance light person corresponding to the pixel values of the image of the head of the person photographed while being irradiated image of using the pixel values, the first person light from the pixel value and the illumination means human head images taken while illuminated with light in a wavelength range were taken in a state of not being irradiated in the head of the image the difference between the pixel value, and the second wavelength region who light from the pixel value and the illumination means human head images taken while illuminated with light was taken in a state of not being irradiated in the head of the image Since each part of the human head is discriminated based on the difference from the pixel value, each part of the human head can be discriminated without being affected by ambient light .
If the person's head is not illuminated by ambient light, since disturbance light into the human's head pixel values of the image of the head of the person photographed while being irradiated it is less need, in the present invention For example, it is possible to prevent a state in which no light is emitted from the illumination unit from occurring, so that the frequency in which the state in which the illumination unit is not irradiated with light is equal to or less than a predetermined value.

本発明では、人の頭部に外乱光が照射された状態で撮影した人の頭部の画像の画素値に対応する画素値として、分光反射率が既知の物体を撮影したときの画像の画素値を用い、近赤外領域の第1の波長域の光及び近赤外領域の第1の波長域と異なる第2の波長域の光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を撮影する撮影手段と、第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値、第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、及び第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値を演算する演算手段と、前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成してもよい。 In the present invention, as a pixel value corresponding to pixel values of the image of the head of the person photographed in a state where disturbance light is irradiated on the human head, the pixels of the image when the spectral reflectance was taken known object Lighting means for irradiating a human head with light in a first wavelength region in the near infrared region and light in a second wavelength region different from the first wavelength region in the near infrared region , using the value, and the illumination Control means for on / off control of the means , and the spectral reflectance of each of the human head and the light in the first wavelength range and the light in the second wavelength range in synchronization with the on / off control of the control means Is taken with a photographing means for photographing a known object, a pixel value of an image of the human head photographed with light in the first wavelength range, and illuminated with light in the first wavelength range pixel values of the image of the object, pixel values of the second of the person of the head of the image photographed in a state of being illuminated with light in the wavelength range, and A calculating means for calculating a pixel value of an image of the object taken in a state of being illuminated by a second wavelength region light, the calculated calculation result in the calculating means, and the light of the first wavelength region of the object Based on the ratio of the spectral reflectance in the first wavelength region and the second wavelength region of the human head, which is calculated based on the spectral reflectance of each of the light in the second wavelength region. And discriminating means for discriminating each part including at least one of the skin, eyeball, and hair of the human head .

この場合、判別手段は、前記演算手段で演算された第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値と第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値とが同一になるように前記照明手段を調整し、前記照明手段を調整した後に得られた第1の波長域の光で照明した状態で撮影した人の頭部の画像の画素値と第2の波長域の光で照明した状態で撮影した人の頭部の画像の画素値とに基づいて、前記人の頭部の各部位を判別するようにすることができる。 In this case, the discriminating means is photographed with the pixel value of the image of the object photographed in the state illuminated with the light of the first wavelength range calculated by the computing means and the light illuminated with the light of the second wavelength range. The illumination means is adjusted so that the pixel values of the image of the object are the same, and the head of a person photographed in a state illuminated with light of the first wavelength band obtained after adjusting the illumination means Each part of the person's head can be determined based on the pixel value of the image and the pixel value of the image of the person's head photographed in a state illuminated with light in the second wavelength range. .

また、第1の波長域の光及び第2の波長域の光を照射する照明手段に代えて、第1の波長域及び第2の波長域を含む波長域の光を照射する照明手段を用い、近赤外領域の第1の波長域及び第2の波長域を含む光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成してもよい。 Further, instead of the illumination means for irradiating the light in the first wavelength range and the light in the second wavelength range, an illumination means for irradiating light in the wavelength range including the first wavelength range and the second wavelength range is used. Illuminating means for irradiating a person's head with light including the first wavelength region and the second wavelength region in the near-infrared region, control means for controlling on / off of the illumination means, and on / off control of the control means In synchronism, the human head is divided into light having a first wavelength range and a second wavelength range different from the first wavelength range, and an imaging unit that divides the head into light of the first wavelength range. the difference between the pixel values of the captured the person's head of an image pixel value and said illuminating means off state in the person's head divided for shooting the first wavelength region light image, and the in a state in which the pixel value of the person's head of an image divided and photographed to light of the second wavelength region and to turn off the illuminating means divided into a second wavelength region light A calculating means for calculating a difference between the pixel value of the person's head images captured Te, magnitude relation of the calculated difference by the arithmetic unit, or to the difference of the magnitude relationship and the difference between the calculated difference And a discriminating means for discriminating each part including at least one of the skin, eyeball, and hair of the person's head .

また、近赤外領域の第1の波長域及び第2の波長域を含む光を人の頭部に照射する照明手段と、前記照明手段をオンオフ制御する制御手段と、前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値、前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記物体の画像の画素値、第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値、及び前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記物体の画像の画素値を演算する演算手段と、前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、を含んで構成することも可能である。 Further, illumination means for irradiating a human head with light including the first wavelength region and the second wavelength region in the near infrared region, control means for controlling on / off of the illumination means, and on / off control of the control means In synchronization with the human head, an object having a known spectral reflectance of each of the light in the first wavelength range and the light in the first wavelength range is changed to the first wavelength range and the first wavelength. The photographing means for dividing and photographing the light in the second wavelength range different from the region, the pixel value of the human head image photographed by dividing the light in the first wavelength range, the illumination means turned off The pixel value of the image of the object taken by dividing into light of the first wavelength region in the state, the pixel value of the image of the human head taken by dividing into light of the second wavelength region, and the illumination Computing means for computing a pixel value of the image of the object taken by dividing the light into the second wavelength region with the means turned off; The calculated operation result in stages, and is calculated based on each of the spectral reflectance of the light of the light with the second wavelength band of the first wavelength region of the object, said of the person's head Discrimination means for discriminating each part including at least one of skin, eyeballs, and hair of the human head based on a ratio of spectral reflectances in the first wavelength range and the second wavelength range; It is also possible to include it.

本発明の照明手段から、800nm〜1100nmの近赤外領域の光を照射するようにすることが効果的であり、この場合、第1の波長域を800nm〜970nmの間の波長域とし、第2の波長域を970nm〜1100nmの間の波長域とするのが好ましい。   It is effective to irradiate light in the near infrared region of 800 nm to 1100 nm from the illumination means of the present invention. In this case, the first wavelength region is set to a wavelength region between 800 nm to 970 nm, The wavelength range of 2 is preferably a wavelength range between 970 nm and 1100 nm.

以上説明したように本発明によれば、外乱光に影響されることなく人の頭部の各部位を判別することができるという効果がえられる。 As described above, according to the present invention, it is possible to determine each part of the human head without being affected by disturbance light.

以下、図面を参照して、本発明をドライバの頭部の各部位を判別する車両用の判別装置に適用した実施の形態について詳細に説明する。第1の実施の形態には、図1に示すように、第1波長λ1域の光を照射するLED等で構成された照明手段である第1光源10、及び第2波長λ2域の光を照射するLED等で構成された照明手段である第2光源12から構成された照明装置と、照明装置で照明された対象物等を撮影するCCDカメラ等で構成されたカメラ14が設けられている。   Hereinafter, an embodiment in which the present invention is applied to a vehicle discriminating device that discriminates each part of a driver's head will be described in detail with reference to the drawings. In the first embodiment, as shown in FIG. 1, the first light source 10 that is an illuminating means composed of an LED or the like that irradiates light in the first wavelength λ1 region, and the light in the second wavelength λ2 region. There is provided a lighting device composed of a second light source 12 which is a lighting means composed of LEDs and the like, and a camera 14 composed of a CCD camera for photographing an object illuminated by the lighting device. .

第1光源10、第2光源12、及びカメラ14は、第1光源10及び第2光源12のオンオフ制御に同期させてカメラのシャッタを開閉制御する光源・カメラ制御16に接続されている。   The first light source 10, the second light source 12, and the camera 14 are connected to a light source / camera control 16 that controls opening and closing of the shutter of the camera in synchronization with the on / off control of the first light source 10 and the second light source 12.

また、カメラ14には、カメラで撮影された画像の各画素の画像濃度値等の画素値を記憶するメモリで構成された画素値記憶装置18、及び以下で説明する処理ルーチンに従って演算された画素値の差及びデータベース22に記憶されている反射率データに基づいて対象物の各部位が何であるかを判定する演算・判定装置20に接続されている。   Further, the camera 14 includes a pixel value storage device 18 configured by a memory that stores a pixel value such as an image density value of each pixel of an image captured by the camera, and a pixel calculated according to a processing routine described below. It is connected to the arithmetic / determination device 20 that determines what each part of the object is based on the difference in values and the reflectance data stored in the database 22.

なお、光源・カメラ制御装置16及び演算・判定装置20は、各々コンピュータで構成することができるが、1つのコンピュータで構成するようにしてもよい。   Note that the light source / camera control device 16 and the calculation / determination device 20 can each be configured by a computer, but may be configured by one computer.

上記のCCDとしては、近赤外域に感度を有するXC−E150(ソニー(株)製、商品名)を使用している。このCCDは、図2に示すように、400nm〜1000nmの波長域に感度を有している。   As the CCD, XC-E150 (trade name, manufactured by Sony Corporation) having sensitivity in the near infrared region is used. As shown in FIG. 2, the CCD has sensitivity in a wavelength range of 400 nm to 1000 nm.

本実施の形態において、対象物を車両のドライバの頭部としてドライバの肌、髪、及び眼球の各部位を検出する場合を例に説明する。図3は肌の分光反射率、図4は髪の分光反射率、図5は眼球の分光透過率分布を示すものである。図3の符号33は、明るい肌の人物の分光反射率、34は暗い肌の人物の分光反射率である。肌の分光反射率及び髪の分光反射率について、波長880nmと970nmの分光反射率を比較すると、以下の関係になる。   In the present embodiment, a case will be described as an example in which each part of the driver's skin, hair, and eyeball is detected using the object as the head of the driver of the vehicle. 3 shows the spectral reflectance of the skin, FIG. 4 shows the spectral reflectance of the hair, and FIG. 5 shows the spectral transmittance distribution of the eyeball. Reference numeral 33 in FIG. 3 is the spectral reflectance of a person with light skin, and 34 is the spectral reflectance of a person with dark skin. The spectral reflectance of skin and the spectral reflectance of hair are compared as follows when the spectral reflectances at wavelengths of 880 nm and 970 nm are compared.

・肌:880nmでの反射率>970nmでの反射率
・髪:880nmでの反射率<970nmでの反射率
分光透過率については、分光反射率=1.0−(分光透過率)の関係にあるため、眼球の波長880nmと970nmの分光反射率に関しては以下の関係になる。
-Skin: reflectivity at 880 nm> reflectivity at 970 nm-Hair: reflectivity at 880 nm <reflectance at 970 nm For spectral transmittance, spectral reflectance = 1.0-(spectral transmittance) For this reason, the spectral reflectance of the eyeballs at wavelengths of 880 nm and 970 nm has the following relationship.

・眼球:880nmでの反射率<970nmでの反射率
(880nmでの透過率>970nmでの透過率)
従って、テンプレートマッチング等の画像処理でドライバの頭部領域を対象物として抽出し、撮像した画像の画素値を880nmと970nmの各々の波長において比較することで、頭部領域の中の肌、髪、及び眼球の各部位を判別することが可能となる。
Eyeball: reflectivity at 880 nm <reflectance at 970 nm
(Transmittance at 880 nm> Transmittance at 970 nm)
Therefore, the head region of the driver is extracted as an object by image processing such as template matching, and the pixel value of the captured image is compared at each wavelength of 880 nm and 970 nm, so that the skin and hair in the head region can be compared. And each part of the eyeball can be discriminated.

なお、波長については、880nm及び970nmに限定する必要はないが、以下の条件を満たす必要がある。   The wavelength need not be limited to 880 nm and 970 nm, but the following conditions must be satisfied.

第1に、近赤外領域の光を用いることである。この理由は、車載で運転中に使用する場合には、運転者の気を散らさないために不可視光でドライバの顔を照明することになるが、紫外領域の光を用いると眼に害を与えるおそれがあり望ましくないからである。   The first is to use light in the near infrared region. The reason for this is that when used while driving in a vehicle, the driver's face is illuminated with invisible light in order not to distract the driver, but using ultraviolet light will harm the eyes. This is because there is a fear and it is not desirable.

第2に、1100nm以下の波長の光を用いることである。この理由は、コスト、信頼性、及び応答性の点で優れているシリコン半導体で構成された撮像素子は、図2に例示したように1107nmまでの波長にしか感度を有さないからである。   Secondly, light having a wavelength of 1100 nm or less is used. The reason for this is that an imaging device made of a silicon semiconductor that is excellent in terms of cost, reliability, and responsiveness has sensitivity only to wavelengths up to 1107 nm as illustrated in FIG.

第3に、2つの波長λ1、λ2における反射率が、肌、髪、及び眼球の各々で異なることである。また、可視領域近傍の波長の光を照射する照明装置を用いると、光が可視領域に漏れる可能性があること、撮像素子の感度が1000nm以上では殆ど無いことも考慮する必要がある。   Third, the reflectance at the two wavelengths λ1 and λ2 is different for each of skin, hair, and eyeball. In addition, when an illumination device that irradiates light having a wavelength in the vicinity of the visible region is used, it is necessary to consider that light may leak into the visible region and that the sensitivity of the image sensor is almost not 1000 nm or more.

特に、眼球の反射率が970nmを境に急激に変化していることから眼球の検出を行うには、970nm以上の光と970nm未満の光を照射するのが好ましく、本実施の形態では、970nm以上の光(波長λ1の光)を照射する第1光源と970nm未満の光(波長λ2の光)を照射する第2光源の2つの照明装置を用いている。   In particular, since the reflectance of the eyeball changes abruptly around 970 nm, in order to detect the eyeball, it is preferable to irradiate light of 970 nm or more and light of less than 970 nm. In this embodiment, 970 nm Two illumination devices are used: a first light source that emits the above light (light with a wavelength λ1) and a second light source that emits light with a wavelength less than 970 nm (light with a wavelength λ2).

また、本実施の形態では、データベース22に、図3及び図4に示した分光反射率分布のデータ、及び図5の分光透過率分布を分光反射率分布に変換したデータが予め記憶されている。   In the present embodiment, the database 22 stores in advance the spectral reflectance distribution data shown in FIGS. 3 and 4 and the data obtained by converting the spectral transmittance distribution of FIG. 5 into the spectral reflectance distribution. .

次に、本実施の形態の演算・判定装置で実行される頭部の各部位を判別する処理について説明する。   Next, processing for determining each part of the head executed by the calculation / determination device of the present embodiment will be described.

まず、光源・カメラ制御装置16では、図6に示すように、第1光源10及び第2光源12を交互にオンさせて点灯する(第1光源がオンで第2光源がオフの状態を状態A、及び第1光源がオフで第2光源がオンの状態を状態B)と共に、交互に点灯した後第1光源10及び第2光源12をオフにして消灯する(状態C)ことを繰り返すように制御する。従って、2つの光源は、第1波長λ1の光のみ照射(状態A)、第2波長λ2の光のみ照射(状態B)、第1光源及び第2光源共にオフ(状態C)の3つの状態をとる。   First, in the light source / camera control device 16, as shown in FIG. 6, the first light source 10 and the second light source 12 are alternately turned on and lit (the first light source is on and the second light source is off). A, and the state where the first light source is off and the second light source is on (state B), and after alternately turning on, the first light source 10 and the second light source 12 are turned off and turned off (state C). To control. Accordingly, the two light sources are irradiated with only light of the first wavelength λ1 (state A), irradiated only with light of the second wavelength λ2 (state B), and both the first light source and the second light source are off (state C). Take.

また、状態A、状態B、及び状態Cの各々においてカメラにより対象物であるドライバの頭部が撮影されるように、第1光源10及び第2光源12のオンオフ制御に同期させてカメラのシャッタを開閉して対象物を撮影する。これにより、状態A、状態B、及び状態Cの各々において対象物の画像が撮影される。   Further, the camera shutter is synchronized with the on / off control of the first light source 10 and the second light source 12 so that the head of the driver as the object is photographed by the camera in each of the state A, the state B, and the state C. Open and close to shoot the object. Thereby, an image of the object is captured in each of the state A, the state B, and the state C.

図7は、演算・判定装置20における処理を示す流れ図であり、ステップ100〜ステップ104の各々において状態Cか、状態Aか、状態Bかを判断する。ステップ100で状態Cと判断された場合には、ステップ106において状態Cでカメラで撮影された画像の画素値Vnを演算して画素値記憶装置18に記憶する。   FIG. 7 is a flowchart showing the processing in the calculation / determination device 20, and it is determined in each of steps 100 to 104 whether the state is C, A or B. If it is determined in step 100 that the state is C, the pixel value Vn of the image captured by the camera in state C is calculated in step 106 and stored in the pixel value storage device 18.

また、ステップ102において状態Aと判断された場合には、ステップ108において状態Aでカメラで撮影された画像の各画素の画素値V(λ1)を演算して画素値記憶装置18に記憶し、次のステップ110において状態Aの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ1)−Vn)を演算して各画素毎に記憶する。このように状態Aでの画素値から状態Cでの画素値を減算することで、第1波長のみの分光強度による画素値(V(λ1)−Vn)を得ることができ、外乱光の影響を除去することができる。   If it is determined in step 102 that the state is A, the pixel value V (λ1) of each pixel of the image captured by the camera in step A is calculated and stored in the pixel value storage device 18 in step. In the next step 110, a difference (V (λ1) −Vn) obtained by subtracting the pixel value of each corresponding pixel of the state C image from the pixel value of each pixel in the state A is calculated and stored for each pixel. Thus, by subtracting the pixel value in state C from the pixel value in state A, the pixel value (V (λ1) −Vn) based on the spectral intensity of only the first wavelength can be obtained, and the influence of disturbance light Can be removed.

そして、ステップ104において状態Bと判断された場合には、ステップ112において状態Bでカメラで撮影された画像の各画素の画素値V(λ2)を演算して画素値記憶装置18に記憶し、次のステップ114において状態Bの各画素の画素値から状態Cの画像の対応する各画素の画素値を減算した差(V(λ2)−Vn)を演算して各画素毎に記憶する。上記と同様に、状態Bでの画素値から状態Cでの画素値を減算することで、第2波長のみの分光強度による画素値(V(λ2)−Vn)を得ることができ、外乱光の影響を除去することができる。   If the state B is determined in step 104, the pixel value V (λ2) of each pixel of the image photographed by the camera in step B is calculated and stored in the pixel value storage device 18 in step 112. In the next step 114, a difference (V (λ2) −Vn) obtained by subtracting the pixel value of each corresponding pixel of the state C image from the pixel value of each pixel in the state B is calculated and stored for each pixel. Similarly to the above, by subtracting the pixel value in the state C from the pixel value in the state B, a pixel value (V (λ2) −Vn) based on the spectral intensity of only the second wavelength can be obtained. Can be removed.

以上の処理を行なうことにより、光源で対象物を照明しない状態を基準として各画素の画素値が演算される。   By performing the above processing, the pixel value of each pixel is calculated on the basis of the state where the object is not illuminated with the light source.

光源の明るさはあらかじめ分かっているので、データベースに状態A、状態Bの時の肌、髪、眼の画素値の大小関係を記憶しておくことができる。データベースと各画素の差(V(λ1)−Vn)の値と差(V(λ2)−Vn)の値とを比較することで、各画素が髪、肌、眼球のいずれに属するかを判定することができる。   Since the brightness of the light source is known in advance, the magnitude relationship among the pixel values of the skin, hair, and eyes in the state A and the state B can be stored in the database. By comparing the difference between the database and each pixel (V (λ1) −Vn) and the difference (V (λ2) −Vn), it is determined whether each pixel belongs to hair, skin, or eyeball. can do.

ステップ116では、各画素毎にデータベースに記憶された分光反射率の分布と差(V(λ1)−Vn)、差(V(λ2)−Vn)とを比較して、各画素が髪、眼球、及び肌のいずれの部位に属するかを判定する。例えば、差(V(λ1)−Vn)<差(V(λ2)−Vn)で差(V(λ1)−Vn)と差(V(λ2)−Vn)との差が小さければ肌に属し、大きければ眼球に属す判断し、差(V(λ1)−Vn)>差(V(λ2)−Vn)であれば髪に属すと判断することができ、各画素に判断した属性を与える。そして、ステップ118において各画素毎に与えられた属性を出力する。   In step 116, the spectral reflectance distribution stored in the database for each pixel is compared with the difference (V (λ1) −Vn) and the difference (V (λ2) −Vn). And which part of the skin it belongs to. For example, if the difference (V (λ1) −Vn) <difference (V (λ2) −Vn) and the difference between the difference (V (λ1) −Vn) and the difference (V (λ2) −Vn) is small, it belongs to the skin. If it is larger, it can be determined that it belongs to the eyeball, and if the difference (V (λ1) −Vn)> difference (V (λ2) −Vn), it can be determined that it belongs to the hair, and the determined attribute is given to each pixel. In step 118, the attribute given for each pixel is output.

以上のように、各画素毎に対象物のどの部位に属しているかが判断されるので、対象物の各部位を判断することができる。   As described above, since it is determined which part of the target object belongs to each pixel, each part of the target object can be determined.

なお、上記では、光源・カメラ制御装置16によって、光源のオンオフに同期させてカメラのシャッタを開閉する例について説明したが、図8に示されるように、カメラのシャッタを開閉させる信号に同期させて第1光源及び第2光源をオンオフ制御するようにしてもよい。   In the above description, the example in which the light source / camera control device 16 opens and closes the shutter of the camera in synchronization with the on / off of the light source has been described. However, as shown in FIG. The first light source and the second light source may be controlled on and off.

次に第2の実施の形態について説明する。本実施の形態は、2つの光源に状態Cを生じさせることなく、第1光源のみオン(状態A)、第2光源のみオン(状態B)の2つの状態を生じさせて対象物の各部位を判定するものである。第1光源及び第2光源は、図9に示すように交互に発光させた2つの光源に同期して、カメラのシャッタを開閉させるか、または図10に示すように制御手段16によってカメラのシャッタに同期させたタイミングで2つの光源を発光させる。   Next, a second embodiment will be described. In the present embodiment, each state of the object is generated by generating two states of only the first light source (state A) and only the second light source (state B) without causing the state C of the two light sources. Is determined. The first light source and the second light source open or close the shutter of the camera in synchronization with the two light sources alternately emitted as shown in FIG. 9, or the camera shutter by the control means 16 as shown in FIG. The two light sources are caused to emit light at a timing synchronized with each other.

第2の実施の形態では、分光反射率が既知の標準白色板を用いると共に、データベースに波長λ1、λ2における対象物の分光反射率O(λ1)、O(λ2)の比O(λ1)/O(λ2)のデータを記憶した点が第1の実施の形態と異なっているが、その他の点は第1の実施の形態と同様であるので同様な部分については説明を省略する。   In the second embodiment, a standard white plate having a known spectral reflectance is used, and the ratio of spectral reflectances O (λ1) and O (λ2) of the object at wavelengths λ1 and λ2 to the database is O (λ1) / Although the point that the data of O (λ2) is stored is different from that of the first embodiment, the other points are the same as those of the first embodiment, and the description of the same parts is omitted.

次に、図11を参照して第2の実施の形態の対象物の各部位を判定する処理ルーチンについて説明する。   Next, a processing routine for determining each part of the object according to the second embodiment will be described with reference to FIG.

図9に示すタイミングで第1の光源及び第2の光源のオンオフ制御、及びカメラのシャッタの開閉が制御されている状態で標準白色板及び対象物を撮影し、図11のステップ120で第1の光源をオンして標準白色板及び対象物を照明した状態(状態A)での撮影か否かを判断すると共に、ステップ122で第2の光源をオンして標準白色板及び対象物を照明した状態(状態B)での撮影か否かを判断する。   The standard white plate and the object are photographed while the on / off control of the first light source and the second light source and the opening / closing of the shutter of the camera are controlled at the timing shown in FIG. In step 122, the second light source is turned on to illuminate the standard white plate and the target object. It is determined whether or not shooting is performed in the state (state B).

状態Aの場合には、ステップ121において標準白色板の領域を判断し、ステップ124において標準白色板の領域のデータを用いて標準白色板の撮影により得られた画像の画素値Vs(λ1)を演算して記憶し、標準白色板の領域以外の領域が対象物に相当するので、ステップ134において標準白色板の領域以外の領域のデータを用いて対象物の撮影により得られた画像の画素値V(λ1)を演算して記憶する。   In the case of the state A, the area of the standard white plate is determined in step 121, and the pixel value Vs (λ1) of the image obtained by photographing the standard white plate using the data of the area of the standard white plate in step 124 is obtained. Since the area other than the area of the standard white plate corresponds to the object, the pixel value of the image obtained by photographing the object using the data of the area other than the area of the standard white plate in Step 134 is calculated and stored. V (λ1) is calculated and stored.

状態Bの場合には、ステップ123において標準白色板の領域を判断し、ステップ126において標準白色板の領域のデータを用いて標準白色板の撮影により得られた画像の画素値Vs(λ2)を演算して記憶し、ステップ136において、標準白色板の領域以外の領域のデータを用いて対象物の撮影により得られた画像の画素値V(λ2)を演算して記憶する。   In the case of state B, the standard white plate region is determined in step 123, and the pixel value Vs (λ2) of the image obtained by photographing the standard white plate using the standard white plate region data in step 126 is obtained. In step 136, the pixel value V (λ2) of the image obtained by photographing the object is calculated and stored using the data of the area other than the area of the standard white plate.

この時の第1波長の光と第2波長の光との分光強度の比(E(λ1):E(λ2))は以下の(1)式で表わされる。   The ratio (E (λ1): E (λ2)) of the spectral intensity between the first wavelength light and the second wavelength light at this time is expressed by the following equation (1).

E(λ1):E(λ2)
=Vs(λ1)/Os(λ1):Vs(λ2)/Os(λ2)
・・・(1)
ただし、E(λ1)、E(λ2)は、各々波長λ1、λ2での分光強度、Vs(λ1)、Vs(λ2)は各々上記の波長λ1、λ2での標準反射板の画素値、Os(λ1)、Os(λ2)は各々λ1、λ2でのリファレンス反射率である。
E (λ1): E (λ2)
= Vs (λ1) / Os (λ1): Vs (λ2) / Os (λ2)
... (1)
Where E (λ1) and E (λ2) are the spectral intensities at wavelengths λ1 and λ2, respectively, Vs (λ1) and Vs (λ2) are the pixel values of the standard reflector at the wavelengths λ1 and λ2, respectively, and Os (Λ1) and Os (λ2) are reference reflectances at λ1 and λ2, respectively.

また、対象物の分光反射率の比O(λ1):O(λ2)は、対象物の波長λ1、λ2での画素値V(λ1),V(λ2)を用いて以下の(2)式で表すことができる。
O(λ1):O(λ2)
=Vs(λ1)/Os(λ1):Vs(λ2)/Os(λ2)/V(λ1)×V(λ2)
・・・(2)
従って、ステップ138では、上記(2)式に従って対象物の波長λ1、λ2での画素値V(λ1),V(λ2)、標準白色板の画素値Vs(λ1)、Vs(λ2)、リファレンス反射率Os(λ1)、Os(λ2)を用いて、対象物の異なる波長における分光反射率の比を演算し、ステップ140において演算された比とデータベースに記憶されている既知の対象物の各部位の分光反射率データとを比較することで各画素に髪、眼球、及び肌のいずれの属性を付与することができ、これにより対象物の各部位が髪、眼球、及び肌のいずれであるかを判別することができる。
Further, the spectral reflectance ratio O (λ1): O (λ2) of the object is expressed by the following equation (2) using the pixel values V (λ1) and V (λ2) at the wavelengths λ1 and λ2 of the object. Can be expressed as
O (λ1): O (λ2)
= Vs (λ1) / Os (λ1): Vs (λ2) / Os (λ2) / V (λ1) × V (λ2)
... (2)
Accordingly, in step 138, the pixel values V (λ1) and V (λ2) at the wavelengths λ1 and λ2 of the object according to the above equation (2), the pixel values Vs (λ1) and Vs (λ2) of the standard white plate, and the reference Using the reflectances Os (λ1) and Os (λ2), a ratio of spectral reflectances at different wavelengths of the object is calculated, and the ratio calculated in step 140 and each of the known objects stored in the database are calculated. By comparing with the spectral reflectance data of the part, any attribute of hair, eyeball, and skin can be given to each pixel, whereby each part of the object is any of hair, eyeball, and skin Can be determined.

なお、上記では標準白色板と対象物とを同時に撮影する例について説明したが、別々に撮影するようにしてもよい。   In addition, although the example which image | photographs a standard white board and a target object simultaneously was demonstrated above, you may make it image | photograph separately.

次に第3の実施の形態について説明する。本実施の形態は、図12に示すように、第2の実施の形態に第1光源及び第2光源の照明光量を調整する光源調整装置26を設けたものである。本実施の形態では、各光源で対象物を照明して撮影する直前に標準白色板24を撮影して得られた各画素の画素値Vs(λ1)、Vs(λ2)の値が等しくなるように照明調整手段26によって第1光源及び第2光源の少なくとも一方の光量の強さを調整する。   Next, a third embodiment will be described. In the present embodiment, as shown in FIG. 12, a light source adjustment device 26 that adjusts the amount of illumination light of the first light source and the second light source is provided in the second embodiment. In the present embodiment, the pixel values Vs (λ1) and Vs (λ2) of the pixels obtained by photographing the standard white plate 24 immediately before the subject is illuminated and photographed with the respective light sources are made equal. Further, the intensity of at least one of the first light source and the second light source is adjusted by the illumination adjusting means 26.

これにより、波長λ1と波長λ2とで反射率が等しい標準白色板での画素値Vs(λ1)、Vs(λ2)が等しくなり、反射率が波長λ1と波長λ2とで異なる対象物に対してVs(λ1)>Vs(λ2)またはVs(λ1)<Vs(λ2)の2分類を簡単に行なうことができる。   As a result, the pixel values Vs (λ1) and Vs (λ2) on the standard white plate having the same reflectance at the wavelengths λ1 and λ2 are equal, and the reflectance is different for the wavelengths λ1 and λ2. Two classifications of Vs (λ1)> Vs (λ2) or Vs (λ1) <Vs (λ2) can be easily performed.

そして、対象物を撮影して得られた対象物の各波長における画素値V(λ1)、V(λ2)の大小関係を調べることで対象物の各部位が髪、眼球、肌のいずれであるかを判別する。   Then, by examining the magnitude relationship between the pixel values V (λ1) and V (λ2) at each wavelength of the target obtained by photographing the target, each part of the target is hair, eyeball, or skin. Is determined.

次に、第4の実施の形態について説明する。本実施の形態は、単一の光源を用い、カメラ側で第1波長λ1域の光と第2波長λ2域の光とに分割して撮影するようにしたものである。   Next, a fourth embodiment will be described. In the present embodiment, a single light source is used, and the camera side divides and shoots light in the first wavelength λ1 region and light in the second wavelength λ2 region.

本実施の形態には、図13に示すように、第1波長λ1域の光を通過させるバンドパスフィルタ14A、及び第2波長λ2域の光を通過させるバンドパスフィルタ14Bを備えたカメラ14が設けられている。バンドパスフィルタ14A、及びバンドパスフィルタ14Bは、図14に示すように、交互に2次元状に配列することにより格子状に配列されて構成されている。   In the present embodiment, as shown in FIG. 13, a camera 14 having a bandpass filter 14A that transmits light in the first wavelength λ1 region and a bandpass filter 14B that transmits light in the second wavelength λ2 region is provided. Is provided. As shown in FIG. 14, the band-pass filter 14A and the band-pass filter 14B are arranged in a lattice pattern by alternately arranging them in a two-dimensional manner.

また光源としては第1波長λ1及び第2波長λ2を含む波長域の光を照射する単一の光源28を用いている。光源28には、光源をオンオフ制御する照明制御手段30が接続されている。   As a light source, a single light source 28 that emits light in a wavelength region including the first wavelength λ1 and the second wavelength λ2 is used. The light source 28 is connected to illumination control means 30 that controls on / off of the light source.

次に、本実施の形態の対象物の各部位を判定する処理ルーチンについて図15を参照して説明する。光源・カメラ制御手段によって光源28がオンオフ制御されると共に、光源のオンオフに同期してカメラのシャッタが開閉され、光源オン時の対象物の画像及び光源オフ時の対象物の画像が撮影される。   Next, a processing routine for determining each part of the object according to the present embodiment will be described with reference to FIG. The light source 28 is turned on and off by the light source / camera control means, and the shutter of the camera is opened and closed in synchronization with the on / off of the light source, and an image of the object when the light source is on and an image of the object when the light source is off are taken. .

ステップ150では光源がオンされたか否かを判断し、光源オンの場合は、ステップ152において光源オン時に第1波長のバンドパスフィルタ14Aを通過した光により得られた画像の画素値を演算して記憶すると共に、第2波長のバンドパスフィルタ14Bを通過した光により得られた画像の画素値を演算して記憶し、光源オフの場合は、ステップ154において光源オフ時に第1波長のバンドパスフィルタ14Aを通過した光により得られた画像の画素値を演算して記憶すると共に、第2波長のバンドパスフィルタ14Bを通過した光により得られた画像の画素値を演算して記憶する。   In step 150, it is determined whether or not the light source is turned on. If the light source is turned on, the pixel value of the image obtained by the light passing through the bandpass filter 14A of the first wavelength when the light source is turned on is calculated in step 152. The pixel value of the image obtained by the light that has passed through the bandpass filter 14B of the second wavelength is calculated and stored, and if the light source is off, the bandpass filter of the first wavelength when the light source is off in step 154 The pixel value of the image obtained by the light passing through 14A is calculated and stored, and the pixel value of the image obtained by the light passing through the bandpass filter 14B having the second wavelength is calculated and stored.

次のステップ156では、第1波長の光より得られた画素値について、各画素毎に光源オン時の画素値から光源オフ時の画素値を減算することで、第1波長の光のみの分光強度による画素値V(λ1)−Vn(λ1)を求めると共に、第2波長の光より得られた画素値について、各画素毎に光源オン時の画素値から光源オフ時の画素値を減算することで、第2波長の光のみの分光強度による画素値V(λ2)−Vn(λ2)を求める。   In the next step 156, with respect to the pixel value obtained from the light of the first wavelength, the pixel value when the light source is turned off is subtracted from the pixel value when the light source is turned on for each pixel. The pixel value V (λ1) −Vn (λ1) based on the intensity is obtained, and the pixel value obtained when the light source is turned off is subtracted from the pixel value obtained when the light source is turned on for each pixel. Thus, the pixel value V (λ2) −Vn (λ2) based on the spectral intensity of only the light of the second wavelength is obtained.

光源の分光強度は予め分かっているので、データベースに第1波長のバンドパスフィルタを通過した光により得られる肌、髪、眼球の画素値と第2波長のバンドパスフィルタを通過した光により得られる肌、髪、眼球の画素値との関係を記憶しておき、データベースに記憶されたデータと各画素の画素値V(λ1)−Vn(λ1)、V(λ2)−Vn(λ2)の値とを比較することで、対象物の部位が髪、肌、眼球のいずれであるかを判別することができる。   Since the spectral intensity of the light source is known in advance, the pixel value of skin, hair, and eyeball obtained from the light that has passed through the bandpass filter of the first wavelength and the light that has passed through the bandpass filter of the second wavelength are obtained in the database. The relationship between the pixel values of skin, hair, and eyeballs is stored, and the data stored in the database and the pixel values V (λ1) −Vn (λ1) and V (λ2) −Vn (λ2) of each pixel are stored. , It can be determined whether the part of the object is hair, skin, or eyeball.

次に第5の実施の形態について説明する。本実施の形態は、第4の実施の形態において、標準白色板を用い、第2の実施の形態と同様にして対象物の髪、肌、眼球を判定するようにしたものである。   Next, a fifth embodiment will be described. In the fourth embodiment, a standard white plate is used in the fourth embodiment, and the hair, skin, and eyeball of the object are determined in the same manner as in the second embodiment.

図17を参照して本実施の形態の対象物の髪、肌、眼球を判定するルーチンについて説明する。ステップ162では、光源により標準白色板を照明した状態でカメラにより標準白色板を撮影し、第1波長のバンドパスフィルタを通過した光により得られる画像の画素値Vs(λ1)を演算して記憶すると共に、第2波長のバンドパスフィルタを通過した光により得られる画像の画素値Vs(λ2)を演算して記憶する。   A routine for determining the hair, skin, and eyeballs of the object of the present embodiment will be described with reference to FIG. In step 162, the standard white plate is photographed by the camera while the standard white plate is illuminated by the light source, and the pixel value Vs (λ1) of the image obtained by the light passing through the bandpass filter of the first wavelength is calculated and stored. At the same time, the pixel value Vs (λ2) of the image obtained by the light passing through the bandpass filter of the second wavelength is calculated and stored.

次のステップ166では、光源をオンして対象物を照明し、ステップ168において第1波長のバンドパスフィルタを通過した光により得られる画像の画素値V(λ1)を求めて記憶すると共に、第2波長のバンドパスフィルタを通過した光により得られる画像の画素値V(λ2)を求めて記憶する。   In the next step 166, the light source is turned on to illuminate the object, and in step 168, the pixel value V (λ1) of the image obtained by the light that has passed through the bandpass filter of the first wavelength is obtained and stored. The pixel value V (λ2) of the image obtained by the light passing through the two-wavelength bandpass filter is obtained and stored.

次のステップ170では対象物の分光反射率の比O(λ1)/O(λ2)を上記(2)式に基づいて演算し、ステップ172で対象物の分光反射率の比とデータベースに記憶されている既知の対象物の各部位の分光反射率データとを比較することで対象物の各部位を判別する。   In the next step 170, the spectral reflectance ratio O (λ1) / O (λ2) of the object is calculated based on the above equation (2), and in step 172, the spectral reflectance ratio of the object is stored in the database. Each part of the target is discriminated by comparing the spectral reflectance data of each part of the known target.

次に、本発明の第6の実施の形態について説明する。本実施の形態は、上記第1の実施の形態において環境の明るさに応じて状態Cが発生する頻度を変更するようにしたものである。図18に示すように、本実施の形態には、太陽光を検出する太陽光センサ36、及び車内灯が点灯しているか否かを検出する車内灯センサ38で構成されて外界の明るさを検出する外部環境検出装置が設けられている。   Next, a sixth embodiment of the present invention will be described. In the present embodiment, the frequency of occurrence of the state C is changed according to the brightness of the environment in the first embodiment. As shown in FIG. 18, the present embodiment includes a sunlight sensor 36 that detects sunlight and an interior light sensor 38 that detects whether or not the interior light is lit, and controls the brightness of the outside world. An external environment detection device for detection is provided.

なお、上記では車内灯センサを用いて明るさを判断する例について説明したが、車内灯センサを用いることなくカメラで撮影した画像から外界の明るさを検出するようにしてもよい。画像から外界の明るさを検出するには、例えば、第1の実施の形態の光源オフ時に撮影した画像の特定の領域(例えば、サイドウインドウが撮影されている領域)の画素値から明るさを判断したり、第1の実施の形態の光源オフ時に撮影した画像の周辺領域の平均画素値から明るさを判断すればよい。   In addition, although the example which judges brightness using an interior light sensor was demonstrated above, you may make it detect the brightness of the external field from the image image | photographed with the camera, without using an interior light sensor. In order to detect the brightness of the external environment from the image, for example, the brightness is determined from the pixel value of a specific region (for example, a region where the side window is captured) of the image captured when the light source is turned off in the first embodiment. The brightness may be determined based on the average pixel value in the peripheral area of the image captured when the light source is turned off in the first embodiment.

本実施の形態では、太陽光センサ36により外界の光(太陽光)が検出されなかったと判定され、かつ車内灯センサ38により車内が消灯していると判定されたときは、対象物に外乱光が照射されていないと判断し、図19に示すように、状態Cが発生する頻度を外界が明るい場合に比較して低減する。この場合、状態Cの発生頻度は0とし、状態Cを発生させないようにしてもよい。   In the present embodiment, when it is determined that the outside light (sunlight) has not been detected by the sunlight sensor 36 and the interior light sensor 38 determines that the interior of the vehicle is off, disturbance light is applied to the object. As shown in FIG. 19, the frequency of occurrence of the state C is reduced as compared with the case where the external environment is bright. In this case, the occurrence frequency of the state C may be 0 and the state C may not be generated.

なお、本実施の形態では、太陽光センサ36に代えて時刻を計測する時計を設け、時刻により昼夜を判定して太陽光が車室内に照射されているか否かを判定するようにしてもよい。また、GPSセンサを設け、車両がトンネル内を走行しているか否かを判断し、トンネル内を走行しているときに太陽光が車室内に照射されていないと判断するようにしても良い。   In the present embodiment, a clock for measuring time may be provided in place of the sunlight sensor 36, and day / night may be determined based on the time to determine whether sunlight is radiated in the vehicle interior. . Further, a GPS sensor may be provided to determine whether or not the vehicle is traveling in a tunnel, and it may be determined that sunlight is not being irradiated into the vehicle interior when traveling in the tunnel.

以上説明したように、上記の各実施の形態によれば、外乱光に影響されることなくドライバの髪、肌、眼球の各部位を正確に判定することができる。なお、上記の各実施の形態では、ドライバの顔の各部位を判定する例について説明したが、例えば、シート布、プラスチック、衣服、眼鏡等の他の対象物の各部位の材質等の判定に用いることもできる。   As described above, according to each of the above embodiments, it is possible to accurately determine each part of the driver's hair, skin, and eyeball without being affected by ambient light. In each of the above embodiments, the example of determining each part of the driver's face has been described. For example, for determining the material of each part of other objects such as sheet cloth, plastic, clothes, glasses, etc. It can also be used.

本発明の第1の実施の形態を示すブロック図である。It is a block diagram which shows the 1st Embodiment of this invention. 本発明の実施の形態に使用されているカメラのCCDの分光感度特性を示す線図である。It is a diagram which shows the spectral sensitivity characteristic of CCD of the camera used for embodiment of this invention. 人間の肌の分光反射率特性を示す線図である。It is a diagram which shows the spectral reflectance characteristic of human skin. 人間の髪の分光反射率特性を示す線図である。It is a diagram which shows the spectral reflectance characteristic of human hair. 人間の眼球の分光透過率特性を示す線図である。It is a diagram which shows the spectral transmittance characteristic of a human eyeball. 第1の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 1st Embodiment. 第1の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの例を示す線図である。It is a diagram which shows the example of the on-off state of the light source of 1st Embodiment, and the opening / closing timing of the shutter of a camera. 第1の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの他の例を示す線図である。It is a diagram which shows the other example of the on-off state of the light source of 1st Embodiment, and the opening / closing timing of the shutter of a camera. 第2の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの例を示す線図である。It is a diagram which shows the example of the on-off state of the light source of 2nd Embodiment, and the opening / closing timing of the shutter of a camera. 第2の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの他の例を示す線図である。It is a diagram which shows the other example of the on-off state of the light source of 2nd Embodiment, and the opening / closing timing of the shutter of a camera. 第2の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 2nd Embodiment. 第3の実施の形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment. 第4の実施の形態を示すブロック図である。It is a block diagram which shows 4th Embodiment. 第4の実施の形態のフィルタの平面の図である。It is a top view of the filter of a 4th embodiment. 第4の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 4th Embodiment. 第5の実施の形態を示すブロック図である。It is a block diagram which shows 5th Embodiment. 第5の実施の形態の対象物の各部位を判別するルーチンを示す流れ図である。It is a flowchart which shows the routine which discriminate | determines each site | part of the target object of 5th Embodiment. 第6の実施の形態を示すブロック図である。It is a block diagram which shows 6th Embodiment. 第6の実施の形態の光源のオンオフ状態とカメラのシャッタの開閉タイミングとの例を示す線図である。It is a diagram which shows the example of the on-off state of the light source of 6th Embodiment, and the opening / closing timing of the shutter of a camera.

符号の説明Explanation of symbols

10 第1光源
12 第2光源
14 カメラ
16 光源・カメラ制御装置
18 記憶装置
10 First light source 12 Second light source 14 Camera 16 Light source / camera control device 18 Storage device

Claims (8)

近赤外領域の第1の波長域の光及び近赤外領域の第1の波長域と異なる第2の波長域の光を人の頭部に照射する照明手段と、
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部を撮影する撮影手段と、
第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と前記照明手段から光が照射されていない状態で撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illuminating means for irradiating light of a first wavelength band different from a second wavelength range of the light and near-infrared region of the first wavelength range in the near infrared region to the human head,
Control means for on / off controlling the illumination means;
Photographing means for photographing the head of the person in synchronization with on / off control of the control means;
The pixel value of the first of the person of the head of the image light from the pixel value and the illumination means of the person's head images taken while illuminated with light in a wavelength range were taken in a state of not being irradiated differences, and the second of the person of the head of the image light from the pixel value and the illumination means of the person's head images taken while illuminated with light in a wavelength range were taken in a state of not being irradiated Computing means for computing the difference between the pixel value of
Each part including at least one of the skin of the human head , the eyeball, and the hair based on the magnitude relation of the difference computed by the computing means , or the magnitude relation of the computed difference and the difference of the difference Discrimination means for discriminating;
Discriminating device for an object including
前記人の頭部が外乱光によって照明されているか否かを検出する検出手段を設け、
前記制御手段は、前記人の頭部が外乱光によって照明されていない場合には、前記照明手段から光が照射されていない状態が発生する頻度が所定値以下になるように前記照明手段をオンオフ制御する請求項1記載の対象物の部位判別装置
Providing detection means for detecting whether or not the human head is illuminated by ambient light;
When the human head is not illuminated by ambient light, the control means turns the illumination means on and off so that the frequency of occurrence of no light from the illumination means is less than or equal to a predetermined value. The object part discrimination | determination apparatus of Claim 1 to control
近赤外領域の第1の波長域の光及び近赤外領域の第1の波長域と異なる第2の波長域の光を人の頭部に照射する照明手段と、
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を撮影する撮影手段と、
第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値、第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値、及び第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値を演算する演算手段と、
前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illuminating means for irradiating light of a first wavelength band different from a second wavelength range of the light and near-infrared region of the first wavelength range in the near infrared region to the human head,
Control means for on / off controlling the illumination means;
Imaging means for imaging the human head and an object with known spectral reflectances of the light in the first wavelength range and the light in the second wavelength range in synchronization with the on / off control of the control means When,
A pixel value of an image of the human head imaged in a state illuminated with light of a first wavelength range, a pixel value of an image of the object imaged in a state illuminated with light of a first wavelength range, a second A calculation means for calculating a pixel value of the human head image captured in a state illuminated with light in a wavelength range and a pixel value of the image of the object captured in a state illuminated with light in a second wavelength range; ,
The human head that is calculated based on the calculation result calculated by the calculation means and the spectral reflectance of each of the light in the first wavelength region and the light in the second wavelength region of the object. Discrimination means for discriminating each part including at least one of skin, eyeball, and hair of the human head based on a ratio of spectral reflectances in the first wavelength range and the second wavelength range of ,
Discriminating device for an object including
近赤外領域の第1の波長域及び第2の波長域を含む光を人の頭部に照射する照明手段と、
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、
第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差、及び第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値と前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値との差を演算する演算手段と、
前記演算手段で演算された差の大小関係、又は前記演算された差の大小関係及び前記差の差分に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illumination means for irradiating the human head with light including the first wavelength region and the second wavelength region in the near infrared region ;
Control means for on / off controlling the illumination means;
An imaging unit that divides and images the human head in a second wavelength range different from the first wavelength range and the first wavelength range in synchronization with the on / off control of the control unit,
The person's head taken is divided into a first wavelength region light while turning off the first pixel value and the illumination means of the person's head of an image divided and taken light in a wavelength range And the pixel value of the human head image taken by dividing into the light of the second wavelength region and the light of the second wavelength region with the illumination means turned off. A calculation means for calculating a difference between the pixel value of the image of the person's head taken by dividing;
Each part including at least one of the skin of the human head , the eyeball, and the hair based on the magnitude relation of the difference computed by the computing means , or the magnitude relation of the computed difference and the difference of the difference Discriminating means for discriminating;
Discriminating device for an object including
近赤外領域の第1の波長域及び第2の波長域を含む光を人の頭部に照射する照明手段と、
前記照明手段をオンオフ制御する制御手段と、
前記制御手段のオンオフ制御に同期して前記人の頭部、及び前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率が既知の物体を第1の波長域と第1の波長域と異なる第2の波長域の光に分割して撮影する撮影手段と、
第1の波長域の光に分割して撮影した前記人の頭部の画像の画素値、前記照明手段をオフした状態で第1の波長域の光に分割して撮影した前記物体の画像の画素値、第2の波長域の光に分割して撮影した前記人の頭部の画像の画素値、及び前記照明手段をオフした状態で第2の波長域の光に分割して撮影した前記物体の画像の画素値を演算する演算手段と、
前記演算手段で演算された演算結果、及び前記物体の前記第1の波長域の光と前記第2の波長域の光との各々の分光反射率に基づいて演算される、前記人の頭部の前記第1の波長域と前記第2の波長域における分光反射率の比に基づいて、前記人の頭部肌、眼球、及び髪の少なくとも1つを含む各部位を判別する判別手段と、
を含む対象物の部位判別装置。
Illumination means for irradiating the human head with light including the first wavelength region and the second wavelength region in the near infrared region ;
Control means for on / off controlling the illumination means;
Synchronizing with the on / off control of the control means, the human head and an object having a known spectral reflectance of each of the light in the first wavelength range and the light in the second wavelength range are set to the first wavelength. An imaging unit that divides and shoots light in a second wavelength region different from the first wavelength region;
The pixel value of the human head image captured by dividing the light into the first wavelength range, and the image of the object captured by dividing the light into the first wavelength range with the illumination means turned off. The pixel value, the pixel value of the human head image taken by dividing the light into the second wavelength band, and the light divided into the second wavelength band with the illumination means turned off. A computing means for computing the pixel value of the image of the object;
The human head that is calculated based on the calculation result calculated by the calculation means and the spectral reflectance of each of the light in the first wavelength region and the light in the second wavelength region of the object. Discrimination means for discriminating each part including at least one of skin, eyeball, and hair of the human head based on a ratio of spectral reflectances in the first wavelength range and the second wavelength range of ,
Discriminating device for an object including
前記判別手段は、前記演算手段で演算された第1の波長域の光で照明した状態で撮影した前記物体の画像の画素値と第2の波長域の光で照明した状態で撮影した前記物体の画像の画素値とが同一になるように前記照明手段を調整し、
前記照明手段を調整した後に得られた第1の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値と第2の波長域の光で照明した状態で撮影した前記人の頭部の画像の画素値とに基づいて、前記前記人の頭部の各部位を判別する請求項3記載の対象物の部位判別装置。
The discrimination means includes the pixel value of the image of the object photographed in a state illuminated with light in the first wavelength range calculated by the computing means and the object photographed in a state illuminated with light in the second wavelength range. Adjusting the illumination means so that the pixel value of the image of
The shot while illuminated with light of a first pixel value and the second wavelength region of the person's head images taken while illuminated with light in a wavelength range obtained after adjusting the illumination means based on the pixel values of the human head image, the region determining apparatus according to claim 3 object, wherein determining the respective portions of said person's head.
前記照明手段から800nm〜1100nmの近赤外領域の光を照射する請求項1〜請求項6のいずれか1項記載の対象物の部位判別装置。   The target part discrimination | determination apparatus of any one of Claims 1-6 which irradiates the light of a 800 nm-1100 nm near-infrared area | region from the said illumination means. 前記第1の波長域を800nm〜970nmの間の波長域とし、前記第2の波長域を970nm〜1100nmの間の波長域とした請求項1〜請求項7のいずれか1項記載の対象物の部位判別装置。   The object according to any one of claims 1 to 7, wherein the first wavelength range is a wavelength range between 800 nm and 970 nm, and the second wavelength range is a wavelength range between 970 nm and 1100 nm. Site identification device.
JP2005062745A 2005-03-07 2005-03-07 Device part identification device Expired - Fee Related JP4442472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005062745A JP4442472B2 (en) 2005-03-07 2005-03-07 Device part identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005062745A JP4442472B2 (en) 2005-03-07 2005-03-07 Device part identification device

Publications (2)

Publication Number Publication Date
JP2006242909A JP2006242909A (en) 2006-09-14
JP4442472B2 true JP4442472B2 (en) 2010-03-31

Family

ID=37049458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005062745A Expired - Fee Related JP4442472B2 (en) 2005-03-07 2005-03-07 Device part identification device

Country Status (1)

Country Link
JP (1) JP4442472B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4860502B2 (en) * 2007-02-20 2012-01-25 富士フイルム株式会社 Face discrimination device, method, and program
JP5026854B2 (en) * 2007-04-27 2012-09-19 国立大学法人東京工業大学 Region extraction apparatus and region extraction method
JP5018653B2 (en) * 2008-06-04 2012-09-05 株式会社豊田中央研究所 Image identification device
JP5505761B2 (en) * 2008-06-18 2014-05-28 株式会社リコー Imaging device
JP5354008B2 (en) * 2009-04-06 2013-11-27 ソニー株式会社 Switching device, switching method, and electronic device
JP4548542B1 (en) 2009-06-30 2010-09-22 ソニー株式会社 Information processing apparatus, information processing method, and program
KR101146017B1 (en) * 2009-06-30 2012-05-15 소니 주식회사 Information processing apparatus and information processing method
JP5431810B2 (en) * 2009-07-03 2014-03-05 株式会社豊田中央研究所 Image sensor and light receiving device used for the image sensor
JP2011039812A (en) * 2009-08-12 2011-02-24 Sony Corp Image processing apparatus and electronic apparatus
JP5060580B2 (en) 2010-04-09 2012-10-31 トヨタ自動車株式会社 Spectrum measuring device
JP5519381B2 (en) 2010-04-09 2014-06-11 トヨタ自動車株式会社 Spectrum measuring device
JP5287792B2 (en) * 2010-05-10 2013-09-11 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2012068762A (en) * 2010-09-21 2012-04-05 Sony Corp Detection device, detection method, program, and electronic apparatus
JP2013032920A (en) * 2011-08-01 2013-02-14 Sumitomo Electric Ind Ltd Object detection device, and object detection method
JP5845858B2 (en) * 2011-11-30 2016-01-20 住友電気工業株式会社 Object detection apparatus and object detection method
US20180239979A1 (en) * 2015-09-03 2018-08-23 Nec Corporation Living body recognition device, living body recognition method, and living body recognition program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2823564B2 (en) * 1988-05-27 1998-11-11 日本電信電話株式会社 Organism detection device
JP2995805B2 (en) * 1990-06-28 1999-12-27 オムロン株式会社 Color parameter setting device
JP3214195B2 (en) * 1993-11-11 2001-10-02 三菱電機株式会社 Driver photography device
JPH0997363A (en) * 1995-10-02 1997-04-08 Oki Electric Ind Co Ltd Coin image pickup device
JP3674289B2 (en) * 1998-01-30 2005-07-20 富士電機リテイルシステムズ株式会社 Image acquisition method and apparatus for paper sheet media
JP3709539B2 (en) * 1999-04-05 2005-10-26 独立行政法人 国立印刷局 Authenticity discrimination printed matter mechanical discrimination method and apparatus
US7076088B2 (en) * 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
JP4092158B2 (en) * 2001-08-28 2008-05-28 松下電器産業株式会社 Irradiation light variable device and method, and component mounting device
JP2004144512A (en) * 2002-10-22 2004-05-20 Denso Corp Occupant detection system
JP2005039408A (en) * 2003-07-17 2005-02-10 Ricoh Co Ltd Apparatus and method for image processing, program, and recording medium
JP2006047067A (en) * 2004-08-03 2006-02-16 Funai Electric Co Ltd Human body detecting device and human body detecting method

Also Published As

Publication number Publication date
JP2006242909A (en) 2006-09-14

Similar Documents

Publication Publication Date Title
JP4442472B2 (en) Device part identification device
CN107408298B (en) Living body detection device, living body detection method, and recording medium
JP5145555B2 (en) Pupil detection method
KR101286454B1 (en) Fake face identification apparatus and method using characteristic of eye image
JP5761074B2 (en) Imaging control apparatus and program
JP4853389B2 (en) Face image capturing device
EP1452127B1 (en) Apparatus for detecting pupils
JP5018653B2 (en) Image identification device
US10579891B2 (en) Optical overlay device
CN104838644B (en) Seek the camera chain and method of detection zone image information
KR101123834B1 (en) Method and camera device for determination of photograph cheating using controllable ir light
JPH07134800A (en) Device for photographing driver
US20190364229A1 (en) Multispectral image processing system for face detection
Chang et al. Multispectral visible and infrared imaging for face recognition
JP2004171350A (en) Eye imaging device and information device using the same
TWI601074B (en) Certification devices and certification prism body
JP2006351011A (en) Color imaging system for locating retroreflector
CN108710844B (en) Authentication method and device for detecting face
Rost et al. A user-friendly technical set-up for infrared photography of forensic findings
WO2008099146A1 (en) Method and apparatus for counting vehicle occupants
WO2005119571A1 (en) Imaging apparatus and method for vehicle occupant determination
CN113532653B (en) Face living body detection method, face living body detection system and face recognition system
US20200221000A1 (en) Camera system, vehicle and method for configuring light source of camera system
JP2018173991A (en) Detection device
CN110235178A (en) Driver status estimating device and driver status estimate method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees