WO2013047088A1 - 生体認識装置 - Google Patents

生体認識装置 Download PDF

Info

Publication number
WO2013047088A1
WO2013047088A1 PCT/JP2012/072212 JP2012072212W WO2013047088A1 WO 2013047088 A1 WO2013047088 A1 WO 2013047088A1 JP 2012072212 W JP2012072212 W JP 2012072212W WO 2013047088 A1 WO2013047088 A1 WO 2013047088A1
Authority
WO
WIPO (PCT)
Prior art keywords
living body
image
luminance
threshold
image extraction
Prior art date
Application number
PCT/JP2012/072212
Other languages
English (en)
French (fr)
Inventor
長岡 伸治
誠 相村
幸大 松田
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2013536106A priority Critical patent/JP5760090B2/ja
Priority to US14/131,969 priority patent/US9292735B2/en
Priority to CN201280035109.8A priority patent/CN103797528A/zh
Priority to EP20120837388 priority patent/EP2711912A4/en
Publication of WO2013047088A1 publication Critical patent/WO2013047088A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/23Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a living body recognition apparatus that recognizes a living body based on an image captured by an infrared camera.
  • a living body a pedestrian who has a luminance equal to or greater than a luminance threshold
  • a captured image grayscale image
  • an infrared camera mounted on the vehicle with a predetermined luminance threshold a predetermined luminance threshold
  • a device for recognizing a living body present around the vehicle for example, see Patent Document 1.
  • an infrared camera As the infrared camera, the higher the temperature of the object than the background, the higher the brightness of the image part of the object, and the object than the background according to the temperature difference between the background and the object (monitoring object such as a living body)
  • An infrared camera which has a characteristic (hereinafter referred to as AC characteristic) in which the luminance of the image portion of the object is lower as the temperature of the above is lower.
  • the brightness of the image portion of the living body is lower than that of the background in the image captured by the infrared camera.
  • the present invention has been made in view of the above background, and it is an object of the present invention to provide a living body recognition apparatus in which it becomes difficult to recognize a living body based on a captured image of an infrared camera due to an environment where the living body is placed. Do.
  • the present invention has been made to achieve the above object, and an infrared camera is used to increase the temperature of an object above the background according to the temperature difference between the background and the object.
  • a captured image acquisition unit that acquires a captured image having a characteristic in which the luminance is high and the luminance of the image portion of the object is lower as the temperature of the object is lower than the background;
  • a living body image extraction unit that executes a first living body image extraction process for extracting an image portion of an object assumed to be a living body from a region where luminance is equal to or less than a predetermined first threshold in the captured image;
  • a living body recognition unit for recognizing the presence of a living body is provided based on the image portion of the object extracted by the living body image extraction unit (first invention).
  • the first living body image extraction process for extracting an image portion of an object assumed to be a living body from a region where luminance is equal to or less than the first threshold in the captured image. Run. Thereby, even in a situation where the temperature of the living body is lower than the ambient temperature and the luminance of the image portion of the living body in the captured image is lower than the background, the image portion of the object assumed to be the living body is extracted,
  • the living body recognition unit can recognize the presence of a living body. Therefore, it is possible to suppress that the recognition of the living body based on the captured image of the infrared camera becomes difficult due to the environment in which the living body is placed.
  • the background in the present invention means an object (a wall surface of a building, a road surface, etc.) existing behind an object when the object is imaged by an infrared camera.
  • a captured image having the above-described characteristics a video image may be a captured image by an infrared camera that outputs the video having the above-described characteristics, or an image of a normal infrared camera in which the brightness of corresponding pixels increases as the temperature of the imaging target increases. It is possible to use a captured image having the above-described characteristics by performing filter processing or the like.
  • the living body image extraction unit generates a reverse captured image in which the luminance of each pixel of the captured image is reversed, and the luminance in the reverse captured image is equal to or higher than a reverse threshold corresponding to the first threshold.
  • the first living body image extraction process is performed by extracting an image portion of an object assumed to be a living body from a region which is the second aspect of the present invention (second invention).
  • the living body image extraction unit performs extraction processing of a general image portion for extracting a high luminance image portion on the reverse captured image, thereby reducing the luminance of the captured image.
  • Image parts can be extracted. Therefore, it is not necessary to separately prepare a processing program for extracting an image portion of low luminance from the captured image.
  • inverting the luminance of each pixel means subtracting the luminance of each pixel from the maximum value of the luminance range and expressing the height from the minimum value of the luminance range to the maximum value of the luminance range It means to replace with the brightness corresponding to the remaining height of up to.
  • the living body image extraction unit is assumed to be a living body from the first living body image extraction processing and an area in the captured image having a luminance equal to or higher than a predetermined second threshold.
  • a second living body image extraction process of extracting an image portion of an object is performed (third invention).
  • the living body image extraction unit executes the second living body image extraction process together with the first living body image extraction process, whereby the living body temperature is lower than the ambient temperature, and the living body In both situations where the temperature of the object is higher than the ambient temperature, an image portion of an object assumed to be a living body can be extracted from the captured image.
  • the first threshold and the second threshold are set to different values (fourth invention).
  • the first threshold is set so as to facilitate extraction of the image portion of the low luminance object by the first living body image extraction processing
  • the second threshold is set to the second It is possible to set an image portion of a high-brightness object obtained by the biological image extraction processing to be easily extracted.
  • the living body image extraction unit sets the first threshold and the second threshold in accordance with the luminance distribution of the captured image (the fifth invention).
  • the first threshold and the second threshold for efficiently extracting the image portion of the low luminance object and the image portion of the high luminance object from the luminance distribution of the captured image It can be decided.
  • an outside air temperature sensor for detecting an outside air temperature is provided, and the living body image extraction unit determines that the detected temperature of the outside air temperature sensor is equal to or higher than a predetermined temperature.
  • the first living body image extraction process is performed (sixth invention).
  • the first living body image extraction process is performed in a situation where the outside air temperature is higher than the predetermined temperature and the outside air temperature is higher than the temperature of the living body.
  • An image portion of an object assumed to be a living body can be extracted from an area in the captured image where the luminance is equal to or less than the first threshold.
  • the living body image extraction unit may further include a rainfall detection unit that detects rainfall, when the rainfall detection unit is detecting rainfall.
  • the present invention is characterized in that the living body image extraction process of (1) is performed.
  • the seventh invention by performing the first living body image extraction process under a situation where the temperature of the living body is lower than the ambient temperature due to rainfall, the luminance in the captured image is less than the first threshold. From a certain area, an image portion of an object assumed to be a living body can be extracted.
  • the biological image extraction unit executes the first biological image extraction process when the contrast of the captured image is equal to or less than a predetermined width. It is characterized (the eighth invention).
  • the eighth invention when the contrast of the captured image is lowered to the predetermined width or less, it is assumed that the object and all around the object are in a high temperature condition. And in such a situation, there is a high possibility that the image part of the living body which is usually high in luminance is low in luminance. Therefore, in this case, it can be expected that the image portion of the low-brightness living body is extracted by executing the first living body image extraction processing.
  • Explanatory drawing of embodiment of a biological recognition apparatus The block diagram of a biological recognition apparatus. 3 is a flowchart of object extraction processing. Explanatory drawing of the setting of a binarization threshold value. Explanatory drawing of a reverse captured image.
  • FIG. 1 An embodiment of a living body recognition apparatus of the present invention will be described with reference to FIGS. 1 to 5.
  • the biometric device 10 of the present embodiment is mounted on a vehicle 1 and used.
  • the living body recognition apparatus 10 recognizes a living body (a pedestrian, a wild animal or the like) present in front of the vehicle 1 based on images captured by the left camera 21 and the right camera 22.
  • the living body recognition apparatus 10 detects the distance between the vehicle 1 and the object present in front of the vehicle 1 every predetermined control cycle, tracks the position of the object, and there is a risk that the object may come into contact with the vehicle 1 At the same time, an alarming process is performed on the display 42 and an alarm sound is output from the speaker 41 to alert the driver of the vehicle 1 to the object.
  • the biometric device 10 is set in a region closer to the vehicle width direction of the vehicle 1 than the Z axis Z1 set in the traveling direction of the vehicle 1 within the imaging range AR0 of the left camera 21 and the right camera 22
  • an object an example P1 is illustrated in FIG. 1 having a width in which the width ⁇ of the vehicle 1 is added to the width ⁇ of the vehicle 1 in the X axis direction
  • attention processing is performed.
  • an object (exemplified by P2 and P3 in FIG. 1) in the approach determination areas AR2 and AR3 set on the left and right of the approach determination area AR1 enters the approach determination area AR1. Even when there is a possibility, perform alerting processing.
  • the brightness of the image portion of the object becomes higher as the temperature of the object is higher than the background according to the temperature difference between the background and the object, and the temperature of the object is higher than the background
  • the left camera 21 and the right camera 22 are disposed at substantially symmetrical positions with respect to a central axis (Z axis) in the lateral direction (vehicle width direction, X axis direction) of the vehicle 1.
  • the left camera 21 and the right camera 22 are fixed so that the optical axes are parallel to each other and the height from the road surface is equal.
  • video signals of the left camera 21 and the right camera 22 are input to the living body recognition apparatus 10. Further, detection signals of the yaw rate sensor 31, the vehicle speed sensor 32, the brake sensor 33, and the outside air temperature sensor 34 mounted on the vehicle 1 and a signal indicating the operation status of the wiper 35 are input to the living body recognition apparatus 10 . Further, the control signal output from the living body recognition apparatus 10 controls the output of the speaker 41 and the display of the display unit 42.
  • the biometric device 10 is an electronic circuit unit configured by a CPU, a memory, an interface circuit, and the like (not shown), and the left camera 21 and the right camera 22 are executed by the CPU executing a biometric program stored in the memory.
  • a captured image acquisition unit 11 which converts a video signal output from the image signal into a digital signal and holds it in an image memory (not shown) as data of an image captured by the left camera 21 and the right camera 22;
  • the presence of a living body is recognized from the image part of the object extracted by the living body image extraction part 12 that extracts the image part of the object, the rain detection part 13 that detects the presence or absence of rainfall from the operation status of the wiper 35, and the living body image extraction part 12 To determine the possibility of contact between the vehicle 1 and the living body recognized by the living body recognition unit 14 and the living body recognition unit 14 To function as a tough 15.
  • the living body recognition apparatus 10 executes the flowchart of FIG. 3 every predetermined control cycle to recognize a living body present in front of the vehicle 1.
  • STEP 1 in FIG. 3 is processing performed by the captured image acquisition unit 11.
  • the captured image acquisition unit 11 converts video signals output from the left camera 21 and the right camera 22 into digital signals, and holds the digital signals in the image memory as captured images (gray scale images) of the left camera 21 and the right camera 22.
  • the subsequent STEP 2 to STEP 5 and STEP 20 to STEP 22 are processes by the living body image extraction unit 12.
  • the living body image extraction unit 12 executes the processing of STEP 2 to STEP 5 and STEP 20 to STEP 22 on the captured image of the right camera 22 (hereinafter simply referred to as a captured image).
  • the living body image extraction unit 12 sets a first threshold value Yth 1 and a second threshold value Yth 2 for generating a binary image according to the luminance histogram of the captured image (corresponding to the luminance distribution of the present invention).
  • FIG. 4 shows an example of a luminance histogram of a captured image, with the horizontal axis set to luminance and the vertical axis set to the appearance frequency (number of pixels) of pixels having each luminance.
  • the living body image extraction unit 12 is a binarization threshold value for extracting an image portion corresponding to the peak Y1 on the low luminance side.
  • a second threshold value Yth2 which is a binarization threshold value for extracting an image portion corresponding to one threshold value Yth1 and the peak Y2 on the high luminance side, is set.
  • a pixel whose brightness is equal to or less than the second threshold Yth2 is black (0) and a pixel whose brightness is higher than the second threshold Yth2 is white (1).
  • An image portion corresponding to the peak Y2 can be extracted from the white region of the binary image. Therefore, it is possible to extract the pedestrian's image part under a general situation where the outside air temperature is lower than the temperature of the living body and the brightness of the image part of the living body is higher than the background in the captured image.
  • the living body image extraction unit 12 In the next STEP 3, the living body image extraction unit 12 generates a binary image (second binary image) with the second threshold Yth2. Further, in STEP 4, the living body image extraction unit 12 extracts an image portion of an object assumed to be a living body from the white region of the second binary image.
  • the height, the width, the height from the road surface, the average value of the luminance, the luminance dispersion, etc. are in a preset range (pedestrians, wild animals, etc. It is an image part which is set assuming a living body).
  • the processing of STEP 3 to STEP 4 corresponds to the second living body image extraction processing of the present invention.
  • the living body image extraction unit 12 determines whether the outside air temperature detected by the outside air temperature sensor 34 is equal to or higher than a predetermined temperature, and whether or not the rain is detected by the rain detection unit 13. Then, when the outside air temperature is equal to or higher than the predetermined temperature or when rainfall is detected, the process branches to STEP 20, and when the outside air temperature is less than the predetermined temperature and rainfall is not detected, the process proceeds to STEP 6.
  • the outside air temperature is equal to or higher than the predetermined temperature and the outside air temperature is lower than the temperature of the living body, or the temperature of the living body is lower than the ambient temperature due to rainfall.
  • the brightness of the image part may be lower than the background.
  • the living body image extraction unit 12 extracts the image portion of the target having low luminance from the captured image in STEP 20 to STEP 22.
  • the living body image extraction unit 12 generates a reverse captured image in which the luminance of each pixel of the captured image is reversed.
  • FIG. 5 shows a captured image (original image) 50 and a reverse captured image 60 in which the luminance of each pixel of the captured image 50 is reversed.
  • the luminance of the image portion 51 of the living body (pedestrian) is lower than that of the background, but in the reverse captured image 60, the luminance of the image portion 61 of the living body is higher than the background.
  • the inversion of the luminance of each pixel is performed by subtracting the luminance of each pixel from the maximum value of the luminance. For example, in the case of 8-bit gray scale (brightness range: 0 to 255), the brightness is inverted by the following equation (1).
  • Yc 255-Y Hz (1) However, Yc: luminance of each pixel after inversion, Y: luminance of each pixel in the captured image.
  • the inverted binary image is a binary image (first binary image) generated by binarizing the captured image with the first threshold Yth1, in which white and black pixels are interchanged.
  • the living body image extraction unit 12 extracts the image portion of the object assumed to be a living body from the white region of the inverted binary image by the same processing as STEP4 described above, and proceeds to STEP6.
  • the process of extracting the image portion of the object from the black area of the first binary image by generating the inverted binary image and the image portion of the object from the white area of the inverted binary image Can be replaced by
  • the processing of STEP20 to STEP22 corresponds to the first living body image extraction processing of the present invention.
  • STEP 6 to STEP 7 are processes by the living body recognition unit 14 and the contact determination unit 15.
  • the living body recognition unit 14 determines whether the living body image extraction unit 12 has extracted the image part of the object. Then, when the image portion of the object is extracted, the process proceeds to STEP 7, and when the image portion of the object is not extracted, the process branches to STEP 8 and the processing is ended.
  • the living body recognition unit 14 recognizes the position of the object in the real space from the image portion of the object extracted by the biological image extraction unit 12.
  • This recognition processing is, for example, a vehicle calculated from the parallax of the image of the object between the captured image of the left camera 21 and the captured image of the right camera 22 by the method described in Japanese Patent Application Laid-Open No. 2003-284057 mentioned above.
  • the position (camera coordinates) of the image portion of the object in the captured image is converted to the real space position (real space coordinates) based on 1 and the distance between the objects.
  • the contact determination unit 15 detects the traveling speed of the vehicle 1 detected by the vehicle speed sensor 32 and the vehicle 1 detected by the yaw rate sensor 31 when the position of the object is within the approach determination area AR1 (see FIG. 1).
  • the object enters the approach determination area AR1 from within the approach determination areas AR2 and AR3 (see FIG. 1) from the movement vector of the object calculated using the yaw rate of And an alerting process for outputting an alarm sound from the speaker 41.
  • the contact determination unit 15 urges the driver of the vehicle 1 to pay attention to the object by the warning process, and proceeds to STEP 8 to end the process.
  • the brake operation by the driver is detected by the brake sensor 33 (see FIG. 2), it can be determined that the driver recognizes the presence of the object and tries to avoid the contact, so the contact determination unit 15 does not perform caution ventilation processing.
  • the living body image extraction unit 12 generates a reverse binary image by the processing of STEP 20 to STEP 22 in FIG. 3, and from the white region of the reverse binary image, the luminance in the captured image is higher than the background.
  • the black area of the first binary image (the binary image obtained by binarizing the captured image with the first threshold Yth1) is generated without generating the inverted binary image.
  • the image portion of the object may be extracted.
  • the process of constantly extracting the low-brightness image portion after STEP 20 may be performed without determining the condition of STEP 5.
  • a second biological image for extracting the image portion of the object from the second binary image generated by the binarization with the second threshold Yth2 of the captured image in STEP3 to STEP4 of FIG. 3 Although the extraction process is performed, the effect of the present invention can be obtained even when the second biological image extraction process is not performed.
  • the biological image extraction unit 12 sets the first threshold Yth1 and the second threshold Yth2 based on the luminance histogram of the captured image in STEP 2 of FIG.
  • the first threshold Yth1 and the second threshold cost Yth2 may be set in accordance with.
  • the binary image is generated by the processing of STEP 3 to STEP 4 and STEP 20 to STEP 22 in FIG. 3 and the image portion of the object is extracted from the binary image.
  • the image portion of the object is extracted directly from the region where the luminance is lower than the first threshold from the captured image (gray scale image), and the image portion of the object is extracted from the region where the luminance is higher than the second threshold It may be extracted.
  • the rain detection unit 13 detects the presence or absence of rain from the operating condition of the wiper 35
  • rain may be detected by a rain drop sensor, or weather information may be received by communication to receive rain. It may be detected.
  • the present invention is also applicable to the case where the biometric device is provided on a road, an entrance of a facility, or the like.
  • the process branches to STEP 20 and the image portion of the object is Although extracted, the image portion of the object may be extracted using the reverse captured image even when the contrast of the captured image is less than or equal to a predetermined width.
  • the infrared cameras 21 and 22 having the characteristic (AC characteristic) that the luminance of the image part of the object becomes low are used, the ordinary infrared camera that the luminance of the corresponding pixel becomes high according to the temperature of the imaging object is used Good.
  • the image of the infrared camera may be subjected to video filter processing or the like to generate a captured image having the same characteristics as the AC characteristics.
  • the distance between the vehicle and the object may be detected based on the change rate of the size of the image part of the same object among time-series images by a single-eye camera.
  • SYMBOLS 1 ... Vehicle, 10 ... Biological recognition apparatus, 11 ... Image acquisition part, 12 ... Living body image extraction part, 13 ... Rainfall detection part, 14 ... Living body recognition part, 15 ... Contact determination part, 21 ... Left camera, 22 ... Right camera 31: yaw rate sensor, 32: vehicle speed sensor, 33: brake sensor, 34: outside air temperature sensor, 35: wiper, 41: speaker, 42: indicator.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 生体認識装置10は、背景と対象物間の温度差に応じて、背景よりも対象物の温度が高いほど対象物の画像部分の輝度が高くなり、背景よりも対象物の温度が低いほど対象物の画像部分の輝度が低くなる特性を有する赤外線カメラ21,22による撮像画像を取得する撮像画像取得部11と、撮像画像において輝度が第1閾値Yth1以下である領域から、生体と想定される対象物の画像部分を抽出する第1の生体画像抽出処理を実行する生体画像抽出部12と、生体画像抽出部12により抽出された対象物の画像部分に基づいて、生体の存在を認識する生体認識部14とを備える。

Description

生体認識装置
 本発明は、赤外線カメラによる撮像画像に基づいて生体を認識する生体認識装置に関する。
 従来より、例えば車両に搭載された赤外線カメラにより撮像された車両周囲の撮像画像(グレースケール画像)を、所定の輝度閾値により2値化することにより、輝度閾値以上の輝度を有する生体(歩行者、野生動物等)の画像部分を抽出して、車両の周辺に存在する生体を認識するようにした装置が知られている(例えば、特許文献1参照)
特開2003-284057号公報
 赤外線カメラとして、背景と対象物(生体等の監視対象物)間の温度差に応じて、背景よりも対象物の温度が高いほど対象物の画像部分の輝度が高くなり、背景よりも対象物の温度が低いほど対象物の画像部分の輝度が低くなる特性(以下、AC特性という)を有する赤外線カメラが用いられている。
 AC特性の赤外線カメラを用いた場合、例えば、外気温が生体の温度よりも高い状況では、赤外線カメラによる撮像画像において、生体の画像部分の輝度が背景の画像部分よりも低くなる。そしてこの場合には、赤外線カメラの撮像画像を2値化した2値画像の白領域(高輝度領域)から、生体の画像部分を抽出して生体を認識することが困難になる。
 本発明はかかる背景に鑑みてなされたものであり、生体が置かれた環境により、赤外線カメラの撮像画像に基づく生体の認識が困難になることを抑制した生体認識装置を提供することを目的とする。
 本発明は上記目的を達成するためになされたものであり、赤外線カメラを用いて、背景と対象物間の温度差に応じて、背景よりも対象物の温度が高いほど対象物の画像部分の輝度が高くなり、背景よりも対象物の温度が低いほど対象物の画像部分の輝度が低くなる特性を有する撮像画像を取得する撮像画像取得部と、
 前記撮像画像において輝度が所定の第1閾値以下である領域から、生体と想定される対象物の画像部分を抽出する第1の生体画像抽出処理を実行する生体画像抽出部と、
 前記生体画像抽出部により抽出された対象物の画像部分に基づいて、生体の存在を認識する生体認識部と
を備えたことを特徴とする(第1発明)。
 第1発明によれば、前記生体画像抽出部は、前記撮像画像において輝度が前記第1閾値以下である領域から、生体と想定される対象物の画像部分を抽出する第1の生体画像抽出処理を実行する。これにより、生体の温度が周囲の温度よりも低く、前記撮像画像における生体の画像部分の輝度が背景よりも低くなった状況においても、生体と想定される対象物の画像部分を抽出して、前記生体認識部により生体の存在を認識することができる。そのため、生体が置かれた環境により、赤外線カメラの撮像画像に基づく生体の認識が困難になることを抑制することができる。
 なお、本発明における背景とは、赤外線カメラにより対象物を撮像するときに、対象物の背後に存在する物体(建物の壁面、路面等)を意味する。また、前記特性を有する撮像画像としては、前記特性を有する映像を出力する赤外線カメラによる撮像画像や、撮像対象の温度が高いほど対応する画素の輝度が高くなる通常の赤外線カメラの画像に、映像フィルタ処理等を施して前記特性をもたせた撮像画像を用いることができる。
 また、第1発明において、前記生体画像抽出部は、前記撮像画像の各画素の輝度を反転させた反転撮像画像を生成し、該反転撮像画像において輝度が前記第1閾値に対応する反転閾値以上である領域から、生体と想定される対象物の画像部分を抽出することによって、前記第1の生体画像抽出処理を実行することを特徴とする(第2発明)。
 第2発明によれば、前記生体画像抽出部は、前記反転撮像画像に対して、高輝度の画像部分を抽出する一般的な画像部分の抽出処理を行うことで、前記撮像画像から低輝度の画像部分を抽出することができる。そのため、前記撮像画像から低輝度の画像部分を抽出するための処理プログラムを別個に用意する必要がない。
 なお、各画素の輝度を反転させるとは、各画素の輝度を輝度範囲の最大値から減じて、輝度範囲の最小値からの高さを表していた各画素の輝度を、輝度範囲の最大値までの残りの高さに相当する輝度に置き換えることを意味する。
 また、第1発明又は第2発明において、前記生体画像抽出部は、前記第1の生体画像抽出処理と、前記撮像画像において輝度が所定の第2閾値以上である領域から、生体と想定される対象物の画像部分を抽出する第2の生体画像抽出処理とを実行することを特徴とする(第3発明)。
 第3発明によれば、前記生体画像抽出部は、前記第1の生体画像抽出処理と共に前記第2の生体画像抽出処理を実行することにより、生体の温度が周囲温度よりも低い場合と、生体の温度が周囲温度よりも高い場合の双方の状況において、生体と想定される対象物の画像部分を前記撮像画像から抽出することができる。
 また、第3発明において、前記第1閾値と前記第2閾値が、異なる値に設定されていることを特徴とする(第4発明)。
 第4発明によれば、前記第1閾値を、前記第1の生体画像抽出処理による低輝度の対象物の画像部分を抽出し易いものに設定すると共に、前記第2閾値を、前記第2の生体画像抽出処理による高輝度の対象物の画像部分を抽出し易いものに設定することができる。
 また、第4発明において、前記生体画像抽出部は、前記撮像画像の輝度分布に応じて、前記第1閾値と前記第2閾値とを設定することを特徴とする(第5発明)。
 第5発明によれば、前記撮像画像の輝度分布から、低輝度の対象物の画像部分と高輝度の対象物の画像部分を、効率良く抽出するための前記第1閾値と前記第2閾値を決定することができる。
 また、第1発明から第5発明のうちのいずれかにおいて、外気温を検出する外気温センサを備え、前記生体画像抽出部は、前記外気温センサの検出温度が所定温度以上であるときに、前記第1の生体画像抽出処理を実行することを特徴とする(第6発明)。
 第6発明によれば、外気温が前記所定温度以上であって、生体の温度よりも外気温の方が高くなった状況下において、前記第1の生体画像抽出処理を実行することにより、前記撮像画像において輝度が前記第1閾値以下である領域から、生体と想定される対象物の画像部分を抽出することができる。
 また、第1発明から第6発明のうちのいずれかにおいて、降雨を検知する降雨検知部を備え、前記生体画像抽出部は、前記降雨検知部により降雨が検出されているときに、前記第1の生体画像抽出処理を実行することを特徴とする(第7発明)。
 第7発明によれば、降雨により生体の温度が周囲温度よりも低くなった状況下において、前記第1の生体画像抽出処理を実行することにより、前記撮像画像において輝度が前記第1閾値以下である領域から、生体と想定される対象物の画像部分を抽出することができる。
 また、第1発明から第7発明のうちのいずれかにおいて、前記生体画像抽出部は、前記撮像画像のコントラストが所定幅以下であるときに、前記第1の生体画像抽出処理を実行することを特徴とする(第8発明)。
 第8発明において、前記撮像画像のコントラストが前記所定幅以下まで低くなっているときには、対象物及びその周囲の全てが高温の状況であると想定される。そして、このような状況では、通常時は高輝度になっている生体の画像部分が、低輝度になっている可能性が高い。そこで、この場合に、前記第1の生体画像抽出処理を実行することにより、低輝度の生体の画像部分が抽出されることが期待できる。
生体認識装置の実施形態の説明図。 生体認識装置の構成図。 対象物抽出処理のフローチャート。 2値化閾値の設定の説明図。 反転撮像画像の説明図。
 本発明の生体認識装置の実施形態について、図1~図5を参照して説明する。図1を参照して、本実施形態の生体認識装置10は、車両1に搭載して使用される。生体認識装置10は、左カメラ21及び右カメラ22の撮像画像に基づいて、車両1の前方に存在する生体(歩行者、野生動物等)を認識する。
 生体認識装置10は、車両1と車両1の前方に存在する対象物間の距離を所定の制御周期毎に検出して、対象物の位置を追跡し、対象物が車両1と接触するおそれがあるときに、表示器42に警報表示を行うと共にスピーカ41から警報音を出力する注意喚起処理を行って、車両1の運転者に対象物に対する注意を促す。
 生体認識装置10は、左カメラ21及び右カメラ22の撮像範囲AR0内の、車両1の進行方向に設定したZ軸のZ1よりも近い領域に設定されて、車両1の車幅方向に設定したX軸方向に車両1の幅αに左右の余裕βを加えた幅をもつ接近判定領域AR1内にある対象物(図1ではP1を例示)を認識したときに、注意喚起処理を行う。
 また、生体認識装置10は、接近判定領域AR1の左右に設定された進入判定領域AR2,AR3内に存在する対象物(図1ではP2,P3を例示)が、接近判定領域AR1内に進入する可能性があるときにも、注意喚起処理を行う。
 左カメラ21及び右カメラ22は、背景と対象物間の温度差に応じて、背景よりも対象物の温度が高いほど対象物の画像部分の輝度が高くなり、背景よりも対象物の温度が低いほど対象物の画像部分の輝度が低くなる特性(AC特性)を有する赤外線カメラである。
 左カメラ21及び右カメラ22は、車両1の横方向(車幅方向,X軸方向)の中心軸(Z軸)に対してほぼ対称な位置に配置されている。そして、左カメラ21と右カメラ22は、光軸が互いに並行となり、路面からの高さが等しくなるように固定されている。
 次に、図2を参照して、生体認識装置10には、左カメラ21及び右カメラ22の映像信号が入力される。また、生体認識装置10には、車両1に搭載されたヨーレートセンサ31、車速センサ32、ブレーキセンサ33、及び外気温センサ34の各検出信号と、ワイパー35の作動状況を示す信号が入力される。さらに、生体認識装置10から出力される制御信号により、スピーカ41の出力と表示器42の表示が制御される。
 生体認識装置10は、図示しないCPU、メモリ、インターフェース回路等により構成された電子回路ユニットであり、メモリに保持された生体認識用のプログラムをCPUで実行することによって、左カメラ21及び右カメラ22から出力される映像信号をデジタル信号に変換し、左カメラ21及び右カメラ22による撮像画像のデータとして画像メモリ(図示しない)に保持する撮像画像取得部11、撮像画像から生体と想定される対象物の画像部分を抽出する生体画像抽出部12、ワイパー35の作動状況から降雨の有無を検知する降雨検知部13、生体画像抽出部12により抽出された対象物の画像部分から生体の存在を認識する生体認識部14、及び生体認識部14により認識された生体と車両1との接触可能性を判定する接触判定部15として機能する。
 次に、図3に示したフローチャートに従って、生体認識装置10による車両1の前方に存在する生体の認識処理について説明する。生体認識装置10は、所定の制御サイクル毎に図3のフローチャートを実行して、車両1の前方に存在する生体を認識する。
 図3のSTEP1は撮像画像取得部11による処理である。撮像画像取得部11は、左カメラ21及び右カメラ22から出力される映像信号をデジタル信号に変換し、左カメラ21及び右カメラ22の撮像画像(グレースケール画像)として画像メモリに保持する。
 続くSTEP2~STEP5及びSTEP20~STEP22は、生体画像抽出部12による処理である。本実施形態では、生体画像抽出部12は、右カメラ22の撮像画像(以下では、単に撮像画像という)について、STEP2~STEP5及びSTEP20~STEP22の処理を実行する。
 STEP2で、生体画像抽出部12は、撮像画像の輝度ヒストグラム(本発明の輝度分布に相当する)により、2値画像を生成するための第1閾値Yth1及び第2閾値Yth2を設定する。図4は、撮像画像の輝度ヒストグラムの例を、横軸を輝度に設定し、縦軸を各輝度を有する画素の出現頻度(画素の個数)に設定して示したものである。
 図4の輝度ヒストグラムでは、頻度のピークが2個あり(Y1,Y2)、生体画像抽出部12は、低輝度側のピークY1に対応する画像部分を抽出するための2値化閾値である第1閾値Yth1と、高輝度側のピークY2に対応する画像部分を抽出するための2値化閾値である第2閾値Yth2を設定する。
 第1閾値Yth1により、輝度が第1閾値Yth1以下である画素を黒(0)とし、輝度が第1閾値Yth1よりも高い画素を白(1)とする2値化処理を行うことで、2値画像の黒領域から、ピークY1に対応する画像部分を抽出することができる。そのため、外気温が生体の温度よりも高く、撮像画像において、生体の画像部分の輝度が背景の輝度よりも低くなっているような場合に、生体の画像部分を抽出することが可能になる。
 また、第2閾値Yth2により、輝度が第2閾値Yth2以下である画素を黒(0)とし、輝度が第2閾値Yth2よりも高い画素を白(1)とする2値化処理を行うことで、2値画像の白領域から、ピークY2に対応する画像部分を抽出することができる。そのため、外気温が生体の温度よりも低く、撮像画像において、生体の画像部分の輝度が背景よりも高くなる一般的な状況下で、歩行者の画像部分を抽出することが可能になる。
 次のSTEP3で、生体画像抽出部12は、第2閾値Yth2により2値画像(第2の2値画像)を生成する。また、STEP4で、生体画像抽出部12は、第2の2値画像の白領域から、生体と想定される対象物の画像部分を抽出する。
 ここで、生体と想定される対象物の画像部分とは、高さ、幅、路面からの高さ、輝度平均値、輝度分散等が、予め設定された範囲内(歩行者、野生動物等の生体を想定して設定される)である画像部分である。なお、STEP3~STEP4の処理は、本発明の第2の生体画像抽出処理に相当する。
 続くSTEP5で、生体画像抽出部12は、外気温センサ34により検出される外気温が所定温度以上であるか否かと、降雨検知部13により降雨が検知されているか否かを判断する。そして、外気温が所定温度以上であるか、又は降雨が検知されているときは、STEP20に分岐し、外気温が所定温度未満であり、且つ降雨が検知されていないときには、STEP6に進む。
 STEP20に分岐した場合は、外気温が所定温度以上であって外気温が生体の温度よりも低くなるか、或いは、降雨により生体の温度が周囲温度よりも低くなって、撮像画像において、生体の画像部分の輝度が背景よりも低くなっている可能性がある。
 そこで、この場合に、生体画像抽出部12は、STEP20~STEP22により、撮像画像から輝度が低い対象物の画像部分を抽出する。STEP20で、生体画像抽出部12は、撮像画像の各画素の輝度を反転させた反転撮像画像を生成する。
 ここで、図5は、撮像画像(原画像)50と、撮像画像50の各画素の輝度を反転させた反転撮像画像60を示したものである。撮像画像50においては、生体(歩行者)の画像部分51の輝度が背景よりも低くなっているが、反転撮像画像60においては、生体の画像部分61の輝度が背景よりも高くなっている。
 なお、各画素の輝度の反転は、輝度の最大値から各画素の輝度を減じることにより行う。例えば、8bit諧調(輝度範囲:0~255)の場合は、以下の式(1)により輝度を反転させる。
 Yc=255-Y ・・・・・ (1)
 但し、Yc:反転後の各画素の輝度、Y:撮像画像での各画素の輝度。
 次のSTEP21で、生体画像抽出部12は、反転撮像画像を、第1閾値Yth1を反転した反転閾値Ythc(=輝度の最大値-Yth1)により2値化して、2値画像(反転2値画像)を生成する。反転2値画像は、撮像画像を第1閾値Yth1で2値化して生成した2値画像(第1の2値画像)の、白の画素と黒の画素を入れ替えたものになる。
 そして、続くSTEP22で、生体画像抽出部12は、上述したSTEP4と同様の処理により、反転2値画像の白領域から、生体と想定される対象物の画像部分を抽出して、STEP6に進む。
 このように、反転2値画像を生成することによって、第1の2値画像の黒領域から対象物の画像部分を抽出する処理を、反転2値画像の白領域から対象物の画像部分を抽出する処理に置き換えることができる。なお、STEP20~STEP22の処理は、本発明の第1の生体画像抽出処理に相当する。
 この場合、2値画像から対象物の画像部分を抽出するためのプログラムとしては、2値画像の白領域から対象物の画像部分を抽出するプログラムのみをメモリに保持すればよく、2値画像の黒領域から対象物の画像部分を抽出するプログラムを別途用意する必要はない。そのため、生体を認識するためのプログラムを簡素化してプログラム容量を少なくすることができる。
 STEP6~STEP7は、生体認識部14及び接触判定部15による処理である。生体認識部14は、STEP6で、生体画像抽出部12により対象物の画像部分が抽出されたか否かを判断する。そして、対象物の画像部分が抽出されたときはSTEP7に進み、対象物の画像部分が抽出されなかったときには、STEP8に分岐して処理を終了する。
 STEP7で、生体認識部14は、生体画像抽出部12により抽出された対象物の画像部分から、実空間における対象物の位置を認識する。この認識処理は、例えば上掲した特開2003-284057号公報に記載されている手法により、左カメラ21の撮像画像と右カメラ22の撮像画像間における対象物の画像の視差から算出される車両1と対象物間の距離に基づいて、撮像画像における対象物の画像部分の位置(カメラ座標)を、実空間位置(実空間座標)に変換することにより行う。
 接触判定部15は、対象物の位置が接近判定領域AR1(図1参照)内であるとき、及び、車速センサ32により検出される車両1の走行速度、及びヨーレートセンサ31により検出される車両1のヨーレートを用いて算出した対象物の移動ベクトルから、対象物が進入判定領域AR2,AR3(図1参照)内から接近判定領域AR1に進入する可能性があるときに、表示器42に警報表示を行うと共にスピーカ41から警報音を出力する注意喚起処理を行う。
 接触判定部15は、この注意喚起処理により、車両1の運転者に対象物に対する注意を促し、STEP8に進んで処理を終了する。なお、ブレーキセンサ33(図2参照)により、運転者によるブレーキ操作が検出されているときには、運転者が対象物の存在を認識して、接触を回避しようとしていると判断できるため、接触判定部15は、注意換気処理を行わない。
 なお、本実施形態において、生体画像抽出部12は、図3のSTEP20~STEP22の処理により、反転2値画像を生成して、反転2値画像の白領域から、撮像画像において輝度が背景よりも低くなった対象物の画像部分を抽出したが、反転2値画像を生成せずに、第1の2値画像(撮像画像を第1閾値Yth1で2値化した2値画像)の黒領域から、この対象物の画像部分を抽出するようにしてもよい。
 また、本実施形態において、生体画像抽出部12は、図3のSTEP5で、外気温が所定温度以上、又は降雨が検知されているときに、STEP20に分岐して低輝度の画像部分を抽出する処理を行ったが、STEP5の条件を判断せずに、常にSTEP20以降の低輝度の画像部分を抽出する処理を行うようにしてもよい。
 また、本実施形態では、図3のSTEP3~STEP4により、撮像画像の第2閾値Yth2による2値化により生成した第2の2値画像から、対象物の画像部分を抽出する第2の生体画像抽出処理を行ったが、この第2の生体画像抽出処理を行わないときも、本発明の効果を得ることができる。
 また、本実施形態では、図3のSTEP2において、生体画像抽出部12は、撮像画像の輝度ヒストグラムに基いて、第1閾値Yth1と第2閾値Yth2を設定したが、他の条件(外気温等)に応じて、第1閾値Yth1と第2閾費Yth2を設定してもよい。
 また、本実施形態では、図3のSTEP3~STEP4、及びSTEP20~STEP22の処理により、2値画像を生成して、2値画像から対象物の画像部分を抽出したが、2値画像を生成せずに、撮像画像(グレースケール画像)から直接、輝度が第1閾値以下である領域から対象物の画像部分を抽出し、また、輝度が第2閾値以上である領域から対象物の画像部分を抽出するようにしてもよい。
 また、本実施形態において、降雨検知部13は、ワイパー35の作動状況から降雨の有無を検知したが、雨滴センサにより降雨を検知してもよく、或いは、通信により天候情報を受信して降雨を検知するようにしてもよい。
 また、本実施形態では、生体認識装置10を車両1に搭載した例を示したが、生体認識装置を道路や施設の出入口等に設ける場合にも、本発明の適用が可能である。
 また、本実施形態では、図3のSTEP5で、外気温が所定温度以上であるときと、降雨が検知されたときに、STEP20に分岐して、反転撮像画像を用いて対象物の画像部分を抽出したが、さらに、撮像画像のコントラストが所定幅以下であるときにも、反転撮像画像を用いて対象物の画像部分を抽出するようにしてもよい。
 また、本実施形態では、背景と対象物間の温度差に応じて、背景よりも対象物の温度が高いほど対象物の画像部分の輝度が高くなり、背景よりも対象物の温度が低いほど対象物の画像部分の輝度が低くなる特性(AC特性)を有する赤外線カメラ21,22を用いたが、撮像物の温度に応じて対応する画素の輝度が高くなる通常の赤外線カメラを用いてもよい。この場合には、赤外線カメラの画像に映像フィルタ処理等を施して、AC特性と同様の特性を有する撮像画像を生成すればよい。
 また、本実施の形態では、左カメラ21及び右カメラ22という2台のカメラ(ステレオカメラ)を用いたが、1台のカメラ(単眼カメラ)による構成を採用してもよい。この場合には、単眼カメラによる時系列画像間での同一物体の画像部分の大きさの変化率等に基づいて、車両と対象物間の距離を検出すればよい。
 1…車両、10…生体認識装置、11…画像取得部、12…生体画像抽出部、13…降雨検知部、14…生体認識部、15…接触判定部、21…左カメラ、22…右カメラ、31…ヨーレートセンサ、32…車速センサ、33…ブレーキセンサ、34…外気温センサ、35…ワイパー、41…スピーカ、42…表示器。

Claims (8)

  1.  赤外線カメラを用いて、背景と対象物間の温度差に応じて、背景よりも対象物の温度が高いほど対象物の画像部分の輝度が高くなり、背景よりも対象物の温度が低いほど対象物の画像部分の輝度が低くなる特性を有する撮像画像を取得する撮像画像取得部と、
     前記撮像画像において輝度が所定の第1閾値以下である領域から、生体と想定される対象物の画像部分を抽出する第1の生体画像抽出処理を実行する生体画像抽出部と、
     前記生体画像抽出部により抽出された対象物の画像部分に基づいて、生体の存在を認識する生体認識部と
    を備えたことを特徴とする生体認識装置。
  2.  請求項1に記載の生体認識装置において、
     前記生体画像抽出部は、前記撮像画像の各画素の輝度を反転させた反転撮像画像を生成し、該反転撮像画像において輝度が前記第1閾値に対応する反転閾値以上である領域から、生体と想定される対象物の画像部分を抽出することによって、前記第1の生体画像抽出処理を実行することを特徴とする生体認識装置。
  3.  請求項1に記載の生体認識装置において、
     前記生体画像抽出部は、
     前記第1の生体画像抽出処理と、
     前記撮像画像において輝度が所定の第2閾値以上である領域から、生体と想定される対象物の画像部分を抽出する第2の生体画像抽出処理とを実行することを特徴とする生体認識装置。
  4.  請求項3に記載の生体認識装置において、
     前記第1閾値と前記第2閾値が、異なる値に設定されていることを特徴とする生体認識装置。
  5.  請求項4に記載の生体認識装置において、
     前記生体画像抽出部は、前記撮像画像の輝度分布に応じて、前記第1閾値と前記第2閾値とを設定することを特徴とする生体認識装置。
  6.  請求項1に記載の生体認識装置において、
     外気温を検出する外気温センサを備え、
     前記生体画像抽出部は、前記外気温センサの検出温度が所定温度以上であるときに、前記第1の生体画像抽出処理を実行することを特徴とする生体認識装置。
  7.  請求項1に記載の生体認識装置において、
     降雨を検知する降雨検知部を備え、
     前記生体画像抽出部は、前記降雨検知部により降雨が検出されているときに、前記第1の生体画像抽出処理を実行することを特徴とする生体認識装置。
  8.  請求項1に記載の生体認識装置において、
     前記生体画像抽出部は、前記撮像画像のコントラストが所定幅以下であるときに、前記第1の生体画像抽出処理を実行することを特徴とする生体認識装置。
PCT/JP2012/072212 2011-09-28 2012-08-31 生体認識装置 WO2013047088A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013536106A JP5760090B2 (ja) 2011-09-28 2012-08-31 生体認識装置
US14/131,969 US9292735B2 (en) 2011-09-28 2012-08-31 Living body recognizing device
CN201280035109.8A CN103797528A (zh) 2011-09-28 2012-08-31 生物体识别装置
EP20120837388 EP2711912A4 (en) 2011-09-28 2012-08-31 BIOMETRIC DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011212484 2011-09-28
JP2011-212484 2011-09-28

Publications (1)

Publication Number Publication Date
WO2013047088A1 true WO2013047088A1 (ja) 2013-04-04

Family

ID=47995135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/072212 WO2013047088A1 (ja) 2011-09-28 2012-08-31 生体認識装置

Country Status (5)

Country Link
US (1) US9292735B2 (ja)
EP (1) EP2711912A4 (ja)
JP (1) JP5760090B2 (ja)
CN (1) CN103797528A (ja)
WO (1) WO2013047088A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106218571A (zh) * 2016-08-22 2016-12-14 浙江吉利控股集团有限公司 一种防车内窒息装置
JP2020159761A (ja) * 2019-03-25 2020-10-01 Eneos株式会社 検出装置、検出システムおよび検出方法
JP2021033835A (ja) * 2019-08-28 2021-03-01 株式会社Jvcケンウッド 対象物認識装置、対象物認識方法及びプログラム
JP7400599B2 (ja) 2020-03-31 2023-12-19 株式会社豊田中央研究所 物体検出装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5760090B2 (ja) * 2011-09-28 2015-08-05 本田技研工業株式会社 生体認識装置
CN107506687B (zh) * 2017-07-17 2020-01-21 Oppo广东移动通信有限公司 活体检测方法及相关产品
DE102017119394A1 (de) * 2017-08-28 2019-02-28 HELLA GmbH & Co. KGaA Verfahren zur Ansteuerung mindestens eines Lichtmoduls einer Leuchteinheit eines Fahrzeugs, Leuchteinheit, Computerprogrammprodukt und computerlesbares Medium
CN109934079A (zh) * 2017-12-18 2019-06-25 华创车电技术中心股份有限公司 低光源环境物件监测装置及其监测方法
CN114973426B (zh) * 2021-06-03 2023-08-15 中移互联网有限公司 活体检测方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000019259A (ja) * 1998-06-30 2000-01-21 Mazda Motor Corp 環境認識装置
JP2003284057A (ja) 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
JP2007241740A (ja) * 2006-03-09 2007-09-20 Honda Motor Co Ltd 車両周辺監視装置
JP2011170499A (ja) * 2010-02-17 2011-09-01 Honda Motor Co Ltd 車両の周辺監視装置

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5798983A (en) * 1997-05-22 1998-08-25 Kuhn; John Patrick Acoustic sensor system for vehicle detection and multi-lane highway monitoring
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
JP3938532B2 (ja) * 2002-09-05 2007-06-27 本田技研工業株式会社 車両制御装置、プログラム及び方法
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
JP3934119B2 (ja) * 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置
JP4734884B2 (ja) * 2004-09-30 2011-07-27 日産自動車株式会社 人物検出装置及び方法
JP4970926B2 (ja) * 2006-01-16 2012-07-11 本田技研工業株式会社 車両周辺監視装置
US7671725B2 (en) * 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP4793638B2 (ja) 2006-03-27 2011-10-12 マツダ株式会社 車両用歩行者検出装置
JP4171501B2 (ja) * 2006-04-25 2008-10-22 本田技研工業株式会社 車両の周辺監視装置
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP4470067B2 (ja) * 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
JP4359710B2 (ja) * 2008-02-04 2009-11-04 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4765113B2 (ja) 2008-02-12 2011-09-07 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP4644273B2 (ja) * 2008-07-15 2011-03-02 本田技研工業株式会社 車両周辺監視装置
JP4631096B2 (ja) * 2008-10-20 2011-02-16 本田技研工業株式会社 車両周辺監視装置
JP4482599B2 (ja) * 2008-10-24 2010-06-16 本田技研工業株式会社 車両の周辺監視装置
JP2010108264A (ja) * 2008-10-30 2010-05-13 Honda Motor Co Ltd 車両周辺監視装置
JP4815488B2 (ja) * 2008-12-22 2011-11-16 本田技研工業株式会社 車両周辺監視装置
WO2010073439A1 (ja) * 2008-12-26 2010-07-01 三菱電機株式会社 衝突検知装置
JP5198346B2 (ja) * 2009-04-23 2013-05-15 本田技研工業株式会社 車両周辺監視装置
JP4733756B2 (ja) * 2009-04-28 2011-07-27 本田技研工業株式会社 車両周辺監視装置
JP5258977B2 (ja) * 2009-11-25 2013-08-07 本田技研工業株式会社 対象物距離測定装置及び当該装置が搭載された車両
WO2011086807A1 (ja) * 2010-01-14 2011-07-21 本田技研工業株式会社 車両周辺監視装置
EP2571005B1 (en) * 2010-08-31 2016-07-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring device
US8520074B2 (en) * 2010-12-14 2013-08-27 Xerox Corporation Determining a total number of people in an IR image obtained via an IR imaging system
JP5616531B2 (ja) * 2011-09-21 2014-10-29 本田技研工業株式会社 車両周辺監視装置
JP5760090B2 (ja) * 2011-09-28 2015-08-05 本田技研工業株式会社 生体認識装置
US9158979B2 (en) * 2011-10-18 2015-10-13 Honda Motor Co., Ltd. Vehicle vicinity monitoring device
JP5639283B2 (ja) * 2011-11-25 2014-12-10 本田技研工業株式会社 車両周辺監視装置
JP5480925B2 (ja) * 2012-03-05 2014-04-23 本田技研工業株式会社 車両周辺監視装置
JP5486031B2 (ja) * 2012-03-06 2014-05-07 本田技研工業株式会社 配光制御装置
JP5529910B2 (ja) * 2012-03-12 2014-06-25 本田技研工業株式会社 車両周辺監視装置
WO2013136827A1 (ja) * 2012-03-12 2013-09-19 本田技研工業株式会社 車両周辺監視装置
WO2014002534A1 (ja) * 2012-06-26 2014-01-03 本田技研工業株式会社 対象物認識装置
JP5592441B2 (ja) * 2012-06-26 2014-09-17 本田技研工業株式会社 配光制御装置
JP5502149B2 (ja) * 2012-06-29 2014-05-28 本田技研工業株式会社 車両周辺監視装置
US9196164B1 (en) * 2012-09-27 2015-11-24 Google Inc. Pedestrian notifications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000019259A (ja) * 1998-06-30 2000-01-21 Mazda Motor Corp 環境認識装置
JP2003284057A (ja) 2002-01-18 2003-10-03 Honda Motor Co Ltd 車両周辺監視装置
JP2007241740A (ja) * 2006-03-09 2007-09-20 Honda Motor Co Ltd 車両周辺監視装置
JP2011170499A (ja) * 2010-02-17 2011-09-01 Honda Motor Co Ltd 車両の周辺監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2711912A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106218571A (zh) * 2016-08-22 2016-12-14 浙江吉利控股集团有限公司 一种防车内窒息装置
JP2020159761A (ja) * 2019-03-25 2020-10-01 Eneos株式会社 検出装置、検出システムおよび検出方法
JP7289684B2 (ja) 2019-03-25 2023-06-12 Eneos株式会社 検出装置、検出システムおよび検出方法
JP2021033835A (ja) * 2019-08-28 2021-03-01 株式会社Jvcケンウッド 対象物認識装置、対象物認識方法及びプログラム
JP7259644B2 (ja) 2019-08-28 2023-04-18 株式会社Jvcケンウッド 対象物認識装置、対象物認識方法及びプログラム
JP7400599B2 (ja) 2020-03-31 2023-12-19 株式会社豊田中央研究所 物体検出装置

Also Published As

Publication number Publication date
US9292735B2 (en) 2016-03-22
EP2711912A1 (en) 2014-03-26
EP2711912A4 (en) 2015-04-22
CN103797528A (zh) 2014-05-14
US20140153777A1 (en) 2014-06-05
JPWO2013047088A1 (ja) 2015-03-26
JP5760090B2 (ja) 2015-08-05

Similar Documents

Publication Publication Date Title
WO2013047088A1 (ja) 生体認識装置
JP5809751B2 (ja) 対象物認識装置
JP4482599B2 (ja) 車両の周辺監視装置
KR20160137247A (ko) 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
JP4528283B2 (ja) 車両周辺監視装置
JP5983729B2 (ja) 白線検出装置、白線検出フィルタ装置及び白線検出方法
KR101236234B1 (ko) 레이저 센서와 카메라를 이용한 차선 인식 시스템
JP5166933B2 (ja) 車両認識装置、及び車両
US20120056995A1 (en) Method and Apparatus for Stereo-Based Proximity Warning System for Vehicle Safety
JP2014056295A (ja) 車両周辺監視装置
JP4813304B2 (ja) 車両周辺監視装置
US9064158B2 (en) Vehicle surroundings monitoring device
JP4887540B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2011221630A (ja) 車両の周辺監視装置
JP2008028478A (ja) 障害物検出システム、及び障害物検出方法
JP6236363B2 (ja) 対象物認識装置
JP4627305B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
KR102109114B1 (ko) 보행자 인식 장치 및 방법
KR101440293B1 (ko) 횡단 보도를 검출하는 장치 및 방법
JP5149918B2 (ja) 車両の周辺監視装置
KR101982091B1 (ko) 서라운드 뷰 모니터링 시스템
KR20160089578A (ko) 차선 인식 장치 및 차선 인식 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12837388

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013536106

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2012837388

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012837388

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14131969

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE