JP2010079706A - Object detector for vehicle - Google Patents

Object detector for vehicle Download PDF

Info

Publication number
JP2010079706A
JP2010079706A JP2008248744A JP2008248744A JP2010079706A JP 2010079706 A JP2010079706 A JP 2010079706A JP 2008248744 A JP2008248744 A JP 2008248744A JP 2008248744 A JP2008248744 A JP 2008248744A JP 2010079706 A JP2010079706 A JP 2010079706A
Authority
JP
Japan
Prior art keywords
image
vehicle
reflected
predetermined condition
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008248744A
Other languages
Japanese (ja)
Inventor
Satoru Matsuoka
悟 松岡
Haruhisa Kore
治久 是
Koji Iwase
耕二 岩瀬
Takanori Kume
孝則 久米
Kumiko Maebashi
久美子 前橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2008248744A priority Critical patent/JP2010079706A/en
Publication of JP2010079706A publication Critical patent/JP2010079706A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve accuracy of detecting an obstacle while simplifying a device configuration and reducing costs in an obstacle detection device 1 which is provided with a front monitor camera 3 for capturing a view ahead of a vehicle through a windshield glass from the inside of a car to detect an obstacle ahead of the vehicle on the basis of the image to be processed captured by the front monitor camera 3. <P>SOLUTION: The object detector for a vehicle is provided with: a predetermined condition image storage part 103 for storing a predetermined condition image in which surroundings are reflected in a windshield glass; a reflected image estimation part 115 for estimating a reflected image included in the image to be processed on the basis of the predetermined condition image stored in the predetermined condition image storage part 103; a differential image generation part 108 for generating a differential image between the image to be processed and the reflected image; and an obstacle detection part 109 for detecting an object on the basis of the generated differential image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両に搭載されかつ該車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備え、該撮像カメラにより撮像された処理対象画像を基に該車両外方に存在する対象物を検出する車両用対象物検出装置に関する技術分野に属する。   The present invention includes an imaging camera that is mounted on a vehicle and images the outside of the vehicle through a window glass from the interior of the vehicle, and an object that exists outside the vehicle based on a processing target image captured by the imaging camera. The present invention belongs to a technical field related to a vehicle object detection device to be detected.

従来より、車両の車室内に設けられた車載カメラによりウィンドガラスを通して撮像した車両外の画像を画像処理することで、走行道路上の白線検出や障害物検出を行うようにした車両用対象物検出装置は知られている。このような検出装置では、例えば、車載カメラによりフロントウィンドガラスを通して車両外方を撮像する場合に、その周辺のダッシュボードやダッシュボード上の載置物が光の反射によりフロントウィンドガラスに映り込んで、画像処理時にその映り込み画像を検出対象物として誤検出してしまうという問題があり、この誤検出を防止するべく、これまでにも様々な技術が提案されている。   Conventionally, a vehicle object detection that detects white lines and obstacles on a traveling road by performing image processing on an image outside the vehicle imaged through a window glass by an in-vehicle camera provided in the vehicle interior of the vehicle. The device is known. In such a detection device, for example, when imaging the outside of the vehicle through the windshield with an in-vehicle camera, the surrounding dashboard and the mounted objects on the dashboard are reflected on the windshield by reflection of light, There is a problem that the reflected image is erroneously detected as a detection target during image processing, and various techniques have been proposed so far to prevent this erroneous detection.

例えば、特許文献1に示すものでは、車載カメラの撮像タイミングに合わせて点灯、消滅を交互に繰り返す照明装置をダッシュボード付近に設けるとともに、照明時の撮像画像と非照明時の撮像画像との差分画像を作成し、この作成した差分画像の各画素の画素値の時間的ばらつきが小さい画素を抽出することで映り込み画像を検出するようにしている。
特開2002−230563号公報
For example, in Patent Document 1, an illumination device that alternately turns on and off in accordance with the imaging timing of the in-vehicle camera is provided near the dashboard, and the difference between the captured image during illumination and the captured image during non-illumination is provided. An image is created, and a reflected image is detected by extracting a pixel having a small temporal variation in the pixel value of each pixel of the created difference image.
JP 2002-230563 A

しかしながら、上述の特許文献1に示す車両用対象物検出装置では、照明装置を車室内に搭載する必要があるため、部品点数が増加して装置の高コスト化を招くという問題があり、また、光源照度のばらつきに起因する映り込み画像の検出精度低下を防止するべく、照度制御用の専用フィードバック回路等が必要となって、装置の複雑化及びさらなる高コスト化を招くという問題がある。   However, in the vehicle object detection device shown in the above-mentioned Patent Document 1, since it is necessary to mount the illumination device in the vehicle interior, there is a problem that the number of parts increases and the cost of the device increases, In order to prevent a reduction in the detection accuracy of the reflected image due to variations in the illuminance of the light source, a dedicated feedback circuit for controlling the illuminance is required, which causes a problem that the apparatus is complicated and the cost is further increased.

本発明は、斯かる点に鑑みてなされたものであり、その目的とするところは、車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備え、該撮像カメラにより撮像された撮像画像(処理対象画像)を基に該車両外方に存在する対象物を検出する車両用対象物検出装置に対して、その構成に工夫を凝らすことで、装置構成の簡易化及び低コスト化を図りつつ、上記対象物の検出精度の向上を図ろうとすることにある。   The present invention has been made in view of such a point, and an object of the present invention is to include an imaging camera that images the outside of the vehicle from the interior of the vehicle through the window glass, and the captured image ( For the vehicle object detection device that detects an object existing outside the vehicle based on the processing target image), the device configuration is simplified and the cost is reduced by devising the configuration. The object is to improve the detection accuracy of the object.

上記の目的を達成するために、この発明では、ウィンドガラスにその周辺が映り込んだ所定条件画像を予め記憶する所定条件画像記憶部と、該所定条件画像を基に、撮像カメラにより撮像された処理対象画像中に含まれる映り込み画像を推定する画像推定部と、該処理対象画像と所定条件画像との差分画像を生成する差分画像生成部とを備え、該生成された差分画像を基に対象物検出を行うようにした。   In order to achieve the above object, in the present invention, a predetermined condition image storage unit that stores in advance a predetermined condition image in which the periphery is reflected on the window glass, and an image pickup camera based on the predetermined condition image. An image estimation unit that estimates a reflected image included in the processing target image, and a difference image generation unit that generates a difference image between the processing target image and the predetermined condition image, based on the generated difference image Object detection was performed.

具体的には、請求項1の発明では、車両に搭載されかつ該車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備え、該撮像カメラにより撮像された処理対象画像を基に該車両外方に存在する対象物を検出する車両用対象物検出装置を対象とする。   Specifically, the invention of claim 1 includes an imaging camera that is mounted on a vehicle and images the outside of the vehicle through a window glass from the interior of the vehicle, and the vehicle is based on a processing target image captured by the imaging camera. The object is a vehicle object detection device that detects an object existing outside.

そして、上記ウィンドガラスにその周辺の映り込みが生じる所定条件下において上記撮像カメラにより撮像された所定条件画像を記憶しておく所定条件画像記憶部と、上記所定条件画像記憶部に記憶された所定条件画像を基に、上記撮像カメラにより撮像された処理対象画像中に含まれる、上記映り込み部分に対応した映り込み画像を推定する映り込み画像推定部と、上記撮像カメラにより撮像された処理対象画像と上記映り込み画像推定部にて推定された当該処理対象画像中の映り込み画像とを差分処理して差分画像を生成する差分画像生成部と、上記差分画像生成部にて生成された差分画像を基に、上記対象物を検出する対象物検出部とを備えているものとする。   And the predetermined condition image storage part which memorize | stores the predetermined condition image imaged with the said imaging camera under the predetermined conditions which the surroundings reflect on the said window glass, and the predetermined condition memorize | stored in the said predetermined condition image storage part A reflected image estimation unit that estimates a reflected image corresponding to the reflected portion included in the processing target image captured by the imaging camera based on a condition image, and a processing target captured by the imaging camera A difference image generation unit that generates a difference image by performing a difference process between an image and a reflection image in the processing target image estimated by the reflection image estimation unit, and a difference generated by the difference image generation unit An object detection unit that detects the object based on the image is provided.

この構成によれば、ウィンドガラスにその周辺の映り込みが生じる所定条件下で撮像カメラにより撮像された所定条件画像が所定条件画像記憶部に記憶され、映り込み画像推定部にて、該所定条件画像を基に上記処理対象画像中に含まれる映り込み画像が推定され、差分画像推定部にて、該推定された映り込み画像と処理対象画像との差分画像が生成され、対象物検出部にて、該差分画像を基に対象物検出が実行される。   According to this configuration, the predetermined condition image captured by the imaging camera under the predetermined condition in which the surrounding reflection of the windshield occurs is stored in the predetermined condition image storage unit, and the reflection image estimation unit performs the predetermined condition. A reflection image included in the processing target image is estimated based on the image, and a difference image estimation unit generates a difference image between the estimated reflection image and the processing target image, and the target detection unit Thus, the object detection is executed based on the difference image.

このように、映り込み画像推定部における、処理対象画像中の映り込み画像の推定を、予め所定条件画像記憶部に記憶した所定条件画像に基づいて行うようにしたことで、別に照明装置等を設けることなく簡単な構成で確実に、処理対象画像中に含まれる映り込み画像を推定することができ、延いては、対象物検出部における誤検出を確実に防止することが可能となる。   As described above, the reflected image estimation unit estimates the reflected image in the processing target image based on the predetermined condition image stored in advance in the predetermined condition image storage unit. Without being provided, it is possible to reliably estimate the reflected image included in the processing target image with a simple configuration, and it is possible to reliably prevent erroneous detection in the target object detection unit.

請求項2の発明では、請求項1の発明において、上記所定条件は、上記ウィンドガラスにその周辺の車両固定物が映り込む条件とされ、上記映り込み画像推定部は、上記所定条件画像記憶部に記憶された所定条件画像を基に、上記処理対象画像中に含まれる上記車両固定物の映り込み画像を推定する固定物画像推定部と、上記処理対象画像の撮像時よりも前の所定期間内に上記撮像カメラにより撮像された複数のサンプル画像を基に、該処理対象画像中に含まれる、上記車両固定物上の載置物の映り込み画像を推定する載置物画像推定部と、上記固定物画像推定部にて推定された車両固定物の映り込み画像と、上記載置物画像推定部にて推定された載置物の映り込み画像とを重畳して、該重畳した画像を上記差分処理用の上記映り込み画像とする画像重畳部とを備えているものとする。   According to a second aspect of the present invention, in the first aspect of the invention, the predetermined condition is a condition in which a fixed vehicle around the window glass is reflected, and the reflected image estimation unit is the predetermined condition image storage unit. A fixed object image estimation unit that estimates a reflected image of the vehicle fixed object included in the processing target image based on a predetermined condition image stored in the processing target image, and a predetermined period before the imaging of the processing target image A mounted object image estimation unit that estimates a reflected image of the mounted object on the vehicle fixed object included in the processing target image based on a plurality of sample images captured by the imaging camera, and the fixed The reflected image of the vehicle fixed object estimated by the object image estimation unit and the reflected image of the placement object estimated by the above-described object image estimation unit are superimposed, and the superimposed image is used for the difference processing. And the above reflection image Assume that a that the image superimposing section.

この構成によれば、固定物画像推定部において、所定条件画像記憶部に記憶された所定条件画像を基に、処理対象画像中に含まれる上記車両固定物の映り込み画像が推定され、載置物画像推定部において、処理対象画像の撮像時よりも前の所定期間内に撮像カメラにより撮像したサンプル画像を基に、処理対象画像中に含まれる、車両固定物上の載置物の映り込み画像が推定され、画像重畳部にて、該推定された車両固定物の映り込み画像と載置物の映り込み画像とが重畳されて上記差分処理用の映り込み画像(以下、全映り込み画像という)が生成される。   According to this configuration, the fixed object image estimation unit estimates the reflected image of the vehicle fixed object included in the processing target image based on the predetermined condition image stored in the predetermined condition image storage unit, and the mounted object In the image estimation unit, based on the sample image captured by the imaging camera within a predetermined period before imaging of the processing target image, the reflected image of the mounted object on the fixed vehicle included in the processing target image is displayed. The estimated reflected image of the vehicle fixed object and the reflected image of the placed object are superimposed in the image superimposing unit, and the reflected image for the difference processing (hereinafter referred to as the all reflected image) is obtained. Generated.

ここで、ダッシュボード等の車両固定物については、位置や形状の経年変化が殆どないことから、上記の如く、所定条件画像記憶部に予め記憶された所定条件画像を基にその映り込み画像を推定することで、該推定を容易にかつ高精度で行うことができる。また、車両固定物上に置かれた雑誌等の載置物については、その位置や形状が頻繁に変化することから、上記の如く、所定期間内に撮像カメラにより撮像されたサンプル画像を基にその映り込み画像を推定することで、該推定を高精度で行うことができる。よって、車両固定物と載置物画像とが共に映り込んだ全映り込み画像の推定精度を向上させることができ、延いては、対象物検出部における誤検出をより一層確実に防止することが可能となる。   Here, with respect to a vehicle fixed object such as a dashboard, since there is almost no secular change in position and shape, the reflected image is based on the predetermined condition image stored in advance in the predetermined condition image storage unit as described above. By estimating, the estimation can be performed easily and with high accuracy. In addition, since the position and shape of magazines and the like placed on a fixed vehicle are frequently changed, as described above, based on the sample images captured by the imaging camera within a predetermined period. By estimating the reflected image, the estimation can be performed with high accuracy. Therefore, it is possible to improve the estimation accuracy of the entire reflected image in which both the vehicle fixed object and the mounted object image are reflected, and further, it is possible to further prevent erroneous detection in the object detection unit. It becomes.

請求項3の発明では、請求項2の発明において、上記載置物画像推定部は、上記所定期間内に上記撮像カメラにより撮像された複数のサンプル画像を比較して、画素値の分散値が所定値未満となる画素を算出するとともに、該算出した画素に基づいて上記処理対象画像中に含まれる上記載置物の映り込み画像を推定するように構成されているものとする。   In the invention of claim 3, in the invention of claim 2, the above-mentioned figurine image estimation unit compares a plurality of sample images taken by the imaging camera within the predetermined period, and a variance value of pixel values is predetermined. It is assumed that a pixel that is less than the value is calculated, and a reflected image of the above-described figurine included in the processing target image is estimated based on the calculated pixel.

この構成によれば、載置物画像推定部における載置物の映り込み画像の推定を高精度で確実に行うことができる。すなわち、載置物の映り込み画像は、風景画像とは異なり各画素の画素値の時間変化が小さいことから、上記サンプル画像間での各画素の画素値の分散値が風景画像に比べて低くなる。したがって、本発明の如く、載置物画像推定部にて、分散値が所定値未満となる画素を算出して、該算出結果を基に処理対象画像中に含まれる載置物の映り込み画像を推定することで、その推定精度の向上を図ることができる。   According to this configuration, the reflected image of the placement object can be reliably estimated with high accuracy in the placement object image estimation unit. That is, unlike the landscape image, the reflected image of the mounted object has a small temporal change in the pixel value of each pixel, so that the variance of the pixel value of each pixel between the sample images is lower than that of the landscape image. . Therefore, as in the present invention, the placement object image estimation unit calculates pixels whose variance value is less than the predetermined value, and estimates the reflected image of the placement object included in the processing target image based on the calculation result. By doing so, the estimation accuracy can be improved.

請求項4の発明では、請求項2の発明において、上記撮像カメラは、車両外方を撮像する一対のカメラからなるステレオカメラで構成され、上記処理対象画像は、上記一対のカメラのうちの一方により撮像された画像とされ、上記一対のカメラによりそれぞれ撮像される画像間の対応点を探索するとともに、各対応点ごとに該両画像間の視差量を算出する視差量算出部をさらに備え、上記載置物画像推定部は、上記視差量算出部にて算出された視差量が所定量よりも大きくなる対応点領域の画像を上記載置物の映り込み画像と推定するように構成されているものとする。   According to a fourth aspect of the present invention, in the second aspect of the present invention, the imaging camera is a stereo camera including a pair of cameras that capture the outside of the vehicle, and the processing target image is one of the pair of cameras. And a parallax amount calculating unit that searches for a corresponding point between the images captured by the pair of cameras and calculates a parallax amount between the two images for each corresponding point, The above-described figurine image estimation unit is configured to estimate an image of a corresponding point area where the parallax amount calculated by the parallax amount calculation unit is larger than a predetermined amount as a reflected image of the above-described figurine And

この構成によれば、載置物画像推定部における載置物の映り込み画像の推定を高精度で確実に行うことができる。すなわち、本発明の如く、ステレオカメラを車両固定物の上側に配設した場合、ステレオカメラに対して載置物が車両固定物よりも近くに位置することとなり、このため、ステレオカメラにより撮像された載置物の映り込み画像の視差量(一対のカメラにより撮像された各画像間の視差量)は、車両固定物の映り込み画像の視差量(所定量)よりも大きくなる。したがって、本発明の如く、載置物画像推定部において、上記視差量算出部により算出された視差量が所定量よりも大きくなる対応点領域を、処理対象画像中より抽出することで、載置物の映り込み画像を高精度で推定することができる。   According to this configuration, the reflected image of the placement object can be reliably estimated with high accuracy in the placement object image estimation unit. That is, when the stereo camera is arranged on the upper side of the vehicle fixed object as in the present invention, the placed object is positioned closer to the stereo camera than the vehicle fixed object, and thus the image is captured by the stereo camera. The amount of parallax of the reflected image of the mounted object (the amount of parallax between the images captured by the pair of cameras) is larger than the amount of parallax (predetermined amount) of the reflected image of the fixed vehicle. Therefore, as in the present invention, the placement object image estimation unit extracts a corresponding point area in which the parallax amount calculated by the parallax amount calculation unit is larger than a predetermined amount from the processing target image, thereby The reflected image can be estimated with high accuracy.

また、上記所定領域として、車両固定物及び載置物の映り込み画像が生じ易い領域を設定することで、処理対象画像中における対応点探索の処理負担を軽減することができる
請求項5の発明では、請求項1乃至4のいずれか一つの発明において、上記車両固定物の周辺照度を検出する照度センサをさらに備え、上記映り込み画像推定部は、上記映り込み画像を推定するにあたって、上記撮像カメラによる上記所定条件画像撮像時と上記処理対象画像撮像時とにおける、上記照度センサの検出照度を比較して、該比較結果を基に上記所定条件画像の各画素の画素値を補正するように構成されているものとする。
In addition, in the invention according to claim 5, it is possible to reduce the processing load of the corresponding point search in the processing target image by setting an area where the reflected image of the vehicle fixed object and the mounted object is likely to be generated as the predetermined area. 5. The image sensor according to claim 1, further comprising an illuminance sensor that detects ambient illuminance of the vehicle fixed object, wherein the reflected image estimation unit estimates the reflected image. Comparing the detected illuminance of the illuminance sensor at the time of capturing the predetermined condition image with the processing target image and correcting the pixel value of each pixel of the predetermined condition image based on the comparison result It is assumed that

この構成によれば、処理対象画像撮像時における車両固定物の周辺照度(照度センサの検出照度)が、所定条件画像撮像時における照度と異なっていても、映り込み画像推定部にて、映り込み画像を推定するにあたって、両撮像時における照度センサの検出照度を比較して該比較結果を基に、上記所定条件画像の画素値が補正される。このため、処理対象画像中の映り込み画像をその周辺照度に拘わらず高精度で推定することができる。   According to this configuration, even if the ambient illuminance (detected illuminance detected by the illuminance sensor) of the vehicle stationary object at the time of capturing the processing target image is different from the illuminance at the time of capturing the predetermined condition image, the reflected image estimation unit In estimating the image, the detected illuminance of the illuminance sensor at the time of both imaging is compared, and the pixel value of the predetermined condition image is corrected based on the comparison result. For this reason, the reflected image in the processing target image can be estimated with high accuracy regardless of the ambient illuminance.

請求項6の発明では、請求項1乃至5のいずれか一つの発明において、上記映り込み画像推定部は、上記映り込み画像を推定するにあたって、上記撮像カメラによる上記所定条件画像撮像時と、上記撮像カメラによる上記所定対象画像撮像時とで、該撮像カメラのカメラゲイン及び露出値の少なくとも一方を比較して、該比較結果を基に上記所定条件画像の各画素の画素値を補正するように構成されているものとする。   According to a sixth aspect of the present invention, in the invention according to any one of the first to fifth aspects, when the reflected image estimation unit estimates the reflected image, the imaging camera captures the predetermined condition image, and Comparing at least one of the camera gain and exposure value of the imaging camera at the time of imaging the predetermined target image with the imaging camera, and correcting the pixel value of each pixel of the predetermined condition image based on the comparison result It shall be configured.

この構成によれば、処理対象画像撮像時における撮像カメラの設定値(カメラゲイン及び露出値の少なくとも一方)が、所定条件画像撮像時における設定値と異なっていても、映り込み画像推定部にて、映り込み画像を推定するにあたって、両撮像時における設定値を比較して該比較結果を基に、上記所定条件画像の各画素の画素値が補正される。このため、撮像カメラによる所定条件画像撮像後にその設定値を変化させたとしても、処理対象画像中の映り込み画像を高精度で推定することができる。   According to this configuration, even if the setting value (at least one of the camera gain and the exposure value) of the imaging camera at the time of processing target image imaging is different from the setting value at the time of imaging the predetermined condition image, the reflected image estimation unit In estimating the reflected image, the set values at the time of both imaging are compared, and the pixel value of each pixel of the predetermined condition image is corrected based on the comparison result. For this reason, even if the setting value is changed after the predetermined condition image is captured by the imaging camera, the reflected image in the processing target image can be estimated with high accuracy.

請求項7の発明では、請求項1乃至6の発明において、上記所定条件画像を上記所定条件画像記憶部に記憶させるための画像記憶モードと、上記対象物検出を行うための対象物検出モードとを切り換えて設定するためのモード切換え手段をさらに備えているものとする。   According to a seventh aspect of the present invention, in the first to sixth aspects of the invention, an image storage mode for storing the predetermined condition image in the predetermined condition image storage unit, and an object detection mode for performing the object detection, It is further assumed that mode switching means for switching and setting is provided.

この構成によれば、モード切換え手段により、所定条件画像記憶用の画像記憶モードと、対象物検出用の対象物検出モードとを切り換えることができる。このため、車両固定物の色合い等が経年変化したとしても、モード切換え手段により画像記憶モードを設定して、撮像カメラにより所定条件画像を撮像し直すことで、映り込み画像推定部における映り込み画像の推定精度の低下を防止することができる。   According to this configuration, the mode switching means can switch between the image storage mode for storing the predetermined condition image and the object detection mode for detecting the object. For this reason, even if the color of the vehicle fixed object changes over time, the reflected image in the reflected image estimation unit is set by setting the image storage mode with the mode switching means and recapturing the predetermined condition image with the imaging camera. It is possible to prevent a decrease in the estimation accuracy.

請求項8の発明では、請求項7の発明において、上記モード切換え手段は、上記車両のイグニッションキースイッチを含んでいて、該キースイッチを所定操作することで上記両モードを切り換え可能に構成されているものとする。   According to an eighth aspect of the present invention, in the seventh aspect of the invention, the mode switching means includes an ignition key switch of the vehicle, and is configured to be able to switch between the two modes by a predetermined operation of the key switch. It shall be.

このように、車両に設置された既存のイグニッションキースイッチを利用してモード切換え手段を構成するようにしたことで、車両の乗員が容易にモード切り換えを行うことができるとともに、装置全体の低コスト化を図ることが可能となる。   As described above, the mode switching means is configured by using the existing ignition key switch installed in the vehicle, so that the vehicle occupant can easily perform the mode switching, and the overall cost of the apparatus is low. Can be achieved.

請求項9の発明では、請求項1乃至8のいずれか一つの発明において、上記ウィンドガラスは、車両のフロントウィンドガラスであり、上記車両固定物は、上記フロントウィンドガラスの下端縁に沿って車室内側に設けられるダッシュボードを含むものとする。   According to a ninth aspect of the invention, in the invention according to any one of the first to eighth aspects, the windshield is a front windshield of a vehicle, and the vehicle fixed object is a vehicle mounted along a lower edge of the front windshield. It includes a dashboard provided on the indoor side.

この構成によれば、フロントウィンドガラスへのダッシュボード(車両固定物)の映り込み画像、及びダッシュボード上に乗員が載置した雑誌等(載置物)の映り込み画像を、映り込み画像推定部にて高精度で検出することができ、延いては、対象物検出部にて車両前方の対象物を高精度で確実に検出することができる。   According to this configuration, the reflected image of the dashboard (vehicle fixed object) on the windshield and the reflected image of a magazine or the like (mounted object) placed on the dashboard by the occupant is displayed. Thus, the object detection unit can detect the object in front of the vehicle with high accuracy and reliability.

以上説明したように、車両に搭載されかつ該車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備えた本発明の車両用対象物検出装置によると、ウィンドガラスにその周辺が映り込んだ所定条件画像を予め記憶する所定条件画像記憶部と、該所定条件画像を基に、撮像カメラによる処理対象画像中に含まれる映り込み画像を推定する画像推定部と、該処理対象画像と所定条件画像との差分画像を生成する差分画像生成部とを備え、該生成された差分画像を基に対象物検出を行うようにしたことで、処理対象画像中に含まれる映り込み画像を対象物として誤検出するのを確実に防止して、対象物検出精度を向上させることが可能となる。   As described above, according to the vehicle object detection device of the present invention equipped with an imaging camera that is mounted on a vehicle and images the outside of the vehicle from the interior of the vehicle through the windshield, the surroundings are reflected on the windshield. A predetermined condition image storage unit that stores a predetermined condition image in advance, an image estimation unit that estimates a reflected image included in the processing target image by the imaging camera based on the predetermined condition image, the processing target image and the predetermined condition A difference image generation unit that generates a difference image with the image, and by performing the object detection based on the generated difference image, the reflected image included in the processing target image is used as the object. It is possible to reliably prevent erroneous detection and improve object detection accuracy.

以下、本発明の実施形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る車両用対象物検出装置としての障害物検出装置1を搭載した車両Aを示す。この車両Aは、車両前方の障害物(対象物)を検出してその存在を乗員に報知する車両用運転支援システムを搭載しており、このシステムの一部として障害物検出装置1が適用されている。   FIG. 1 shows a vehicle A equipped with an obstacle detection device 1 as a vehicle object detection device according to an embodiment of the present invention. This vehicle A is equipped with a vehicle driving support system that detects an obstacle (target object) in front of the vehicle and notifies its presence to the occupant, and the obstacle detection device 1 is applied as a part of this system. ing.

障害物検出装置1は、車室前部に配設されかつフロントウィンドガラス2を通して車両前方を撮像する撮像カメラとしての前方監視カメラ3(例えばCCDカメラやCMOSカメラからなる)を備えていて、該前方監視カメラ3の撮像画像(以下、処理対象画像という)を画像処理することで、車両前方の障害物を検出する。該障害物検出装置1は、処理対象画像の画像処理を行うにあたって、フロントウィンドガラス2(図5参照)に映り込んだ車両固定物10(本実施形態では、ダッシュボード6、ダッシュボード6上に設置されたスピーカ8及びメータフード9とされる)やその上に置かれた載置物7(例えば、雑誌等)を、障害物と誤判定するのを防止する処理を実行する。   The obstacle detection device 1 includes a front monitoring camera 3 (for example, a CCD camera or a CMOS camera) as an imaging camera that is disposed in the front part of the passenger compartment and images the front of the vehicle through the windshield 2. An obstacle in front of the vehicle is detected by performing image processing on an image captured by the front monitoring camera 3 (hereinafter referred to as a processing target image). When the obstacle detection device 1 performs image processing of the processing target image, the vehicle stationary object 10 (in this embodiment, on the dashboard 6 and the dashboard 6 reflected in the windshield 2 (see FIG. 5)). The speaker 8 and the meter hood 9) and the placed object 7 (for example, a magazine) placed thereon are prevented from being erroneously determined as an obstacle.

ここで、本実施形態において、「車両固定物」とは、車両Aに工場出荷時から固定設置されているものを意味し、「載置物」とは、工場出荷後に車両固定物10上に置かれたもの(固定設置されたものを含む)を意味するものとする。   Here, in the present embodiment, the “vehicle fixed object” means that which is fixedly installed on the vehicle A from the time of factory shipment, and the “placed object” is placed on the vehicle fixed object 10 after factory shipment. It shall mean the one (including the one fixedly installed).

障害物検出装置1は、図2に示すように、上記前方監視カメラ3から出力される画像データを処理して障害物検出を行う検出ECU100を備えており、検出ECU100は、障害物を検出したときには、乗員に対して警報を行うべく警報装置110に作動信号を出力する。尚、警報装置110としては、作動信号を受けて警告音を発するスピーカ8や、ディスプレイに警告表示を行う表示装置等を採用することができる。   As shown in FIG. 2, the obstacle detection device 1 includes a detection ECU 100 that processes the image data output from the front monitoring camera 3 to detect an obstacle, and the detection ECU 100 detects the obstacle. Sometimes, an operation signal is output to the alarm device 110 so as to issue an alarm to the occupant. As the alarm device 110, a speaker 8 that emits a warning sound upon receiving an operation signal, a display device that displays a warning on a display, or the like can be employed.

前方監視カメラ3は、本実施形態では、車室前部の車幅方向中央部に(ルームミラーの裏側に)一つだけ配設されていて、撮像した画像を、輝度情報(輝度値(画素値に相当))を有するn個(=i行×j列)の画素からなる画像として検出ECU100に出力する。   In the present embodiment, only one front monitoring camera 3 is disposed at the center in the vehicle width direction of the front part of the passenger compartment (on the back side of the rearview mirror), and the captured image is converted into luminance information (luminance value (pixel value)). Output to the detection ECU 100 as an image made up of n (= i rows × j columns) pixels.

検出ECU100は、CPUやROM及びRAM等からなる周知のマイクロコンピュータで構成されていて、後述のモード設定にも利用されるエンジン始動用のイグニッションキースイッチ4と、ダッシュボード6の上側周辺の照度を検出する照度センサ5と、上記前方監視カメラ3とに信号の授受可能に接続されていて、モード設定部101と、照度記憶部102と、所定条件画像記憶部103と、撮像画像記憶部104と、固定物画像推定部105と、載置物画像推定部106と、画像重畳部107と、差分画像生成部108と、障害物検出部109とを備えている。   The detection ECU 100 includes a well-known microcomputer including a CPU, a ROM, a RAM, and the like. The detection ECU 100 determines the illuminance around the ignition key switch 4 for starting the engine, which is also used for mode setting described later, and the dashboard 6. The illuminance sensor 5 to be detected and the forward monitoring camera 3 are connected so as to be able to send and receive signals. The mode setting unit 101, the illuminance storage unit 102, the predetermined condition image storage unit 103, and the captured image storage unit 104 , A fixed object image estimation unit 105, a placement object image estimation unit 106, an image superimposition unit 107, a difference image generation unit 108, and an obstacle detection unit 109.

モード設定部101は、イグニッションキースイッチ4が乗員により操作された場合に、その操作信号を基に、対象物検出用の対象物検出モードと、後述する所定条件画像記憶用の所定条件画像記憶モードとを切り換えて設定する。具体的には、モード設定部101は、乗員によりイグニッションキースイッチ4の所定操作(例えば、ACCオンとオフとの切り換えを連続して3回実行する等の操作)が行われた場合には、乗員によるモード切り換え要求があったものとして、現在設定されているモードをこれとは異なるモードに切り換える。   When the ignition key switch 4 is operated by an occupant, the mode setting unit 101 detects an object detection mode for detecting an object and a predetermined condition image storage mode for storing a predetermined condition image, which will be described later, based on the operation signal. Switch between and. Specifically, when the occupant performs a predetermined operation of the ignition key switch 4 (for example, an operation of executing switching of ACC on and off three times in succession), the mode setting unit 101 Assuming that there is a mode switching request by the passenger, the currently set mode is switched to a different mode.

照度記憶部102は、照度センサ5の検出照度を時系列で記憶する。尚、後述の所定条件画像撮像時における照度センサ5の検出照度も該照度記憶部102に記憶される。   The illuminance storage unit 102 stores the detected illuminance of the illuminance sensor 5 in time series. Note that the illuminance detected by the illuminance sensor 5 at the time of capturing a predetermined condition image described later is also stored in the illuminance storage unit 102.

所定条件画像記憶部103は、上記所定条件画像記憶モードが設定されているときに、前方監視カメラ3により所定条件下で撮像された画像を所定条件画像として記憶する。ここで、本実施形態において、所定条件とは、車両固定物10上に載置物7が存在せず、かつ、車両固定物10の周辺照度が、フロントウィンドガラス2に該車両固定物10の映り込みが生じる照度範囲にあることを条件とするものである。   The predetermined condition image storage unit 103 stores an image captured by the front monitoring camera 3 under a predetermined condition as a predetermined condition image when the predetermined condition image storage mode is set. Here, in the present embodiment, the predetermined condition is that the placement object 7 does not exist on the vehicle fixed object 10, and the ambient illuminance of the vehicle fixed object 10 is reflected on the front windshield 2. It is a condition that it is in the illuminance range in which the confusion occurs.

撮像画像記憶部104は、処理対象画像の撮像時よりも前に、前方監視カメラ3により撮像された画像をサンプル画像として順次記憶する。   The captured image storage unit 104 sequentially stores, as sample images, images captured by the front monitoring camera 3 before the processing target image is captured.

固定物画像推定部105は、所定条件画像記憶部103に記憶された所定条件画像と、照度センサ5の検出照度とを基に、処理対象画像中に含まれる車両固定物10の映り込み画像を推定する。具体的には、固定物画像推定部105は、所定条件画像のうち上記車両固定物10に対応する領域以外の画素の画素値を0とした上で、各画素の画素値をL(=処理対象画像撮像時における照度センサ5の検出照度/所定条件画像撮像時の照度センサ5の検出照度)倍する画素値補正を行うことで車両固定物10の映り込み画像を推定する。   The fixed object image estimation unit 105 displays the reflected image of the vehicle fixed object 10 included in the processing target image based on the predetermined condition image stored in the predetermined condition image storage unit 103 and the detected illuminance of the illuminance sensor 5. presume. Specifically, the fixed object image estimation unit 105 sets the pixel value of each pixel other than the region corresponding to the vehicle fixed object 10 in the predetermined condition image to 0, and sets the pixel value of each pixel to L (= processing). The reflected image of the vehicle fixed object 10 is estimated by performing pixel value correction that is multiplied by the detected illuminance of the illuminance sensor 5 at the time of capturing the target image / the detected illuminance of the illuminance sensor 5 at the time of capturing the predetermined condition image.

載置物画像推定部106は、撮像画像記憶部104に記憶されたN枚(本実施形態ではN=5)のサンプル画像を基に、処理対象画像中に含まれる載置物7の映り込み画像を推定する。具体的には、複数のサンプル画像を比較して、分散値が所定値未満となる画素番号、つまり時間変化に伴う画素値変化の小さい画素番号を求める。そして、処理対象画像のうち、該画素番号に対応する画素領域を抽出した上で、車両固定物10に対応する画素領域を消し込む(画素値を0とする)ことで、載置物7の映り込み画像を推定する。   The placement object image estimation unit 106 displays the reflected image of the placement object 7 included in the processing target image based on N (N = 5 in this embodiment) sample images stored in the captured image storage unit 104. presume. Specifically, a plurality of sample images are compared to determine a pixel number whose variance value is less than a predetermined value, that is, a pixel number whose pixel value change with time changes is small. Then, after extracting the pixel area corresponding to the pixel number from the processing target image, the pixel area corresponding to the vehicle fixed object 10 is erased (the pixel value is set to 0), so that the placement object 7 is reflected. Estimate the embedded image.

画像重畳部107は、固定物画像推定部105にて推定した車両固定物10の映り込み画像と、載置物画像推定部106にて推定した載置物7の映り込み画像とを重畳した画像を、処理対象画像中の全映り込み画像として推定する。そうして、固定物画像推定部105、載置物画像推定部106、及び画像重畳部107が映り込み画像推定部115を構成することとなる。   The image superimposing unit 107 superimposes an image obtained by superimposing the reflected image of the vehicle fixed object 10 estimated by the fixed object image estimating unit 105 and the reflected image of the mounted object 7 estimated by the mounted object image estimating unit 106. Estimated as all reflected images in the processing target image. Thus, the fixed object image estimation unit 105, the placement object image estimation unit 106, and the image superimposing unit 107 constitute a reflected image estimation unit 115.

差分画像生成部108は、図6に示すように、処理対象画像と、画像重畳部107にて推定された全映り込み画像とを差分処理して差分画像を生成する。   As shown in FIG. 6, the difference image generation unit 108 performs a difference process on the processing target image and the entire reflected image estimated by the image superimposing unit 107 to generate a difference image.

障害物検出部109は、差分画像生成部108にて生成した差分画像に対して障害物検出処理を実行する。具体的には、本実施形態では、障害物として、歩行者、車両、及び二輪車等を検出するようになっており、障害物検出部109は、予め記憶したこれらのテンプレート画像を基に、上記差分画像に対してパターンマッチング処理を実行することで、車両前方に障害物が存在するか否かを検出する。そして、該障害物検出部109は、障害物を検出したときには、警報装置110に対して作動信号を出力する。   The obstacle detection unit 109 performs an obstacle detection process on the difference image generated by the difference image generation unit 108. Specifically, in this embodiment, pedestrians, vehicles, two-wheeled vehicles, and the like are detected as obstacles, and the obstacle detection unit 109 performs the above operation based on these template images stored in advance. By performing the pattern matching process on the difference image, it is detected whether there is an obstacle ahead of the vehicle. The obstacle detection unit 109 outputs an operation signal to the alarm device 110 when an obstacle is detected.

警報装置110は、障害物検出部109からの作動信号を受けて、乗員に対して警告音を発することで車両前方に障害物が存在する旨を報知する。   The alarm device 110 receives an operation signal from the obstacle detection unit 109 and issues a warning sound to the occupant to notify that there is an obstacle ahead of the vehicle.

次に、図3のフローチャートを参照しながら、検出ECU100による障害物検出処理について説明する。   Next, the obstacle detection process by the detection ECU 100 will be described with reference to the flowchart of FIG.

最初のステップS1では、前方監視カメラ3、イグニッションキースイッチ4、及び照度センサ5からの各種情報を読み込む。   In the first step S1, various information from the front monitoring camera 3, the ignition key switch 4, and the illuminance sensor 5 is read.

ステップS2では、対象物検出モードが設定されているか否かを判定し、この判定がYESであるときにはステップS3に進み、NOであるときにはステップS9に進む。   In step S2, it is determined whether or not the object detection mode is set. When this determination is YES, the process proceeds to step S3, and when it is NO, the process proceeds to step S9.

ステップS3では、照度センサ5により検出された検出照度が予め設定した所定照度範囲内か否かを判定し、この判定がYESであるときにはステップS4に進み、NOであるときにはステップS1に戻る。ここで、所定照度範囲とは、フロントウィンドガラス2にその周辺(車両固定物10及び載置物7)の映り込みが生じる照度範囲であって、予め実験等により求められる。   In step S3, it is determined whether or not the detected illuminance detected by the illuminance sensor 5 is within a predetermined illuminance range set in advance. When this determination is YES, the process proceeds to step S4, and when it is NO, the process returns to step S1. Here, the predetermined illuminance range is an illuminance range in which the surroundings (the vehicle fixed object 10 and the mounted object 7) are reflected on the windshield 2, and is obtained in advance through experiments or the like.

ステップS4では、今回の撮像画像(処理対象画像)の撮像時よりも前の所定期間内(直前の所定期間内であって前方監視カメラ3によりN枚の画像を撮像するのに必要な時間)に前方監視カメラ3により撮像されたN枚の画像をサンプル画像として撮像画像記憶部104より読み込む。そして、これらのサンプル画像を基に、今回の撮像画像中(処理対象画像)に含まれる載置物7の映り込み画像を推定する。この載置物7の映り込み画像推定処理の詳細については後述する。   In step S4, a predetermined period before the current captured image (processing target image) is captured (the time required to capture N images by the front monitoring camera 3 within the immediately preceding predetermined period). N images captured by the front monitoring camera 3 are read from the captured image storage unit 104 as sample images. Then, based on these sample images, a reflected image of the placement object 7 included in the current captured image (processing target image) is estimated. Details of the reflected image estimation processing of the mounted object 7 will be described later.

ステップS5では、所定条件画像記憶部103に記憶された所定条件画像を読み込み、この所定条件画像に対して、照度センサ5の検出照度を基に上述の画素値補正を行うことで、車両固定物10の映り込み画像を推定する。   In step S5, the predetermined condition image stored in the predetermined condition image storage unit 103 is read, and the above-described pixel value correction is performed on the predetermined condition image based on the detected illuminance of the illuminance sensor 5, thereby fixing the vehicle fixed object. Ten reflected images are estimated.

ステップS6では、ステップS4及びS5でそれぞれ推定した、載置物7の映り込み画像及び車両固定物10の映り込み画像を重畳(加算)して全映り込み画像と推定する。   In step S6, the reflected image of the placed object 7 and the reflected image of the vehicle fixed object 10 estimated in steps S4 and S5, respectively, are superimposed (added) to estimate the entire reflected image.

ステップS7では、前方監視カメラ3により、今回、撮像された撮像画像(処理対象画像)と、ステップS6にて推定した全映り込み画像とを差分処理して差分画像を生成する。   In step S7, the forward monitoring camera 3 performs a difference process on the captured image (processing target image) captured this time and the entire reflected image estimated in step S6 to generate a difference image.

ステップS8では、ステップS7で生成した差分画像に対して上記障害物検出処理を実行して(障害物が存在するか否かを検出して)、障害物が存在することを検出したときには、警報装置110に対して作動信号を出力する。   In step S8, the obstacle detection process is executed on the difference image generated in step S7 (detecting whether there is an obstacle), and if an obstacle is detected, an alarm is issued. An activation signal is output to the device 110.

ステップS2の判定がNOであるときに進むステップS9(画像記憶モードが設定されている場合に進むステップS9)では、前方監視カメラ3の撮像画像を所定条件画像として所定条件画像記憶部103に記憶させる。   In step S9 that proceeds when the determination in step S2 is NO (step S9 that proceeds when the image storage mode is set), the captured image of the front monitoring camera 3 is stored as a predetermined condition image in the predetermined condition image storage unit 103. Let

次に、図4のフローチャートを参照しながら、検出ECU100による障害物検出処理に含まれる載置物映り込み画像推定処理について説明する。   Next, the reflected object image estimation process included in the obstacle detection process by the detection ECU 100 will be described with reference to the flowchart of FIG.

先ず、最初のステップSA41では、上記読み込んだN枚のサンプル画像の画素番号kを指定する。最初に本ステップSA41の処理を行う際には、画素番号を1として、その後は、本ステップSA41の処理を実行する度にその指定番号を一つづつ増加させる。尚、各サンプル画像におけるx行×y列に位置する画素と画素番号kとの関係は、k=(x−1)×j+yと表される。   First, in the first step SA41, the pixel number k of the read N sample images is designated. When the processing of this step SA41 is performed for the first time, the pixel number is set to 1, and thereafter, the designated number is incremented by one each time the processing of this step SA41 is executed. In addition, the relationship between the pixel located in x row xy column in each sample image and the pixel number k is expressed as k = (x-1) × j + y.

ステップSA42では、N枚のサンプル画像のそれぞれについて、ステップSA41で指定した画素番号kの画素を抽出するとともに、これらの画素値の平均値aveを算出する。   In step SA42, for each of the N sample images, a pixel with the pixel number k designated in step SA41 is extracted, and an average value ave of these pixel values is calculated.

ステップSA43では、次式に基づいて分散値Vを算出する。   In step SA43, the variance value V is calculated based on the following equation.

Figure 2010079706
・・・・・(1)
Figure 2010079706
(1)

ステップSA44では、分散値Vが所定値よりも小さいか否かを判定し、この判定がNOであるときにはステップSA46に進み、YESであるときにはステップSA45に進む。   In step SA44, it is determined whether or not the variance value V is smaller than a predetermined value. When this determination is NO, the process proceeds to step SA46, and when it is YES, the process proceeds to step SA45.

ステップSA45では、現在の指定画素番号kを記憶する。   In step SA45, the current designated pixel number k is stored.

ステップSA46では、指定画素番号が全画素数nに等しいか否か、つまり各サンプル画像の全画素についての分散値Vの算出処理が終了したか否かを判定し、この判定がNOであるときにはステップSA41に戻る一方、YESであるときにはステップSA47に進む。   In step SA46, it is determined whether or not the designated pixel number is equal to the total number of pixels n, that is, whether or not the calculation process of the variance value V for all the pixels of each sample image has been completed. While returning to step SA41, if YES, the process proceeds to step SA47.

ステップSA47では、処理対象画像中からステップSA45で記憶した画素番号kに対応する領域、つまり分散値Vが所定値未満となる領域を抽出する。   In step SA47, an area corresponding to the pixel number k stored in step SA45, that is, an area where the variance value V is less than a predetermined value is extracted from the processing target image.

ステップSA48では、ステップSA47で抽出した画像において車両固定物10に対応する領域の画素値を0とした画像を、載置物7の映り込み画像として推定し、しかる後にリターンする。   In step SA48, an image in which the pixel value of the region corresponding to the vehicle fixed object 10 in the image extracted in step SA47 is set to 0 is estimated as a reflected image of the mounted object 7, and then the process returns.

以上の如く上記実施形態1では、映り込み画像推定部115(画像重畳部107)において処理対象画像中の全映り込み画像を推定し、差分画像生成部108において、全映り込み画像と処理対象画像との差分画像を生成して、該生成した差分画像に対して障害物検出部109における障害物検出処理を実行する(図6参照)。ここで、映り込み画像推定部115は、固定物画像推定部105にて推定された車両固定物10の映り込み画像と、載置物画像推定部106にて推定された載置物7の映り込み画像とを重畳して全映り込み画像を推定するようになっている。したがって、処理対象画像中に含まれる車両固定物10や載置物7を障害物として誤検出するのを確実に防止することができる。   As described above, in the first embodiment, the reflected image estimation unit 115 (image superimposing unit 107) estimates the entire reflected image in the processing target image, and the difference image generation unit 108 determines the reflected image and the processing target image. And the obstacle detection unit 109 executes obstacle detection processing on the generated difference image (see FIG. 6). Here, the reflected image estimation unit 115 reflects the reflected image of the vehicle fixed object 10 estimated by the fixed object image estimation unit 105 and the reflected image of the placement object 7 estimated by the placement object image estimation unit 106. Are superimposed to estimate the total reflected image. Accordingly, it is possible to reliably prevent erroneous detection of the vehicle fixed object 10 or the placement object 7 included in the processing target image as an obstacle.

また、上記実施形態1では、固定物画像推定部105(映り込み画像推定部115)は、前方監視カメラ3による所定条件画像撮像時と処理対象画像撮像時とにおける照度センサ5の検出照度を基に、所定条件画像記憶部103に予め記憶された所定条件画像の各画素の輝度補正を行うことで、処理対象画像中に含まれる車両固定物10の映り込み画像を推定するようになっており、これにより、車両固定物10の周辺照度の影響を受けずに簡単にかつ精度良くその映り込み画像を推定することができる。   In the first embodiment, the fixed object image estimation unit 105 (the reflected image estimation unit 115) is based on the detected illuminance of the illuminance sensor 5 when the front monitoring camera 3 captures the predetermined condition image and when the processing target image is captured. Furthermore, the reflected image of the vehicle fixed object 10 included in the processing target image is estimated by correcting the luminance of each pixel of the predetermined condition image stored in advance in the predetermined condition image storage unit 103. Thus, the reflected image can be estimated easily and accurately without being affected by the ambient illuminance of the vehicle fixed object 10.

また、上記実施形態1では、載置物画像推定部106は、上記n枚のサンプル画像を比較して、分散値が所定値未満となる画素番号kを算出する(ローパスフィルタ処理を実行する)とともに、処理対象画像中における該算出した画素番号kに対応する領域画像を、載置物7の映り込み画像と推定するようになっている。ここで、上記実施形態1では、照度センサ5の検出照度が所定照度範囲内、つまりフロントウィンドガラス2に映り込みが生じる照度範囲内にあるときのみ、載置物画像推定部106におけるローパスフィルタ処理を実行するようになっており、こうすることで、ローパスフィルタ処理の処理精度を向上させることができ、延いては、処理対象画像中の載置物7の映り込み画像の推定精度を可及的に向上させることが可能となる。   In the first embodiment, the placement object image estimation unit 106 compares the n sample images to calculate a pixel number k whose variance value is less than a predetermined value (performs low-pass filter processing). The region image corresponding to the calculated pixel number k in the processing target image is estimated as the reflected image of the placement object 7. Here, in the first embodiment, the low-pass filter processing in the placed object image estimation unit 106 is performed only when the illuminance detected by the illuminance sensor 5 is within a predetermined illuminance range, that is, within the illuminance range in which reflection on the windshield 2 occurs. By doing so, it is possible to improve the processing accuracy of the low-pass filter processing, and as a result, the estimation accuracy of the reflected image of the mounted object 7 in the processing target image is made as much as possible. It becomes possible to improve.

また、上記実施形態1では、上記所定条件画像を上記所定条件画像記憶部103に記憶させるための画像記憶モードと、対象物検出を行うための対象物検出モードとを、イグニッションキースイッチ4の所定操作により容易に切り換え可能になっている。   Further, in the first embodiment, an image storage mode for storing the predetermined condition image in the predetermined condition image storage unit 103 and an object detection mode for detecting an object are determined by the predetermined key of the ignition key switch 4. It can be easily switched by operation.

こうすることで、車両Aが工場より出荷された後であっても、上記イグニッションキースイッチ4を操作して画像記憶モードを設定することで、前方監視カメラ3により所定条件画像を撮像し直すことができる。したがって、例えば車両固定物10であるダッシュボード6の表面色が時間の経過とともに変化しても、上記のように所定条件画像を撮像し直すことで、固定物画像推定部105における映り込み画像の推定精度の低下を確実に防止することができる。   By doing this, even after the vehicle A is shipped from the factory, by operating the ignition key switch 4 and setting the image storage mode, the front monitoring camera 3 can re-capture a predetermined condition image. Can do. Therefore, for example, even if the surface color of the dashboard 6 that is the vehicle fixed object 10 changes with time, the image of the reflected image in the fixed object image estimation unit 105 can be obtained by re-imaging the predetermined condition image as described above. A decrease in estimation accuracy can be reliably prevented.

(実施形態2)
図7及び図8は、本発明の実施形態2を示し、前方監視カメラ3及び検出ECU100の構成、並びに検出ECU100による載置物7の映り込み画像推定処理を上記実施形態1とは異ならせたものである。尚、図7において図2と実質的に同じ構成要素については同じ符号を付してその詳細な説明を適宜省略する。
(Embodiment 2)
7 and 8 show the second embodiment of the present invention, in which the configuration of the front monitoring camera 3 and the detection ECU 100 and the reflected image estimation processing of the mounted object 7 by the detection ECU 100 are different from those of the first embodiment. It is. In FIG. 7, the same components as those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.

前方監視カメラ3は、本実施形態では、左右一対のカメラ3L,3Rからなるステレオカメラ3で構成されており、左側カメラ3L及び右側カメラ3Rは、互いの撮像領域が重複するように配設されている。尚、以下の説明では、左側カメラ3Lにより撮像された画像を左側撮像画像GLといい、右側カメラ3Rにより撮像された画像を右側撮像画像GRという。   In this embodiment, the front monitoring camera 3 is configured by a stereo camera 3 including a pair of left and right cameras 3L and 3R, and the left camera 3L and the right camera 3R are arranged so that their imaging areas overlap each other. ing. In the following description, an image captured by the left camera 3L is referred to as a left captured image GL, and an image captured by the right camera 3R is referred to as a right captured image GR.

検出ECU100は、モード設定部101と、照度記憶部102と、所定条件画像記憶部103と、撮像画像記憶部104と、固定物画像推定部105と、載置物画像推定部106と、画像重畳部107と、差分画像生成部108と、障害物検出部109とに加えて、視差量算出部111と、視差マップ記憶部112をさらに有している。   The detection ECU 100 includes a mode setting unit 101, an illuminance storage unit 102, a predetermined condition image storage unit 103, a captured image storage unit 104, a fixed object image estimation unit 105, a placement object image estimation unit 106, and an image superimposition unit. In addition to 107, the difference image generation unit 108, and the obstacle detection unit 109, it further includes a parallax amount calculation unit 111 and a parallax map storage unit 112.

視差量算出部111は、左側カメラ画像GLの所定領域U内(図9参照)において、右側カメラ画像GRとの対応点を探索しかつ各対応点ごとに両画像GL,GR間の視差量を算出し、載置物画像推定部106では、この視差量算出部111からの対応点情報を基に、処理対象画像中に含まれる載置物7の映り込み画像を推定する。尚、対応点とは、該両撮像画像GL,GR間で互いに対応付けられる点であり、例えば、公知の方法であるArea-based matching手法に基づいてこの対応点探索を行うことができる。   The parallax amount calculation unit 111 searches for a corresponding point with the right camera image GR in a predetermined region U (see FIG. 9) of the left camera image GL, and calculates a parallax amount between the two images GL and GR for each corresponding point. Based on the corresponding point information from the parallax amount calculation unit 111, the placement object image estimation unit 106 estimates the reflected image of the placement object 7 included in the processing target image. The corresponding points are points that are associated with each other between the both captured images GL and GR. For example, the corresponding point search can be performed based on an area-based matching method that is a known method.

また、視差マップ記憶部112は、載置物画像推定部106における画像推定に際して使用する視差マップMを記憶する。この視差マップMは、フロントウィンドガラス2に映り込んだ車両固定物10が実際にそこに存在すると仮定した仮想車両固定物を、両カメラ3L,3Rにより撮像した場合における両画像GL,GR間の各対応点の視差量Dd(以下、理論視差量Ddという)をマップ化したものである。この視差マップMは、予め既知とされる車両固定物10(ダッシュボード6、スピーカ8及びメータフード9)とフロントウィンドガラス2と各カメラ3L,3Rとの幾何学的関係(位置関係及び形状)を基に、三角測量の原理に基づいて作成され、工場出荷前に視差マップ記憶部112に予め記憶される。   Further, the parallax map storage unit 112 stores a parallax map M used for image estimation in the mounted object image estimation unit 106. The parallax map M is obtained by imaging the virtual vehicle fixed object that the vehicle fixed object 10 reflected on the windshield 2 actually exists there with the two cameras 3L and 3R. The parallax amount Dd (hereinafter referred to as the theoretical parallax amount Dd) of each corresponding point is mapped. The parallax map M is a geometric relationship (positional relationship and shape) among the vehicle fixed object 10 (dashboard 6, speaker 8 and meter hood 9), the windshield 2, and the cameras 3L and 3R, which are known in advance. Is created based on the principle of triangulation and stored in advance in the parallax map storage unit 112 before shipment from the factory.

検出ECU100による対象物検出処理は、本実施形態では、専ら左側撮像画像GLに対して実行される。具体的には図3に示すフローチャートにおいて「処理対象画像」を「左側撮像画像」と変更したものが本実施形態の対象物検出処理であり、したがって、ここではその説明を省略して、実施形態1とは異なる、検出ECU100における載置物映り込み画像推定処理(ステップS4の処理)について図8を参照しながら詳細に説明する。   In the present embodiment, the object detection process by the detection ECU 100 is executed exclusively on the left-side captured image GL. Specifically, what is obtained by changing the “processing target image” to the “left captured image” in the flowchart shown in FIG. 3 is the target object detection processing of the present embodiment. The placed object reflection image estimation process (the process of step S4) in the detection ECU 100, which is different from 1, will be described in detail with reference to FIG.

先ず、最初のステップSB41では、左側撮像画像GLの所定領域U内において右側画像GRとの対応点を探索する。ここで、所定領域Uは、車両固定物10とフロントウィンドガラス2との位置関係を基に、車両固定物10及びその上の載置物7の映り込み画像が生じ易い領域として予め設定される領域である。   First, in the first step SB41, a corresponding point with the right image GR is searched within a predetermined area U of the left captured image GL. Here, the predetermined region U is a region that is set in advance as a region where a reflected image of the vehicle fixed object 10 and the mounted object 7 is likely to be generated based on the positional relationship between the vehicle fixed object 10 and the windshield 2. It is.

ステップSB42では、ステップSB41で探索した各対応点ごとに両画像GL,GR間の視差量D(以下、実測視差量Dという)を算出する。   In step SB42, a parallax amount D between the images GL and GR (hereinafter referred to as measured parallax amount D) is calculated for each corresponding point searched in step SB41.

ステップSB43では、視差マップ記憶部112に記憶された視差マップMから、各対応点の理論視差量Ddを読み込む。   In step SB43, the theoretical parallax amount Dd of each corresponding point is read from the parallax map M stored in the parallax map storage unit 112.

ステップSB44では、実測視差量Dが理論視差量Ddよりも大きくなる対応点領域を左側撮像画像GLより抽出して、載置物7の映り込み画像として推定し、しかる後に本推定処理を終了する。   In step SB44, the corresponding point area where the actually measured parallax amount D is larger than the theoretical parallax amount Dd is extracted from the left-side captured image GL and is estimated as a reflected image of the placement object 7, and then the present estimation process ends.

以上の如く上記実施形態では、載置物画像推定部106は、視差量算出部111にて算出された実測視差量Dが理論視差量Ddよりも大きくなる対応点領域を処理対象画像中より抽出することで載置物7の映り込み画像として推定するようになっている。この推定原理は以下の通りである。すなわち、車両固定物10上に載置物7が置かれた場合には、フロントウィンドガラス2に映り込んだ載置物7が実際にそこに存在すると仮定した仮想載置物と前方監視カメラ3との距離は、上記仮想車両固定物と前方監視カメラ3との距離よりも大きくなる。このため、当該仮想載置物を両カメラ3L,3Rで撮像した場合における両画像GL,GR間の視差量は、仮想車両固定物を両カメラ3L,3Rで撮像した場合における両画像GL,GR間の視差量である理論視差量Dd未満となる。したがって、上記の如く、載置物画像推定部106において、処理対象画像中より実測視差量Dが理論視差量Ddよりも大きくなる対応点領域を抽出することで、載置物7の映り込画像を精度良く確実に推定することが可能となる。   As described above, in the above-described embodiment, the placement object image estimation unit 106 extracts from the processing target image the corresponding point region in which the actual parallax amount D calculated by the parallax amount calculation unit 111 is larger than the theoretical parallax amount Dd. Thus, it is estimated as a reflected image of the mounted object 7. The estimation principle is as follows. That is, when the placing object 7 is placed on the vehicle fixed object 10, the distance between the virtual placing object and the front monitoring camera 3 on the assumption that the placing object 7 reflected on the windshield 2 actually exists there. Is larger than the distance between the virtual vehicle fixed object and the front monitoring camera 3. Therefore, the amount of parallax between the images GL and GR when the virtual placement object is imaged with both cameras 3L and 3R is the same between the images GL and GR when the virtual vehicle fixed object is imaged with both cameras 3L and 3R. Is less than the theoretical parallax amount Dd. Therefore, as described above, the placement object image estimation unit 106 extracts the corresponding point region in which the measured parallax amount D is larger than the theoretical parallax amount Dd from the processing target image, thereby accurately displaying the reflected image of the placement object 7. It becomes possible to estimate well and reliably.

(他の実施形態)
本発明の構成は、上記実施形態に限定されるものではなく、それ以外の種々の構成を包含するものである。すなわち、上記各実施形態では、固定物画像推定部105(映り込み画像推定部115)は、前方監視カメラ3による所定条件画像撮像時と処理対象画像撮像時とにおける照度センサ5の検出照度の比較を基に、上記所定条件画像の輝度補正を行うようにしているが、例えば、両撮像時におけるカメラ設定値(カメラゲイン及び露出値の少なくとも一方)の比較を基に所定条件画像の輝度補正を行うようにしてもよい。具体的には、例えば、処理対象画像撮像時のカメラゲインが所定条件画像撮像時のI倍であれば、固定物画像推定部105にて、所定条件画像の各画素の画素値をI倍した画像を載置物の映り込み画像と推定すればよく、同様に、処理対象画像撮像時の露出値が所定条件画像撮像時のJ倍であれば、固定物画像推定部105にて、所定条件画像の各画素の画素値をJ倍した画像を載置物の映り込み画像と推定するようにすればよい。
(Other embodiments)
The configuration of the present invention is not limited to the above embodiment, but includes various other configurations. That is, in each of the above embodiments, the fixed object image estimation unit 105 (the reflected image estimation unit 115) compares the detected illuminance of the illuminance sensor 5 when the front monitoring camera 3 captures the predetermined condition image and when the processing target image is captured. The luminance correction of the predetermined condition image is performed based on the above. For example, the luminance correction of the predetermined condition image is performed based on the comparison of the camera setting value (at least one of the camera gain and the exposure value) at the time of both imaging. You may make it perform. Specifically, for example, if the camera gain at the time of capturing the processing target image is I times that at the time of capturing the predetermined condition image, the fixed object image estimation unit 105 multiplies the pixel value of each pixel of the predetermined condition image by I. The image may be estimated as a reflected image of the mounted object. Similarly, if the exposure value at the time of processing target image capturing is J times that at the time of capturing the predetermined condition image, the fixed object image estimating unit 105 performs the predetermined condition image. An image obtained by multiplying the pixel value of each pixel by J may be estimated as a reflected image of the mounted object.

上記各実施形態では、車両固定物10を、車両Aに工場出荷時から固定設置されているものと定義し、載置物7を工場出荷後に車両固定物10上に置かれたものと定義しているが、これに限ったものではなく、例えば、ダッシュボード6上のレーダ探知機のように、車両Aの工場出荷後に、車両固定物10上に固定設置されて殆ど動かさない物については車両固定物10に含めるようにしてもよい。   In each of the above embodiments, the vehicle fixed object 10 is defined as being fixedly installed on the vehicle A from the time of factory shipment, and the mounted object 7 is defined as being placed on the vehicle fixed object 10 after factory shipment. However, the present invention is not limited to this. For example, a vehicle such as a radar detector on the dashboard 6 that is fixed on the vehicle fixed object 10 and hardly moves after the vehicle A is shipped from the factory. It may be included in the object 10.

また、上記各実施形態では、差分画像生成部108にて生成された差分画像を基に、車両前方の障害物検出を行うようにしているが、これに限ったものではなく、例えば、白線検出を行うようにしてもよい。   In each of the above embodiments, the obstacle detection in front of the vehicle is performed based on the difference image generated by the difference image generation unit 108. However, the present invention is not limited to this. For example, white line detection is performed. May be performed.

また、上記各実施形態では、前方監視カメラ3によりフロントウィンドガラス2を通して車両前方を撮像するようにしているが、これに限ったものではなく、例えば、リヤウィンドガラスを通して車両後方を撮像するようにしてもよい。   In the above embodiments, the front of the vehicle is imaged through the front window glass 2 by the front monitoring camera 3. However, the present invention is not limited to this. For example, the rear of the vehicle is imaged through the rear window glass. May be.

また、上記実施形態2では、車両固定物10と各カメラ3L,3Rとの位置関係及び形状を基に、三角測量の原理に基づいて視差マップMを作成するようにしているが、これに限ったものでははく、例えばフロントウィンドガラス2に映り込んだ車両固定物10を、両カメラ3L,3Rにより実際に撮像した撮像画像GL,GRを基に、該両画像間GL,GR間の対応点の視差量をマップ化して視差マップMを作成するようにしてもよい。   In the second embodiment, the parallax map M is created based on the principle of triangulation based on the positional relationship and shape between the vehicle fixed object 10 and the cameras 3L and 3R. For example, based on the captured images GL and GR actually captured by the cameras 3L and 3R of the vehicle stationary object 10 reflected on the windshield 2, the correspondence between the images GL and GR The parallax map M may be created by mapping the parallax amount of the points.

また、上記実施形態では、イグニッションキースイッチ4を所定操作することでモード切り換えを行うようにしているが、これに限ったものではなく、例えば、エンジンルーム内に設けたアース端子をグランドさせることで、画像記憶モードが設定され、グランドを解除することで対象物検出モードが設定されるようにしてもよい。   In the above embodiment, the mode is switched by predetermined operation of the ignition key switch 4. However, the present invention is not limited to this. For example, a ground terminal provided in the engine room is grounded. Alternatively, the image storage mode may be set, and the object detection mode may be set by releasing the ground.

本発明は、車両に搭載されかつ該車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備え、該撮像カメラにより撮像された撮像画像を基に車両外方に存在する対象物を検出する車両用対象物検出装置に有用であり、特に、撮像カメラによりフロントウィンドガラスを通して車両前方を撮像する車両用対象物検出装置に有用である。   The present invention includes an imaging camera that is mounted on a vehicle and images the outside of the vehicle through a windshield from a vehicle interior, and detects an object existing outside the vehicle based on a captured image captured by the imaging camera. The present invention is useful for a vehicle object detection device, and particularly useful for a vehicle object detection device that images the front of a vehicle through a windshield using an imaging camera.

本発明の実施形態に係る車両用対象物検出装置としての障害物検出装置1を搭載した車両を示す、その上側から視た模式図である。It is the schematic diagram which looked at the vehicle carrying the obstacle detection apparatus 1 as a vehicle object detection apparatus which concerns on embodiment of this invention seen from the upper side. 障害物検出装置1の制御構成を示すブロック図である。3 is a block diagram illustrating a control configuration of the obstacle detection apparatus 1. FIG. 検出ECU100における障害物検出処理を示すフローチャートである。It is a flowchart which shows the obstruction detection process in detection ECU100. 検出ECU100における障害物検出処理に含まれる載置物映り込み画像推定処理を示すフローチャートである。It is a flowchart which shows the mounting object reflection image estimation process included in the obstruction detection process in detection ECU100. フロントウィンドガラスへの映り込み画像を示す模式図である。It is a schematic diagram which shows the reflection image to a windshield. 処理対象画像と全映り込み画像との差分処理を示す模式図である。It is a schematic diagram which shows the difference process of a process target image and a all reflected image. 実施形態2を示す図2相当図である。FIG. 3 is a view corresponding to FIG. 実施形態2を示す図4相当図である。FIG. 5 is a view corresponding to FIG. ステレオカメラによる撮像画像を示す模式図である。It is a schematic diagram which shows the picked-up image by a stereo camera. 処理対象画像中に含まれる載置物の映り込み画像の判別に使用する視差マップを示す模式図である。It is a schematic diagram which shows the parallax map used for discrimination | determination of the reflected image of the mounting object contained in a process target image.

符号の説明Explanation of symbols

A 車両
1 障害物検出装置(車両用対象物検出装置)
2 フロントウィンドガラス(ウィンドガラス)
3 前方監視カメラ(撮像カメラ、ステレオカメラ)
3L 左側カメラ(撮像カメラ)
3R 右側カメラ(撮像カメラ)
4 イグニッションキースイッチ(モード切換え手段)
5 照度センサ
6 ダッシュボード(車両固定物)
7 載置物
10 車両固定物
101 モード設定部(モード切換え手段)
103 所定条件画像記憶部
105 固定物画像推定部
106 載置物画像推定部
107 画像重畳部
108 差分画像生成部
109 障害物検出部(対象物検出部)
111 視差量算出部
115 映り込み画像推定部
A Vehicle 1 Obstacle detection device (vehicle object detection device)
2 Front window glass (wind glass)
3 Front surveillance camera (imaging camera, stereo camera)
3L left camera (imaging camera)
3R Right camera (imaging camera)
4 Ignition key switch (mode switching means)
5 Illuminance sensor 6 Dashboard (vehicle stationary)
7 Placed object 10 Vehicle fixed object 101 Mode setting section (mode switching means)
103 Predetermined Condition Image Storage Unit 105 Fixed Object Image Estimation Unit 106 Placed Object Image Estimation Unit 107 Image Superimposition Unit
108 Difference image generation unit 109 Obstacle detection unit (object detection unit)
111 Parallax amount calculation unit 115 Reflected image estimation unit

Claims (9)

車両に搭載されかつ該車両外方を車室内からウィンドガラスを通して撮像する撮像カメラを備え、該撮像カメラにより撮像された処理対象画像を基に該車両外方に存在する対象物を検出する車両用対象物検出装置であって、
上記ウィンドガラスにその周辺の映り込みが生じる所定条件下において上記撮像カメラにより撮像された所定条件画像を記憶しておく所定条件画像記憶部と、
上記所定条件画像記憶部に記憶された所定条件画像を基に、上記撮像カメラにより撮像された処理対象画像中に含まれる、上記映り込み部分に対応した映り込み画像を推定する映り込み画像推定部と、
上記撮像カメラにより撮像された処理対象画像と上記映り込み画像推定部にて推定された当該処理対象画像中の映り込み画像とを差分処理して差分画像を生成する差分画像生成部と、
上記差分画像生成部にて生成された差分画像を基に、上記対象物を検出する対象物検出部とを備えていることを特徴とする車両用対象物検出装置。
For a vehicle that includes an imaging camera that is mounted on a vehicle and images the outside of the vehicle through a windshield from a vehicle interior, and that detects an object existing outside the vehicle based on a processing target image captured by the imaging camera An object detection device comprising:
A predetermined condition image storage unit for storing a predetermined condition image captured by the imaging camera under a predetermined condition in which the surrounding reflection of the windshield occurs;
Based on the predetermined condition image stored in the predetermined condition image storage unit, a reflected image estimation unit that estimates a reflected image corresponding to the reflected portion included in the processing target image captured by the imaging camera. When,
A difference image generation unit that generates a difference image by performing a difference process between the processing target image captured by the imaging camera and the reflection image in the processing target image estimated by the reflection image estimation unit;
An object detection device for a vehicle, comprising: an object detection unit that detects the object based on the difference image generated by the difference image generation unit.
請求項1記載の車両用対象物検出装置において、
上記所定条件は、上記ウィンドガラスにその周辺の車両固定物が映り込む条件とされ、
上記映り込み画像推定部は、
上記所定条件画像記憶部に記憶された所定条件画像を基に、上記処理対象画像中に含まれる上記車両固定物の映り込み画像を推定する固定物画像推定部と、
上記処理対象画像の撮像時よりも前の所定期間内に上記撮像カメラにより撮像された複数のサンプル画像を基に、該処理対象画像中に含まれる、上記車両固定物上の載置物の映り込み画像を推定する載置物画像推定部と、
上記固定物画像推定部にて推定された車両固定物の映り込み画像と、上記載置物画像推定部にて推定された載置物の映り込み画像とを重畳して、該重畳した画像を上記差分処理用の上記映り込み画像とする画像重畳部とを備えていることを特徴とする車両用対象物検出装置。
The vehicle object detection device according to claim 1,
The predetermined condition is a condition in which a fixed vehicle around the window glass is reflected,
The reflected image estimation unit is
A fixed object image estimating unit that estimates a reflected image of the vehicle fixed object included in the processing target image based on the predetermined condition image stored in the predetermined condition image storage unit;
Based on a plurality of sample images captured by the imaging camera within a predetermined period prior to the time when the processing target image is captured, the placement object on the vehicle fixed object included in the processing target image is reflected. A placement object image estimation unit for estimating an image;
The reflected image of the vehicle fixed object estimated by the fixed object image estimating unit and the reflected image of the mounted object estimated by the above-described figurine image estimating unit are superimposed, and the superimposed image is converted into the difference. An object detection apparatus for a vehicle, comprising: an image superimposing unit that uses the reflected image for processing.
請求項2記載の車両用対象物検出装置において、
上記載置物画像推定部は、上記所定期間内に上記撮像カメラにより撮像された複数のサンプル画像を比較して、画素値の分散値が所定値未満となる画素を算出するとともに、該算出結果を基に、上記処理対象画像中に含まれる上記載置物の映り込み画像を推定するように構成されていることを特徴とする車両用対象物検出装置。
The vehicle object detection device according to claim 2,
The above-mentioned figurine image estimation unit compares a plurality of sample images captured by the imaging camera within the predetermined period, calculates pixels whose variance value of pixel values is less than a predetermined value, and calculates the calculation result An object detection device for a vehicle characterized by being configured to estimate a reflected image of the above-mentioned figurine included in the processing object image.
請求項2記載の車両用対象物検出装置において、
上記撮像カメラは、車両外方を撮像する一対のカメラからなるステレオカメラで構成されていて、上記車両固定物に対して上側に配設されており、
上記処理対象画像は、上記一対のカメラのうちの一方により撮像された画像とされ、
上記一方のカメラにより撮像された処理対象画像中の所定領域内において、他方のカメラにより撮像された画像との対応点を探索するとともに、各対応点ごとに該両画像間の視差量を算出する視差量算出部をさらに備え、
上記載置物画像推定部は、上記視差量算出部にて算出された視差量が所定量よりも大きくなる対応点領域の画像を上記載置物の映り込み画像と推定するように構成されていることを特徴とする車両用対象物検出装置。
The vehicle object detection device according to claim 2,
The imaging camera is composed of a stereo camera composed of a pair of cameras that capture the outside of the vehicle, and is disposed on the upper side with respect to the vehicle fixed object,
The processing target image is an image captured by one of the pair of cameras,
In a predetermined area in the processing target image captured by the one camera, a corresponding point with the image captured by the other camera is searched, and a parallax amount between the two images is calculated for each corresponding point. A parallax amount calculating unit;
The figurine image estimation unit described above is configured to estimate an image of a corresponding point area where the parallax amount calculated by the parallax amount calculation unit is larger than a predetermined amount as a reflected image of the above figurine. An object detection device for vehicles.
請求項1乃至4のいずれか一項に記載の車両用対象物検出装置において、
上記車両固定物の周辺照度を検出する照度センサをさらに備え、
上記映り込み画像推定部は、上記映り込み画像を推定するにあたって、上記撮像カメラによる上記所定条件画像撮像時と上記処理対象画像撮像時とにおける、上記照度センサの検出照度を比較して、該比較結果を基に上記所定条件画像の各画素の画素値を補正するように構成されていることを特徴とする車両用対象物検出装置。
The vehicle object detection device according to any one of claims 1 to 4,
An illuminance sensor for detecting the illuminance around the vehicle fixed object is further provided,
The reflected image estimation unit compares the detected illuminance of the illuminance sensor between the time when the predetermined image is captured by the imaging camera and the time when the target image is captured when the reflected image is estimated. A vehicle object detection device configured to correct a pixel value of each pixel of the predetermined condition image based on a result.
請求項1乃至5のいずれか一項に記載の車両用対象物検出装置において、
上記映り込み画像推定部は、上記映り込み画像を推定するにあたって、上記撮像カメラによる上記所定条件画像撮像時と上記処理対象画像撮像時とで、該撮像カメラのカメラゲイン及び露出値の少なくとも一方を比較して、該比較結果を基に上記所定条件画像の各画素の画素値を補正するように構成されていることを特徴とする車両用対象物検出装置。
In the vehicle object detection device according to any one of claims 1 to 5,
When the reflected image estimation unit estimates the reflected image, at least one of the camera gain and the exposure value of the imaging camera is captured when the predetermined condition image is captured by the imaging camera and when the processing target image is captured. Comparing and correcting the pixel value of each pixel of the predetermined condition image based on the comparison result, the vehicle object detection device characterized by the above.
請求項1乃至6のいずれか一項に記載の車両用対象物検出装置において、
上記所定条件画像を上記所定条件画像記憶部に記憶させるための画像記憶モードと、上記対象物検出を行うための対象物検出モードとを切り換えて設定するためのモード切換え手段をさらに備えていることを特徴とする車両用対象物検出装置。
The vehicle object detection device according to any one of claims 1 to 6,
The apparatus further comprises mode switching means for switching between an image storage mode for storing the predetermined condition image in the predetermined condition image storage unit and an object detection mode for performing the object detection. An object detection device for vehicles.
請求項7記載の車両用対象物検出装置において、
上記モード切換え手段は、上記車両のイグニッションキースイッチを含んでいて、該キースイッチを所定操作することで上記両モードを切り換え可能に構成されていることを特徴とする車両用対象物検出装置。
The vehicle object detection device according to claim 7,
The vehicle object detection device, wherein the mode switching means includes an ignition key switch of the vehicle, and is configured to be able to switch between the two modes by a predetermined operation of the key switch.
請求項1乃至8のいずれか一項に記載の車両用対象物検出装置において、
上記ウィンドガラスは、上記車両のフロントウィンドガラスであり、
上記車両固定物は、上記フロントウィンドガラスの下端縁に沿って車室内側に設けられるダッシュボードを含むことを特徴とする車両用対象物検出装置。
The vehicle object detection device according to any one of claims 1 to 8,
The windshield is the front windshield of the vehicle,
The vehicle object detection device, wherein the vehicle fixed object includes a dashboard provided on a vehicle interior side along a lower edge of the windshield.
JP2008248744A 2008-09-26 2008-09-26 Object detector for vehicle Pending JP2010079706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008248744A JP2010079706A (en) 2008-09-26 2008-09-26 Object detector for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008248744A JP2010079706A (en) 2008-09-26 2008-09-26 Object detector for vehicle

Publications (1)

Publication Number Publication Date
JP2010079706A true JP2010079706A (en) 2010-04-08

Family

ID=42210057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008248744A Pending JP2010079706A (en) 2008-09-26 2008-09-26 Object detector for vehicle

Country Status (1)

Country Link
JP (1) JP2010079706A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163315A1 (en) * 2018-02-23 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 Information processing device, imaging device, and imaging system
JP2020508591A (en) * 2017-02-10 2020-03-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Automotive camera system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020508591A (en) * 2017-02-10 2020-03-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Automotive camera system
WO2019163315A1 (en) * 2018-02-23 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 Information processing device, imaging device, and imaging system

Similar Documents

Publication Publication Date Title
JP5421072B2 (en) Approaching object detection system
JP5022609B2 (en) Imaging environment recognition device
JP2007172035A (en) Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
JP5267101B2 (en) Vehicle object detection device
US10099617B2 (en) Driving assistance device and driving assistance method
JP5680436B2 (en) Foreign matter adhesion determination device for in-vehicle camera lens
US9001204B2 (en) Vehicle peripheral monitoring device
JP2009083764A (en) Driving assisting device, driving assisting method, and computer program
JP2005300315A (en) Object detection device
JP6447289B2 (en) Imaging apparatus, imaging method, program, vehicle control system, and vehicle
US10783665B2 (en) Apparatus and method for image processing according to vehicle speed
JP2008098858A (en) Vehicle periphery monitoring device
KR101629577B1 (en) Monitoring method and apparatus using a camera
JP2007293672A (en) Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle
JP5226641B2 (en) Obstacle detection device for vehicle
JP4930256B2 (en) Adjacent vehicle detection device and adjacent vehicle detection method
JP2006295346A (en) Image processing apparatus and driving supporting device for vehicle using this
JP2010079706A (en) Object detector for vehicle
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP2008042759A (en) Image processing apparatus
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP2007153087A (en) System and method for determining collision with obstacle, and computer program
JP2013172378A (en) Image processing device and vehicle
KR20220097656A (en) Driver asistance apparatus, vehicle and control method thereof
JP4255398B2 (en) Obstacle detection method and obstacle detection device