JP5602354B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5602354B2
JP5602354B2 JP2008261925A JP2008261925A JP5602354B2 JP 5602354 B2 JP5602354 B2 JP 5602354B2 JP 2008261925 A JP2008261925 A JP 2008261925A JP 2008261925 A JP2008261925 A JP 2008261925A JP 5602354 B2 JP5602354 B2 JP 5602354B2
Authority
JP
Japan
Prior art keywords
image
vehicle
image portion
reduced
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008261925A
Other languages
Japanese (ja)
Other versions
JP2010093570A (en
Inventor
伸治 長岡
誠 相村
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008261925A priority Critical patent/JP5602354B2/en
Publication of JP2010093570A publication Critical patent/JP2010093570A/en
Application granted granted Critical
Publication of JP5602354B2 publication Critical patent/JP5602354B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両に搭載された撮像手段により撮像された画像に基づいて、前記車両の周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of the vehicle based on an image captured by an imaging unit mounted on the vehicle.

従来より、車載カメラにより撮像した自車両の周辺の画像から歩行者を検出して、自車両と歩行者との接触可能性を判断し、接触可能性が高いときには運転者に警報をするようにした車両周辺監視装置が知られている。   Conventionally, a pedestrian is detected from an image around the host vehicle captured by the in-vehicle camera, the possibility of contact between the host vehicle and the pedestrian is judged, and the driver is warned when the contact possibility is high. A vehicle periphery monitoring device is known.

例えば、いわゆるステレオカメラを備えて、同一の対象物についての右カメラの画像中の画像部分と左カメラの画像中の画像部分との視差を算出し、該視差を用いて対象物と車両との距離を算出する構成として、このようにして算出した対象物と車両との距離に基づいて、対象物と車両との接触可能性を判定するようにした車両周辺監視装置が提案されている(例えば、特許文献1参照)。   For example, a so-called stereo camera is provided, and the parallax between the image part in the image of the right camera and the image part in the image of the left camera for the same object is calculated, and the object and the vehicle are calculated using the parallax. As a configuration for calculating the distance, a vehicle periphery monitoring device has been proposed in which the possibility of contact between the object and the vehicle is determined based on the distance between the object and the vehicle thus calculated (for example, , See Patent Document 1).

また、1台のカメラにより撮像された時系列画像について、同一の対象物の画像部分を探索し、連続する画像間における該画像部分の大きさの変化率に基づいて、車両が対象物に到達までの時間を推定する構成とし、該時間に基づいて対象物と車両との接触可能性を判定するようにした車両周辺監視装置が提案されている(例えば、特許文献2参照)。   In addition, for a time-series image captured by one camera, the image portion of the same object is searched, and the vehicle reaches the object based on the rate of change of the size of the image portion between successive images. A vehicle periphery monitoring device has been proposed in which the time until the vehicle is estimated and the possibility of contact between the object and the vehicle is determined based on the time (see, for example, Patent Document 2).

そして、上記特許文献1,2に記載された車両周辺監視装置においては、いずれも、異なる画像間で、SAD(Sum of Absolute Difference)等の相関演算を行って、同一の対象物の画像部分を抽出するため、演算量が多くなるという不都合がある。
特開2003−230134号公報 特開2007−213561号公報
In each of the vehicle periphery monitoring devices described in Patent Documents 1 and 2, correlation operations such as SAD (Sum of Absolute Difference) are performed between different images, and the image portion of the same object is obtained. As a result of the extraction, there is a disadvantage that the amount of calculation increases.
JP 2003-230134 A JP 2007-213561 A

本発明は上記背景を鑑みてなされたものであり、異なる画像間で同一の対象物の画像部分を抽出する際の演算量を減少することができる車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of the above background, and an object thereof is to provide a vehicle periphery monitoring device that can reduce the amount of calculation when extracting image portions of the same object between different images. .

本発明は上記目的を達成するためになされたものであり、本発明の第1の態様は、車両に搭載されて重複した撮像範囲を有する第1の撮像手段及び第2の撮像手段により撮像された画像に基づいて、該車両の周辺を監視する車両周辺監視装置の改良に関する。   The present invention has been made to achieve the above object, and a first aspect of the present invention is imaged by a first imaging unit and a second imaging unit which are mounted on a vehicle and have overlapping imaging ranges. The present invention relates to an improvement in a vehicle periphery monitoring apparatus that monitors the periphery of the vehicle based on the obtained image.

そして、前記車両から所定距離以内の範囲に存在する対象物を監視対象とするときに、同一時点で前記第1の撮像手段により撮像された第1画像及び前記第2の撮像手段により撮像された第2画像を、前記所定距離において要求される距離分解能が確保される縮小率で縮小し、縮小後の前記第1画像から対象物の第1画像部分を抽出して、縮小後の前記第2画像内で該第1画像部分と相関性を有する第2画像部分を抽出する対応画像抽出手段と、前記第1画像部分と前記第2画像部分との視差に基づいて、前記第1画像部分及び前記第2画像部分に対応する実空間上の対象物と、前記車両との距離を算出する距離算出手段とを備え、前記対応画像抽出手段は、縮小後の前記第1画像から抽出する対象物の第1画像部分を前記縮小率に応じた大きさにすると共に、縮小後の前記第2画像内に設定される探索範囲を、前記縮小率に応じた大きさを有し、かつ縮小後の前記第1画像中の前記第1画像部分の位置に対応する位置を含む範囲に設定し、前記縮小率に応じた大きさにされた探索範囲内で縮小後の前記第1画像部分と相関性を有する第2画像部分を抽出することを特徴とする。 Then, when an object existing within a predetermined distance from the vehicle is to be monitored, the first image captured by the first imaging unit and the second imaging unit are captured at the same time. The second image is reduced at a reduction rate that ensures the distance resolution required at the predetermined distance, the first image portion of the object is extracted from the reduced first image, and the reduced second image is obtained. Corresponding image extraction means for extracting a second image portion having a correlation with the first image portion in the image, and based on the parallax between the first image portion and the second image portion, the first image portion and An object in real space corresponding to the second image portion; and distance calculation means for calculating a distance from the vehicle, wherein the corresponding image extraction means extracts from the reduced first image. The first image portion of the image is large according to the reduction ratio. While the of the search range set in the second image after the reduction, it has a size corresponding to the reduction ratio, and the position of the first image portion of the first in the reduced image And a second image portion having a correlation with the reduced first image portion is extracted within a search range sized according to the reduction ratio. To do.

かかる本発明によれば、前記車両と対象物との距離が近くなると、前記第1の撮像手段及び前記第2の撮像手段により撮像される前記第1画像及び前記第2画像に含まれる対象物の画像部分の情報量が多くなる。そのため、前記第1画像及び前記第2画像を縮小しても、ある程度の距離分解能を確保することができる。   According to the present invention, when the distance between the vehicle and the object becomes short, the objects included in the first image and the second image captured by the first imaging unit and the second imaging unit. The amount of information in the image portion increases. Therefore, even if the first image and the second image are reduced, a certain degree of distance resolution can be ensured.

そこで、前記対応画像探索手段は、前記車両から所定距離以内の範囲に存在する対象物を監視対象とするときに、同一時点で前記第1の撮像手段により撮像された第1画像及び前記第2の撮像手段により撮像された第2画像を、前記所定距離において要求される距離分解能が確保される縮小率で縮小し、縮小後の前記第1画像から対象物の第1画像部分を抽出して、縮小後の前記第2画像内で該第1画像部分と相関性を有する第2画像部分を抽出する。そして、これにより、前記距離算出手段により算出される前記車両と対象物との距離の精度を確保した上で、相関演算の演算量を減少させて効率良く対象物を監視することができる。   Therefore, the corresponding image search means monitors the first image and the second image picked up by the first image pickup means at the same time when an object existing within a predetermined distance from the vehicle is to be monitored. The second image captured by the imaging means is reduced at a reduction rate that ensures the distance resolution required at the predetermined distance, and the first image portion of the object is extracted from the reduced first image. Then, a second image portion having a correlation with the first image portion is extracted from the reduced second image. As a result, the accuracy of the distance between the vehicle and the object calculated by the distance calculating means can be ensured, and the object can be monitored efficiently by reducing the amount of correlation calculation.

本発明において、前記対応画像抽出手段は、前記車両から対象物までの所定距離以上において要求される距離分解能が縮小後の第1画像及び第2画像において確保されない該所定距離以上の範囲に存在する対象物を監視対象とするときは、非縮小の第1画像から対象物の第1画像部分を抽出して、非縮小の第2画像内で該第1画像部分と相関性を有する第2画像部分を抽出することができる。In the present invention, the corresponding image extraction means is present in a range of the predetermined distance or more which is not ensured in the first image and the second image after the reduction in distance resolution required at a predetermined distance or more from the vehicle to the object. When the object is to be monitored, a first image portion of the object is extracted from the non-reduced first image, and a second image having a correlation with the first image portion in the non-reduced second image A part can be extracted.

本発明の実施の形態について、図1〜5を参照して説明する。図1は本発明の車両周囲監視装置の構成図であり、本発明の車両周囲監視装置は画像処理ユニット1により構成されている。画像処理ユニット1には、遠赤外線を検出可能な赤外線カメラ2R(本発明の第1の撮像手段に相当する),赤外線カメラ2L(本発明の第2の撮像手段に相当する)、車両のヨーレートを検出するヨーレートセンサ3、車両の走行速度を検出する車速センサ4、運転者によるブレーキの操作量を検出するブレーキセンサ5、音声により注意喚起を行うためのスピーカ6、及び、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い対象物を運転者に視認させる表示を行うための表示装置7が接続されている。   Embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of a vehicle surroundings monitoring apparatus according to the present invention. The vehicle surroundings monitoring apparatus according to the present invention includes an image processing unit 1. The image processing unit 1 includes an infrared camera 2R (corresponding to the first imaging means of the present invention) that can detect far infrared rays, an infrared camera 2L (corresponding to the second imaging means of the present invention), and the yaw rate of the vehicle. , A vehicle speed sensor 4 for detecting the traveling speed of the vehicle, a brake sensor 5 for detecting the amount of brake operation by the driver, a speaker 6 for alerting by voice, and infrared cameras 2R, 2L A display device 7 is connected to display an image obtained by the above and display to make the driver visually recognize an object with a high possibility of contact.

図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中心部に対してほぼ対象な位置に配置され、2台の赤外線カメラ2R,2Lの光軸を互いに平行とし、各赤外線カメラ2R,2Lの路面からの高さを等しくして固定されている。この場合、赤外線カメラ2Rの視野と赤外線カメラ2Lの視野はほぼ同一となる。   Referring to FIG. 2, infrared cameras 2R and 2L are disposed at the front portion of vehicle 10 at a substantially target position with respect to the center portion of vehicle 10 in the vehicle width direction, and two infrared cameras 2R and 2L are arranged. The optical axes are parallel to each other, and the infrared cameras 2R and 2L are fixed at the same height from the road surface. In this case, the visual field of the infrared camera 2R and the visual field of the infrared camera 2L are substantially the same.

なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。   The infrared cameras 2R and 2L have a characteristic that the output level increases (the luminance increases) as the temperature of the imaged object increases. Further, the display device 7 is provided so that the screen 7 a is displayed at a front position on the driver side of the front window of the vehicle 10.

また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログの映像信号をデジタルデータに変換して画像メモリ(図示しない)に取り込み、該画像メモリに取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。   Referring to FIG. 1, an image processing unit 1 is an electronic unit composed of a microcomputer (not shown) and converts analog video signals output from infrared cameras 2R and 2L into digital data. The microcomputer has a function of performing various arithmetic processes by the microcomputer with respect to the image in front of the vehicle captured in the image memory (not shown).

そして、該マイクロコンピュータに、車両監視用プログラムを実行させることによって、該マイクロコンピュータが、赤外線カメラ2Rにより撮像された第1画像と赤外線カメラ2Lにより撮像された第2画像間で、実空間上の同一の対象物の画像部分を抽出する対応画像抽出手段20、対応画像抽出手段20により第1画像から抽出された対象物の第1画像部分と第2画像から抽出された対象物の第2画像部分との視差に基づいて、対象物と車両との距離を算出する距離算出手段21、及び、対象物と車両との距離に基づいて、車両と対象物の接触可能性を判定する接触判定手段22として機能する。   Then, by causing the microcomputer to execute the vehicle monitoring program, the microcomputer performs a real space between the first image captured by the infrared camera 2R and the second image captured by the infrared camera 2L. Corresponding image extracting means 20 for extracting the image portion of the same object, the first image portion of the object extracted from the first image by the corresponding image extracting means 20 and the second image of the object extracted from the second image Distance calculating means 21 for calculating the distance between the object and the vehicle based on the parallax with the part, and contact determining means for determining the contact possibility between the vehicle and the object based on the distance between the object and the vehicle 22 functions.

なお、到達時間算出手段23は、1台のカメラにより撮像された時系列画像に基づいて、対象物が車両に到達するまでの時間を算出するものであり、後述する第2の実施形態で使用される。   The arrival time calculation means 23 calculates the time until the object reaches the vehicle based on the time-series image captured by one camera, and is used in the second embodiment to be described later. Is done.

[第1の実施形態]先ず、図3〜図4を参照して、第1の実施形態について説明する。図3(a)は、赤外線カメラ2R(右カメラ)により撮像された第1画像30と、赤外線カメラ2Lにより撮像された第2画像31を示したものである。第1画像30には、歩行者の画像部分である第1画像部分30aが含まれており、第2画像31には、同一の歩行者の画像部分である第2画像部分30bが含まれている。   [First Embodiment] First, the first embodiment will be described with reference to FIGS. FIG. 3A shows a first image 30 captured by the infrared camera 2R (right camera) and a second image 31 captured by the infrared camera 2L. The first image 30 includes a first image portion 30a that is an image portion of a pedestrian, and the second image 31 includes a second image portion 30b that is an image portion of the same pedestrian. Yes.

また、図3(b)は、図3(a)に示した第1画像30を1/2に縮小した縮小第1画像40と、図3(a)に示した第2画像31を1/2に縮小した縮小第2画像41を示したものである。縮小第1画像40には、第1画像部分30aに対応する第1画像部分40aが含まれており、縮小第2画像41には、第2画像部分31aに対応する第2画像部分41aが含まれている。   FIG. 3B shows a reduced first image 40 obtained by reducing the first image 30 shown in FIG. 3A to 1/2 and a second image 31 shown in FIG. A reduced second image 41 reduced to 2 is shown. The reduced first image 40 includes a first image portion 40a corresponding to the first image portion 30a, and the reduced second image 41 includes a second image portion 41a corresponding to the second image portion 31a. It is.

次に、図4(a)は、赤外線カメラ2Rと赤外線カメラ2Lにより同一の対象物を撮像したときの視差Dx(図3(a)ではDx1)と、車両と対象物との距離Zとの関係を、縦軸を視差Dxに設定し、横軸を距離Zに設定して示したものである。   Next, FIG. 4A shows the parallax Dx (Dx1 in FIG. 3A) when the same object is imaged by the infrared camera 2R and the infrared camera 2L, and the distance Z between the vehicle and the object. The relationship is shown with the vertical axis set to parallax Dx and the horizontal axis set to distance Z.

また、図4(b)は、赤外線カメラ2R,2Lによる距離分解能(画像から距離を算出するときの分解能)と、車両と対象物との距離Zとの関係を、縦軸を距離分解能に設定し、横軸を距離Zに設定して示したものである。図4(b)中、aは図3(a)に示したように縮小を行わない場合の関係を示し、bは図3(b)に示したように1/2サイズに縮小した場合の関係を示している。   FIG. 4B shows the relationship between the distance resolution by the infrared cameras 2R and 2L (resolution when calculating the distance from the image) and the distance Z between the vehicle and the object, and the vertical axis is the distance resolution. The horizontal axis is set to the distance Z. In FIG. 4B, “a” shows the relationship when the reduction is not performed as shown in FIG. 3A, and “b” is the case when the reduction is made to ½ size as shown in FIG. Showing the relationship.

図4(a)、図4(b)から、対象物との距離Zが短いと視差Dxが大きくなって、距離分解能が高くなることがわかる。そのため、対象物との距離Zが近いときには、要求される距離分解能が確保される範囲で、赤外線カメラ2R,2Lにより撮像された画像を縮小することができる。   4 (a) and 4 (b), it can be seen that when the distance Z to the object is short, the parallax Dx is increased and the distance resolution is increased. Therefore, when the distance Z to the object is short, the images captured by the infrared cameras 2R and 2L can be reduced within a range in which the required distance resolution is ensured.

例えば、距離分解能の要求が10mであった場合には、車両からの距離が50m(本発明の所定距離に相当する)以下である範囲に存在する対象物の距離を算出するときに、図3(b)に示したように、赤外線カメラ2R,2Lにより撮像された画像を1/2サイズに縮小して、視差を算出することができる。   For example, when the distance resolution requirement is 10 m, when calculating the distance of an object existing in a range where the distance from the vehicle is 50 m or less (corresponding to the predetermined distance of the present invention), FIG. As shown in (b), parallax can be calculated by reducing the images captured by the infrared cameras 2R and 2L to ½ size.

そこで、対応画像抽出手段20は、車両からの距離が50mを越える範囲に存在する対象物を想定して、対象物との距離を算出するときは、図3(a)に示した縮小を行っていない第1画像30及び第2画像31を対象として、同一対象物の画像部分を抽出する処理を行う。   Accordingly, the corresponding image extraction means 20 performs the reduction shown in FIG. 3 (a) when calculating the distance to the object assuming the object existing in the range where the distance from the vehicle exceeds 50m. The process which extracts the image part of the same target object for the 1st image 30 and the 2nd image 31 which are not performed is performed.

すなわち、対応画像抽出手段20は、先ず、第1画像30に含まれる画像部分の中から、パターンマッチングや特徴量抽出等を行って歩行者の画像部分である可能性があるものを抽出する。図3(a)では、第1画像部分30aが抽出される。次に、対応画像抽出手段20は、第2画像31に、第1画像30中の第1画像部分30aの位置に対応する位置を含む探索範囲32を設定する。   That is, the corresponding image extraction unit 20 first extracts from the image portions included in the first image 30 those that may be pedestrian image portions by performing pattern matching, feature amount extraction, and the like. In FIG. 3A, the first image portion 30a is extracted. Next, the corresponding image extraction unit 20 sets a search range 32 including a position corresponding to the position of the first image portion 30 a in the first image 30 in the second image 31.

そして、対応画像抽出手段20は、第2画像31の探索範囲32に対して、第1画像部分30aとのSAD(Sum of Absolute Difference)等の相関演算を行うことにより、第2画像部分31aを抽出する。また、距離算出手段21は、第1画像部分30aと第2画像部分30bとの視差Dx1を用いて、以下の式(1)により対象物と車両との距離Zを算出する。これにより、遠方に存在する対象物との距離の算出精度を高く維持することができる。   Then, the corresponding image extraction means 20 performs a correlation operation such as SAD (Sum of Absolute Difference) with the first image portion 30a on the search range 32 of the second image 31, thereby obtaining the second image portion 31a. Extract. In addition, the distance calculation unit 21 calculates the distance Z between the object and the vehicle by using the parallax Dx1 between the first image portion 30a and the second image portion 30b according to the following equation (1). Thereby, the calculation precision of the distance with the target which exists far away can be maintained highly.

Figure 0005602354
Figure 0005602354

但し、Z:車両と対象物との距離、D:赤外線カメラ2R,2Lの基線長、F:赤外線カメラ2R,2Lの焦点距離、Dx:視差、p:画素ピッチ。   Where Z: distance between the vehicle and the object, D: baseline length of the infrared cameras 2R, 2L, F: focal length of the infrared cameras 2R, 2L, Dx: parallax, p: pixel pitch.

また、対応画像抽出手段20は、車両からの距離が50m以下である範囲に存在する対象物の距離を算出するときには、図3(b)に示した1/2サイズの縮小を行った縮小第1画像40及び縮小第2画像41を対象として、同一対象物の画像部分を抽出する処理を行う。   Further, when calculating the distance of the object existing in the range in which the distance from the vehicle is 50 m or less, the corresponding image extraction unit 20 performs the reduction of the half size shown in FIG. A process of extracting the image portion of the same object is performed on the one image 40 and the reduced second image 41.

すなわち、対応画像抽出手段20は、先ず、縮小第1画像40に含まれる画像部分の中から、パターンマッチングや特徴量抽出等を行って歩行者の画像部分である可能性があるものを抽出する。図3(b)では、第1画像部分40aが抽出される。次に、対応画像抽出手段20は、縮小第2画像41に、縮小第1画像40中の第1画像部分40aの位置に対応する位置を含む探索範囲42を設定する。   That is, the corresponding image extraction unit 20 first extracts, from the image portions included in the reduced first image 40, those that may be pedestrian image portions by performing pattern matching, feature amount extraction, or the like. . In FIG. 3B, the first image portion 40a is extracted. Next, the corresponding image extraction unit 20 sets a search range 42 including a position corresponding to the position of the first image portion 40 a in the reduced first image 40 in the reduced second image 41.

そして、対応画像抽出手段20は、縮小第2画像41の探索範囲42に対して、第1画像部分40aとの相関演算を行うことにより、第2画像部分41aを抽出する。また、距離算出手段21は、第1画像部分40aと第2画像部分40bとの視差Dx2を、上記式(1)のDxに代入して対象物と車両との距離Zを算出する。   Then, the corresponding image extraction unit 20 extracts the second image portion 41 a by performing a correlation operation with the first image portion 40 a on the search range 42 of the reduced second image 41. Further, the distance calculation means 21 calculates the distance Z between the object and the vehicle by substituting the parallax Dx2 between the first image portion 40a and the second image portion 40b into Dx in the above equation (1).

このように、第1画像30を縮小した縮小第1画像40と、第2画像31を縮小した縮小第2画像41を対象として、同一の対象物の画像部分を抽出することにより、相関演算の演算量を減少させて、効率良く視差を算出することができる。   In this way, by extracting the image portion of the same object for the reduced first image 40 obtained by reducing the first image 30 and the reduced second image 41 obtained by reducing the second image 31, the correlation calculation is performed. The amount of calculation can be reduced and the parallax can be calculated efficiently.

そして、接触可能性判定手段22は、距離算出手段21により算出された対象物と自車両との距離が、予め自車両の周囲に設定した接近判定領域内であるときに、ブザー6による注意喚起音の出力と表示装置7への注意喚起表示を行う。   The contact possibility determination unit 22 alerts the buzzer 6 when the distance between the target object calculated by the distance calculation unit 21 and the host vehicle is within an approach determination region set in advance around the host vehicle. Sound output and a warning display on the display device 7 are performed.

[第2の実施形態]次に、図5を参照して、第2の実施形態について説明する。第2の実施形態では、画像処理処理ユニット1は、1台のカメラにより異なる時点で撮像した画像間で、相関演算を行って同一の対象物の画像部分を抽出することにより、対象物が自車両に到達するまでの想定時間である自車両到達時間を推定する到達時間算出手段23を備える。   [Second Embodiment] Next, a second embodiment will be described with reference to FIG. In the second embodiment, the image processing unit 1 performs correlation calculation between images captured at different points in time by a single camera and extracts image portions of the same object, so that the object is automatically detected. An arrival time calculating means 23 for estimating the own vehicle arrival time, which is an estimated time until the vehicle is reached, is provided.

到達時間算出手段23は、図5に示したように、ある時点t1で撮像された第2画像50に対して、t1よりも以前のt2で撮像された第1画像51から抽出した第1画像部分51aを拡大して相関演算を行う。   As shown in FIG. 5, the arrival time calculation means 23 extracts the first image extracted from the first image 51 imaged at t2 before t1 with respect to the second image 50 imaged at a certain time t1. The correlation calculation is performed by enlarging the portion 51a.

すなわち、到達時間算出手段23は、第1画像部分51a、第1画像部分51aを1.15倍した拡大第1画像部分52a、第1画像部分51aを1.25倍拡大した拡大第1画像部分53、第1画像部分51aを1.35倍拡大した拡大第1画像部分54について、それぞれ、第2画像50との相関演算を行う。   That is, the arrival time calculation means 23 includes the first image portion 51a, the enlarged first image portion 52a obtained by enlarging the first image portion 51a by 1.15 times, and the enlarged first image portion obtained by enlarging the first image portion 51a by 1.25 times. 53, a correlation calculation with the second image 50 is performed for each of the enlarged first image portions 54 obtained by enlarging the first image portion 51a by 1.35 times.

そして、第1画像部分51a、拡大第1画像部分52a、拡大第1画像部分53a、及び拡大第1画像部分54aのうち、最も高い相関度で、第2画像50から第2画像部分50aが抽出されたものの拡大率Rate(本発明の変化率に相当する)から、自車両到達時間Tを求める。例えば、拡大第1画像部分53aで最も高い相関度となったときには、Rate=1.25を用いて以下の式(2)により自車両到達時間Tを算出する。   Then, the second image portion 50a is extracted from the second image 50 with the highest degree of correlation among the first image portion 51a, the enlarged first image portion 52a, the enlarged first image portion 53a, and the enlarged first image portion 54a. The own vehicle arrival time T is obtained from the expansion rate Rate (corresponding to the change rate of the present invention). For example, when the highest correlation is obtained in the enlarged first image portion 53a, the own vehicle arrival time T is calculated by the following formula (2) using Rate = 1.25.

Figure 0005602354
Figure 0005602354

但し、T:自車両到達時間、dT:撮像間隔、Rate:拡大率。   However, T: own vehicle arrival time, dT: imaging interval, Rate: magnification rate.

そして、到達時間算出手段23は、上述した第1の実施形態と同様に、要求される距離分解能が10mであるときには、車両からの距離が50m以下である範囲に存在する対象物を想定して相関演算を行うときに、第1画像部分51a、拡大第1画像部分52a、拡大第1画像部分53a、拡大第1画像部分54a、及び第2画像50を1/2サイズに縮小して、相関演算を行うことにより、相関演算の演算量を減少させて効率良く自車両到達時間Tを算出することができる。   And the arrival time calculation means 23 assumes the target which exists in the range whose distance from a vehicle is 50 m or less, when the required distance resolution is 10 m similarly to 1st Embodiment mentioned above. When performing the correlation calculation, the first image portion 51a, the enlarged first image portion 52a, the enlarged first image portion 53a, the enlarged first image portion 54a, and the second image 50 are reduced to ½ size to correlate. By performing the calculation, the host vehicle arrival time T can be efficiently calculated while reducing the amount of calculation of the correlation calculation.

そして、接触可能性判定手段22は、到達時間算出手段23により算出された自車両到達時間が所定時間以下となったときに、ブザー6による注意喚起音の出力と表示装置7への注意喚起表示を行う。   Then, the contact possibility determination means 22 outputs the warning sound by the buzzer 6 and the warning display on the display device 7 when the own vehicle arrival time calculated by the arrival time calculation means 23 becomes a predetermined time or less. I do.

また、到達時間算出手段23は、車両からの距離が50mを超える範囲に存在する対象物を想定して相関演算を行うときには、第1画像部分51a、拡大第1画像部分52a、拡大第1画像部分53a、拡大第1画像部分54a、及び第2画像50を縮小せずに相関演算を行うことにより、要求される距離分解能を確保して自車両到達時間を算出することができる。   Further, when the arrival time calculation means 23 performs the correlation calculation assuming an object existing in a range where the distance from the vehicle exceeds 50 m, the first image portion 51a, the enlarged first image portion 52a, and the enlarged first image By performing correlation calculation without reducing the portion 53a, the enlarged first image portion 54a, and the second image 50, the required distance resolution can be secured and the own vehicle arrival time can be calculated.

なお、本実施の形態においては、車両前方を撮像する構成を示したが、車両の後方や側方等、他の方向を撮像して対象物との接触可能性を判断するようにしてもよい。   In the present embodiment, the configuration in which the front of the vehicle is imaged is shown. However, the possibility of contact with the object may be determined by imaging other directions such as the rear and side of the vehicle. .

また、本実施の形態においては、本発明の撮像手段として赤外線カメラ2R,2Lを用いたが、可視画像を撮像する可視カメラを用いてもよい。   Further, in the present embodiment, the infrared cameras 2R and 2L are used as the imaging means of the present invention, but a visible camera that captures a visible image may be used.

本発明の車両周囲監視装置の構成図。The block diagram of the vehicle periphery monitoring apparatus of this invention. 図1に示した車両周囲監視装置の車両への取り付け態様の説明図。Explanatory drawing of the attachment aspect to the vehicle of the vehicle periphery monitoring apparatus shown in FIG. 同一対象物の画像部分を相関演算により抽出する処理の説明図。Explanatory drawing of the process which extracts the image part of the same target object by correlation calculation. 車両と対象物の距離による距離分解能の変化の説明図。Explanatory drawing of the change of the distance resolution by the distance of a vehicle and a target object. 2画像間の相関演算により、対象物の画像部分の拡大率を求める処理の説明図。Explanatory drawing of the process which calculates | requires the expansion rate of the image part of a target object by the correlation calculation between 2 images.

符号の説明Explanation of symbols

1…画像処理ユニット、2R,2L…赤外線カメラ(撮像手段)、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…スピーカ、7…表示装置、20…対応画像抽出手段、21…距離算出手段、22…接触可能性判定手段、23…到達時間算出手段   DESCRIPTION OF SYMBOLS 1 ... Image processing unit, 2R, 2L ... Infrared camera (imaging means), 3 ... Yaw rate sensor, 4 ... Vehicle speed sensor, 5 ... Brake sensor, 6 ... Speaker, 7 ... Display apparatus, 20 ... Corresponding image extraction means, 21 ... Distance calculation means, 22 ... contact possibility determination means, 23 ... arrival time calculation means

Claims (2)

車両に搭載されて重複した撮像範囲を有する第1の撮像手段及び第2の撮像手段により撮像された画像に基づいて、該車両の周辺を監視する車両周辺監視装置であって、
前記車両から所定距離以内の範囲に存在する対象物を監視対象とするときに、同一時点で前記第1の撮像手段により撮像された第1画像及び前記第2の撮像手段により撮像された第2画像を、前記所定距離において要求される距離分解能が確保される縮小率で縮小し、縮小後の前記第1画像から対象物の第1画像部分を抽出して、縮小後の前記第2画像内で該第1画像部分と相関性を有する第2画像部分を抽出する対応画像抽出手段と、
前記第1画像部分と前記第2画像部分との視差に基づいて、前記第1画像部分及び前記第2画像部分に対応する実空間上の対象物と、前記車両との距離を算出する距離算出手段とを備え、
前記対応画像抽出手段は、縮小後の前記第1画像から抽出する対象物の第1画像部分を前記縮小率に応じた大きさにすると共に、縮小後の前記第2画像内に設定される探索範囲を、前記縮小率に応じた大きさを有し、かつ縮小後の前記第1画像中の前記第1画像部分の位置に対応する位置を含む範囲に設定し、前記縮小率に応じた大きさにされた探索範囲内で縮小後の前記第1画像部分と相関性を有する第2画像部分を抽出することを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle based on images captured by a first imaging unit and a second imaging unit that are mounted on the vehicle and have overlapping imaging ranges,
When an object existing within a predetermined distance from the vehicle is to be monitored, a first image captured by the first imaging unit and a second image captured by the second imaging unit at the same time point The image is reduced at a reduction rate that ensures the distance resolution required at the predetermined distance, the first image portion of the object is extracted from the reduced first image, and the reduced image in the second image is extracted. Corresponding image extracting means for extracting a second image portion having a correlation with the first image portion;
Based on the parallax between the first image portion and the second image portion, distance calculation for calculating the distance between the object in real space corresponding to the first image portion and the second image portion and the vehicle Means and
The corresponding image extracting means sets the size of the first image portion of the object to be extracted from the reduced first image according to the reduction ratio and is set in the reduced second image. The range is set to a range having a size corresponding to the reduction ratio and including a position corresponding to the position of the first image portion in the reduced first image, and the size corresponding to the reduction ratio A vehicle periphery monitoring device , wherein a second image portion having a correlation with the reduced first image portion is extracted within the specified search range .
前記対応画像抽出手段は、前記車両から対象物までの所定距離以上において要求される距離分解能が縮小後の第1画像及び第2画像において確保されない該所定距離以上の範囲に存在する対象物を監視対象とするときは、非縮小の第1画像から対象物の第1画像部分を抽出して、非縮小の第2画像内で該第1画像部分と相関性を有する第2画像部分を抽出することを特徴とする請求項1に記載の車両周辺監視装置。   The corresponding image extracting means monitors an object existing in a range of the predetermined distance or more that is not ensured in the first image and the second image after the reduction in distance resolution required at a predetermined distance or more from the vehicle to the object. When the target is selected, the first image portion of the object is extracted from the non-reduced first image, and the second image portion having a correlation with the first image portion is extracted from the non-reduced second image. The vehicle periphery monitoring device according to claim 1.
JP2008261925A 2008-10-08 2008-10-08 Vehicle periphery monitoring device Expired - Fee Related JP5602354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008261925A JP5602354B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008261925A JP5602354B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010093570A JP2010093570A (en) 2010-04-22
JP5602354B2 true JP5602354B2 (en) 2014-10-08

Family

ID=42255872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008261925A Expired - Fee Related JP5602354B2 (en) 2008-10-08 2008-10-08 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5602354B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3839329B2 (en) * 2002-02-04 2006-11-01 本田技研工業株式会社 Night vision system
JP3906210B2 (en) * 2004-02-13 2007-04-18 株式会社東芝 Vehicle tracking device and program
JP4970926B2 (en) * 2006-01-16 2012-07-11 本田技研工業株式会社 Vehicle periphery monitoring device
JP2008039491A (en) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd Stereo image processing apparatus
JP4267657B2 (en) * 2006-10-31 2009-05-27 本田技研工業株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2010093570A (en) 2010-04-22

Similar Documents

Publication Publication Date Title
JP4631096B2 (en) Vehicle periphery monitoring device
JP4899424B2 (en) Object detection device
JP4359710B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4173901B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
WO2010125833A1 (en) Device for monitoring area around vehicle
JP5687702B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2008027309A (en) Collision determination system and collision determination method
KR20180041524A (en) Pedestrian detecting method in a vehicle and system thereof
JP4644273B2 (en) Vehicle periphery monitoring device
JP2008026998A (en) Obstacle location calculation system and method
JP5004923B2 (en) Vehicle driving support device
JP5172482B2 (en) Vehicle periphery monitoring device
JP5155204B2 (en) White line detector
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP6802999B2 (en) Compartment line detection system
JP5602354B2 (en) Vehicle periphery monitoring device
JP2009193390A (en) Vehicle periphery monitor device, vehicle, and program and method for monitoring vehicle periphery
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4176558B2 (en) Vehicle periphery display device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP2007317128A (en) Device and method for detecting moving distance
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP2966683B2 (en) Obstacle detection device for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131016

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131024

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140820

R150 Certificate of patent or registration of utility model

Ref document number: 5602354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees