JP2010239190A - Obstacle detection device - Google Patents

Obstacle detection device Download PDF

Info

Publication number
JP2010239190A
JP2010239190A JP2009082004A JP2009082004A JP2010239190A JP 2010239190 A JP2010239190 A JP 2010239190A JP 2009082004 A JP2009082004 A JP 2009082004A JP 2009082004 A JP2009082004 A JP 2009082004A JP 2010239190 A JP2010239190 A JP 2010239190A
Authority
JP
Japan
Prior art keywords
image
dimensional object
gradient
straight line
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009082004A
Other languages
Japanese (ja)
Other versions
JP5182589B2 (en
Inventor
Toshiaki Kakinami
俊明 柿並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2009082004A priority Critical patent/JP5182589B2/en
Publication of JP2010239190A publication Critical patent/JP2010239190A/en
Application granted granted Critical
Publication of JP5182589B2 publication Critical patent/JP5182589B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To compose an obstacle detection device capable of accurately extracting a three-dimensional object. <P>SOLUTION: Conversion images are generated by individually subjecting a first shot image and a second shot image shot by a camera Cam to projection conversion to a first virtual plane at a road surface level and a second virtual plane at a high level relative to it; a logical product of the conversion images is obtained to extract three-dimensional candidate regions, and a three-dimensional candidate region having an attitude facing an optical center is extracted as a stereoscopic image from among the extracted three-dimensional candidate regions. The lower end of the stereoscopic image is identified from a plurality of gradient lines passing through the lower ends of individually-extracted three-dimensional object images and the optical center. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、障害物検出装置に関し、詳しくは、車載カメラによって撮影された車両周辺の画像を、上方視点から見下ろした画像に射影変換する技術に関連するものである。   The present invention relates to an obstacle detection device, and particularly relates to a technique for projectively converting an image around a vehicle photographed by an in-vehicle camera into an image looking down from an upper viewpoint.

上記のように構成された障害物検出装置と関連する技術として特許文献1には、異なる位置で撮影された車両周囲の画像を路面に投影変換することで路面投影像を作成し、また、路面以外の物体の領域を抽出し、路面投影画像に重ね合わせ、差を求めることにより、路面外物体の領域を抽出する処理形態が記載されている。更に、この特許文献1では、路面外の物体の領域の輪郭を物体に由来するものと、投影の歪みによるものとに分類し、投影像から変換された画像に、その領域の輪郭を付加することで車両の周囲の状況を分かり易くする点が記載されている。   As a technique related to the obstacle detection apparatus configured as described above, Patent Document 1 discloses a road surface projection image by projecting and converting an image around a vehicle photographed at different positions on a road surface. A processing form is described in which a region of an object outside the road surface is extracted by extracting a region of an object other than the above and superimposing it on a road surface projection image to obtain a difference. Furthermore, in this patent document 1, the outline of the area of the object outside the road surface is classified into one derived from the object and one due to projection distortion, and the outline of the area is added to the image converted from the projection image. This makes it easier to understand the situation around the vehicle.

この特許文献1では、車両や人物のように高さ成分を有する立体物では、高さが高いほど、その物体を投影した画像の歪みが大きくなる不都合があり、鳥瞰画像とした場合には、実在の物体との対応が困難になることから、立体物を見やすく表示している。   In Patent Document 1, a solid object having a height component such as a vehicle or a person has a disadvantage that the higher the height, the greater the distortion of an image projected from the object. Since it is difficult to deal with a real object, the three-dimensional object is displayed in an easy-to-see manner.

また、関連する技術として非特許文献1には、移動前後の画像を用い、移動前の画像から移動後の画像を予測して比較するが、路面模様の点であれば予測した画像と移動後の画像とが一致する。立体物上の点であれば一致せず視差が生じるために、その点に関する距離と高さとを計算できることが開示されている。   In addition, as a related technique, Non-Patent Document 1 uses images before and after movement and predicts and compares the image after movement from the image before movement. Matches the image. It is disclosed that since a point on a three-dimensional object does not match and a parallax occurs, the distance and height related to the point can be calculated.

特開2001‐114047号公報 (段落番号〔0015〕〜〔0018〕、〔0032〕〜〔0050〕、図1〜図9)JP-A-2001-114047 (paragraph numbers [0015] to [0018], [0032] to [0050], FIGS. 1 to 9)

瀧波栄作・石川繁樹・宮内ミナミ・小沢慎治 共著「無人搬送車の視覚誘導のための障害物検出の一手法」 電子情報通信学会論文誌 D Vol.J68-D No.10 pp.1789-1791 発行日:1985/10/20Co-authored by Eisaku Tonami, Shigeki Ishikawa, Minami Miyauchi, Shinji Ozawa “A Method for Obstacle Detection for Visual Guidance of Automated Carriers” IEICE Transactions D Vol.J68-D No.10 pp.1789-1791 Date: 1985/10/20

車載カメラで車両の周囲を撮影しモニタに表示する際の表示形態として、特許文献1に記載されるもののように車載カメラで撮影された画像を路面に投影した投影像を生成し、この投影像をモニタに表示することも考えられる。このように表示される画像は、鳥瞰画像やトップビューとして説明されることも多く、その画像が車両の上方の視点から撮影されたものとなることから、車両の周囲の状況を把握しやすくすると云う良好な面もある。   As a display form when photographing the periphery of the vehicle with the in-vehicle camera and displaying it on the monitor, a projection image is generated by projecting the image photographed with the in-vehicle camera onto the road surface as described in Patent Document 1, and this projection image May be displayed on a monitor. The image displayed in this way is often described as a bird's-eye view image or a top view, and since the image is taken from a viewpoint above the vehicle, it is easy to grasp the situation around the vehicle. There is also a good aspect.

このように車載カメラの画像を変換することで鳥瞰画像を生成するものでは、立体物も路面上に存在する表示形態となることから、特許文献1に記載されるように立体物を抽出して表示することにより、立体物の位置を把握できるようにしている。   In this way, a bird's-eye view image is generated by converting the image of the in-vehicle camera, and the three-dimensional object is also displayed on the road surface. Therefore, as described in Patent Document 1, the three-dimensional object is extracted. By displaying, the position of the three-dimensional object can be grasped.

車載カメラで撮影した撮影画像に基づいて立体物の位置を計測するには、複数の車載カメラを用いることで視差を生じている2つの撮影画像の差分から実現できる。また、立体物の位置を検出する精度を高めるには、車載カメラを3つ以上備えることで実現するものであるが、例えば、3つ以上の車載カメラを用いた場合には、カメラを備えるためコストが上昇するばかりではなく、3つの撮影画像を取得し、夫々の撮影画像の差分を取る処理を行うことから処理に時間が掛かる点において好ましくない。   Measuring the position of a three-dimensional object based on a captured image captured by an in-vehicle camera can be realized from the difference between two captured images that generate parallax by using a plurality of in-vehicle cameras. In order to improve the accuracy of detecting the position of a three-dimensional object, it is realized by providing three or more in-vehicle cameras. For example, when three or more in-vehicle cameras are used, the cameras are provided. Not only is the cost increased, but it is not preferable in that the processing takes time because three captured images are acquired and a difference between the captured images is obtained.

特に、障害物が路面から浮き上がっているもの(路面に接していない部分があるもの)では、その浮き上がり状態を高精度で検出したい要望があるものの、ハードウエアのコストの上昇や、処理時間の長時間化は避けたい面もある。   Especially when there are obstacles floating on the road surface (there is a part that is not in contact with the road surface), there is a desire to detect the lifted state with high accuracy, but the cost of hardware is increased and the processing time is long. There is also an aspect that wants to avoid time.

また、非特許文献1のように、単純な積み木の世界を想定したシーンにおいてはエッジの対応付けが必要ない場合もあり得るが、現実のリアルワールドにおいては適用できない場合が多い。現実の世界では路面上に多様な模様があり、立体物上にも多様な模様があり、このようなシーンにおいては、開示された方法では物体上の点であることを判別できないので、画像上に現れた全ての点について、予測画像と移動後画像との間で対応付けを行い距離と高さとを演算する必要があり、計算量が増大すると云う問題がある。   Also, as in Non-Patent Document 1, there may be cases where edge association is not necessary in a scene that assumes a simple building world, but in many cases it cannot be applied in an actual real world. In the real world, there are various patterns on the road surface, and there are also various patterns on the three-dimensional object. In such a scene, it cannot be determined that the point is on the object by the disclosed method. For all the points appearing in (1), it is necessary to calculate the distance and height by associating the predicted image with the post-movement image, and there is a problem that the amount of calculation increases.

本発明の目的は、立体物の抽出を精度高く行い得る障害物検出装置を合理的に構成する点にある。   An object of the present invention is to rationally configure an obstacle detection apparatus that can accurately extract a three-dimensional object.

本発明の特徴は、車両周辺を撮影するカメラと、
車両の位置座標と、車両の姿勢とを検出する自車位置検出手段と、
車両が所定位置にあるタイミング、及び、この所定位置から移動した移動位置にあるタイミングにおいて、前記カメラで撮影領域が一部共有される第1撮影画像と第2撮影画像と撮影する撮影制御手段と、
前記第1撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面との高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第1射影変換部と、
前記第2撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面との高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第2射影変換部と、
前記第1射影変換部で前記第1撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第1立体物候補領域抽出手段と、
前記第2射影変換部で前記第2撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第2立体物候補領域抽出手段と、
前記第1立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第1撮影画像の光学中心とを通過する複数の第1方位直線を設定し、この複数の第1方位直線を含む垂直姿勢の仮想垂直面において、第1撮影画像の光学中心から前記画像領域の下端を通過する第1勾配直線を生成する第1勾配直線生成手段と、
前記第2立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第2撮影画像の光学中心とを通過する複数の第2方位直線を設定し、この複数の第2方位直線を含む垂直姿勢の仮想垂直面において、第2撮影画像の光学中心から前記画像領域の下端を通過する第2勾配直線を生成する第2勾配直線生成手段と、
前記第1勾配直線と前記第2勾配直線を路面上に設定した基準座標に座標変換を行った状態で、複数の第1勾配直線と複数の第2勾配直線とが交差する複数の交点、又は、複数の第1勾配直線に比例する勾配の第1仮想直線と、複数の第2勾配直線に比例する勾配の第2仮想直線とが交差する交点のうち、前記画像領域の下端を通過する直線同士の交点の位置を検出する手前端検出手段と、
前記手前端検出手段で検出された画像領域の手前端から立体物が存在する領域を特定する立体物領域特定手段とを備えている点にある。
A feature of the present invention is a camera for photographing a vehicle periphery,
Vehicle position detection means for detecting vehicle position coordinates and vehicle posture;
Shooting control means for shooting the first shot image and the second shot image in which a part of the shooting area is shared by the camera at a timing at which the vehicle is at a predetermined position and a timing at which the vehicle is moved from the predetermined position. ,
A converted image in which the first photographed image is looked down from an upper viewpoint with respect to at least two virtual planes among a virtual plane set on the road surface and a plurality of virtual projection planes different in height from the road surface in a posture parallel to the road surface A first projective transformation unit for projective transformation into,
A transformed image obtained by looking down at least two virtual planes of the second photographed image from an upper viewpoint among a virtual plane set on the road surface and a plurality of virtual projection planes different in height from the road surface in a posture parallel to the road surface. A second projective transformation unit for projective transformation into,
A first three-dimensional object candidate region extracting means for extracting an image region existing in an overlapping region in a state where a plurality of converted images generated from the first photographed image are overlapped by the first projective conversion unit;
Second solid object candidate area extracting means for extracting image areas existing in overlapping areas in a state where a plurality of converted images generated from the second photographed image are overlapped by the second projective conversion unit;
A plurality of first azimuth straight lines passing through a plurality of feature points of the image region extracted by the first three-dimensional object candidate region extraction means and the optical center of the first photographed image are set, and the plurality of first azimuth straight lines First gradient straight line generating means for generating a first gradient straight line that passes from the optical center of the first captured image to the lower end of the image area in a virtual vertical plane including
A plurality of second azimuth lines passing through a plurality of feature points of the image region extracted by the second three-dimensional object candidate region extraction means and the optical center of the second photographed image are set, and the plurality of second azimuth lines A second gradient straight line generating means for generating a second gradient straight line passing through the lower end of the image area from the optical center of the second photographed image in a virtual vertical plane including
A plurality of intersections where the plurality of first gradient lines and the plurality of second gradient lines intersect, in a state in which the first gradient line and the second gradient line are coordinate-converted to reference coordinates set on the road surface, or A straight line passing through the lower end of the image area among the intersections of the first virtual straight line having a gradient proportional to the plurality of first gradient straight lines and the second virtual straight line having a gradient proportional to the plurality of second gradient straight lines Front end detection means for detecting the position of the intersection of each other;
And a three-dimensional object region specifying unit that specifies a region where a three-dimensional object is present from the front end of the image region detected by the front end detecting unit.

この構成によると、第1撮影画像から第1射影変換部が2つの変換画像を生成する。これと同様に、第2射影変換部が少なくとも2つの変換画像を生成する。第1立体物候補領域抽出手段は対応する複数の変換画面から第1立体物候補領域を抽出し、第2立体物領域抽出手段は対応する複数の変換画面から第2立体物候補領域を抽出する。これらの処理により、第1撮影画像と、際2撮影画像とにおいて立体物が存在していると予想される領域として、立体物候補領域を設定できる。次に、第1勾配直線生成手段により、第1立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と第1撮影画像の光学中心とを通過する複数の第1方位直線を含む垂直姿勢の仮想垂直面において光学中心から立体画像の下端を通過する第1勾配直線が生成される。これと同様の処理を第2勾配直線生成手段が行うことにより、第2立体物候補領域抽出手段で抽出された画像領域について第2勾配直線が生成される。そして、手前端検出手段が第1勾配直線と第2勾配直線とのいずれかを、第1撮影画像、あるいは、第2撮影画像の撮影位置のいずれかを基準とする座標変換の後に、複数の第1勾配直線と複数の第2勾配直線とが交差する複数の交点、又は、第1仮想直線と第2仮想直線とが交差する交点のうち、前記画像領域の下端を通過する直線同士の交点の位置を画像領域の手前端として検出する。そして、この手前端情報に基づいて立体物領域特定手段が立体物領域を特定する。
その結果、立体物の抽出を精度高く行い得る障害物検出装置が構成された。
According to this configuration, the first projective conversion unit generates two converted images from the first captured image. Similarly, the second projective transformation unit generates at least two converted images. The first three-dimensional object candidate area extracting unit extracts the first three-dimensional object candidate area from the corresponding plurality of conversion screens, and the second three-dimensional object region extracting unit extracts the second three-dimensional object candidate area from the corresponding plurality of conversion screens. . With these processes, a three-dimensional object candidate region can be set as a region where a three-dimensional object is expected to exist in the first captured image and the second captured image. Next, the first gradient straight line generation unit includes a plurality of first azimuth straight lines that pass through the plurality of feature points of the image region extracted by the first three-dimensional object candidate region extraction unit and the optical center of the first photographed image. A first gradient straight line passing through the lower end of the stereoscopic image from the optical center is generated on the virtual vertical plane in the vertical posture. A second gradient straight line is generated for the image region extracted by the second three-dimensional object candidate region extracting unit by performing the same processing as the second gradient straight line generating unit. Then, the front end detection means converts any one of the first gradient line and the second gradient line into a plurality of coordinates after the coordinate conversion based on either the first captured image or the captured position of the second captured image. Among a plurality of intersections where the first gradient straight line and the plurality of second gradient straight lines intersect, or among the intersections where the first virtual straight line and the second virtual straight line intersect, intersections between the straight lines passing through the lower end of the image area Is detected as the front end of the image area. Then, the three-dimensional object region specifying means specifies the three-dimensional object region based on the front end information.
As a result, an obstacle detection apparatus that can extract a three-dimensional object with high accuracy is configured.

本発明の特徴は、車両周辺を撮影領域が共有する状態で撮影する2つのカメラと、
2つのカメラの一方で撮影された第1撮影画像と、他方で撮影された第2撮影画像との撮影位置関係を保存する撮影位置情報保存手段と、
前記第1撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面と高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第1射影変換部と、
前記第2撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面と高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第2射影変換部と、
前記第1射影変換部で前記第1撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第1立体物候補領域抽出手段と、
前記第2射影変換部で前記第2撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第2立体物候補領域抽出手段と、
前記第1立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第1撮影画像の光学中心とを通過する複数の第1方位直線を設定し、この複数の第1方位直線を含む垂直姿勢の仮想垂直面において、第1撮影画像の光学中心から前記画像領域の下端を通過する第1勾配直線を生成する第1勾配直線生成手段と、
前記第2立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第2撮影画像の光学中心とを通過する複数の第2方位直線を設定し、この複数の第2方位直線を含む垂直姿勢の仮想垂直面において、第2撮影画像の光学中心から前記画像領域の下端を通過する第2勾配直線を生成する第2勾配直線生成手段と、
前記第1勾配直線と前記第2勾配直線を路面上に設定した基準座標に座標変換を行った状態で、複数の第1勾配直線と複数の第2勾配直線とが交差する複数の交点、又は、複数の第1勾配直線に比例する勾配の第1仮想直線と、複数の第2勾配直線に比例する勾配の第2仮想直線とが交差する交点のうち、前記画像領域の下端を通過する直線同士の交点の位置を検出する手前端検出手段と、
前記手前端検出手段で検出された画像領域の手前端から立体物が存在する領域を特定する立体物領域特定手段とを備えている点にある。
The feature of the present invention is that two cameras that shoot in the state where the shooting area is shared around the vehicle,
Photographing position information storage means for storing a photographing position relationship between a first photographed image photographed by one of the two cameras and a second photographed image photographed by the other;
The first photographed image is a converted image obtained by looking down at least two virtual planes from an upper viewpoint among a virtual plane set on the road surface and a plurality of virtual projection planes different in height from the road surface in a posture parallel to the road surface. A first projective transformation unit for projective transformation;
The second photographed image is a converted image obtained by looking down at least two virtual planes from an upper viewpoint among a virtual plane set on the road surface and a plurality of virtual projection surfaces different in height from the road surface in a posture parallel to the road surface. A second projective transformation unit for projective transformation;
A first three-dimensional object candidate region extracting means for extracting an image region existing in an overlapping region in a state where a plurality of converted images generated from the first photographed image are overlapped by the first projective conversion unit;
Second solid object candidate area extracting means for extracting image areas existing in overlapping areas in a state where a plurality of converted images generated from the second photographed image are overlapped by the second projective conversion unit;
A plurality of first azimuth straight lines passing through a plurality of feature points of the image region extracted by the first three-dimensional object candidate region extraction means and the optical center of the first photographed image are set, and the plurality of first azimuth straight lines First gradient straight line generating means for generating a first gradient straight line that passes from the optical center of the first captured image to the lower end of the image area in a virtual vertical plane including
A plurality of second azimuth lines passing through a plurality of feature points of the image region extracted by the second three-dimensional object candidate region extraction means and the optical center of the second photographed image are set, and the plurality of second azimuth lines A second gradient straight line generating means for generating a second gradient straight line passing through the lower end of the image area from the optical center of the second photographed image in a virtual vertical plane including
A plurality of intersections where the plurality of first gradient lines and the plurality of second gradient lines intersect, in a state in which the first gradient line and the second gradient line are coordinate-converted to reference coordinates set on the road surface, or A straight line passing through the lower end of the image area among the intersections of the first virtual straight line having a gradient proportional to the plurality of first gradient straight lines and the second virtual straight line having a gradient proportional to the plurality of second gradient straight lines Front end detection means for detecting the position of the intersection of each other;
And a three-dimensional object region specifying unit that specifies a region where a three-dimensional object is present from the front end of the image region detected by the front end detecting unit.

この構成によると、第1撮影画像から第1射影変換部が2つの変換画像を生成する。これと同様に、第2射影変換部と少なくとも2つの変換画像を生成する。第1立体物候補領域抽出手段は対応する複数の変換画面から第1立体物候補領域を抽出し、第2立体物領域抽出手段は対応する複数の変換画面から第2立体物候補領域を抽出する。これらの処理により、第1撮影画像と、際2撮影画像とにおいて立体物が存在していると予想される領域として、立体物候補領域を設定できる。次に、第1勾配直線生成手段により、第1立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と第1撮影画像の光学中心とを通過する複数の第1方位直線を含む垂直姿勢の仮想垂直面において光学中心から立体画像の下端を通過する第1勾配直線が生成される。これと同様の処理を第2勾配直線生成手段が行うことにより、第2立体物候補領域抽出手段で抽出された画像領域について第2勾配直線が生成される。そして、手前端検出手段が第1勾配直線と第2勾配直線とのいずれかを、第1撮影画像、あるいは、第2撮影画像の撮影位置のいずれかを基準とする座標変換の後に、複数の第1勾配直線と複数の第2勾配直線とが交差する複数の交点、又は、第1仮想直線と第2仮想直線とが交差する交点のうち、前記画像領域の下端を通過する直線同士の交点の位置を画像領域の手前端として検出する。そして、この手前端情報に基づいて立体物領域特定手段が立体物領域を特定する。
その結果、立体物の抽出を精度高く行い得る障害物検出装置が構成された。
According to this configuration, the first projective conversion unit generates two converted images from the first captured image. Similarly to this, the second projective transformation unit and at least two converted images are generated. The first three-dimensional object candidate area extracting unit extracts the first three-dimensional object candidate area from the corresponding plurality of conversion screens, and the second three-dimensional object region extracting unit extracts the second three-dimensional object candidate area from the corresponding plurality of conversion screens. . With these processes, a three-dimensional object candidate region can be set as a region where a three-dimensional object is expected to exist in the first captured image and the second captured image. Next, the first gradient straight line generation unit includes a plurality of first azimuth straight lines that pass through the plurality of feature points of the image region extracted by the first three-dimensional object candidate region extraction unit and the optical center of the first photographed image. A first gradient straight line passing through the lower end of the stereoscopic image from the optical center is generated on the virtual vertical plane in the vertical posture. A second gradient straight line is generated for the image region extracted by the second three-dimensional object candidate region extracting unit by performing the same processing as the second gradient straight line generating unit. Then, the front end detection means converts any one of the first gradient line and the second gradient line into a plurality of coordinates after the coordinate conversion based on either the first captured image or the captured position of the second captured image. Among a plurality of intersections where the first gradient straight line and the plurality of second gradient straight lines intersect, or among the intersections where the first virtual straight line and the second virtual straight line intersect, intersections between the straight lines passing through the lower end of the image area Is detected as the front end of the image area. Then, the three-dimensional object region specifying means specifies the three-dimensional object region based on the front end information.
As a result, an obstacle detection apparatus that can extract a three-dimensional object with high accuracy is configured.

本発明は、前記第1立体物候補領域抽出手段と前記第2立体物候補領域抽出手段とは、処理対象とする2つの前記変換画像から輪郭抽出フィルタでの輪郭抽出により画像領域を抽出する画像領域抽出処理の後に、2つの射影画像を重ね合わせて画像領域の累積を取ることで重複する領域に存在する画像領域を特定する処理により画像領域を抽出しても良い。   According to the present invention, the first three-dimensional object candidate region extracting unit and the second three-dimensional object candidate region extracting unit extract an image region from the two converted images to be processed by contour extraction using a contour extraction filter. After the area extraction process, the image area may be extracted by a process of specifying an image area existing in an overlapping area by superimposing two projected images and accumulating the image area.

これによると、複数の射影画像において抽出された輪郭で取り囲まれる画像領域を画像領域抽出処理が抽出し、複数の変換画像を重ね合わせた状態で重複する画像領域を立体物候補領域として立体物候補領域抽出手段が抽出する。   According to this, the image area extraction process extracts the image area surrounded by the contours extracted in the plurality of projection images, and the three-dimensional object candidate is defined as the three-dimensional object candidate area by overlapping the plurality of converted images in a superimposed state. The area extracting means extracts.

第1実施形態の車両の運転座席近傍を示す図である。It is a figure which shows the driver's seat vicinity of the vehicle of 1st Embodiment. 第1実施形態の車両構成を模式的に示す平面図である。It is a top view which shows typically the vehicle structure of 1st Embodiment. 視点変換の一例を示す説明図である。It is explanatory drawing which shows an example of viewpoint conversion. カメラによって撮影された画像を示す図である。It is a figure which shows the image image | photographed with the camera. 略垂直方向からの視点の画像へ変換された画像を示す図である。It is a figure which shows the image converted into the image of the viewpoint from a substantially perpendicular direction. 第1実施形態の制御構成を示すブロック回路図である。It is a block circuit diagram which shows the control structure of 1st Embodiment. 第1実施形態の制御の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of control of 1st Embodiment. 立体物と光学中心と2つ仮想平面との関係を示す斜視図である。It is a perspective view which shows the relationship between a solid object, an optical center, and two virtual planes. 立体物と光学中心と2つ仮想平面との関係を示す側面図である。It is a side view which shows the relationship between a solid object, an optical center, and two virtual planes. 立体物と光学中心と複数の仮想平面との関係を示す側面図である。It is a side view which shows the relationship between a solid object, an optical center, and several virtual planes. 第1仮想平面と第2仮想平面とに生成された変換画像を示す図である。It is a figure which shows the conversion image produced | generated by the 1st virtual plane and the 2nd virtual plane. 2値化後の2つの変換画像を示す図である。It is a figure which shows two conversion images after binarization. 立体物領域が特定された画像を示す図である。It is a figure which shows the image by which the solid object area | region was specified. 方位直線を設定する原理の説明図である。It is explanatory drawing of the principle which sets an azimuth | straight line. 方位直線と仮想垂直面と勾配直線との説明図である。It is explanatory drawing of an azimuth | direction straight line, a virtual vertical surface, and a gradient straight line. 2つの光学中心を通る勾配直線の説明図である。It is explanatory drawing of the gradient straight line which passes along two optical centers. 下端が路面に接する立体物に形成される勾配直線と累積直線との説明図である。It is explanatory drawing of the gradient straight line and cumulative line which are formed in the solid object which a lower end touches a road surface. 下端が路面から離間した立体物に形成される勾配直線と累積直線との説明図である。It is explanatory drawing of the gradient straight line and cumulative line which are formed in the solid object which the lower end separated from the road surface. 第1累積直線と第2累積直線との交点から立体物の下端を特定する説明図である。It is explanatory drawing which specifies the lower end of a solid object from the intersection of a 1st cumulative straight line and a 2nd cumulative straight line. 第2実施形態の車両構成を模式的に示す平面図である。It is a top view which shows typically the vehicle structure of 2nd Embodiment. 第2実施形態の制御構成を示すブロック回路図である。It is a block circuit diagram which shows the control structure of 2nd Embodiment. 第2実施形態の制御の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of control of 2nd Embodiment.

以下、本発明の第1実施の形態を図面に基づいて説明する。
〔第1実施形態・全体構成〕
本発明の障害物検出装置は、例えば、駐車支援装置や運転支援装置などに利用されるものである。図1及び図2は、障害物検出装置が搭載される車両30の基本構成を示したものである。運転席に備えられたステアリングホイール24は、パワーステアリングユニット33と連動し、回転操作力を前輪28fに伝えて車両30の操舵を行う。車両前部にはエンジン32と、このエンジン32からの動力を変速して前輪28fや後輪28rに伝えるトルクコンバータやCVT等を有する変速機構34とが配置されている。車両30の駆動方式(前輪駆動、後輪駆動、四輪駆動)に応じて、前輪28f及び後輪28rの双方もしくは何れかに動力が伝達される。運転席の近傍には走行速度を制御するアクセル操作手段としてのアクセルペダル26と、前輪28f及び後輪28rのブレーキ装置31を介して前輪28f及び後輪28rに制動力を作用させるブレーキペダル27とが並列配置されている。
A first embodiment of the present invention will be described below with reference to the drawings.
[First Embodiment / Overall Configuration]
The obstacle detection device of the present invention is used for, for example, a parking assistance device or a driving assistance device. 1 and 2 show a basic configuration of a vehicle 30 on which an obstacle detection device is mounted. The steering wheel 24 provided in the driver's seat is interlocked with the power steering unit 33 to transmit the rotational operation force to the front wheels 28f to steer the vehicle 30. An engine 32 and a speed change mechanism 34 having a torque converter, CVT, and the like that shift the power from the engine 32 and transmit the power to the front wheels 28f and the rear wheels 28r are disposed at the front of the vehicle. Power is transmitted to the front wheel 28f and / or the rear wheel 28r according to the driving method of the vehicle 30 (front wheel drive, rear wheel drive, four wheel drive). In the vicinity of the driver's seat, an accelerator pedal 26 as an accelerator operating means for controlling the traveling speed, and a brake pedal 27 for applying a braking force to the front wheels 28f and the rear wheels 28r via the brake devices 31 for the front wheels 28f and the rear wheels 28r, Are arranged in parallel.

運転席の近傍のコンソールの上部位置には、モニタ20(表示装置)が備えられている。モニタ20は、バックライトを備えた液晶式のものである。モニタ20の表示面には、感圧式や静電式によるタッチパネルが形成され、指などの接触位置をロケーションデータとして出力することによって、利用者による指示入力を受け付ける。タッチパネルは、例えば、駐車支援開始の指示入力手段として用いられる。また、モニタ20には、スピーカも備えられており、種々の案内メッセージや効果音を発することができる。車両30にナビゲーションシステムが搭載される場合、モニタ20はナビゲーションシステムの表示装置として用いるものを兼用すると好適である。尚、モニタ20は、プラズマ表示型のものやCRT型のものであっても良く、スピーカはドアの内側など他の場所に備えられても良い。   A monitor 20 (display device) is provided at the upper position of the console near the driver's seat. The monitor 20 is a liquid crystal type equipped with a backlight. A pressure-sensitive or electrostatic touch panel is formed on the display surface of the monitor 20, and an instruction input by a user is received by outputting a contact position of a finger or the like as location data. The touch panel is used, for example, as an instruction input unit for starting parking assistance. The monitor 20 is also provided with a speaker, which can emit various guidance messages and sound effects. When the navigation system is mounted on the vehicle 30, it is preferable that the monitor 20 is also used as a display device for the navigation system. The monitor 20 may be of a plasma display type or a CRT type, and the speaker may be provided in another place such as the inside of the door.

ステアリングホイール24の操作系にはステアリングセンサ14が備えられ、ステアリング操作方向と操作量とが計測される。シフトレバー25の操作系にはシフト位置センサ15が備えられ、シフト位置が判別される。アクセルペダル26の操作系にはアクセルセンサ16が備えられ、操作量が計測される。ブレーキペダル27の操作系にはブレーキセンサ17が備えられ、操作の有無などが検出される。   A steering sensor 14 is provided in the operation system of the steering wheel 24, and the steering operation direction and the operation amount are measured. The operation system of the shift lever 25 is provided with a shift position sensor 15 to determine the shift position. The operation system of the accelerator pedal 26 is provided with an accelerator sensor 16 to measure an operation amount. The operation system of the brake pedal 27 is provided with a brake sensor 17, which detects the presence or absence of operation.

また、移動距離センサとして、前輪28f及び後輪28rの少なくとも一方の回転量を計測する車輪回転センサ18が備えられる。本実施形態では、後輪28rに車輪回転センサ18が備えられた場合を例示している。尚、移動距離については、変速機構34において、駆動系の回転量から車両30の移動量を計測するようにしてもよい。また、車両30には本発明の障害物検出装置として機能するECU(electronic control unit)10が配置されている。   Further, a wheel rotation sensor 18 that measures the amount of rotation of at least one of the front wheel 28f and the rear wheel 28r is provided as a movement distance sensor. In this embodiment, the case where the wheel rotation sensor 18 is provided in the rear wheel 28r is illustrated. As for the movement distance, the transmission mechanism 34 may measure the movement amount of the vehicle 30 from the rotation amount of the drive system. The vehicle 30 is provided with an electronic control unit (ECU) 10 that functions as an obstacle detection device of the present invention.

車両30の後部には、車両30の後方を撮影するカメラCamが備えられている。カメラCamは、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を内蔵し、当該撮像素子に撮像された情報を動画情報としてリアルタイムに出力するデジタルカメラである。カメラCamは、広角レンズを備えており、例えば左右約140度程度の画角を有している。カメラCamは、略水平方向の視点を有して、車両30の後方の情景を撮影可能に設置されている。カメラCamは、車両30の後方に向けて例えば30度程度の俯角を有して設置され、概ね後方8m程度までの領域を撮影する。撮影された画像は、障害物検出装置として機能するECU10に入力される。   A camera Cam that captures the rear of the vehicle 30 is provided at the rear of the vehicle 30. The camera Cam is a digital camera that incorporates an image sensor such as a CCD (charge coupled device) or a CIS (CMOS image sensor) and outputs information captured by the image sensor in real time as moving image information. The camera Cam includes a wide-angle lens and has a field angle of about 140 degrees on the left and right, for example. The camera Cam has a substantially horizontal viewpoint and is installed so that a scene behind the vehicle 30 can be photographed. The camera Cam is installed with a depression angle of, for example, about 30 degrees toward the rear of the vehicle 30, and generally captures an area up to about 8m behind. The captured image is input to the ECU 10 that functions as an obstacle detection device.

〔ECUの制御構成〕
ECU10は、マイクロプロセッサを有し、プログラムを実行することにより必要とする処理を実現する。このECU10では、図6に示すように、ステアリングセンサ14、シフト位置センサ15、アクセルセンサ16、ブレーキセンサ17、車輪回転センサ18夫々からの信号を取得する自車位置演算手段1と、この自車位置演算手段1からの情報に基づいてカメラCamを制御する撮影制御手段2と、この撮影制御手段2を介してカメラCamで先に撮影した第1撮影画像を保存する第1フレームメモリM1と、この後にカメラCamで撮影した第2撮影画像を保存する第2フレームメモリM2とを備えている。
[Control structure of ECU]
ECU10 has a microprocessor and implement | achieves the process required by running a program. In this ECU 10, as shown in FIG. 6, the vehicle position calculation means 1 for obtaining signals from the steering sensor 14, the shift position sensor 15, the accelerator sensor 16, the brake sensor 17, and the wheel rotation sensor 18, and the vehicle A shooting control unit 2 for controlling the camera Cam based on information from the position calculation unit 1; a first frame memory M1 for storing a first shot image previously shot by the camera Cam via the shooting control unit 2; Thereafter, a second frame memory M2 for storing a second photographed image photographed by the camera Cam is provided.

撮影制御手段2は、自車位置演算手段1からの情報に基づいて先に撮影した第1撮影画像と、この後に撮影された第2撮影画像との撮影領域が一部共有するように撮影タイミングを設定すると共に、自車位置演算手段1からの情報に基づき夫々の撮影タイミングにおける車両30の相対位置と、車両30の相対姿勢とを取得する。   The shooting control means 2 is configured to take a shooting timing so that a part of the shooting area of the first shot image shot first based on the information from the vehicle position calculation means 1 and the second shot image shot after that is shared. And the relative position of the vehicle 30 and the relative attitude of the vehicle 30 at each photographing timing are acquired based on the information from the vehicle position calculation means 1.

このECU10は、第1フレームメモリM1からの1フレーム(1コマ)の撮影画像から上方視点のから見下ろした2種の変換画像を生成する第1射影変換部N1を備えている。この第1射影変換部N1からの変換画像に基づいて立体物領域を抽出する第1立体物領域抽出手段U1を備えている。また、このECU10には第1立体物領域抽出手段U1で生成された立体物領域に基づいて第1勾配直線1を生成する第1勾配直線生成手段V1を備えている。この第1勾配直線生成手段V1は、例えば、図14(a)に示すように、立体物領域の下端の4つの特徴点X,Y、Z、Tに対応して第1方位直線DX1、DY1、DZ1、DT1を設定する。これらの第1方位直線DX1、DY1、DZ1、DT1は第1方位直線D1の一例である。   The ECU 10 includes a first projective conversion unit N1 that generates two types of converted images looking down from an upper viewpoint from a captured image of one frame (one frame) from the first frame memory M1. First solid object region extraction means U1 is provided for extracting a three-dimensional object region based on the converted image from the first projective transformation unit N1. In addition, the ECU 10 includes first gradient straight line generating means V1 that generates the first gradient straight line 1 based on the solid object area generated by the first three-dimensional object area extracting means U1. For example, as shown in FIG. 14A, the first gradient straight line generating unit V1 corresponds to the four feature points X, Y, Z, and T at the lower end of the three-dimensional object region. , DZ1 and DT1 are set. These first azimuth lines DX1, DY1, DZ1, and DT1 are examples of the first azimuth line D1.

第1方位直線DX1に対応した第1勾配直線E1を生成する処理の具体例として、図15に示すように特徴点Xに対応した第1方位直線DX1を含む垂直姿勢の仮想垂直面Wにおいて第1撮影画像の光学中心C1から画像領域の下端の特徴点Xを通過する第1勾配直線EX1(第1勾配直線E1の一例)を生成する。この特徴点Xは立体物の下端の手前側(光学中心C1に近い側)に位置するものであり、これを手前端と称している。図面には示していなが、第1勾配直線生成手段V1は第1方位直線DY1、DZ1、DT1についても第1勾配直線を生成する。そして、第2フレームメモリM2からの1フレーム(1コマ)の撮影画像についても、同様の処理を並列的に行うように、第1射影変換手段T1及び第2射影変換手段T2を有する第2射影変換部N2と、第2勾配直線生成手段V2とを備えている。   As a specific example of the process of generating the first gradient straight line E1 corresponding to the first azimuth straight line DX1, the virtual vertical plane W in the vertical posture including the first directional straight line DX1 corresponding to the feature point X as shown in FIG. A first gradient line EX1 (an example of the first gradient line E1) that passes through the feature point X at the lower end of the image region from the optical center C1 of one captured image is generated. This feature point X is located on the near side (the side close to the optical center C1) of the lower end of the three-dimensional object, and is referred to as the near end. Although not shown in the drawing, the first gradient straight line generating means V1 generates a first gradient straight line for the first azimuth straight lines DY1, DZ1, and DT1. The second projection having the first projection conversion means T1 and the second projection conversion means T2 so that the same processing is performed in parallel on the captured image of one frame (one frame) from the second frame memory M2. The conversion part N2 and the 2nd gradient straight line production | generation means V2 are provided.

第1立体物領域抽出手段U1と、第2立体物領域抽出手段U2とは、後述する画像抽出処理と、立体物候補領域抽出処理と、立体物領域抽出処理とを行う。特に、立体物候補領域抽出処理で抽出される立体物候補領域と、立体物領域抽出処理で抽出される立体物領域とが、本発明の画像領域の概念に含まれるものであり、立体物候補領域と立体物領域との何れも第1、第2勾配直線生成手段V1、V2における処理対象にすることができる。これと同様に、立体物候補領域と立体物領域との何れも立体物領域特定手段5での処理対象とすることができる。   The first three-dimensional object region extraction unit U1 and the second three-dimensional object region extraction unit U2 perform an image extraction process, a three-dimensional object candidate region extraction process, and a three-dimensional object region extraction process, which will be described later. In particular, the three-dimensional object candidate area extracted by the three-dimensional object candidate area extraction process and the three-dimensional object area extracted by the three-dimensional object area extraction process are included in the concept of the image area of the present invention. Both the region and the three-dimensional object region can be processed by the first and second gradient straight line generating means V1 and V2. Similarly, both the three-dimensional object candidate area and the three-dimensional object area can be processed by the three-dimensional object area specifying unit 5.

第1射影変換部N1と、第2射影変換部N2とは、第1射影変換手段T1と第2射影変換手段T2とを備えている。この第1射影変換手段T1は路面レベルの第1仮想平面S1(図8、図9を参照)に対して射影変換による変換画像を形成し、第2射影変換手段T2は路面レベルより高いレベルとなる第2仮想平面S2に対して変換画像を生成する。第1勾配直線生成手段V1は、前述したように、第1方位直線D1を設定し、第1勾配直線E1を生成する。第2勾配直線生成手段V2は、第2方位直線D2を設定し、第2勾配直線E2を生成する。これらの制御形態の詳細は後述する。   The first projective conversion unit N1 and the second projective conversion unit N2 include first projective conversion means T1 and second projective conversion means T2. The first projective transformation means T1 forms a transformed image by projective transformation on the road surface level first virtual plane S1 (see FIGS. 8 and 9), and the second projective transformation means T2 has a level higher than the road surface level. A converted image is generated for the second virtual plane S2. As described above, the first gradient straight line generating unit V1 sets the first azimuth straight line D1 and generates the first gradient straight line E1. The second gradient straight line generating means V2 sets a second azimuth straight line D2 and generates a second gradient straight line E2. Details of these control modes will be described later.

更に、このECU10は、複数の第1勾配直線E1と複数の第2勾配直線E2とが交差する複数の交点、又は、複数の第1勾配直線E1に比例する勾配の第1累積直線F1(第1仮想直線の一例)と、複数の第2勾配直線E2に比例する勾配の第2累積直線F2(第2仮想直線の一例)とが交差する交点のうち、前記画像領域の下端を(同じ特徴点を)通過する直線同士の交点dの位置を手前端位置として検出する手前端検出手段3を備えている。この手前端検出手段3で検出される手前端とは、路面から上方に伸びる立体物の場合には、路面と接する下端のうち光学中心C1、C2に近い側を指すものとなり、路面から上方に離間したオーバーハングする立体物の場合においては路面から離間する立体物の下端のうち光学中心C1、C2に近い側を指すことになる。この手前端を具体的に説明すると、図12〜図14に示すトップビュー画像で観察したとき、路面に接地した位置からそのまま上方に伸びる立体物の場合には、路面と接する下端位置はカメラの位置から見て最も手前に映り、手前端検出手段3はこの位置を手前端として検出する。また、路面から上方に離間したオーバハングする立体物の場合においては路面から離間する立体物の下端位置は実際の位置より遠方側にずれて映るが、前記画像領域の下端を通過する直線同士の交点の位置を検出するように手前端検出手段3を構成したので、路面から上方に離間したオーバハングする立体物においても実際の位置、すなわち、オーバハングする立体物の手前側の特徴点の直下の路面位置を手前端として検出することができる。
撮影制御手段2から取得した相対位置情報と相対姿勢情報とに基づいて画像位置補正情報を生成する画像位置補正情報生成手段4を備えている。また、手前端検出手段3で検出された手前端の情報と、第1、第2立体物領域抽出手段U1、U2で抽出された立体物領域の情報と、画像位置補正情報生成手段4からの情報と、第1射影変換部N1の第1射影変換手段T1で生成された変換画像とに基づいて変換画像中の立体物領域を特定する立体物領域特定手段5を備えている。そして、この立体物領域特定手段5で特定される立体物の画像の歪みを補正してモニタ20に出力する射影歪補正部6と、立体物領域特定手段5で特定される立体物の画像に特定情報を重畳してモニタ20に出力する重畳部7とを備えている。
Further, the ECU 10 has a plurality of intersections at which the plurality of first gradient straight lines E1 and the plurality of second gradient straight lines E2 intersect, or a first cumulative straight line F1 having a gradient proportional to the plurality of first gradient straight lines E1 (first The lower end of the image area is defined as the lower end of the image area at the intersection of one example of one imaginary straight line and the second cumulative line F2 (an example of the second imaginary straight line) having a gradient proportional to the plurality of second gradient lines E2. Front end detection means 3 is provided for detecting the position of the intersection point d between the straight lines passing through the point as the front end position. In the case of a three-dimensional object extending upward from the road surface, the front end detected by the front end detection means 3 indicates the side close to the optical centers C1 and C2 among the lower ends in contact with the road surface, and upward from the road surface. In the case of a three-dimensional object that is separated and overhangs, it indicates the side close to the optical centers C1 and C2 among the lower ends of the three-dimensional object that is separated from the road surface. This front end will be described in detail. In the case of a three-dimensional object that extends upward from the position touched on the road surface when observed in the top view images shown in FIGS. 12 to 14, the lower end position in contact with the road surface is the position of the camera. The front end detection means 3 detects this position as the front end when viewed from the position. In the case of an overhanging three-dimensional object that is spaced upward from the road surface, the lower end position of the three-dimensional object that is separated from the road surface appears shifted to the far side from the actual position, but the intersection of the straight lines that pass through the lower end of the image area. Since the front end detecting means 3 is configured to detect the position of the overhanging three-dimensional object spaced upward from the road surface, the actual position, that is, the road surface position immediately below the feature point on the near side of the overhanging three-dimensional object Can be detected as the front end.
Image position correction information generation means 4 is provided for generating image position correction information based on the relative position information and the relative posture information acquired from the imaging control means 2. Further, the information on the front end detected by the front end detection means 3, the information on the three-dimensional object area extracted by the first and second three-dimensional object area extraction means U1 and U2, and the image position correction information generation means 4 A solid object region specifying unit 5 for specifying a three-dimensional object region in the converted image based on the information and the converted image generated by the first projective conversion unit T1 of the first projective conversion unit N1 is provided. Then, the projection distortion correcting unit 6 that corrects the distortion of the image of the three-dimensional object specified by the three-dimensional object region specifying unit 5 and outputs it to the monitor 20, and the image of the three-dimensional object specified by the three-dimensional object region specifying unit 5 And a superimposing unit 7 that superimposes the specific information and outputs it to the monitor 20.

自車位置演算手段1と、撮影制御手段2と、第1、第2射影変換部N1、N2と、第1、第2立体物領域抽出手段U1、U2と、第1、第2勾配直線生成手段V1、V2と、手前端検出手段3と、画像位置補正情報生成手段4と、立体物領域特定手段5と、射影歪補正部6と、重畳部7とは何れもプログラム(ソフトウエア)で構成されるものである。しかしながら、これらは個別にハードウエアで構成するもので良く、個々の一部をハードウエアで構成しプログラムとの組み合わせによって処理を実現するものや、個々をハードウエアで構成するものであっても良い。   Own vehicle position calculation means 1, photographing control means 2, first and second projective transformation units N1 and N2, first and second three-dimensional object region extraction means U1 and U2, and first and second gradient straight line generations The means V1, V2, the front end detecting means 3, the image position correction information generating means 4, the three-dimensional object region specifying means 5, the projective distortion correcting section 6, and the superimposing section 7 are all programs (software). It is composed. However, these may be configured individually by hardware, and each part may be configured by hardware and processing may be realized by combination with a program, or each may be configured by hardware. .

また、第1、第2射影変換部N1、N2を1つのモジュール等で構成し、先に取得した第1撮影画像と、後に取得した第2撮影画像との処理を1つのモジュールで行うように兼用化しても良い。これと同様に、第1、第2立体物領域抽出手段U1、U2を兼用化するように1つのモジュール等で構成し、第1、第2勾配直線生成手段V1、V2を兼用化するように1つのモジュール等で構成しても良い。   Further, the first and second projective transformation units N1 and N2 are configured by one module or the like, and the processing of the first captured image acquired first and the second captured image acquired later is performed by one module. It may be combined. In the same manner, the first and second three-dimensional object region extracting means U1 and U2 are configured as one module so as to be combined, and the first and second gradient straight line generating means V1 and V2 are also combined. You may comprise by one module etc.

このECU10では、車両30の移動時にカメラCamで撮影領域が一部共有されるタイミングで2フレーム(2コマ)撮影を行い、取得した2フレームの撮影画像から立体画像を抽出し、その立体画像の位置の特定を可能にする。   The ECU 10 captures two frames (two frames) at a timing at which a part of the photographing area is shared by the camera Cam when the vehicle 30 moves, extracts a three-dimensional image from the acquired two-frame captured image, and extracts the three-dimensional image. Allows location.

〔射影変換部による処理の概要〕
第1、第2射影変換部N1、N2を構成する第1射影変換手段T1と、第2射影変換手段T2とは、路面上に設定した第1仮想平面S1と、路面と平行する姿勢で路面より高いレベルの第2仮想平面S2とに対して、1フレームの撮影画像を上方視点から見下ろした変換画像を射影変換によって生成する。尚、この第1、第2射影変換部N1、N2は何れも、3つ以上の仮想平面に対して変換画像を生成するものであっても良い。
[Outline of processing by projective transformation unit]
The first projection conversion means T1 and the second projection conversion means T2 constituting the first and second projection conversion units N1 and N2 are a road surface in a posture parallel to the first virtual plane S1 set on the road surface and the road surface. For the second virtual plane S2 at a higher level, a converted image obtained by looking down the captured image of one frame from the upper viewpoint is generated by projective transformation. Each of the first and second projective transformation units N1 and N2 may generate a converted image for three or more virtual planes.

この第1、第2射影変換部N1、N2による処理がホモグラフィーと称されることもあり、この第1、第2射影変換部N1、N2は、仮想平面S(複数の仮想平面の総称)に対して鳥瞰画像の一種としてのGPT(ground plane transformation )画像を生成する。処理の概要としては、カメラCamによって所定角度で路面を撮影した1フレームの撮影画像を取得し、この撮影画像が存在する画像平面と仮想平面Sとの固有の射影変換関係に基づいて生成される変換式に従って撮影画像を仮想平面に射影変換し、必要な校正処理が行われる。尚、処理の具体例として、特開2006−148745号公報に示されるように、ホモグラフィーを用い、工場等において(ユーザが使用前に)カメラを校正することで画像面と路面との変換関係を求めておくと好適である。
The processing by the first and second projective transformation units N1 and N2 may be referred to as homography, and the first and second projective transformation units N1 and N2 are virtual planes S (generic name for a plurality of virtual planes). In contrast, a GPT (ground plane transformation) image as a kind of bird's-eye view image is generated. As an outline of the processing, one frame of a captured image obtained by capturing a road surface at a predetermined angle is acquired by a camera Cam, and the image is generated based on a unique projective transformation relationship between an image plane on which the captured image exists and a virtual plane S. The photographed image is projectively converted to a virtual plane according to the conversion formula, and necessary calibration processing is performed. As a specific example of processing, as shown in Japanese Patent Laid-Open No. 2006-148745, the relationship between the image plane and the road surface is obtained by using homography and calibrating the camera in a factory or the like (before the user uses it). It is preferable to obtain.

例えば、図3に示すようにカメラCamによって撮影領域aを撮影した場合には撮影画像は図4に示す通りである。これに対して、第1、第2射影変換部N1、N2によって射影変換された後の変換画像は、この撮影領域aを略垂直方向から見下ろす視点を有する仮想カメラCamAによって撮影された画像と近似し、図5に示す通り、変換された画像は、いわゆる鳥瞰画像となり、左下、右下には、画像データが存在しないことによる空白域が生じている。広角レンズによる歪曲補正処理を施す必要があることは明白なことであるので、詳細説明は省略する。   For example, as shown in FIG. 3, when the shooting area a is shot by the camera Cam, the shot image is as shown in FIG. On the other hand, the converted image after the projective transformation by the first and second projective transformation units N1 and N2 approximates the image photographed by the virtual camera CamA having a viewpoint looking down on the photographing region a from the substantially vertical direction. However, as shown in FIG. 5, the converted image is a so-called bird's-eye view image, and blank areas are generated in the lower left and lower right due to the absence of image data. Since it is obvious that it is necessary to perform distortion correction processing using a wide-angle lens, detailed description thereof is omitted.

第1、第2射影変換部N1、N2における変換画像の具体例として、第1仮想平面S1に生成される変換画像として図11(a)に示すものを挙げることが可能である。また、これより高いレベルにある第2仮想平面S2に形成される変換画像として図11(b)に示すものを挙げることが可能である。これらの図においてC(C1、C2の上位概念)で示される点は光学中心である。   As a specific example of the conversion image in the first and second projective conversion units N1 and N2, the conversion image generated in the first virtual plane S1 can be the one shown in FIG. 11A. In addition, the conversion image formed on the second virtual plane S2 at a higher level than this can be the one shown in FIG. 11B. In these figures, the point indicated by C (superior concept of C1 and C2) is the optical center.

図8及び図9に示すように、下端が路面に接する状態の直方体状の立体物40を撮影した撮影画像を、第1仮想平面S1に射影変換を形成した場合、変換画像中に存在する立体物40の下端位置Pと上端位置Qを結ぶ辺(縦向きの線)は、この第1仮想平面S1において点P1から点Q1に亘る長さの直線状に形成される。また、この撮影画像を、第2仮想平面S2に射影変換を形成した場合、変換画像中に存在する立体物40の下端位置Pと上端位置Qを結ぶ辺は、この第2仮想平面S2において点P2から点Q2に亘る長さの直線状に形成される。   As shown in FIGS. 8 and 9, when projective transformation is performed on the first virtual plane S <b> 1 by taking a photographed image of a cuboid three-dimensional object 40 whose bottom end is in contact with the road surface, a solid existing in the converted image. A side (vertical line) connecting the lower end position P and the upper end position Q of the object 40 is formed in a straight line having a length extending from the point P1 to the point Q1 in the first virtual plane S1. Further, when projective transformation is performed on the captured image on the second virtual plane S2, the side connecting the lower end position P and the upper end position Q of the three-dimensional object 40 existing in the converted image is a point on the second virtual plane S2. It is formed in a straight line having a length extending from P2 to point Q2.

この場合、下端位置Pと光学中心Cとを結ぶ下端側仮想ラインLpを想定し、上端位置Qと光学中心Cとを結ぶ上端側仮想ラインLqを想定すると、下端側仮想ラインLpと第2仮想平面S2とが交差する位置が点P2となり、上端側仮想ラインLqと第2仮想平面S2とが交差する位置が点Q2となる。   In this case, assuming a lower end side virtual line Lp connecting the lower end position P and the optical center C, and assuming an upper end side virtual line Lq connecting the upper end position Q and the optical center C, the lower end side virtual line Lp and the second virtual line Lp are assumed. The position where the plane S2 intersects is the point P2, and the position where the upper end side virtual line Lq and the second virtual plane S2 intersect is the point Q2.

更に、図10に示すように、射影変換部N(第1、第2射影変換部N1、N2の上位概念)において第1仮想平面S1〜第4仮想平面S4の4つの仮想平面S(複数の仮想平面の上位概念)に対して変換画像を形成するものでは、立体物40の下端位置Pが第1仮想平面S1〜第4仮想平面S4に対応して点P1〜点P4として表れ、高いレベルの仮想平面Sほど、立体物40の下端位置Pに対応する画像が光学中心Cに接近する方向に変位する。尚、同図においては立体物40の上端位置Qが第1仮想平面S1〜第4仮想平面S4に対応して点Q1〜点Q4として表れ、高いレベルの仮想平面Sほど、上端位置Qに対応する画像が光学中心Cの方向に変位することになるが、この上端位置Qは撮影画像に含まれないことも多く、処理の対象としていない。   Furthermore, as shown in FIG. 10, in the projective transformation unit N (a superordinate concept of the first and second projective transformation units N1 and N2), four virtual planes S (a plurality of virtual planes S1 to S4) are arranged. In the case where a converted image is formed with respect to the superordinate concept of the virtual plane, the lower end position P of the three-dimensional object 40 appears as points P1 to P4 corresponding to the first virtual plane S1 to the fourth virtual plane S4, and has a high level. The image corresponding to the lower end position P of the three-dimensional object 40 is displaced in the direction approaching the optical center C as the virtual plane S increases. In the drawing, the upper end position Q of the three-dimensional object 40 appears as points Q1 to Q4 corresponding to the first virtual plane S1 to the fourth virtual plane S4, and the higher level virtual plane S corresponds to the upper end position Q. Although the image to be displaced is displaced in the direction of the optical center C, the upper end position Q is often not included in the photographed image and is not subject to processing.

また、路面から垂直に上方に向かう姿勢の立体物は、仮想平面Sに対して射影変換された場合に、光学中心Cの方向に向かう姿勢の画像となる。   In addition, a solid object that is in a vertically upward direction from the road surface is an image in a posture that is directed in the direction of the optical center C when projective transformation is performed on the virtual plane S.

〔手前端検出手段による処理の概要〕
図13において領域Rで取り囲まれた領域を第1立体物領域抽出手段U1及び第2立体物領域抽出手段U2で抽出された立体物領域である場合、例えば、図14に示すように、第1立体物領域抽出手段U1における光学中心C1と立体物領域の特徴点とを通過する第1方位直線D1(同図におけエッジラインELと同様の放射状の直線)を想定する。そして、図15に示すようにこの第1方位直線D1を含む垂直姿勢の仮想垂直面Wにおいて光学中心C1と立体物領域の手前端(特徴点X)とを通過する第1勾配直線E1を得ることができる。
[Outline of processing by front end detection means]
In the case where the region surrounded by the region R in FIG. 13 is the three-dimensional object region extracted by the first three-dimensional object region extracting means U1 and the second three-dimensional object region extracting means U2, for example, as shown in FIG. A first azimuth straight line D1 (radial straight line similar to the edge line EL in the figure) passing through the optical center C1 and the feature point of the three-dimensional object region in the three-dimensional object region extracting means U1 is assumed. Then, as shown in FIG. 15, a first gradient straight line E1 passing through the optical center C1 and the front end (feature point X) of the three-dimensional object region is obtained on the virtual vertical plane W in the vertical posture including the first azimuth straight line D1. be able to.

これと同様の処理を第2立体物領域抽出手段U2で抽出された立体物領域について行うことにより、複数の第2勾配直線E2を得ることができる。第1立体物領域抽出手段U1と第2立体物領域抽出手段U2とで抽出される立体物領域は同じ対象であるので特徴点は略一致するため、第1勾配直線E1と第2勾配直線E2とは同数であると考えられる。   A plurality of second gradient straight lines E2 can be obtained by performing the same process on the solid object region extracted by the second solid object region extraction unit U2. Since the three-dimensional object regions extracted by the first three-dimensional object region extracting means U1 and the second three-dimensional object region extracting means U2 are the same object, the feature points substantially coincide with each other. Therefore, the first gradient line E1 and the second gradient line E2 Are considered to be the same number.

また、第1、第2勾配直線E1、E2を生成する場合に、立体物領域(立体物40)が路面に接触する位置に存在する場合には、図17に示すように、多数の仮想平面(S1〜S8)に変換画像が形成されたものにおいても第1、第2勾配直線E1、E2が路面において交差する。これに対して立体物領域(立体物40)の下端が路面から上方に離間してオーバーハングしているものでは、図18に示すように、多数の仮想平面(S1〜S8)に変換画像が形成されたものにおいても第1勾配直線と第2勾配直線とは立体物領域(立体物40)の下端位置で交差するものの、路面との交差位置は互いに離間したものとなる。   Further, when the first and second gradient straight lines E1 and E2 are generated, if a three-dimensional object region (three-dimensional object 40) exists at a position in contact with the road surface, as shown in FIG. Even in the case where the converted image is formed in (S1 to S8), the first and second gradient straight lines E1 and E2 intersect on the road surface. On the other hand, in the case where the lower end of the three-dimensional object region (three-dimensional object 40) is overhanging away from the road surface, the converted image is displayed on a large number of virtual planes (S1 to S8) as shown in FIG. Even in the formed one, the first gradient line and the second gradient line intersect at the lower end position of the three-dimensional object region (three-dimensional object 40), but the intersecting positions with the road surface are separated from each other.

このような原理に基づいて第1立体物領域抽出手段U1に基づいて生成した複数の第1勾配直線E1と第2立体物領域抽出手段U2に基づいて生成した複数の第2勾配直線E2との交点の位置を立体物領域の下端位置を捉え、結果として、光学中心Cと下端位置(手前端)までの距離を精度高く検出して、その位置を特定できるものにする。   Based on such a principle, a plurality of first gradient straight lines E1 generated based on the first three-dimensional object region extraction means U1 and a plurality of second gradient straight lines E2 generated based on the second three-dimensional object region extraction means U2. As a result, the distance between the optical center C and the lower end position (front end) is detected with high accuracy so that the position of the intersection can be identified.

本発明では、勾配直線Eを求める計算方法として図15を参照して説明したもの以外に複数の仮想平面Sに形成された変換画像から求めることも可能である。つまり、図17及び図18のように多数の仮想平面(S1〜S8)に形成された変換画像の下端位置をカメラ側端点に設定し、このカメラ側端点を通過する直線を勾配直線として取得するのである。具体的には、第1立体物領域抽出手段U1における光学中心C1を基準にして、多数の仮想平面(S1〜S8)に形成されるカメラ側端点をJ1〜J8として示しており、これらのカメラ側端点(J1〜J8)のうち少なくとも2つを通過する直線を第1勾配直線E1として取得できる。これと同様に、第2立体物領域抽出手段U2における光学中心C2を基準にして、仮想平面(S1〜S8)に形成されるカメラ側端点をK1〜K8として示しており、これらのカメラ側端点(K1〜K8)のうち少なくとも2つを通過する直線を第2勾配直線E2として取得できる。   In the present invention, the calculation method for obtaining the gradient straight line E can be obtained from converted images formed on a plurality of virtual planes S in addition to the method described with reference to FIG. That is, as shown in FIGS. 17 and 18, the lower end position of the converted image formed on a large number of virtual planes (S1 to S8) is set as the camera side end point, and a straight line passing through the camera side end point is acquired as a gradient straight line. It is. Specifically, camera-side end points formed on a number of virtual planes (S1 to S8) with reference to the optical center C1 in the first three-dimensional object region extraction means U1 are shown as J1 to J8. A straight line passing through at least two of the side end points (J1 to J8) can be acquired as the first gradient straight line E1. Similarly, the camera side end points formed on the virtual plane (S1 to S8) are shown as K1 to K8 with reference to the optical center C2 in the second three-dimensional object region extracting means U2, and these camera side end points are shown. A straight line passing through at least two of (K1 to K8) can be acquired as the second gradient straight line E2.

これらの図のうち最上層の仮想平面S8について、光学中心C1を基準にしたものでは領域JAに変換画像が形成され、光学中心C2を基準にしたものでは領域KAに変換画像が形成される。この領域JA、KAは他の仮想平面S1〜S7についても同様に説明できる。従って、このように形成される領域JA、KAのうち光学中心に近い端部がカメラ側端点として捉えられるのである。   Of these figures, for the uppermost virtual plane S8, a converted image is formed in the area JA when the optical center C1 is used as a reference, and a converted image is formed in the area KA when the optical center C2 is used as a reference. The areas JA and KA can be similarly described for the other virtual planes S1 to S7. Therefore, the end portion close to the optical center in the areas JA and KA formed in this way is regarded as a camera side end point.

前述した図17及び図18には、多数の仮想平面S(S1〜S8)を想定し、平面視において第1勾配直線E1及び第2勾配直線E2の上に存在する仮想平面S上に存在した領域JA、KAの数を累積値として表した第1累積直線F1(第1仮想直線の一例)と第2累積直線F2(第2仮想直線の一例)とを示している。つまり、第1勾配直線E1が最上部の仮想平面S(S8)の1つ下層に存在する領域では、この領域の上に1つの仮想平面Sが存在するため、第1累積直線F1において対応する領域の値は1を示す。これと同様に第1勾配直線E1が最上部から2つ目の仮想平面S(S7)の1つ下層に存在する領域では、この領域の上に2つの仮想平面Sが存在するため、第1累積直線F1において対応する領域の値は2を示す。尚、このような数値に対応して階段状のグラフG1、G2として表すことが可能である。   In FIG. 17 and FIG. 18 described above, a large number of virtual planes S (S1 to S8) are assumed and existed on the virtual plane S existing on the first gradient line E1 and the second gradient line E2 in plan view. A first cumulative straight line F1 (an example of a first imaginary straight line) and a second cumulative straight line F2 (an example of a second imaginary straight line) representing the number of areas JA and KA as cumulative values are shown. That is, in a region where the first gradient straight line E1 is one layer below the uppermost virtual plane S (S8), since there is one virtual plane S above this region, it corresponds in the first cumulative straight line F1. The value of the area indicates 1. Similarly, in the region where the first gradient straight line E1 exists in the lower layer of the second virtual plane S (S7) from the top, there are two virtual planes S above this region. The value of the corresponding area in the cumulative line F1 is 2. Incidentally, it can be expressed as stepped graphs G1 and G2 corresponding to such numerical values.

また、第1累積直線F1は第1勾配直線E1の勾配に比例する勾配を有し、第2累積直線F2は第2勾配直線E2の勾配に比例する勾配を有する。図面に示すように、第1累積直線F1と第2累積直線F2とは立体物領域の下端位置で交差することから、立体物領域の下端を検出するために、この第1累積直線F1と第2累積直線F2使用しても良く、図19には第1累積直線F1と第2累積直線F2に基づいて立体物領域の手前端(下端)を検出する具体的な処理形態を示している。   The first cumulative straight line F1 has a slope proportional to the slope of the first slope straight line E1, and the second cumulative straight line F2 has a slope proportional to the slope of the second slope straight line E2. As shown in the drawing, since the first cumulative line F1 and the second cumulative line F2 intersect at the lower end position of the three-dimensional object region, the first cumulative line F1 and the second cumulative line F2 are detected in order to detect the lower end of the three-dimensional object region. Two cumulative straight lines F2 may be used, and FIG. 19 shows a specific processing form for detecting the front end (lower end) of the three-dimensional object region based on the first cumulative straight line F1 and the second cumulative straight line F2.

つまり、第1立体物領域抽出手段U1で抽出した立体物領域の複数の特徴点に対して光学中心C1から複数の方位直線を想定し、この複数の方位直線を含む仮想垂直面において光学中心C1と立体物領域の手前端(下端)とを通過する第1勾配直線E1を生成する。このように生成した複数の第1勾配直線E1に対応した累積直線F1を識別するために、所定の順序でFX1、FY1、FZ1、FT1の符号を付している。   That is, a plurality of azimuth lines are assumed from the optical center C1 with respect to a plurality of feature points of the three-dimensional object region extracted by the first three-dimensional object region extraction unit U1, and the optical center C1 is assumed on a virtual vertical plane including the plurality of azimuth lines. And a first gradient straight line E1 passing through the front end (lower end) of the three-dimensional object region is generated. In order to identify the accumulated straight line F1 corresponding to the plurality of first gradient straight lines E1 generated in this way, symbols FX1, FY1, FZ1, and FT1 are given in a predetermined order.

これと同様に、第2立体物領域抽出手段U2で抽出した立体物領域の複数の特徴点に対して光学中心C2から複数の方位直線を想定し、この複数の方位直線を含む仮想垂直面において光学中心C2と立体物領域の手前端(下端)とを通過する第2勾配直線E2を生成する。このように生成した複数の第2勾配直線E2に対応した累積直線F2を識別するために、所定の順序でFX2、FY2、FZ2、FT2の符号を付している。このように第1立体物領域抽出手段U1で抽出した立体物領域の複数の特徴点と光学中心C1とを通過する方位直線の数と、第2立体物領域抽出手段U2で抽出した立体物領域の複数の特徴点と光学中心C2とを通過する方位直線の数は一致する。従って、第1累積直線F1と第2累積直線F2との数も一致する。   Similarly, a plurality of azimuth lines are assumed from the optical center C2 for a plurality of feature points of the three-dimensional object region extracted by the second three-dimensional object region extraction means U2, and a virtual vertical plane including the plurality of azimuth lines is assumed. A second gradient straight line E2 that passes through the optical center C2 and the front end (lower end) of the three-dimensional object region is generated. In order to identify the accumulated straight line F2 corresponding to the plurality of second gradient straight lines E2 generated in this way, reference numerals FX2, FY2, FZ2, and FT2 are given in a predetermined order. As described above, the number of azimuth lines passing through the plurality of feature points of the three-dimensional object region extracted by the first three-dimensional object region extracting unit U1 and the optical center C1, and the three-dimensional object region extracted by the second three-dimensional object region extracting unit U2. The number of azimuth lines that pass through the plurality of feature points and the optical center C2 coincide with each other. Accordingly, the numbers of the first cumulative straight line F1 and the second cumulative straight line F2 also coincide.

このように生成された第1累積直線FX1、FY1、FZ1、FT1と、第2累積直線FX2、FY2、FZ2、FT2とは光学中心Cが異なるため、同じワールド座標系に合わせるように第1撮影画像と第2撮影画像を路面上に設定した基準座標に座標変換を行うことにより、図19示す如く、第1累積直線FX1、FY1、FZ1、FT1と、第2累積直線FX2、FY2、FZ2、FT2とが交差する複数の交点を得る。このように交差する交点のうち、同じ特徴点に基づいて生成されている直線同士の交点dを求め、これを結ぶラインが立体物領域の手前端(下端)として検出することが可能となる。   Since the first cumulative straight lines FX1, FY1, FZ1, and FT1 generated in this way and the second cumulative straight lines FX2, FY2, FZ2, and FT2 have different optical centers C, the first photographing is performed so as to match the same world coordinate system. By performing coordinate conversion of the image and the second photographed image to the reference coordinates set on the road surface, as shown in FIG. 19, the first cumulative straight line FX1, FY1, FZ1, FT1, and the second cumulative straight line FX2, FY2, FZ2, A plurality of intersections where FT2 intersects are obtained. Thus, it is possible to obtain an intersection d between straight lines generated based on the same feature point among the intersecting intersections, and detect a line connecting these as the front end (lower end) of the three-dimensional object region.

特に、第1累積直線FX1、FY1、FZ1、FT1と、第2累積直線FX2、FY2、FZ2、FT2とは設定された同じ順序で特徴点を指定することによって生成されているので、生成された第1累積直線F1と第2累積直線F2とのうち生成された順番が同じもの同士が交差する交点dの座標を求める処理が行われる。具体的な処理形態として、第1、第2勾配直線生成手段V1、V2では、特徴点を選択する順序が予め設定され、この順序に従って複数の方位直線を設定し、夫々の方位直線には選択した順序を示す数値を与えている。この順序を示す数値は勾配直線にも引き継がれるため、第1累積直線FX1、FY1、FZ1、FT1と第2累積直線FX2、FY2、FZ2、FT2とが交差する交点を求める場合には、設定された順序に従って第1累積直線F1と第2累積直線F2との比較が行われる。このように予め設定された直線同士が交差する交点群の座標値を計算するので、例えば、全ての直線が交差する交点群の座標値を求め、この座標値から目的とする下端(手前端)を特定する処理を行うものと比較すると、無駄な計算を抑制して計算量の低減が可能となり、処理の高速化が可能となる。   In particular, the first cumulative straight lines FX1, FY1, FZ1, and FT1 and the second cumulative straight lines FX2, FY2, FZ2, and FT2 are generated by designating feature points in the same set order. A process of obtaining the coordinates of the intersection point d where the generated order of the first cumulative straight line F1 and the second cumulative straight line F2 intersect is performed. As a specific processing form, in the first and second gradient straight line generating means V1 and V2, the order of selecting feature points is set in advance, and a plurality of azimuth straight lines are set according to this order, and each directional straight line is selected. A numerical value is given to indicate the order. Since the numerical value indicating this order is inherited by the gradient straight line, it is set when obtaining the intersection where the first cumulative straight line FX1, FY1, FZ1, FT1 and the second cumulative straight line FX2, FY2, FZ2, FT2 intersect. The first cumulative line F1 and the second cumulative line F2 are compared according to the order. Since the coordinate value of the intersection group where the straight lines set in advance intersect in this way is calculated, for example, the coordinate value of the intersection group where all the straight lines intersect is obtained, and the target lower end (front end) is obtained from this coordinate value. Compared with a process for performing identification processing, it is possible to suppress useless calculation and reduce the amount of calculation, thereby enabling high-speed processing.

また、この立体物領域の手前端(下端)を検出するに、複数の第1勾配直線E1と複数の第2勾配直線E2とが交差する交点を求めても良い。この処理においても、予め設定された直線同士が交差する交点群の座標値を計算することが可能となるので、例えば、全ての直線が交差する交点群の座標値を求め、この座標値から目的とする手前端(下端)を特定する処理を行うものと比較すると、計算量の低減が可能となり、処理の高速化が可能となる。   Further, in order to detect the front end (lower end) of the three-dimensional object region, an intersection where the plurality of first gradient straight lines E1 and the plurality of second gradient straight lines E2 intersect may be obtained. Also in this process, it is possible to calculate the coordinate value of the intersection point group where the preset straight lines intersect. For example, the coordinate value of the intersection point group where all the straight lines intersect is obtained, and the target value is obtained from this coordinate value. Compared with the processing for specifying the front end (lower end), the amount of calculation can be reduced, and the processing speed can be increased.

このような原理から手前端検出手段3では、第1累積直線FX1、FY1、FZ1、FT1と第2累積直線FX2、FY2、FZ2、FT2とが交差する交点を求める処理が行われる。尚、この手前端検出手段3はノイズ等が原因により、第1累積直線F1の数と、第2累積直線F2の数とが一致しない場合には、全ての累積直線が交差する交点を求め、統計的な手法によって手前端を特定することになる。   From such a principle, the front end detection means 3 performs processing for obtaining intersections at which the first cumulative straight lines FX1, FY1, FZ1, FT1 and the second cumulative straight lines FX2, FY2, FZ2, FT2 intersect. The front end detection means 3 obtains an intersection where all the accumulated lines intersect when the number of the first accumulated straight lines F1 and the number of the second accumulated straight lines F2 do not match due to noise or the like. The front end is specified by a statistical method.

このように、手前端検出手段3では、移動後の画像において交点が最も累積する位置を物体の手前端として設定する。特徴点が多い場合には、真の手前端に交点が集中し、この後端に位置がガウス分布することも期待できる。また、立体物に模様が少ない場合には多くの特徴点を設定することができず、交点数の少なくなることも予想される。何れの場合でも、確からしい交点集中位置をロバスト推定手法で推定することが考えられ、推定した位置を物体の手前端を代表する位置として特定することが可能である。   In this way, the front end detection means 3 sets the position where the intersections are accumulated most in the image after movement as the front end of the object. When there are many feature points, the intersections are concentrated at the true front end, and it can be expected that the position is Gaussian distributed at the rear end. In addition, when there are few patterns on the three-dimensional object, many feature points cannot be set, and it is expected that the number of intersections will be reduced. In any case, it is conceivable to estimate a likely intersection concentration position by a robust estimation method, and the estimated position can be specified as a position representing the front end of the object.

〔障害物検出装置の処理形態〕
本発明の障害物検出装置において、カメラCamでの撮影から、先に説明した射影変換部による処理と、手前端検出手段3による処理とを含み、立体物の位置が特定された画像がモニタ20に表示されるまでの処理の概要を図7のフローチャートに示しており、図6に示すECU10の制御構成における情報の流れと併せて説明する。
[Processing form of obstacle detection device]
In the obstacle detection device of the present invention, an image in which the position of the three-dimensional object is specified, including the processing by the projection conversion unit described above and the processing by the front end detection means 3 from the photographing by the camera Cam, is displayed on the monitor 20. 7 is shown in the flowchart of FIG. 7 and will be described together with the information flow in the control configuration of the ECU 10 shown in FIG.

自車位置演算手段1からの情報に基づき、車両30が設定距離だけ移動した場合には、撮影制御手段2がカメラCamから撮影画像を取得し、先に撮影された1フレーム(1コマ)の第1撮影画像が第1フレームメモリM1に保存され、次に撮影された1フレーム(1コマ)の第2撮影画像が第2フレームメモリM2保存される。また、この撮影時には第1撮影画像を取得したタイミングと、第2撮影画像を撮影したタイミングとにおける相対的な車両30の位置情報と、車両30の姿勢情報とが撮影制御手段2で取得される(#101ステップ)。   When the vehicle 30 moves by a set distance based on the information from the own vehicle position calculation means 1, the photographing control means 2 acquires a photographed image from the camera Cam, and one frame (one frame) photographed earlier is obtained. The first captured image is stored in the first frame memory M1, and the second captured image of one frame (one frame) captured next is stored in the second frame memory M2. In addition, the relative position information of the vehicle 30 and the attitude information of the vehicle 30 at the timing when the first captured image is acquired and the timing when the second captured image is captured are acquired by the imaging control means 2 at the time of shooting. (Step # 101).

第1射影変換部N1では、第1撮影画像から第1射影変換手段T1が第1仮想平面S1に変換画像を生成し、第2射影変換手段T2が第1仮想平面S1より高いレベルの第2仮想平面S2に変換画像を生成する。これと同様に、第2射影変換部N2では、第2撮影画像から第1仮想平面S1に変換画像を生成し、第2仮想平面S2に変換画像を生成する(#102ステップ)。   In the first projective conversion unit N1, the first projective conversion unit T1 generates a converted image on the first virtual plane S1 from the first photographed image, and the second projective conversion unit T2 has a second level higher than the first virtual plane S1. A converted image is generated on the virtual plane S2. Similarly, the second projective conversion unit N2 generates a converted image from the second captured image on the first virtual plane S1, and generates a converted image on the second virtual plane S2 (step # 102).

第1射影変換手段T1で生成される変換画像を図11(a)に示し、第2射影変換手段T2で生成される変換画像を図11(b)に示している。同図に示す如く、2種の変換画像の中央の柱状物V(立体物40の一例)の画像に注目すると、夫々の柱状物Vの画像の下端位置(P1で示す)は、第2射影変換手段T2で生成されたものが第1射影変換手段T1で生成されたものの下端位置(P2で示す)より光学中心Cに接近しており、夫々の下端位置が互いにオフセットしていることが理解できる。   A converted image generated by the first projective conversion means T1 is shown in FIG. 11A, and a converted image generated by the second projective conversion means T2 is shown in FIG. 11B. As shown in the figure, when attention is paid to the image of the columnar object V (an example of the three-dimensional object 40) at the center of the two types of converted images, the lower end position (indicated by P1) of the image of each columnar object V is the second projection. It is understood that the one generated by the conversion means T2 is closer to the optical center C than the lower end position (indicated by P2) of the one generated by the first projective conversion means T1, and the respective lower end positions are offset from each other. it can.

第1立体物領域抽出手段U1及び第2立体物領域抽出手段U2は、射影変換手段Tから第1射影変換手段T1と第2射影変換手段T2との変換画像を取得し、この2種の変換画像に基づき画像領域抽出処理と、立体物候補領域抽出処理と、立体物領域抽出処理とを、この順序で行う(#103ステップ)。   The first three-dimensional object region extracting unit U1 and the second three-dimensional object region extracting unit U2 obtain the converted images of the first projective conversion unit T1 and the second projective conversion unit T2 from the projective conversion unit T, and perform these two types of conversion. Based on the image, an image area extraction process, a three-dimensional object candidate area extraction process, and a three-dimensional object area extraction process are performed in this order (step # 103).

画像領域抽出処理では、夫々の変換画像について輪郭を強調する微分フィルタを適用することでエッジ強調により輪郭を抽出し、2値化処理と所定の閾値を超えるものを抽出する処理によりノイズが除去された明瞭な画像を抽出する。この画像領域抽出処理を行うことにより、図12(a)と図12(b)とに示す立体物領域(画像領域)が生成される。   In the image region extraction processing, a differential filter that enhances the contour is applied to each converted image to extract the contour by edge enhancement, and noise is removed by binarization processing and processing that extracts an image that exceeds a predetermined threshold. Extract clear images. By performing this image region extraction process, a three-dimensional object region (image region) shown in FIGS. 12A and 12B is generated.

立体物候補領域抽出処理では、画像領域抽出処理後の2つの変換画像を重ね合わせ、論理積を取る処理が行われる。この処理により重複する画像領域が立体物候補領域として抽出される。尚、本発明の立体物候補領域抽出処理では、重複する画像領域を抽出する処理として論理積(AND)を取る処理以外の処理として、算術加算(ADD)や算術積(MUL)等の算術論理演算処理を行っても良い。   In the three-dimensional object candidate area extraction process, two converted images after the image area extraction process are overlapped to perform a logical product process. By this processing, overlapping image areas are extracted as three-dimensional object candidate areas. In the three-dimensional object candidate region extraction processing of the present invention, arithmetic logic such as arithmetic addition (ADD) or arithmetic product (MUL) is used as processing other than processing that takes logical product (AND) as processing for extracting overlapping image regions. Arithmetic processing may be performed.

立体物領域抽出処理では、立体物の垂直な輪郭線が射影変換部により変換された画像上では光学中心Cから放射状に変換される特性に基づいて、立体物候補画像領域が光学中心Cから放射状に形成される領域に存在するか否かの判別を行う。具体的には、図13に示すように、立体物候補画像領域のエッジラインELを抽出して延長したものが光学中心Cに向かうか否かの判別を行い、エッジラインELが光学中心Cに向かうものを立体物画像が存在する立体物領域として抽出される(同図では、領域Rで囲まれるもの)。尚、立体物領域とは、立体物画像の輪郭と一致する領域として捉えることが可能である。   In the three-dimensional object region extraction process, the three-dimensional object candidate image region is radial from the optical center C based on the characteristic that the vertical contour line of the three-dimensional object is converted radially from the optical center C on the image converted by the projective transformation unit. It is discriminated whether or not it exists in the region formed at the same time. Specifically, as shown in FIG. 13, it is determined whether or not an extension obtained by extracting the edge line EL of the three-dimensional object candidate image region is directed to the optical center C, and the edge line EL is set to the optical center C. A heading object is extracted as a three-dimensional object area where a three-dimensional object image exists (in FIG. 2, an object surrounded by a region R). Note that the three-dimensional object region can be understood as a region that matches the contour of the three-dimensional object image.

この抽出を行う場合、エッジラインELは光学中心Cと必ずしも交差する必要は無く、光学中心Cの近傍に達するものでも良い。また、この立体物領域抽出処理として、光学中心Cから放射状に多数の仮想ラインを生成し、立体物候補画像領域の縦のラインの姿勢が仮想ラインに近似するものを立体物領域として抽出するように処理形態を設定しても良い。   When performing this extraction, the edge line EL does not necessarily cross the optical center C, and may reach the vicinity of the optical center C. Further, as this three-dimensional object region extraction process, a large number of virtual lines are generated radially from the optical center C, and the three-dimensional object candidate image region whose vertical line posture approximates to the virtual line is extracted as a three-dimensional object region. The processing form may be set to

これらの処理を行うことにより、立体物候補領域抽出処理によって路面の模様が立体物候補領域として抽出されている場合でも、この路面の模様が例えば、単純な幾何学模様が連続する形態であっても、この幾何学模様が光学中心Cから放射状に形成される領域に含まれないため、この路面の模様を立体物領域として抽出することはない。   By performing these processes, even when a road surface pattern is extracted as a three-dimensional object candidate area by the three-dimensional object candidate area extraction process, the road surface pattern is, for example, a form in which simple geometric patterns are continuous. However, since this geometric pattern is not included in the region formed radially from the optical center C, the road surface pattern is not extracted as a three-dimensional object region.

立体物領域抽出処理によって立体物領域が抽出されると、第1勾配直線生成手段V1は、立体物領域に含まれる画像の特徴点を設定順序で指定することで、光学中心C1から特徴点を通る複数の方位直線を生成し、更に、夫々の方位直線が含まれる仮想垂直面を生成し、この仮想垂直面において光学中心C1と立体物領域の手前端とを通る第1勾配直線E1を生成する。   When the three-dimensional object region is extracted by the three-dimensional object region extraction process, the first gradient straight line generating unit V1 specifies the feature point of the image included in the three-dimensional object region in the setting order, and thereby the feature point from the optical center C1. A plurality of azimuth straight lines are generated, and a virtual vertical plane including each azimuth straight line is generated, and a first gradient straight line E1 passing through the optical center C1 and the front end of the three-dimensional object region is generated on the virtual vertical plane. To do.

この第1勾配直線E1を生成する際の具体的な計算手法として、図16に示す如く、その下端が路面から上方に離間した立体物領域(立体物40)を例に挙げると、例えば、第1立体物領域抽出手段U1で抽出した立体物領域(立体物40)の下端(手前端)の特徴点Xと光学中心C1とを通過する第1方位直線DX1を設定した場合には、この第1方位直線DX1を含む仮想垂直面W(仮想平面Sと直交する姿勢)に特徴点Xと光学中心C1とを通過する第1勾配直線E1を描くことが可能となる。この第1勾配直線E1は第1仮想平面S1において立体物領域の下端が現れる点SX1と、第2仮想平面S2において立体物領域の下端が現れる点SX2と、光学中心C1とを結ぶ直線であることから、これらの点から直線の式として取得することが可能である。尚、この勾配直線を生成する処として、前述したように複数の仮想平面Sを生成し、夫々の仮想平面Sに形成されている変換画像のカメラ側端点を結ぶ直線により勾配直線を生成しても良い。   As a specific calculation method for generating the first gradient straight line E1, as shown in FIG. 16, for example, a three-dimensional object region (three-dimensional object 40) whose lower end is spaced upward from the road surface is exemplified. When the first azimuth straight line DX1 passing through the feature point X at the lower end (front end) of the three-dimensional object region (three-dimensional object 40) extracted by the one-dimensional object region extracting means U1 and the optical center C1 is set, this first It is possible to draw the first gradient straight line E1 passing through the feature point X and the optical center C1 on the virtual vertical plane W (attitude orthogonal to the virtual plane S) including the one-direction straight line DX1. The first gradient straight line E1 is a straight line connecting the optical center C1 with the point SX1 where the lower end of the three-dimensional object region appears in the first virtual plane S1, the point SX2 where the lower end of the three-dimensional object region appears in the second virtual plane S2. Therefore, it is possible to obtain a straight line expression from these points. As described above, as a process of generating the gradient straight line, a plurality of virtual planes S are generated as described above, and the gradient straight lines are generated by straight lines connecting the end points on the camera side of the converted image formed on each virtual plane S. Also good.

第2勾配直線生成手段V2において第2勾配直線E2を生成する際にも同様の計算手法が用いられ、特徴点Xと光学中心C1とを通過する第2方位直線DX2を含む仮想垂直面において第2勾配直線E2が描かれ、この第2勾配直線E2の式が取得される。その下端が路面から上方に離間した立体物領域を対象としているため、図19に示すように第1勾配直線E1と第2勾配直線E2とが公差する交点がその下端(手前端)が立体物領域の下端と一致するものとなる。そして、手前端検出手段3が交点の位置を求めることにより、光学中心Cから立体物領域(立体物40)までの距離を決定する(#104ステップ)。   A similar calculation method is used to generate the second gradient straight line E2 in the second gradient straight line generation means V2, and the second gradient straight line E2 includes a second vertical straight line DX2 passing through the feature point X and the optical center C1. A two-gradient straight line E2 is drawn, and an expression of the second gradient straight line E2 is obtained. Since the lower end of the three-dimensional object region is spaced upward from the road surface, as shown in FIG. 19, the intersection of the first gradient straight line E1 and the second gradient straight line E2 is the lower end (front end) of the solid object. It will coincide with the bottom of the region. Then, the front end detection means 3 determines the position of the intersection, thereby determining the distance from the optical center C to the three-dimensional object region (three-dimensional object 40) (Step # 104).

特に、手前端検出手段3によって交点の位置を求める際には、第1勾配直線生成手段V1で生成された第1勾配直線E1と、第2勾配直線生成手段V2で生成された第2勾配直線E2との一方の座標変換を行い、光学中心C1を光学中心C2に一致させた状態で交点の位置を求める処理が行われる。   In particular, when the position of the intersection is determined by the front end detection means 3, the first gradient straight line E1 generated by the first gradient straight line generation means V1 and the second gradient straight line generated by the second gradient straight line generation means V2 are used. One coordinate conversion with E2 is performed, and the process of obtaining the position of the intersection is performed in a state where the optical center C1 coincides with the optical center C2.

具体的な処理形態としては、図14に示すように立体物領域(立体物40)の下端(手前端)の複数の特徴点X、Y、Z、T夫々と、光学中心C1とを通過する第1方位直線DX1、DY1、DZ1、DT1を設定することができる。また、第1方位直線DX1を含む垂直姿勢の仮想垂直面Wにおいて、立体物領域(立体物40)と光学中心C1とを通る第1勾配直線EX1(E1の一例)を計算により生成することが可能である。これ以外の第1方位直線DY1、DZ1、DT1についても同様の処理から第1勾配直線EY1、EZ1、ET1を生成できる。   As a specific processing form, as shown in FIG. 14, a plurality of feature points X, Y, Z, T at the lower end (front end) of the three-dimensional object region (three-dimensional object 40) and the optical center C1 are passed. First azimuth straight lines DX1, DY1, DZ1, and DT1 can be set. In addition, a first gradient straight line EX1 (an example of E1) that passes through the three-dimensional object region (three-dimensional object 40) and the optical center C1 on the virtual vertical plane W including the first azimuth straight line DX1 may be generated by calculation. Is possible. The first gradient straight lines EY1, EZ1, ET1 can be generated from the same processing for the first azimuth straight lines DY1, DZ1, DT1 other than this.

このような処理により光学中心C2とを通過する第2方位直線DX2、DY2、DZ2、DT2を設定することができ、第2勾配直線EX2、EY2、EZ2、ET2を生成できる。図19には、複数の第1勾配直線E1(DX1、DY1、DZ1、DT1)に対応した第1累積直線F1(FX1、FY1、FZ1、FT1)と、第2勾配直線E2(EX2、EY2、EZ2、ET2)に対応した第2累積直線F2(FX2、FY2、FZ2、FT2)との一方の座標変換を行うことにより2つの光学中心C1、C2を一致させた図を示している。同図に示されるように、同じ特徴点を通る直線の交点dから立体物領域(立体物)の手前端を検出する処理の説明が可能である。   By such processing, the second azimuth lines DX2, DY2, DZ2, and DT2 passing through the optical center C2 can be set, and the second gradient lines EX2, EY2, EZ2, and ET2 can be generated. In FIG. 19, a first cumulative straight line F1 (FX1, FY1, FZ1, FT1) corresponding to a plurality of first gradient straight lines E1 (DX1, DY1, DZ1, DT1) and a second gradient straight line E2 (EX2, EY2, A diagram is shown in which two optical centers C1 and C2 are made to coincide by performing one coordinate transformation with a second cumulative straight line F2 (FX2, FY2, FZ2, FT2) corresponding to EZ2, ET2). As shown in the figure, the process of detecting the front end of the three-dimensional object region (three-dimensional object) from the intersection d of straight lines passing through the same feature points can be described.

この立体物領域の手前端を検出する処理として前述したように、複数の第1勾配直線E1(EX1、EY1、EZ1、ET1)と複数の第2勾配直線E2(X2、EY2、EZ2、ET2)とが交差する交点を求めても良く、このように交点を求めることで前述した処理と同様の検出結果を得る。   As described above as the process for detecting the front end of this three-dimensional object region, a plurality of first gradient straight lines E1 (EX1, EY1, EZ1, ET1) and a plurality of second gradient straight lines E2 (X2, EY2, EZ2, ET2) It is also possible to obtain an intersection where and intersect, and obtaining the intersection in this way obtains the same detection result as the processing described above.

これらの処理を行うことにより、その立体物が路面から浮き上がったものであっても(オーバーハングしていても)、この手前端は平面視における下端位置と一致するものであり、この手前端と車両位置との間の距離が、立体物と車両30との距離として取得できる。複数の第1累積直線F1と複数の第2累積直線F2との交点の座標を求める処理では、同じ特徴点に対応する第1累積直線F1と第2累積直線F2とが交差する交点を求めるので、無駄な計算を抑制して計算量の低減が可能となり、処理の高速化を実現している。   By performing these processes, even if the three-dimensional object is lifted from the road surface (even if it is overhanging), this front end coincides with the lower end position in plan view. The distance between the vehicle position can be acquired as the distance between the three-dimensional object and the vehicle 30. In the process of obtaining the coordinates of the intersections of the plurality of first cumulative straight lines F1 and the plurality of second cumulative straight lines F2, the intersections at which the first cumulative straight line F1 and the second cumulative straight line F2 corresponding to the same feature point intersect are obtained. Therefore, it is possible to reduce the amount of calculation by suppressing useless calculation, thereby realizing high-speed processing.

この手前端を検出する処理では、第1、第2立体物領域抽出手段U1、U2で複数の立体物領域が抽出されている場合には、抽出されている立体物領域の全てについて行われるが、例えば、車両30に近い位置の立体物領域にだけ行っても良い。   In the process of detecting the front end, when a plurality of three-dimensional object areas are extracted by the first and second three-dimensional object area extracting units U1 and U2, the process is performed for all of the extracted three-dimensional object areas. For example, it may be performed only on the three-dimensional object region at a position close to the vehicle 30.

次に、画像位置補正情報生成手段4では、第1撮影画像と第2撮影画像との撮影時における相対的な車両位置と車両姿勢情報とから変換画像の重ね合わせの補正情報を設定する。そして、立体物領域特定手段5では、第1、第2立体物領域抽出手段U1、U2で抽出された立体物領域の情報と、手前端検出手段3で検出された手前端の情報と、画像位置補正情報とに基づいて立体物領域の位置を確定する。そして、立体物領域の形状や大きさに対応して立体物を特定し得る画像として図13において領域Rとして示した枠状画像等や、立体物を覆うメッシュ等の特定画像と、この特定画像を表示すべきロケート情報とを生成する(#105ステップ)。   Next, the image position correction information generating means 4 sets correction information for superimposing the converted image from the relative vehicle position and vehicle posture information at the time of shooting the first and second shot images. Then, in the three-dimensional object area specifying means 5, information on the three-dimensional object area extracted by the first and second three-dimensional object area extracting means U1, U2, information on the front end detected by the front end detecting means 3, and an image The position of the three-dimensional object area is determined based on the position correction information. And as a picture which can specify a solid thing corresponding to a shape and size of a solid thing field, a frame-like picture shown as field R in Drawing 13, a specific picture, such as a mesh which covers a solid thing, and this specific picture Is generated (step # 105).

そして、第1射影変換手段T1で生成された射影変換画像を射影歪補正部6で補正してモニタ20に表示すると共に、前述した特定画像をロケート情報に基づいて図14に示すように重畳部7が介してモニタ20に表示する(#106ステップ)。図14においては、立体物を特定する特定画像として枠状の領域Rを示しているが、枠状でなく、立体物の領域の色相を変換させることや、近傍にマーキングを表示すること等、図面に示す形態でなくても良い。   Then, the projection transformation image generated by the first projection transformation means T1 is corrected by the projection distortion correction unit 6 and displayed on the monitor 20, and the above-mentioned specific image is displayed on the superimposition unit as shown in FIG. 7 is displayed on the monitor 20 (step # 106). In FIG. 14, the frame-shaped region R is shown as a specific image for specifying a three-dimensional object, but the hue of the region of the three-dimensional object is not frame-shaped, marking is displayed in the vicinity, It may not be the form shown in the drawings.

射影変換により生成した変換画像における柱状の立体物は上端側が極めて伸びる形態に変換されることから、この伸びを圧縮するように射影歪補正部6が補正を行う。また、重畳部7は立体物領域特定手段5で生成された特定画像を第1射影変換手段T1で生成された射影変換画像に対してロケート情報に基づき重畳して表示する処理を行う。   Since the columnar three-dimensional object in the converted image generated by the projective transformation is converted into a form in which the upper end side extends extremely, the projective distortion correction unit 6 performs correction so as to compress this extension. The superimposing unit 7 performs a process of superimposing and displaying the specific image generated by the three-dimensional object region specifying unit 5 on the projection conversion image generated by the first projective conversion unit T1 based on the locate information.

これによりモニタ20にはカメラで撮影された撮影画像に基づいて、上方の視点から見下ろす画像に射影変換された変換画像が表示され、この変換画像のうち立体物に対応する領域(立体物領域)には、立体物であることを明示する枠状画像等が重畳して表示されることからモニタ20において立体物を認識できる。   As a result, a converted image obtained by projective conversion is displayed on the monitor 20 based on the captured image captured by the camera, and an area corresponding to the three-dimensional object (three-dimensional object area) in the converted image. Since a frame-like image or the like that clearly indicates a three-dimensional object is superimposed and displayed, the three-dimensional object can be recognized on the monitor 20.

〔第2実施形態・全体構成〕
この第2の実施形態の障害物検出装置では、図20に示すように、第1カメラCam1と第2カメラCam2とを撮影領域を共有する位置関係で備えた点を除き、車両30の構成は第1実施形態と共通している。また、ECU10では、第1カメラCam1と第2カメラCam2とから取得した撮影画像の処理を行うものであるが、制御形態は第1実施形態と基本的に共通するものである。このような理由から、この第2実施形態で参照される図面において、第1実施形態と同じ構成については第1実施形態と共通する番号・符号を付している。
[Second Embodiment / Overall Configuration]
In the obstacle detection device according to the second embodiment, as shown in FIG. 20, the configuration of the vehicle 30 is the same except that the first camera Cam1 and the second camera Cam2 are provided in a positional relationship sharing a shooting area. This is common with the first embodiment. Further, the ECU 10 performs processing of the captured image acquired from the first camera Cam1 and the second camera Cam2, but the control mode is basically the same as that of the first embodiment. For these reasons, in the drawings referred to in the second embodiment, the same configurations as those in the first embodiment are denoted by the same reference numerals and symbols as those in the first embodiment.

〔ECUの制御構成〕
ECU10は、マイクロプロセッサを有し、プログラムを実行することにより必要とする処理を実現する。また、このECU10は、図21に示すように、撮影制御手段2に対して第1カメラCam1で撮影された第1撮影画像が入力すると共に、第2カメラCam2で撮影された第2撮影画像が入力する点が第1実施形態と異なるものの、他の構成は第1実施形態の構成と共通する。
[Control structure of ECU]
ECU10 has a microprocessor and implement | achieves the process required by running a program. Further, as shown in FIG. 21, the ECU 10 inputs the first photographed image photographed by the first camera Cam1 to the photographing control means 2 and the second photographed image photographed by the second camera Cam2. Although the input point is different from that of the first embodiment, other configurations are the same as those of the first embodiment.

撮影制御手段2は、第1カメラCam1と第2カメラCam2とで同時に撮影を実行し、第1カメラCam1から第1撮影画像を取得し、第2カメラCam2から第2撮影画像を取得する。この撮影制御手段2は第1カメラCam1と第2カメラCam2とで撮影される第1撮影画像と第2撮影画像との相対的位置関係を示す情報を保持している。   The imaging control means 2 performs imaging simultaneously with the first camera Cam1 and the second camera Cam2, acquires a first captured image from the first camera Cam1, and acquires a second captured image from the second camera Cam2. This photographing control means 2 holds information indicating the relative positional relationship between the first photographed image and the second photographed image photographed by the first camera Cam1 and the second camera Cam2.

ECU10には、第1、第2フレームメモリM1、M2と、第1、第2射影変換部N1、N2と、第1、第2立体物領域抽出手段U1、U2と、第1、第2勾配直線生成手段V1、V2と、手前端検出手段3と、画像位置補正情報生成手段4と、立体物領域特定手段5と、射影歪補正部6と、重畳部7とを備えており、これらは第1実施形態と共通の機能を有する。   The ECU 10 includes first and second frame memories M1 and M2, first and second projective transformation units N1 and N2, first and second three-dimensional object region extracting means U1 and U2, and first and second gradients. Straight line generating means V1, V2, front end detecting means 3, image position correction information generating means 4, three-dimensional object region specifying means 5, projective distortion correcting section 6, and superimposing section 7 are provided. It has the same function as the first embodiment.

このECU10では、車両30が所定距離移動する毎に第1カメラCam1と第2カメラCam2とで撮影を行い、同じタイミングで取得した2フレームの撮影画像から立体画像を抽出し、その立体画像の位置の特定を可能にする。   The ECU 10 takes a picture with the first camera Cam1 and the second camera Cam2 every time the vehicle 30 moves by a predetermined distance, extracts a three-dimensional image from two frames of captured images acquired at the same timing, and positions the three-dimensional image. Allows identification.

この第2実施形態では、射影変換部による処理の概要、及び、手前端特定手段3による処理の概要も第1実施形態と共通しているため説明は省略する。   In the second embodiment, the outline of the process by the projection conversion unit and the outline of the process by the front end specifying means 3 are also common to the first embodiment, and thus the description thereof is omitted.

〔障害物検出装置の処理形態〕
本発明の障害物検出装置では、第1カメラCam1と第2カメラCam2とでの撮影を行い、先に説明した射影変換部による処理と、手前端特定手段3による処理とを行い、更に、立体物の位置が特定された画像がモニタ20に表示されるまでの処理を行う。これらの処理の概要を図22のフローチャートに示しており、ECU10の制御構成における情報の流れを図21に示している。
[Processing form of obstacle detection device]
In the obstacle detection device of the present invention, photographing is performed with the first camera Cam1 and the second camera Cam2, the processing by the projection conversion unit described above and the processing by the front end specifying means 3 are performed, and further Processing is performed until an image in which the position of the object is specified is displayed on the monitor 20. The outline of these processes is shown in the flowchart of FIG. 22, and the flow of information in the control configuration of the ECU 10 is shown in FIG.

車両30が設定位置に達すると撮影制御手段2が第1カメラCam1から第1撮影画像を取得すると共に第2カメラCam2が第2撮影画像を取得する。1フレーム(1コマ)の第1撮影画像が第1フレームメモリM1に保存され、1フレーム(1コマ)の第2撮影画像が第2フレームメモリM2保存される(#201ステップ)。尚、撮影制御手段2は、前述したように第1カメラCam1と第2カメラCam2との相対的位置関係を示す情報を保存する撮影位置情報保存手段として機能する。   When the vehicle 30 reaches the set position, the imaging control unit 2 acquires the first captured image from the first camera Cam1, and the second camera Cam2 acquires the second captured image. The first captured image of one frame (one frame) is stored in the first frame memory M1, and the second captured image of one frame (one frame) is stored in the second frame memory M2 (Step # 201). Note that the imaging control unit 2 functions as an imaging position information storage unit that stores information indicating the relative positional relationship between the first camera Cam1 and the second camera Cam2, as described above.

フローチャートでは、#201ステップの処理のみが第1実施形態の#101ステップと異なり、#202〜#206ステップは第1実施形態の#102〜#107ステップと共通しているため、#202ステップ以降の処理については省略する。   In the flowchart, only the processing of step # 201 is different from step # 101 of the first embodiment, and steps # 202 to # 206 are common to steps # 102 to # 107 of the first embodiment. This processing is omitted.

これによりモニタ20にはカメラで撮影された撮影画像に基づいて、上方の視点から見下ろす画像に射影変換された変換画像が表示され、この変換画像のうち立体物に対応する領域(立体物領域)には、立体物であることを明示する枠状画像等が重畳して表示されることからモニタ20において立体物を認識できる。   As a result, a converted image obtained by projective conversion is displayed on the monitor 20 based on the captured image captured by the camera, and an area corresponding to the three-dimensional object (three-dimensional object area) in the converted image. Since a frame-like image or the like that clearly indicates a three-dimensional object is superimposed and displayed, the three-dimensional object can be recognized on the monitor 20.

第1実施形態と第2実施形態とで説明したように本発明では、異なるタイミングで撮影された第1撮影画像と第2撮影画像、若しくは、2つのカメラで同時に撮影された第1撮影画像と第2撮影画像を取得する。次に、第1撮影画像と第2撮影画像とから個別に第1仮想平面S1と第2仮想平面S2とに変換画像を生成し、これらに微分処理等を行い立体物等の輪郭を抽出し、2値化処理によってノイズを除去し、2値化処理後の第1、第2仮想平面との変換画像を重ね合わせて論理積を取ることで立体物等が存在する範囲を明確にして第1立体物候補領域と第2立体物候補領域を抽出する。   As described in the first embodiment and the second embodiment, in the present invention, the first photographed image and the second photographed image photographed at different timings, or the first photographed image photographed simultaneously by two cameras, A second captured image is acquired. Next, a converted image is generated separately from the first captured image and the second captured image into the first virtual plane S1 and the second virtual plane S2, and the contour of the three-dimensional object or the like is extracted by performing differential processing on the converted image. Noise is removed by binarization processing, and the converted image with the first and second virtual planes after binarization processing is overlapped to obtain a logical product, thereby clarifying the range in which the three-dimensional object etc. exists. A one-dimensional object candidate area and a second three-dimensional object candidate area are extracted.

立体物が異なるレベルの仮想平面Sに射影変換された場合には、変換画像に含まれる立体物領域の下端位置が異なる(オフセットする)ものとなり、しかも、この立体画像が、光学中心Cを中心として形成される放射状の領域に沿って形成される特性を有している。このような特性から、この第1立体物候補領域と第2立体物候補領域のうち光学中心Cを中心として形成される放射状領域に沿って形成されたものを立体物領域として特定できる。   When the three-dimensional object is projectively transformed to the virtual plane S at a different level, the lower end position of the three-dimensional object region included in the converted image is different (offset), and the three-dimensional image is centered on the optical center C. It has the characteristic that it is formed along the radial region formed as. From such characteristics, the first three-dimensional object candidate area and the second three-dimensional object candidate area that are formed along the radial area formed around the optical center C can be specified as the three-dimensional object area.

第1撮影画像から特定された立体物領域(画像領域)について第1方位直線D1を設定し、第1勾配直線E1を生成し、第2撮影画像から特定された立体物領域(画像領域)について第2方位直線D2を設定し、第2勾配直線E2を生成し、これらの直線のうち同じ特徴点を通る直線同士の交点dを求めることで立体物の下端(手前端)を特定している。この処理を行う場合に、比較的高い精度で立体物領域が抽出され、しかも、複数の第1累積直線F1と複数の第2累積直線F2との交点の座標を求める処理では、同じ特徴点に対応する第1累積直線F1と第2累積直線F2とが交差する交点を求めるので、無駄な計算を抑制して計算量の低減が可能となり、処理の高速化を実現している。   The first azimuth straight line D1 is set for the three-dimensional object region (image region) specified from the first photographed image, the first gradient straight line E1 is generated, and the three-dimensional object region (image region) specified from the second photographed image is used. The second azimuth straight line D2 is set, the second gradient straight line E2 is generated, and the lower end (front end) of the three-dimensional object is specified by obtaining the intersection d between the straight lines passing through the same feature points among these straight lines. . When this process is performed, the three-dimensional object region is extracted with relatively high accuracy, and in the process of obtaining the coordinates of the intersections of the plurality of first cumulative lines F1 and the plurality of second cumulative lines F2, the same feature point is obtained. Since the intersection where the corresponding first cumulative straight line F1 and second cumulative straight line F2 intersect is obtained, wasteful calculation can be suppressed and the amount of calculation can be reduced, and the processing speed can be increased.

そして、立体物領域が明瞭化し、しかも、路面に対してオーバーハングしている状態の立体物に対応する立体物領域であっても、下端位置が明瞭化することにより、立体物領域特定手段5で特定される立体物領域の位置の精度が高くなり、モニタ20に対して、領域Rにより明示される立体物領域(立体物の画像)と車両30との距離の精度が高くなる。従って、モニタ20に表示される立体物領域に基づいて、その立体物領域に存在する立体物と車両30との接触を回避することや、立体物の状況を良好に視認することも可能となる。   And even if it is a solid object area | region corresponding to the solid object of the state which overhangs with respect to the road surface, the solid object area | region specifying means 5 is clarified by clarifying a lower end position. The accuracy of the position of the three-dimensional object region specified by (2) is increased, and the accuracy of the distance between the three-dimensional object region (image of the three-dimensional object) specified by the region R and the vehicle 30 with respect to the monitor 20 is increased. Therefore, based on the three-dimensional object region displayed on the monitor 20, it is possible to avoid contact between the three-dimensional object existing in the three-dimensional object region and the vehicle 30, and to visually recognize the state of the three-dimensional object well. .

〔別実施の形態〕
本発明は、上記した実施の形態以外に以下のように構成しても良い。
[Another embodiment]
The present invention may be configured as follows in addition to the embodiment described above.

(a)射影変換部Nが、3つ以上の仮想平面Sに対して変換画像を形成するように構成する。3つ以上の仮想平面Sに対して変換画像を形成した場合にも、第1、第2立体物領域抽出手段U1、U2においては画像領域抽出処理と立体物候補抽出処理とを複数の変換画像に対して行うことになる。そして、立体物候補領域が抽出された変換画像の全てを重ね合わせて論理積を取っても良い。このように3つ以上の変換画像の論理積を取ることにより検出精度を一層高くできる。 (A) The projective transformation unit N is configured to form a transformed image with respect to three or more virtual planes S. Even when converted images are formed for three or more virtual planes S, the first and second three-dimensional object region extracting units U1 and U2 perform image region extraction processing and three-dimensional object candidate extraction processing as a plurality of converted images. Will be done. Then, all the converted images from which the three-dimensional object candidate areas are extracted may be overlapped to obtain a logical product. Thus, the detection accuracy can be further increased by taking the logical product of three or more converted images.

(b)第1立体物領域抽出手段U1と第2立体物領域抽出手段U2とは、立体物領域抽出処理を行わずに、立体物候補領域抽出処理で抽出された立体物候補領域(画像領域の一例)を立体物領域特定手段5に与えるように制御形態を設定しても良い。
このような処理を行うことで第1立体物領域抽出手段U1と第2立体物領域抽出手段U2との処理の負担を軽減して処理速度の向上を図れる。
(B) The first three-dimensional object region extracting unit U1 and the second three-dimensional object region extracting unit U2 do not perform the three-dimensional object region extraction process, but extract the three-dimensional object candidate region (image region) extracted by the three-dimensional object candidate region extraction process. The control form may be set so as to give to the three-dimensional object region specifying means 5.
By performing such processing, the processing load of the first three-dimensional object region extracting unit U1 and the second three-dimensional object region extracting unit U2 can be reduced, and the processing speed can be improved.

(c)抽出された立体物40は路面上に存在する障害物と捉え得ることから、車両30から障害物(立体物40)までの距離を画像処理によって取得し、取得した距離が設定値より小さい値に達した場合に、ブザーを作動させる処理や、合成された人の言葉で障害物に接近している情報をスピーカから出力する処理を行うように構成する。 (C) Since the extracted three-dimensional object 40 can be regarded as an obstacle existing on the road surface, the distance from the vehicle 30 to the obstacle (three-dimensional object 40) is acquired by image processing, and the acquired distance is determined from the set value. When the value reaches a small value, a process for operating a buzzer and a process for outputting information approaching an obstacle from a speaker in a synthesized person's words are performed.

本発明は、車両に備えた複数のカメラで取得した1フレームの撮影画像に基づいて車両周辺のトップビューを表示する画像表示系に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for an image display system that displays a top view around a vehicle based on one frame of captured images acquired by a plurality of cameras provided in the vehicle.

1 自車位置検出手段
2 撮影制御手段・撮影位置情報保存手段
3 手前端検出手段
5 立体物領域特定手段
Cam カメラ
Cam1・Cam2 カメラ
S1・S2 仮想平面(第1仮想平面・第2仮想平面)
E1 第1方位直線
E2 第2方位直線
F1 第1仮想直線(第1累積直線)
F2 第2仮想直線(第2累積直線)
T1 第1射影変換手段
T2 第2射影変換手段
N1 第1射影変換部
N2 第2射影変換部
U1 第1立体物候補領域抽出手段
U2 第2立体物候補領域抽出手段
V1 第1勾配直線生成手段
V2 第2勾配直線生成手段
W 仮想垂直面
DESCRIPTION OF SYMBOLS 1 Own vehicle position detection means 2 Imaging | photography control means and imaging | photography position information storage means 3 Front end detection means 5 Three-dimensional object area | region identification means Cam Camera Cam1 / Cam2 Camera S1 / S2 Virtual plane (1st virtual plane / 2nd virtual plane)
E1 First azimuth straight line E2 Second azimuth straight line F1 First virtual straight line (first cumulative straight line)
F2 Second virtual straight line (second cumulative straight line)
T1 1st projection conversion means T2 2nd projection conversion means N1 1st projection conversion part N2 2nd projection conversion part U1 1st solid object candidate area extraction means U2 2nd solid object candidate area extraction means V1 1st gradient straight line generation means V2 Second gradient straight line generating means W virtual vertical plane

Claims (3)

車両周辺を撮影するカメラと、
車両の位置座標と、車両の姿勢とを検出する自車位置検出手段と、
車両が所定位置にあるタイミング、及び、この所定位置から移動した移動位置にあるタイミングにおいて、前記カメラで撮影領域が一部共有される第1撮影画像と第2撮影画像と撮影する撮影制御手段と、
前記第1撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面との高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第1射影変換部と、
前記第2撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面との高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第2射影変換部と、
前記第1射影変換部で前記第1撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第1立体物候補領域抽出手段と、
前記第2射影変換部で前記第2撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第2立体物候補領域抽出手段と、
前記第1立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第1撮影画像の光学中心とを通過する複数の第1方位直線を設定し、この複数の第1方位直線を含む垂直姿勢の仮想垂直面において、第1撮影画像の光学中心から前記画像領域の下端を通過する第1勾配直線を生成する第1勾配直線生成手段と、
前記第2立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第2撮影画像の光学中心とを通過する複数の第2方位直線を設定し、この複数の第2方位直線を含む垂直姿勢の仮想垂直面において、第2撮影画像の光学中心から前記画像領域の下端を通過する第2勾配直線を生成する第2勾配直線生成手段と、
前記第1勾配直線と前記第2勾配直線を路面上に設定した基準座標に座標変換を行った状態で、複数の第1勾配直線と複数の第2勾配直線とが交差する複数の交点、又は、複数の第1勾配直線に比例する勾配の第1仮想直線と、複数の第2勾配直線に比例する勾配の第2仮想直線とが交差する交点のうち、前記画像領域の下端を通過する直線同士の交点の位置を検出する手前端検出手段と、
前記手前端検出手段で検出された画像領域の手前端から立体物が存在する領域を特定する立体物領域特定手段とを備えている障害物検出装置。
A camera that captures the area around the vehicle,
Vehicle position detection means for detecting vehicle position coordinates and vehicle posture;
Shooting control means for shooting the first shot image and the second shot image in which a part of the shooting area is shared by the camera at a timing at which the vehicle is at a predetermined position and a timing at which the vehicle is moved from the predetermined position. ,
A converted image in which the first photographed image is looked down from an upper viewpoint with respect to at least two virtual planes among a virtual plane set on the road surface and a plurality of virtual projection planes different in height from the road surface in a posture parallel to the road surface A first projective transformation unit for projective transformation into,
A transformed image obtained by looking down at least two virtual planes of the second photographed image from an upper viewpoint among a virtual plane set on the road surface and a plurality of virtual projection planes different in height from the road surface in a posture parallel to the road surface. A second projective transformation unit for projective transformation into,
A first three-dimensional object candidate region extracting means for extracting an image region existing in an overlapping region in a state where a plurality of converted images generated from the first photographed image are overlapped by the first projective conversion unit;
Second solid object candidate area extracting means for extracting image areas existing in overlapping areas in a state where a plurality of converted images generated from the second photographed image are overlapped by the second projective conversion unit;
A plurality of first azimuth straight lines passing through a plurality of feature points of the image region extracted by the first three-dimensional object candidate region extraction means and the optical center of the first photographed image are set, and the plurality of first azimuth straight lines First gradient straight line generating means for generating a first gradient straight line that passes from the optical center of the first captured image to the lower end of the image area in a virtual vertical plane including
A plurality of second azimuth lines passing through a plurality of feature points of the image region extracted by the second three-dimensional object candidate region extraction means and the optical center of the second photographed image are set, and the plurality of second azimuth lines A second gradient straight line generating means for generating a second gradient straight line passing through the lower end of the image area from the optical center of the second photographed image in a virtual vertical plane including
A plurality of intersections where the plurality of first gradient lines and the plurality of second gradient lines intersect, in a state in which the first gradient line and the second gradient line are coordinate-converted to reference coordinates set on the road surface, or A straight line passing through the lower end of the image area among the intersections of the first virtual straight line having a gradient proportional to the plurality of first gradient straight lines and the second virtual straight line having a gradient proportional to the plurality of second gradient straight lines Front end detection means for detecting the position of the intersection of each other;
An obstacle detection apparatus comprising: a three-dimensional object region specifying unit that specifies a region where a three-dimensional object is present from the front end of the image region detected by the front end detection unit.
車両周辺を撮影領域が共有する状態で撮影する2つのカメラと、
2つのカメラの一方で撮影された第1撮影画像と、他方で撮影された第2撮影画像との撮影位置関係を保存する撮影位置情報保存手段と、
前記第1撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面と高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第1射影変換部と、
前記第2撮影画像を、路面上に設定した仮想平面及び路面と平行する姿勢で路面と高さが異なる複数の仮想射影面のうち、少なくとも2つの仮想平面に対し上方視点から見下ろした変換画像に射影変換する第2射影変換部と、
前記第1射影変換部で前記第1撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第1立体物候補領域抽出手段と、
前記第2射影変換部で前記第2撮影画像から生成された複数の変換画像を重ねた状態において重複する領域に存在する画像領域を抽出する第2立体物候補領域抽出手段と、
前記第1立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第1撮影画像の光学中心とを通過する複数の第1方位直線を設定し、この複数の第1方位直線を含む垂直姿勢の仮想垂直面において、第1撮影画像の光学中心から前記画像領域の下端を通過する第1勾配直線を生成する第1勾配直線生成手段と、
前記第2立体物候補領域抽出手段で抽出された画像領域の複数の特徴点と前記第2撮影画像の光学中心とを通過する複数の第2方位直線を設定し、この複数の第2方位直線を含む垂直姿勢の仮想垂直面において、第2撮影画像の光学中心から前記画像領域の下端を通過する第2勾配直線を生成する第2勾配直線生成手段と、
前記第1勾配直線と前記第2勾配直線を路面上に設定した基準座標に座標変換を行った状態で、複数の第1勾配直線と複数の第2勾配直線とが交差する複数の交点、又は、複数の第1勾配直線に比例する勾配の第1仮想直線と、複数の第2勾配直線に比例する勾配の第2仮想直線とが交差する交点のうち、前記画像領域の下端を通過する直線同士の交点の位置を検出する手前端検出手段と、
前記手前端検出手段で検出された画像領域の手前端から立体物が存在する領域を特定する立体物領域特定手段とを備えている障害物検出装置。
Two cameras that shoot around the vehicle with the shooting area shared,
Photographing position information storage means for storing a photographing position relationship between a first photographed image photographed by one of the two cameras and a second photographed image photographed by the other;
The first photographed image is a converted image obtained by looking down at least two virtual planes from an upper viewpoint among a virtual plane set on the road surface and a plurality of virtual projection planes different in height from the road surface in a posture parallel to the road surface. A first projective transformation unit for projective transformation;
The second photographed image is a converted image obtained by looking down at least two virtual planes from an upper viewpoint among a virtual plane set on the road surface and a plurality of virtual projection surfaces different in height from the road surface in a posture parallel to the road surface. A second projective transformation unit for projective transformation;
A first three-dimensional object candidate region extracting means for extracting an image region existing in an overlapping region in a state where a plurality of converted images generated from the first photographed image are overlapped by the first projective conversion unit;
Second solid object candidate area extracting means for extracting image areas existing in overlapping areas in a state where a plurality of converted images generated from the second photographed image are overlapped by the second projective conversion unit;
A plurality of first azimuth straight lines passing through a plurality of feature points of the image region extracted by the first three-dimensional object candidate region extraction means and the optical center of the first photographed image are set, and the plurality of first azimuth straight lines First gradient straight line generating means for generating a first gradient straight line that passes from the optical center of the first captured image to the lower end of the image area in a virtual vertical plane including
A plurality of second azimuth lines passing through a plurality of feature points of the image region extracted by the second three-dimensional object candidate region extraction means and the optical center of the second photographed image are set, and the plurality of second azimuth lines A second gradient straight line generating means for generating a second gradient straight line passing through the lower end of the image area from the optical center of the second photographed image in a virtual vertical plane including
A plurality of intersections where the plurality of first gradient lines and the plurality of second gradient lines intersect, in a state in which the first gradient line and the second gradient line are coordinate-converted to reference coordinates set on the road surface, or A straight line passing through the lower end of the image area among the intersections of the first virtual straight line having a gradient proportional to the plurality of first gradient straight lines and the second virtual straight line having a gradient proportional to the plurality of second gradient straight lines Front end detection means for detecting the position of the intersection of each other;
An obstacle detection apparatus comprising: a three-dimensional object region specifying unit that specifies a region where a three-dimensional object is present from the front end of the image region detected by the front end detection unit.
前記第1立体物候補領域抽出手段と前記第2立体物候補領域抽出手段とは、処理対象とする2つの前記変換画像から輪郭抽出フィルタでの輪郭抽出により画像領域を抽出する画像領域抽出処理の後に、2つの射影画像を重ね合わせて画像領域の累積を取ることで重複する領域に存在する画像領域を特定する処理により画像領域を抽出する請求項1又は2記載の障害物検出装置。   The first three-dimensional object candidate region extraction unit and the second three-dimensional object candidate region extraction unit perform image region extraction processing for extracting an image region by contour extraction with a contour extraction filter from the two converted images to be processed. The obstacle detection device according to claim 1, wherein the image area is extracted by a process of specifying an image area existing in an overlapping area by superimposing two projected images and accumulating the image area later.
JP2009082004A 2009-03-30 2009-03-30 Obstacle detection device Expired - Fee Related JP5182589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009082004A JP5182589B2 (en) 2009-03-30 2009-03-30 Obstacle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009082004A JP5182589B2 (en) 2009-03-30 2009-03-30 Obstacle detection device

Publications (2)

Publication Number Publication Date
JP2010239190A true JP2010239190A (en) 2010-10-21
JP5182589B2 JP5182589B2 (en) 2013-04-17

Family

ID=43093187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009082004A Expired - Fee Related JP5182589B2 (en) 2009-03-30 2009-03-30 Obstacle detection device

Country Status (1)

Country Link
JP (1) JP5182589B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491305B1 (en) * 2013-08-27 2015-02-06 현대자동차주식회사 Apparatus and method for detecting obstacle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085710A (en) * 2006-09-28 2008-04-10 Sanyo Electric Co Ltd Driving support system
JP2008205914A (en) * 2007-02-21 2008-09-04 Alpine Electronics Inc Image processor
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2009118415A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085710A (en) * 2006-09-28 2008-04-10 Sanyo Electric Co Ltd Driving support system
JP2008205914A (en) * 2007-02-21 2008-09-04 Alpine Electronics Inc Image processor
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2009118415A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491305B1 (en) * 2013-08-27 2015-02-06 현대자동차주식회사 Apparatus and method for detecting obstacle
US9418443B2 (en) 2013-08-27 2016-08-16 Hyundai Motor Company Apparatus and method for detecting obstacle

Also Published As

Publication number Publication date
JP5182589B2 (en) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5190712B2 (en) Obstacle detection device
RU2548649C2 (en) Driver&#39;s aid
WO2016002163A1 (en) Image display device and image display method
JP2009060499A (en) Driving support system, and combination vehicle
KR101611194B1 (en) Apparatus and method for peripheral image generation of vehicle
US10467789B2 (en) Image processing device for vehicle
JP6316161B2 (en) In-vehicle image processing device
JP2008172535A (en) Operation supporting system, image processing device, and deviation detecting method
JP2008182652A (en) Camera posture estimation device, vehicle, and camera posture estimating method
JP2007129560A (en) Object detector
JP2013001366A (en) Parking support device and parking support method
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP2006268076A (en) Driving assistance system
JP6778620B2 (en) Road marking device, road marking system, and road marking method
WO2011013813A1 (en) In-vehicle device and image processing program
JP6407596B2 (en) Image processing apparatus and driving support system
JP5695000B2 (en) Vehicle periphery monitoring device
JP2008033781A (en) Road surface gradient detection device and image display device
JP5182589B2 (en) Obstacle detection device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP2010056975A (en) Object detection system by rear camera
CN111316322A (en) Road surface area detection device
JP5330341B2 (en) Ranging device using in-vehicle camera
JP2010128795A (en) Obstacle detector
JP2004272694A (en) Apparatus and method for object recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130102

R151 Written notification of patent or utility model registration

Ref document number: 5182589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees