JP2007199932A - Image processor and its method - Google Patents
Image processor and its method Download PDFInfo
- Publication number
- JP2007199932A JP2007199932A JP2006016560A JP2006016560A JP2007199932A JP 2007199932 A JP2007199932 A JP 2007199932A JP 2006016560 A JP2006016560 A JP 2006016560A JP 2006016560 A JP2006016560 A JP 2006016560A JP 2007199932 A JP2007199932 A JP 2007199932A
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- time
- movement trajectory
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000000034 method Methods 0.000 title description 27
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 239000000284 extract Substances 0.000 claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims 3
- 230000009191 jumping Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Instrument Panels (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
発明は、自動車などの車両に代表される移動体に取り付けられたカメラの画像を用いて、自車両進行情報前方に飛び出してくる危険な障害物を検出する画像処理装置及びその方法に関する。 The present invention relates to an image processing apparatus and method for detecting a dangerous obstacle that pops out ahead of host vehicle travel information using an image of a camera attached to a moving body typified by a vehicle such as an automobile.
前方に飛び出してくる障害物を検出する手法として、大きく分けてレーダーを用いる方式と、画像を用いる方式が提案されている。 As a method for detecting an obstacle that jumps forward, a method using a radar and a method using an image have been proposed.
レーダーを用いる方式として、特許文献1においてレーザーレーダーを用いて検出する方法が提案されている。レーザーレーダーを用いる方式は雨など悪天候に弱いという問題がある。また、飛び出し等、斜め前方の障害物の検出では、レーザーレーダーが斜めに照射されるため、反射波を受光しにくいという問題や、照射できる範囲が狭いため、飛び出し等斜め前方の障害物は検出が難しい。 As a method using a radar, Patent Document 1 proposes a detection method using a laser radar. The method using laser radar has a problem that it is vulnerable to bad weather such as rain. Also, when detecting obstacles diagonally forward, such as jumping out, the laser radar is illuminated diagonally, so it is difficult to receive reflected waves, and because the range that can be irradiated is narrow, obstacles diagonally forward such as jumping out are detected. Is difficult.
カメラから得られる画像は、レーダーよりも視野が広く、斜め前方の障害物も正面の障害物も同様に撮影することができる。また、自車両の走行レーンを検出することができるため、自車両の走行に対して危険となる領域を特定することできるという利点もある。画像を用いる方式には、単一のTVカメラを用いる方式と、複数のTVカメラを用いる方式がある。 The image obtained from the camera has a wider field of view than the radar, and it is possible to shoot an obstacle in front of the diagonal as well as an obstacle in front. In addition, since the travel lane of the host vehicle can be detected, there is an advantage that a region that is dangerous for the travel of the host vehicle can be specified. As a method using an image, there are a method using a single TV camera and a method using a plurality of TV cameras.
複数のTVカメラを用いる方式として、特許文献2においてステレオ視により車両までの距離を計測して、4次元シーンにおける他車両の移動ベクトルを求め、その延長線と走行レーンが交わったとき障害物と検出する手法が提案されている。このステレオ視による手法は割り込み車両が共通視野領域に入ってくるまで検出できないため、検出が遅くなるという問題がある。また、左右の画像間から点の対応付けにより視差を求めるので計算量が大きくなるという問題もある。 As a method using a plurality of TV cameras, in Patent Document 2, the distance to a vehicle is measured by stereo vision, a movement vector of another vehicle in a four-dimensional scene is obtained, and when an extension line and a driving lane cross each other, A detection method has been proposed. This stereo method cannot detect until the interrupting vehicle enters the common visual field region, so that the detection is slow. Another problem is that the amount of calculation increases because parallax is obtained by matching points between the left and right images.
単一のTVカメラを用いる方式として、特許文献3において道路面のエッジ点数の変化に注目して障害物を検出する方法が提案されている。この手法は、予め設定したある領域内部のエッジ点数の最大値が、ある閾値以上になったときに、障害物が存在したとする。この手法では、エッジ点数から検出しているため、道路面に模様があると障害物が存在しなくてもエッジ点数が増大することから誤検出する可能性がある。 As a method using a single TV camera, Patent Document 3 proposes a method of detecting an obstacle by paying attention to a change in the number of edge points on a road surface. In this method, it is assumed that an obstacle exists when the preset maximum value of the number of edge points in a certain area is equal to or greater than a certain threshold value. In this method, since detection is performed from the number of edge points, if there is a pattern on the road surface, the number of edge points increases even if there are no obstacles, so there is a possibility of erroneous detection.
画像の各点の動きベクトル(オプティカルフロー)を解析して障害物を検出する装置(例えば、特許文献4、特許文献5、非特許文献1参照)では、自車両の運動によって、オプティカルフローが変化するため、安定した検出が難しい。特許文献6のような方式を用いて、自車両の揺れによって生じる画像上の動きをキャンセルすることもできるが、画像中には様々な移動体が存在するため、うまくキャンセルできない場合もある。
本発明は、車両等の移動体に取り付けられた画像入力手段から得られる時系列画像を用いて、確実に移動体の進行情報前方に飛び出してくる危険な障害物を検出することを目的とする。 It is an object of the present invention to reliably detect a dangerous obstacle that pops out ahead of travel information of a moving body using a time-series image obtained from an image input means attached to the moving body such as a vehicle. .
本発明は、実空間内の平面上を移動する移動体に取り付けられて時系列画像を取得する画像入力手段と、前記時系列画像の中のある時刻の画像である原画像の中から、前記平面上の接地位置に属している可能性のある点または領域を表す特徴点を接地特徴点として抽出する特徴点抽出手段と、前記時系列画像上の消失点を推定する消失点推定手段と、前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出する移動軌跡抽出手段と、前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する障害物検出手段と、を具備することを特徴とする画像処理装置である。 The present invention provides an image input means for acquiring a time-series image attached to a moving body that moves on a plane in real space, and an original image that is an image at a certain time in the time-series image, A feature point extracting means for extracting a feature point representing a point or region that may belong to a ground contact position on a plane as a ground feature point; a vanishing point estimating means for estimating a vanishing point on the time-series image; The movement trajectory extracting means for extracting the movement trajectory of the ground feature point from each image of the time-series image, and the end point of the movement trajectory is bounded by a straight line connecting the vanishing point and the start point of the movement trajectory. An image processing apparatus comprising: obstacle detection means for determining that an object including the ground feature point is an obstacle when the body is in an existing region.
本発明は、移動体の進行方向の時系列画像を取得する撮像手段と、前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、前記時系列画像上の消失点を推定する消失点推定手段と、前記時系列画像の前記第1の時刻より後の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、を具備することを特徴とする画像処理装置である。 The present invention provides an imaging unit that acquires a time-series image of a moving body in a traveling direction, and an obstacle candidate extraction unit that extracts an obstacle candidate and its estimated ground contact position from an image at a first time of the time-series image. A vanishing point estimating means for estimating a vanishing point on the time-series image, and tracking for obtaining a destination position of the estimated ground position from an image at a second time after the first time of the time-series image. The obstacle candidate having the estimated ground contact position when the moving object is in a region on the side where the moving object exists with a straight line connecting the vanishing point and the estimated ground contact position as a boundary. And an obstacle detection means for detecting an obstacle as an obstacle.
本発明は、移動体の進行方向の時系列画像を取得する撮像手段と、前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、前記時系列画像上の消失点を推定する消失点推定手段と、前記時系列画像の前記第1の時刻より前の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側と反対側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、を具備することを特徴とする画像処理装置である。 The present invention provides an imaging unit that acquires a time-series image of a moving body in a traveling direction, and an obstacle candidate extraction unit that extracts an obstacle candidate and its estimated ground contact position from an image at a first time of the time-series image A vanishing point estimating means for estimating a vanishing point on the time-series image, and tracking for obtaining a destination position of the estimated ground position from an image at a second time before the first time of the time-series image. And the movement destination position is in a region opposite to the side where the moving object exists with a straight line connecting the vanishing point and the estimated grounding position as a boundary, the estimated grounding position having the estimated grounding position. An image processing apparatus comprising: obstacle detection means for detecting an obstacle candidate as an obstacle.
本発明によれば、確実に移動体の進行情報前方に飛び出してくる危険な障害物を検出できる。 ADVANTAGE OF THE INVENTION According to this invention, the dangerous obstacle which jumps out ahead of the progress information of a moving body can be detected reliably.
以下、本発明の一実施形態の画像処理装置を図面に基づいて説明する。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(第1の実施形態)
(1)画像処理装置の構成
図1は、第1の実施形態の画像処理装置の構成を示す。
(First embodiment)
(1) Configuration of Image Processing Device FIG. 1 shows a configuration of an image processing device according to the first embodiment.
画像入力部10では、車両などの移動体に取り付けられた1台のTVカメラから時系列画像(xy画像)を取得する。
The
特徴点抽出部20では、時系列画像のある時刻の画像(以下、原画像とう)中から障害物の接地位置に属している可能性のある点または領域の特徴点(以下、接地特徴点という)を抽出する。
In the feature
移動軌跡抽出部30では、特徴点抽出部20で抽出された接地特徴点の時系列画像上での移動軌跡を抽出する。
The movement
障害物検出部40では、移動軌跡抽出部30によって抽出された移動軌跡の終点が、時系列画像上の消失点と移動軌跡の始点を結んだ直線よりも画像上で移動体の存在する方向に近い位置にある場合に、その移動軌跡が抽出された点または領域が障害物に属すると判定し検出する。
In the
障害物情報出力部50では、検出された障害物までの距離や、衝突までの時間等、障害物に関する情報を算出し、本装置が搭載されている車両の制御装置や車両の運転者に対して出力する。
The obstacle
以下では、特徴点抽出部20、移動軌跡抽出部30、障害物検出部40、障害物情報出力部50について説明する。なお、各部20〜50の各機能は、コンピュータに記憶されたプログラムによって実現できる。
Hereinafter, the feature
また、説明を簡単にするため、TVカメラは路面が画像上で下になり、光軸が路面と平行かつ進行方向に平行に取り付けられているものとする。このカメラ配置では、画像上で地平線が水平で画像の中心を通る直線となる。これ以外の設置方法についても同様の方法が適用できる。また、図4に示すようにxy画像は画像左上隅を原点として横方向にx軸、縦方向にy軸をとるものとする。 For the sake of simplicity, it is assumed that the TV camera is mounted with the road surface facing down on the image and the optical axis parallel to the road surface and parallel to the traveling direction. In this camera arrangement, the horizon is horizontal on the image and is a straight line passing through the center of the image. The same method can be applied to other installation methods. Further, as shown in FIG. 4, the xy image has an x axis in the horizontal direction and a y axis in the vertical direction with the upper left corner of the image as the origin.
(2)特徴点抽出部20
特徴点抽出部20では、原画像の中から障害物の接地位置に属している可能性のある点または領域の特徴点、すなわち、接地特徴点を抽出する。接地特徴点とは、その点の近傍の輝度分布が、周辺の輝度分布とは異なり、さらに障害物の接地位置に属している可能性のある点のことである。
(2) Feature
The feature
特徴点抽出の方法について、図4に基づいて説明する。 A feature point extraction method will be described with reference to FIG.
まず、原画像(xy画像)に対して横方向xに微分などを適用し縦方向yのエッジを検出するしてエッジ画像を生成する。 First, an edge image is generated by detecting an edge in the vertical direction y by applying differentiation in the horizontal direction x to the original image (xy image).
次に、エッジ画像のエッジを示す曲線(エッジ曲線)を抽出する。 Next, a curve (edge curve) indicating the edge of the edge image is extracted.
エッジ曲線は次のように抽出する。あるエッジ(画素A)に関してその周囲の画素(自身の周囲8方向に存在する画素)にもエッジ(画素B)が存在する場合に、これらの画素は同じエッジ曲線に属すると判断する。新しく加わったエッジ情報を持つ画素(画素B)に関しても同様にして周囲にエッジが存在するかどうかを調べていく。こうした手順を繰り返し行って生成されたものをエッジ曲線と呼ぶ。このエッジ曲線の下端の点または領域の特徴点を接地特徴点とする。 Edge curves are extracted as follows. When there is an edge (pixel B) in a surrounding pixel (pixel existing in the surrounding eight directions) with respect to a certain edge (pixel A), it is determined that these pixels belong to the same edge curve. Whether or not there is an edge around the pixel (pixel B) having the newly added edge information is similarly examined. What is generated by repeating these procedures is called an edge curve. The point at the lower end of this edge curve or the feature point of the region is set as the ground feature point.
(3)移動軌跡抽出部30
図2に移動軌跡抽出部30の詳細な構成例を示す。移動軌跡抽出部30は、ピッチング運動補正部31、ヨーイング運動補正部32、縦方向終点設定部33、移動軌跡算出部34からなる。
(3) Movement
FIG. 2 shows a detailed configuration example of the movement
(3−1)ピッチング運動補正部31
ピッチング運動補正部31では、路面の凹凸等によって生じる車両のピッチング運動が画像上の各点の運動に与える影響を除去する。
(3-1) Pitching motion correction unit 31
The pitching motion correction unit 31 removes the influence of the vehicle pitching motion caused by road surface unevenness on the motion of each point on the image.
車両のピッチング運動は、略カメラの水平軸周りの回転運動であるので、xy画像からこの回転量を推定して、回転量が0となるように画像を変換すればよい。xy画像からカメラの水平軸周りの回転運動を推定する手法は、既存の手法を用いる。例えば特許文献6は、地平線の周辺に現れる縦方向の運動は、カメラの水平軸周りの回転運動によって生じることを利用して、地平線の周辺に現れる縦方向の運動から水平軸周りの回転運動を推定している。このとき、画像内での地平線のおよその位置はカメラを移動体に取り付けたときに既知となることが多いので、カメラ取り付け時に地平線の位置を決めておくことができる。 Since the pitching motion of the vehicle is substantially a rotational motion around the horizontal axis of the camera, this rotational amount is estimated from the xy image, and the image may be converted so that the rotational amount becomes zero. An existing method is used as a method for estimating the rotational motion around the horizontal axis of the camera from the xy image. For example, Patent Document 6 uses the fact that the vertical motion appearing around the horizon is caused by the rotational motion around the horizontal axis of the camera, and the rotational motion around the horizontal axis is changed from the vertical motion appearing around the horizon. Estimated. At this time, since the approximate position of the horizon in the image is often known when the camera is attached to the moving body, the position of the horizon can be determined when the camera is attached.
画像入力部10で、焦点距離の小さい広角レンズを用いる場合には、ピッチング運動が画像に与える影響が小さくなり無視しても問題ない。このような場合にはピッチング運動補正部31なしでシステムを構成しても良い。
When a wide-angle lens with a small focal length is used in the
(3−2)ヨーイング運動補正部32
ヨーイング運動補正部32では、車両のカーブ走行等によって生じる車両のヨーイング運動が画像上の各点の運動に与える影響を除去する。また、このヨーイング運動補正部32は、xy画像上の消失点も推定する役割を果たす。
(3-2) Yawing
The yawing
車両のヨーイング運動は、略カメラの垂直軸周りの回転運動であるので、xy画像からこの回転量を推定して、回転量が0となるように画像を変換すればよい。xy画像からカメラの垂直軸周りの回転運動を推定する手法は様々な方法が考えられる。例えば特許文献6では、消失点の周辺に現れる横方向の運動は、カメラの垂直軸周りの回転運動によって生じることを利用して、消失点の周辺に現れる横方向の運動から垂直軸周りの回転運動を推定することによってヨーイング運動が画像変化に与える影響を除去することができる。 Since the yawing motion of the vehicle is substantially a rotational motion around the vertical axis of the camera, the rotation amount is estimated from the xy image, and the image may be converted so that the rotation amount becomes zero. There are various methods for estimating the rotational motion around the vertical axis of the camera from the xy image. For example, in Patent Document 6, the lateral movement that appears around the vanishing point is caused by the rotational movement around the vertical axis of the camera, and the lateral movement that appears around the vanishing point is rotated from the lateral movement that appears around the vanishing point. By estimating the motion, the influence of the yawing motion on the image change can be removed.
このとき、消失点のおよその位置はカメラを移動体に取り付けたときに既知となることが多いので、カメラ取り付け時に消失点の位置を決めておくことができる。 At this time, since the approximate position of the vanishing point is often known when the camera is attached to the moving body, the position of the vanishing point can be determined when the camera is attached.
(3−3)縦方向終点設定部33
縦方向終点設定部33では、抽出する移動軌跡の画像上での縦方向成分yの終点位置y1を設定する。
(3-3) Longitudinal End
The vertical direction end
終点位置y1は、注目する接地特徴点の移動軌跡の画像上での始点位置y0に対して、
y1=y0+Δy
となる。但し、Δyは正の数とする。Δyが正の数なのは、衝突の可能性のある特徴点はxy画像上において必ず下方向に向かって動くことが理由である(図5参照)。
The end point position y1 is relative to the start point position y0 on the image of the movement trajectory of the ground contact point of interest.
y1 = y0 + Δy
It becomes. However, Δy is a positive number. The reason why Δy is a positive number is that feature points that may collide always move downward on the xy image (see FIG. 5).
(3−4)移動軌跡算出部34
移動軌跡算出部34では、注目する接地特徴点が縦方向終点設定部33で設定された縦方向の終点位置に到達するまでの特徴点の移動軌跡を算出する。移動軌跡算出部34は、存在位置探索部341と終点判定部342から構成される。
(3-4) Movement
The movement
存在位置探索部341では、ある時刻t0の原画像中のある接地特徴点が、それ以降の時刻t1の画像中でどこに移動したかを探索する。探索は、時刻t0の接地特徴点を含むその近傍の画素(原領域)と、時刻t1の画像中の領域の輝度分布の差異を求めその差異が最も小さい領域を接地特徴点の移動した位置とする。輝度分布の差異は対応するそれぞれの画素毎の差の絶対値の総和や、画素毎の差を二乗した値の総和などを用いて評価する。 The existence position search unit 341 searches for where a certain ground feature point in the original image at a certain time t0 has moved in the subsequent image at the time t1. In the search, the difference in luminance distribution between the neighboring pixel (original region) including the ground feature point at time t0 and the region in the image at time t1 is obtained, and the region where the difference is the smallest is the position where the ground feature point has moved. To do. Differences in luminance distribution are evaluated using the sum of absolute values of differences between corresponding pixels or the sum of values obtained by squaring the differences between pixels.
終点判定部342では、存在位置探索部341で探索した接地特徴点の移動位置が縦方向終点設定部34で設定した終点位置y1に到達しているかどうかを判定する。移動位置が終点位置y1よりも下の場合は、その位置を移動軌跡の終点として算出は終了する。
The end
(4)障害物検出部40
障害物検出部40では、移動軌跡抽出部30で抽出された移動軌跡が障害物に属するかどうかを判定し検出する。
(4)
The
移動軌跡抽出部30によって抽出された移動軌跡の終点のx座標と、画像上の消失点と移動軌跡の始点を結んだ直線の移動軌跡の終点と同じy座標でのx座標を比較し、前者のx座標が画像上で移動体の存在する方向に近い位置にある場合にその移動軌跡が抽出された点または領域が障害物に属すると判定し検出する。
The x coordinate of the end point of the movement locus extracted by the movement
図5の場合を例に説明する。 The case of FIG. 5 will be described as an example.
原画像が時刻t=To(左上図)において、画面左側には建物(障害物ではない)があり、画面右側には飛び出してくる人間(障害物)が映っている。この状況から、建物と人間の特徴点がともに時刻t=T1(To<T1:左下図)において終点位置に到達し移動軌跡が得られたとする。建物と人間の移動軌跡はそれぞれ、判定図(右下図)に示す(a),(b)のようになる。このとき(a)の終点のx座標と、(a)の始点と消失点を結ぶ直線の(a)の終点と同じy座標(y1)上でのx座標は一致し障害物に属さないと判定される。また、このとき(b)の終点のx座標と、(b)の始点と消失点を結ぶ直線の(b)の終点と同じy座標(y1)上でのx座標は(c)となり、移動体の存在する方向に近い位置に存在し障害物に属すると判定される。 In the original image at time t = To (upper left figure), there is a building (not an obstacle) on the left side of the screen, and a human (obstacle) popping out is shown on the right side of the screen. From this situation, it is assumed that both the building and the human feature point have reached the end point position at time t = T1 (To <T1: lower left figure) and the movement trajectory is obtained. The movement trajectories of the building and the human are respectively as shown in (a) and (b) in the determination diagram (lower right diagram). At this time, the x-coordinate of the end point of (a) and the x-coordinate on the same y-coordinate (y1) as the end point of (a) of the straight line connecting the start point and the vanishing point of (a) match and do not belong to the obstacle. Determined. At this time, the x coordinate of the end point of (b) and the same y coordinate (y1) as the end point of (b) of the straight line connecting the start point and the vanishing point of (b) are (c) and moved. It is determined that the object is located near the body and belongs to the obstacle.
(5)障害物情報出力部50
障害物情報出力部50では、検出された障害物までの距離や、衝突までの時間等、障害物に関する情報を算出し、本装置が搭載されている車両の制御装置や車両の運転者に対して出力する。
(5) Obstacle
The obstacle
障害物検出部40で検出された障害物のxy画像上での移動軌跡を用いると、自車両に対する障害物の実空間上での相対速度を求めることができる。
If the movement locus on the xy image of the obstacle detected by the
画像上の位置(xo,yo)と実空間上のカメラを原点とした相対座標(Xo,Yo,Zo)の対応関係は、カメラと路面の既知の幾何的位置関係から容易に計算することができるが、X,Y,Zのどれか1つは仮定することになる。ここで、移動軌跡抽出部30によって抽出された移動軌跡は、画像上での障害物の接地位置の動きを示している。つまり、(Yo=0)と仮定できる。したがって、今仮定しているカメラ配置で、カメラが路面からhの高さにあるとすると、路面は画像平面に垂直な平面(y=−h)であるので、次式のようになる。
The correspondence between the position (xo, yo) on the image and the relative coordinates (Xo, Yo, Zo) with the camera in the real space as the origin can be easily calculated from the known geometric positional relationship between the camera and the road surface. Yes, but one of X, Y and Z will be assumed. Here, the movement trajectory extracted by the movement
(Xo,Yo,Zo)=(−(xo・h)/yo,0,−f・h/yo)
この式を用いれば、xy画像上での障害物の接地位置の移動軌跡から、障害物の実空間上での自車両に対する相対的な動きを求めることができる。こうして得られた障害物の実空間上での自車両に対する相対的な動き情報から相対速度Vo=(Vox,0,Voz)を求める。相対速度Vo=(Vox,0,Voz)はさまざまな方法で算出できる。例えば以下のような方法がある
1.移動軌跡の始点と終点の時刻、相対座標を用いて求める。
(Xo, Yo, Zo) = (− (xo · h) / yo, 0, −f · h / yo)
Using this equation, the relative movement of the obstacle relative to the host vehicle in the real space can be obtained from the movement locus of the obstacle contact position on the xy image. The relative speed Vo = (Vox, 0, Voz) is obtained from the relative movement information of the obstacle with respect to the own vehicle in the real space. The relative velocity Vo = (Vox, 0, Voz) can be calculated by various methods. For example, there are the following methods: It is obtained using the time and relative coordinates of the start point and end point of the movement trajectory.
2.移動軌跡の任意の2時刻の相対座標を用いて求める。 2. It is obtained using the relative coordinates of any two times of the movement trajectory.
こうして求めた相対速度から、障害物の予測進路(Xc,Yc,Tc)を求めることができる。 The predicted course (Xc, Yc, Tc) of the obstacle can be obtained from the relative speed thus obtained.
予測進路は、障害物の等速運動、または等加速度運動を仮定して求める。この予測進路が、原点を通るとき障害物と自車両は衝突する。予測進路が座標値(0,0,Tc)満たすTcを求めることにより、時刻Tcで衝突するという結果を出力する。実際には、障害物の予測進路が原点を通ることはまれであるので、障害物の予測進路が原点の近傍を通るとき、時刻Tcで衝突するとする。 The predicted course is obtained by assuming a constant velocity motion or a constant acceleration motion of the obstacle. When this predicted path passes through the origin, the obstacle and the host vehicle collide. By obtaining Tc that the predicted course satisfies the coordinate value (0, 0, Tc), the result of collision at time Tc is output. Actually, since the predicted course of the obstacle rarely passes through the origin, it is assumed that a collision occurs at time Tc when the predicted course of the obstacle passes near the origin.
なお、本発明は上記実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.
10 画像入力部
20 特徴点抽出部
30 移動軌跡抽出部
40 障害物検出部
50 障害物情報出力部
DESCRIPTION OF
Claims (13)
前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記時系列画像の前記第1の時刻より後の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、
前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、
を具備する
ことを特徴とする画像処理装置。 Imaging means for acquiring a time-series image of the moving direction of the moving body;
Obstacle candidate extraction means for extracting an obstacle candidate and its estimated ground contact position from the image at the first time of the time series image;
Vanishing point estimating means for estimating vanishing points on the time-series image;
Tracking means for obtaining a destination position of the estimated ground contact position from an image at a second time after the first time of the time-series image;
When the destination position is in a region on the side where the moving object exists with a straight line connecting the vanishing point and the estimated ground contact position, the obstacle candidate having the estimated ground contact position is defined as an obstacle. Obstacle detection means to detect as,
An image processing apparatus comprising:
前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記時系列画像の前記第1の時刻より前の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、
前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側と反対側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、
を具備する
ことを特徴とする画像処理装置。 An imaging means for acquiring a time-series image of the moving direction of the moving body;
Obstacle candidate extraction means for extracting an obstacle candidate and its estimated ground contact position from the image at the first time of the time series image;
Vanishing point estimating means for estimating vanishing points on the time-series images;
Tracking means for obtaining a destination position of the estimated ground contact position from an image at a second time before the first time of the time-series image;
The obstacle candidate having the estimated ground contact position when the destination position is in a region on the opposite side to the side where the mobile object exists with a straight line connecting the vanishing point and the estimated ground contact position as a boundary. Obstacle detection means for detecting the obstacle as an obstacle,
An image processing apparatus comprising:
前記時系列画像の中のある時刻の画像である原画像の中から、前記平面上の接地位置に属している可能性のある点または領域を表す特徴点を接地特徴点として抽出する特徴点抽出手段と、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出する移動軌跡抽出手段と、
前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する障害物検出手段と、
を具備する
ことを特徴とする画像処理装置。 Image input means for acquiring a time-series image attached to a moving body that moves on a plane in real space;
Feature point extraction that extracts a feature point representing a point or region that may belong to the ground contact position on the plane from the original image that is an image at a certain time in the time series image as a ground feature point Means,
Vanishing point estimating means for estimating vanishing points on the time-series image;
Movement trajectory extracting means for extracting the movement trajectory of the ground feature point from each image of the time-series image;
When the end point of the movement trajectory is in a region where the moving object exists with a straight line connecting the vanishing point and the start point of the movement trajectory, the object including the ground feature point is determined to be an obstacle. Obstacle detection means to
An image processing apparatus comprising:
前記移動軌跡における前記原画像上の縦方向成分の終点位置を設定する縦方向終点設定手段と、
前記終点位置に到達するまでの前記接地特徴点の移動軌跡を算出する移動軌跡算出手段と、
を具備する
ことを特徴とする請求項3記載の画像処理装置。 The movement trajectory extraction means includes
Vertical end point setting means for setting an end point position of a vertical component on the original image in the movement locus;
A movement trajectory calculating means for calculating a movement trajectory of the grounding feature point until the end point position is reached;
The image processing apparatus according to claim 3, further comprising:
前記原画像中の前記接地特徴点が、それ以降の時刻の画像中のどの位置にあるかを探索する存在位置探索手段と、
前記探索位置が前記終点位置に到達したか否かを判定する終点判定手段と、
を具備する
ことを特徴とする請求項4記載の画像処理装置。 The movement trajectory calculating means includes
Presence position search means for searching in which position in the image at a later time the ground feature point in the original image is located;
End point determination means for determining whether the search position has reached the end point position;
The image processing apparatus according to claim 4, further comprising:
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a pitching motion correction unit that corrects an influence due to the pitching motion of the moving body.
ことを特徴とする請求項3記載の画像処理装置。 The image processing apparatus according to claim 3, further comprising a yawing motion correction unit that corrects an influence caused by a yawing motion of the moving body.
前記時系列画像上の消失点を推定する消失点推定手段と、
前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出し、
前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する
ことを特徴とする画像処理方法。 Possible to belong to the ground contact position on the plane from the original image that is the image at a certain time in the time series image acquired from the image input device attached to the moving body moving on the plane in the real space Extract feature points that represent characteristic points or areas as ground feature points,
Vanishing point estimating means for estimating vanishing points on the time-series image;
Extracting the movement trajectory of the ground feature point from each image of the time series image,
When the end point of the movement trajectory is in a region where the moving object exists with a straight line connecting the vanishing point and the start point of the movement trajectory, the object including the ground feature point is determined to be an obstacle. An image processing method characterized by:
前記移動軌跡における前記原画像上の縦方向成分の終点位置を設定し、
前記終点位置に到達するまでの前記接地特徴点の移動軌跡を算出する
ことを特徴とする請求項8記載の画像処理方法。 When extracting the movement trajectory,
Set the end position of the vertical component on the original image in the movement trajectory,
The image processing method according to claim 8, further comprising: calculating a movement trajectory of the ground feature point until the end point position is reached.
前記原画像中の前記接地特徴点が、それ以降の時刻の画像中のどの位置にあるかを探索し、
前記探索位置が前記終点位置に到達したか否かを判定する
ことを特徴とする請求項9記載の画像処理方法。 When calculating the movement trajectory,
Searching in which position in the image at the subsequent time the ground feature point in the original image is located;
The image processing method according to claim 9, wherein it is determined whether or not the search position has reached the end point position.
前記時系列画像上の消失点を推定する消失点推定機能と、
前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出する移動軌跡抽出機能と、
前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する障害物検出機能と、
をコンピュータによって実現する
ことを特徴とする画像処理プログラム。 Possible to belong to the ground contact position on the plane from the original image which is the image at a certain time in the time series image acquired from the image input device attached to the moving body moving on the plane in the real space A feature point extraction function that extracts a feature point representing a characteristic point or region as a ground feature point;
A vanishing point estimating function for estimating a vanishing point on the time-series image;
A movement trajectory extraction function for extracting the movement trajectory of the ground feature point from each image of the time-series image;
When the end point of the movement trajectory is in a region where the moving object exists with a straight line connecting the vanishing point and the start point of the movement trajectory, the object including the ground feature point is determined to be an obstacle. Obstacle detection function to
Is realized by a computer.
前記移動軌跡における前記原画像上の縦方向成分の終点位置を設定する縦方向終点設定機能と、
前記終点位置に到達するまでの前記接地特徴点の移動軌跡を算出する移動軌跡算出機能と、
を実現する
ことを特徴とする請求項11記載の画像処理プログラム。 The movement trajectory extraction function is:
A vertical direction end point setting function for setting an end point position of a vertical direction component on the original image in the movement locus;
A movement trajectory calculation function for calculating a movement trajectory of the grounding feature point until the end point position is reached;
The image processing program according to claim 11, wherein:
前記原画像中の前記接地特徴点が、それ以降の時刻の画像中のどの位置にあるかを探索する存在位置探索機能と、
前記探索位置が前記終点位置に到達したか否かを判定する終点判定機能と、
を実現する
ことを特徴とする請求項12記載の画像処理プログラム。
The movement trajectory calculation function is:
An existing position search function for searching for a position in the image at a later time of the ground feature point in the original image;
An end point determination function for determining whether or not the search position has reached the end point position;
The image processing program according to claim 12, wherein the image processing program is realized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006016560A JP2007199932A (en) | 2006-01-25 | 2006-01-25 | Image processor and its method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006016560A JP2007199932A (en) | 2006-01-25 | 2006-01-25 | Image processor and its method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007199932A true JP2007199932A (en) | 2007-08-09 |
Family
ID=38454506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006016560A Abandoned JP2007199932A (en) | 2006-01-25 | 2006-01-25 | Image processor and its method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007199932A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012052884A (en) * | 2010-08-31 | 2012-03-15 | Honda Motor Co Ltd | Range finder with the use of on-vehicle camera |
US8760632B2 (en) | 2009-11-09 | 2014-06-24 | Toyota Jidosha Kabushiki Kaisha | Distance measuring apparatus and distance measuring method |
US9135709B2 (en) | 2013-02-28 | 2015-09-15 | Fujifilm Corporation | Vehicle-to-vehicle distance calculation apparatus and method |
KR101618501B1 (en) | 2015-02-04 | 2016-05-09 | 한국기술교육대학교 산학협력단 | Method for ego-motion estimation of vehicle |
CN115497078A (en) * | 2022-11-15 | 2022-12-20 | 广汽埃安新能源汽车股份有限公司 | Lane line generation method, apparatus, device, and computer-readable medium |
-
2006
- 2006-01-25 JP JP2006016560A patent/JP2007199932A/en not_active Abandoned
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8760632B2 (en) | 2009-11-09 | 2014-06-24 | Toyota Jidosha Kabushiki Kaisha | Distance measuring apparatus and distance measuring method |
JP2012052884A (en) * | 2010-08-31 | 2012-03-15 | Honda Motor Co Ltd | Range finder with the use of on-vehicle camera |
US9135709B2 (en) | 2013-02-28 | 2015-09-15 | Fujifilm Corporation | Vehicle-to-vehicle distance calculation apparatus and method |
KR101618501B1 (en) | 2015-02-04 | 2016-05-09 | 한국기술교육대학교 산학협력단 | Method for ego-motion estimation of vehicle |
CN115497078A (en) * | 2022-11-15 | 2022-12-20 | 广汽埃安新能源汽车股份有限公司 | Lane line generation method, apparatus, device, and computer-readable medium |
CN115497078B (en) * | 2022-11-15 | 2023-03-10 | 广汽埃安新能源汽车股份有限公司 | Lane line generation method, apparatus, device, and computer-readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9230165B2 (en) | Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection | |
US10755116B2 (en) | Image processing apparatus, imaging apparatus, and device control system | |
JP3904988B2 (en) | Image processing apparatus and method | |
JP4676373B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
WO2017138245A1 (en) | Image processing device, object recognition device, device control system, and image processing method and program | |
JP5561064B2 (en) | Vehicle object recognition device | |
EP2422320A1 (en) | Object detection device | |
JP4985306B2 (en) | Obstacle determination device and method, and vehicle equipped with an obstacle determination device | |
JP2002352225A (en) | Obstacle detector and its method | |
EP3282389B1 (en) | Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program | |
KR101180621B1 (en) | Apparatus and method for detecting a vehicle | |
JP4344860B2 (en) | Road plan area and obstacle detection method using stereo image | |
JP2007199932A (en) | Image processor and its method | |
JP2017207874A (en) | Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program | |
JP3868915B2 (en) | Forward monitoring apparatus and method | |
US20190139177A1 (en) | Device for detecting road surface state | |
JP2006047091A (en) | Moving object detector | |
JP5950193B2 (en) | Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program | |
EP3373199A2 (en) | Object detector, object detection method, carrier means, and equipment control system | |
US7899212B2 (en) | Image processing apparatus and image processing method | |
CN112513573B (en) | Stereo camera device | |
EP3287948B1 (en) | Image processing apparatus, moving body apparatus control system, image processing method, and program | |
JP4015036B2 (en) | Obstacle detection device and obstacle detection method | |
JP4397164B2 (en) | Obstacle detection device and obstacle detection method | |
JPH1114376A (en) | Vehicular traveling road detecting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20090330 |