JP2007199932A - Image processor and its method - Google Patents

Image processor and its method Download PDF

Info

Publication number
JP2007199932A
JP2007199932A JP2006016560A JP2006016560A JP2007199932A JP 2007199932 A JP2007199932 A JP 2007199932A JP 2006016560 A JP2006016560 A JP 2006016560A JP 2006016560 A JP2006016560 A JP 2006016560A JP 2007199932 A JP2007199932 A JP 2007199932A
Authority
JP
Japan
Prior art keywords
image
point
time
movement trajectory
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2006016560A
Other languages
Japanese (ja)
Inventor
Kenichi Shimoyama
賢一 下山
Ryuzo Okada
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006016560A priority Critical patent/JP2007199932A/en
Publication of JP2007199932A publication Critical patent/JP2007199932A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Instrument Panels (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for detecting a dangerous obstacle jumping out ahead the traveling information of one's own vehicle by using one TV camera. <P>SOLUTION: An image input part 10 acquires a time series image from one TV camera mounted on a traveling object, and a featured point extraction part 20 extracts ground featured points belonging to the ground position of an obstacle from an original image, and a moving orbit extraction part 30 extracts a moving orbit on the image of the ground featured points, and an obstacle detection part 40 judges that the ground featured points are belonging to the obstacle when the terminal point of the extracted moving orbit is present at a position closer to a direction where the traveling object exists on the image than a straight line connecting a dissipating point and the start point of the moving orbit. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

発明は、自動車などの車両に代表される移動体に取り付けられたカメラの画像を用いて、自車両進行情報前方に飛び出してくる危険な障害物を検出する画像処理装置及びその方法に関する。   The present invention relates to an image processing apparatus and method for detecting a dangerous obstacle that pops out ahead of host vehicle travel information using an image of a camera attached to a moving body typified by a vehicle such as an automobile.

前方に飛び出してくる障害物を検出する手法として、大きく分けてレーダーを用いる方式と、画像を用いる方式が提案されている。   As a method for detecting an obstacle that jumps forward, a method using a radar and a method using an image have been proposed.

レーダーを用いる方式として、特許文献1においてレーザーレーダーを用いて検出する方法が提案されている。レーザーレーダーを用いる方式は雨など悪天候に弱いという問題がある。また、飛び出し等、斜め前方の障害物の検出では、レーザーレーダーが斜めに照射されるため、反射波を受光しにくいという問題や、照射できる範囲が狭いため、飛び出し等斜め前方の障害物は検出が難しい。   As a method using a radar, Patent Document 1 proposes a detection method using a laser radar. The method using laser radar has a problem that it is vulnerable to bad weather such as rain. Also, when detecting obstacles diagonally forward, such as jumping out, the laser radar is illuminated diagonally, so it is difficult to receive reflected waves, and because the range that can be irradiated is narrow, obstacles diagonally forward such as jumping out are detected. Is difficult.

カメラから得られる画像は、レーダーよりも視野が広く、斜め前方の障害物も正面の障害物も同様に撮影することができる。また、自車両の走行レーンを検出することができるため、自車両の走行に対して危険となる領域を特定することできるという利点もある。画像を用いる方式には、単一のTVカメラを用いる方式と、複数のTVカメラを用いる方式がある。   The image obtained from the camera has a wider field of view than the radar, and it is possible to shoot an obstacle in front of the diagonal as well as an obstacle in front. In addition, since the travel lane of the host vehicle can be detected, there is an advantage that a region that is dangerous for the travel of the host vehicle can be specified. As a method using an image, there are a method using a single TV camera and a method using a plurality of TV cameras.

複数のTVカメラを用いる方式として、特許文献2においてステレオ視により車両までの距離を計測して、4次元シーンにおける他車両の移動ベクトルを求め、その延長線と走行レーンが交わったとき障害物と検出する手法が提案されている。このステレオ視による手法は割り込み車両が共通視野領域に入ってくるまで検出できないため、検出が遅くなるという問題がある。また、左右の画像間から点の対応付けにより視差を求めるので計算量が大きくなるという問題もある。   As a method using a plurality of TV cameras, in Patent Document 2, the distance to a vehicle is measured by stereo vision, a movement vector of another vehicle in a four-dimensional scene is obtained, and when an extension line and a driving lane cross each other, A detection method has been proposed. This stereo method cannot detect until the interrupting vehicle enters the common visual field region, so that the detection is slow. Another problem is that the amount of calculation increases because parallax is obtained by matching points between the left and right images.

単一のTVカメラを用いる方式として、特許文献3において道路面のエッジ点数の変化に注目して障害物を検出する方法が提案されている。この手法は、予め設定したある領域内部のエッジ点数の最大値が、ある閾値以上になったときに、障害物が存在したとする。この手法では、エッジ点数から検出しているため、道路面に模様があると障害物が存在しなくてもエッジ点数が増大することから誤検出する可能性がある。   As a method using a single TV camera, Patent Document 3 proposes a method of detecting an obstacle by paying attention to a change in the number of edge points on a road surface. In this method, it is assumed that an obstacle exists when the preset maximum value of the number of edge points in a certain area is equal to or greater than a certain threshold value. In this method, since detection is performed from the number of edge points, if there is a pattern on the road surface, the number of edge points increases even if there are no obstacles, so there is a possibility of erroneous detection.

画像の各点の動きベクトル(オプティカルフロー)を解析して障害物を検出する装置(例えば、特許文献4、特許文献5、非特許文献1参照)では、自車両の運動によって、オプティカルフローが変化するため、安定した検出が難しい。特許文献6のような方式を用いて、自車両の揺れによって生じる画像上の動きをキャンセルすることもできるが、画像中には様々な移動体が存在するため、うまくキャンセルできない場合もある。
特開平 7−89367号公報 特開平11−213295公報 特開平 8−249597号公報 特開2000−285393公報 特開平 7−239998号公報 特開2002−112252公報 N.Takeda,et.al.,「Moving Obstacle Detection Using Residual Error of FOE Estimation」,Proc.of IROS,pp.1857〜1865,1993
In an apparatus that detects an obstacle by analyzing a motion vector (optical flow) of each point of an image (see, for example, Patent Document 4, Patent Document 5, and Non-Patent Document 1), the optical flow changes depending on the movement of the host vehicle. Therefore, stable detection is difficult. Although the movement on the image caused by the shaking of the host vehicle can be canceled using a method such as Patent Document 6, there are cases where various moving bodies are present in the image, so that the movement cannot be canceled well.
JP-A-7-89367 JP 11-213295 A Japanese Patent Laid-Open No. 8-249597 JP 2000-285393 A JP-A-7-239998 JP 2002-112252 A N. Takeda, et.al., "Moving Obstacle Detection Using Residual Error of FOE Estimation", Proc. Of IROS, pp. 1857 to 1865, 1993.

本発明は、車両等の移動体に取り付けられた画像入力手段から得られる時系列画像を用いて、確実に移動体の進行情報前方に飛び出してくる危険な障害物を検出することを目的とする。   It is an object of the present invention to reliably detect a dangerous obstacle that pops out ahead of travel information of a moving body using a time-series image obtained from an image input means attached to the moving body such as a vehicle. .

本発明は、実空間内の平面上を移動する移動体に取り付けられて時系列画像を取得する画像入力手段と、前記時系列画像の中のある時刻の画像である原画像の中から、前記平面上の接地位置に属している可能性のある点または領域を表す特徴点を接地特徴点として抽出する特徴点抽出手段と、前記時系列画像上の消失点を推定する消失点推定手段と、前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出する移動軌跡抽出手段と、前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する障害物検出手段と、を具備することを特徴とする画像処理装置である。   The present invention provides an image input means for acquiring a time-series image attached to a moving body that moves on a plane in real space, and an original image that is an image at a certain time in the time-series image, A feature point extracting means for extracting a feature point representing a point or region that may belong to a ground contact position on a plane as a ground feature point; a vanishing point estimating means for estimating a vanishing point on the time-series image; The movement trajectory extracting means for extracting the movement trajectory of the ground feature point from each image of the time-series image, and the end point of the movement trajectory is bounded by a straight line connecting the vanishing point and the start point of the movement trajectory. An image processing apparatus comprising: obstacle detection means for determining that an object including the ground feature point is an obstacle when the body is in an existing region.

本発明は、移動体の進行方向の時系列画像を取得する撮像手段と、前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、前記時系列画像上の消失点を推定する消失点推定手段と、前記時系列画像の前記第1の時刻より後の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、を具備することを特徴とする画像処理装置である。   The present invention provides an imaging unit that acquires a time-series image of a moving body in a traveling direction, and an obstacle candidate extraction unit that extracts an obstacle candidate and its estimated ground contact position from an image at a first time of the time-series image. A vanishing point estimating means for estimating a vanishing point on the time-series image, and tracking for obtaining a destination position of the estimated ground position from an image at a second time after the first time of the time-series image. The obstacle candidate having the estimated ground contact position when the moving object is in a region on the side where the moving object exists with a straight line connecting the vanishing point and the estimated ground contact position as a boundary. And an obstacle detection means for detecting an obstacle as an obstacle.

本発明は、移動体の進行方向の時系列画像を取得する撮像手段と、前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、前記時系列画像上の消失点を推定する消失点推定手段と、前記時系列画像の前記第1の時刻より前の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側と反対側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、を具備することを特徴とする画像処理装置である。   The present invention provides an imaging unit that acquires a time-series image of a moving body in a traveling direction, and an obstacle candidate extraction unit that extracts an obstacle candidate and its estimated ground contact position from an image at a first time of the time-series image A vanishing point estimating means for estimating a vanishing point on the time-series image, and tracking for obtaining a destination position of the estimated ground position from an image at a second time before the first time of the time-series image. And the movement destination position is in a region opposite to the side where the moving object exists with a straight line connecting the vanishing point and the estimated grounding position as a boundary, the estimated grounding position having the estimated grounding position. An image processing apparatus comprising: obstacle detection means for detecting an obstacle candidate as an obstacle.

本発明によれば、確実に移動体の進行情報前方に飛び出してくる危険な障害物を検出できる。   ADVANTAGE OF THE INVENTION According to this invention, the dangerous obstacle which jumps out ahead of the progress information of a moving body can be detected reliably.

以下、本発明の一実施形態の画像処理装置を図面に基づいて説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

(第1の実施形態)
(1)画像処理装置の構成
図1は、第1の実施形態の画像処理装置の構成を示す。
(First embodiment)
(1) Configuration of Image Processing Device FIG. 1 shows a configuration of an image processing device according to the first embodiment.

画像入力部10では、車両などの移動体に取り付けられた1台のTVカメラから時系列画像(xy画像)を取得する。   The image input unit 10 acquires a time series image (xy image) from one TV camera attached to a moving body such as a vehicle.

特徴点抽出部20では、時系列画像のある時刻の画像(以下、原画像とう)中から障害物の接地位置に属している可能性のある点または領域の特徴点(以下、接地特徴点という)を抽出する。   In the feature point extraction unit 20, a point or a region feature point (hereinafter referred to as a grounding feature point) that may belong to the grounding position of the obstacle from an image at a certain time in the time series image (hereinafter referred to as an original image). ).

移動軌跡抽出部30では、特徴点抽出部20で抽出された接地特徴点の時系列画像上での移動軌跡を抽出する。   The movement trajectory extraction unit 30 extracts a movement trajectory on the time-series image of the ground feature points extracted by the feature point extraction unit 20.

障害物検出部40では、移動軌跡抽出部30によって抽出された移動軌跡の終点が、時系列画像上の消失点と移動軌跡の始点を結んだ直線よりも画像上で移動体の存在する方向に近い位置にある場合に、その移動軌跡が抽出された点または領域が障害物に属すると判定し検出する。   In the obstacle detection unit 40, the end point of the movement track extracted by the movement track extraction unit 30 is in a direction where the moving object exists on the image rather than the straight line connecting the vanishing point on the time-series image and the start point of the movement track. When it is in a close position, it is determined and detected that the point or region from which the movement trajectory is extracted belongs to an obstacle.

障害物情報出力部50では、検出された障害物までの距離や、衝突までの時間等、障害物に関する情報を算出し、本装置が搭載されている車両の制御装置や車両の運転者に対して出力する。   The obstacle information output unit 50 calculates information about the obstacle, such as the distance to the detected obstacle and the time until the collision, to the vehicle control device and the vehicle driver on which this device is mounted. Output.

以下では、特徴点抽出部20、移動軌跡抽出部30、障害物検出部40、障害物情報出力部50について説明する。なお、各部20〜50の各機能は、コンピュータに記憶されたプログラムによって実現できる。   Hereinafter, the feature point extraction unit 20, the movement trajectory extraction unit 30, the obstacle detection unit 40, and the obstacle information output unit 50 will be described. In addition, each function of each part 20-50 is realizable by the program memorize | stored in the computer.

また、説明を簡単にするため、TVカメラは路面が画像上で下になり、光軸が路面と平行かつ進行方向に平行に取り付けられているものとする。このカメラ配置では、画像上で地平線が水平で画像の中心を通る直線となる。これ以外の設置方法についても同様の方法が適用できる。また、図4に示すようにxy画像は画像左上隅を原点として横方向にx軸、縦方向にy軸をとるものとする。   For the sake of simplicity, it is assumed that the TV camera is mounted with the road surface facing down on the image and the optical axis parallel to the road surface and parallel to the traveling direction. In this camera arrangement, the horizon is horizontal on the image and is a straight line passing through the center of the image. The same method can be applied to other installation methods. Further, as shown in FIG. 4, the xy image has an x axis in the horizontal direction and a y axis in the vertical direction with the upper left corner of the image as the origin.

(2)特徴点抽出部20
特徴点抽出部20では、原画像の中から障害物の接地位置に属している可能性のある点または領域の特徴点、すなわち、接地特徴点を抽出する。接地特徴点とは、その点の近傍の輝度分布が、周辺の輝度分布とは異なり、さらに障害物の接地位置に属している可能性のある点のことである。
(2) Feature point extraction unit 20
The feature point extraction unit 20 extracts a feature point of a point or a region that may belong to an obstacle grounding position from the original image, that is, a grounding feature point. The grounding feature point is a point where the luminance distribution in the vicinity of the point is different from the surrounding luminance distribution and may belong to the grounding position of the obstacle.

特徴点抽出の方法について、図4に基づいて説明する。   A feature point extraction method will be described with reference to FIG.

まず、原画像(xy画像)に対して横方向xに微分などを適用し縦方向yのエッジを検出するしてエッジ画像を生成する。   First, an edge image is generated by detecting an edge in the vertical direction y by applying differentiation in the horizontal direction x to the original image (xy image).

次に、エッジ画像のエッジを示す曲線(エッジ曲線)を抽出する。   Next, a curve (edge curve) indicating the edge of the edge image is extracted.

エッジ曲線は次のように抽出する。あるエッジ(画素A)に関してその周囲の画素(自身の周囲8方向に存在する画素)にもエッジ(画素B)が存在する場合に、これらの画素は同じエッジ曲線に属すると判断する。新しく加わったエッジ情報を持つ画素(画素B)に関しても同様にして周囲にエッジが存在するかどうかを調べていく。こうした手順を繰り返し行って生成されたものをエッジ曲線と呼ぶ。このエッジ曲線の下端の点または領域の特徴点を接地特徴点とする。   Edge curves are extracted as follows. When there is an edge (pixel B) in a surrounding pixel (pixel existing in the surrounding eight directions) with respect to a certain edge (pixel A), it is determined that these pixels belong to the same edge curve. Whether or not there is an edge around the pixel (pixel B) having the newly added edge information is similarly examined. What is generated by repeating these procedures is called an edge curve. The point at the lower end of this edge curve or the feature point of the region is set as the ground feature point.

(3)移動軌跡抽出部30
図2に移動軌跡抽出部30の詳細な構成例を示す。移動軌跡抽出部30は、ピッチング運動補正部31、ヨーイング運動補正部32、縦方向終点設定部33、移動軌跡算出部34からなる。
(3) Movement locus extraction unit 30
FIG. 2 shows a detailed configuration example of the movement trajectory extraction unit 30. The movement trajectory extraction unit 30 includes a pitching motion correction unit 31, a yawing motion correction unit 32, a vertical direction end point setting unit 33, and a movement trajectory calculation unit 34.

(3−1)ピッチング運動補正部31
ピッチング運動補正部31では、路面の凹凸等によって生じる車両のピッチング運動が画像上の各点の運動に与える影響を除去する。
(3-1) Pitching motion correction unit 31
The pitching motion correction unit 31 removes the influence of the vehicle pitching motion caused by road surface unevenness on the motion of each point on the image.

車両のピッチング運動は、略カメラの水平軸周りの回転運動であるので、xy画像からこの回転量を推定して、回転量が0となるように画像を変換すればよい。xy画像からカメラの水平軸周りの回転運動を推定する手法は、既存の手法を用いる。例えば特許文献6は、地平線の周辺に現れる縦方向の運動は、カメラの水平軸周りの回転運動によって生じることを利用して、地平線の周辺に現れる縦方向の運動から水平軸周りの回転運動を推定している。このとき、画像内での地平線のおよその位置はカメラを移動体に取り付けたときに既知となることが多いので、カメラ取り付け時に地平線の位置を決めておくことができる。   Since the pitching motion of the vehicle is substantially a rotational motion around the horizontal axis of the camera, this rotational amount is estimated from the xy image, and the image may be converted so that the rotational amount becomes zero. An existing method is used as a method for estimating the rotational motion around the horizontal axis of the camera from the xy image. For example, Patent Document 6 uses the fact that the vertical motion appearing around the horizon is caused by the rotational motion around the horizontal axis of the camera, and the rotational motion around the horizontal axis is changed from the vertical motion appearing around the horizon. Estimated. At this time, since the approximate position of the horizon in the image is often known when the camera is attached to the moving body, the position of the horizon can be determined when the camera is attached.

画像入力部10で、焦点距離の小さい広角レンズを用いる場合には、ピッチング運動が画像に与える影響が小さくなり無視しても問題ない。このような場合にはピッチング運動補正部31なしでシステムを構成しても良い。   When a wide-angle lens with a small focal length is used in the image input unit 10, the influence of the pitching motion on the image is small and can be ignored. In such a case, the system may be configured without the pitching motion correction unit 31.

(3−2)ヨーイング運動補正部32
ヨーイング運動補正部32では、車両のカーブ走行等によって生じる車両のヨーイング運動が画像上の各点の運動に与える影響を除去する。また、このヨーイング運動補正部32は、xy画像上の消失点も推定する役割を果たす。
(3-2) Yawing motion correction unit 32
The yawing motion correction unit 32 removes the influence that the yawing motion of the vehicle caused by the vehicle traveling on the curve has on the motion of each point on the image. The yawing motion correction unit 32 also plays a role of estimating a vanishing point on the xy image.

車両のヨーイング運動は、略カメラの垂直軸周りの回転運動であるので、xy画像からこの回転量を推定して、回転量が0となるように画像を変換すればよい。xy画像からカメラの垂直軸周りの回転運動を推定する手法は様々な方法が考えられる。例えば特許文献6では、消失点の周辺に現れる横方向の運動は、カメラの垂直軸周りの回転運動によって生じることを利用して、消失点の周辺に現れる横方向の運動から垂直軸周りの回転運動を推定することによってヨーイング運動が画像変化に与える影響を除去することができる。   Since the yawing motion of the vehicle is substantially a rotational motion around the vertical axis of the camera, the rotation amount is estimated from the xy image, and the image may be converted so that the rotation amount becomes zero. There are various methods for estimating the rotational motion around the vertical axis of the camera from the xy image. For example, in Patent Document 6, the lateral movement that appears around the vanishing point is caused by the rotational movement around the vertical axis of the camera, and the lateral movement that appears around the vanishing point is rotated from the lateral movement that appears around the vanishing point. By estimating the motion, the influence of the yawing motion on the image change can be removed.

このとき、消失点のおよその位置はカメラを移動体に取り付けたときに既知となることが多いので、カメラ取り付け時に消失点の位置を決めておくことができる。   At this time, since the approximate position of the vanishing point is often known when the camera is attached to the moving body, the position of the vanishing point can be determined when the camera is attached.

(3−3)縦方向終点設定部33
縦方向終点設定部33では、抽出する移動軌跡の画像上での縦方向成分yの終点位置y1を設定する。
(3-3) Longitudinal End Point Setting Unit 33
The vertical direction end point setting unit 33 sets the end point position y1 of the vertical direction component y on the image of the movement trajectory to be extracted.

終点位置y1は、注目する接地特徴点の移動軌跡の画像上での始点位置y0に対して、

y1=y0+Δy

となる。但し、Δyは正の数とする。Δyが正の数なのは、衝突の可能性のある特徴点はxy画像上において必ず下方向に向かって動くことが理由である(図5参照)。
The end point position y1 is relative to the start point position y0 on the image of the movement trajectory of the ground contact point of interest.

y1 = y0 + Δy

It becomes. However, Δy is a positive number. The reason why Δy is a positive number is that feature points that may collide always move downward on the xy image (see FIG. 5).

(3−4)移動軌跡算出部34
移動軌跡算出部34では、注目する接地特徴点が縦方向終点設定部33で設定された縦方向の終点位置に到達するまでの特徴点の移動軌跡を算出する。移動軌跡算出部34は、存在位置探索部341と終点判定部342から構成される。
(3-4) Movement locus calculation unit 34
The movement trajectory calculation unit 34 calculates the movement trajectory of the feature points until the noticed grounding feature point reaches the vertical end point set by the vertical end point setting unit 33. The movement trajectory calculation unit 34 includes an existence position search unit 341 and an end point determination unit 342.

存在位置探索部341では、ある時刻t0の原画像中のある接地特徴点が、それ以降の時刻t1の画像中でどこに移動したかを探索する。探索は、時刻t0の接地特徴点を含むその近傍の画素(原領域)と、時刻t1の画像中の領域の輝度分布の差異を求めその差異が最も小さい領域を接地特徴点の移動した位置とする。輝度分布の差異は対応するそれぞれの画素毎の差の絶対値の総和や、画素毎の差を二乗した値の総和などを用いて評価する。   The existence position search unit 341 searches for where a certain ground feature point in the original image at a certain time t0 has moved in the subsequent image at the time t1. In the search, the difference in luminance distribution between the neighboring pixel (original region) including the ground feature point at time t0 and the region in the image at time t1 is obtained, and the region where the difference is the smallest is the position where the ground feature point has moved. To do. Differences in luminance distribution are evaluated using the sum of absolute values of differences between corresponding pixels or the sum of values obtained by squaring the differences between pixels.

終点判定部342では、存在位置探索部341で探索した接地特徴点の移動位置が縦方向終点設定部34で設定した終点位置y1に到達しているかどうかを判定する。移動位置が終点位置y1よりも下の場合は、その位置を移動軌跡の終点として算出は終了する。   The end point determination unit 342 determines whether the moving position of the ground feature point searched by the presence position search unit 341 has reached the end point position y1 set by the vertical direction end point setting unit 34. If the movement position is lower than the end point position y1, the calculation ends with that position as the end point of the movement track.

(4)障害物検出部40
障害物検出部40では、移動軌跡抽出部30で抽出された移動軌跡が障害物に属するかどうかを判定し検出する。
(4) Obstacle detection unit 40
The obstacle detection unit 40 determines and detects whether the movement trajectory extracted by the movement trajectory extraction unit 30 belongs to an obstacle.

移動軌跡抽出部30によって抽出された移動軌跡の終点のx座標と、画像上の消失点と移動軌跡の始点を結んだ直線の移動軌跡の終点と同じy座標でのx座標を比較し、前者のx座標が画像上で移動体の存在する方向に近い位置にある場合にその移動軌跡が抽出された点または領域が障害物に属すると判定し検出する。   The x coordinate of the end point of the movement locus extracted by the movement locus extraction unit 30 is compared with the x coordinate at the same y coordinate as the end point of the straight movement locus connecting the vanishing point on the image and the starting point of the movement locus. When the x coordinate of is located in a position close to the direction in which the moving object exists on the image, it is determined and detected that the point or region from which the moving locus is extracted belongs to the obstacle.

図5の場合を例に説明する。   The case of FIG. 5 will be described as an example.

原画像が時刻t=To(左上図)において、画面左側には建物(障害物ではない)があり、画面右側には飛び出してくる人間(障害物)が映っている。この状況から、建物と人間の特徴点がともに時刻t=T1(To<T1:左下図)において終点位置に到達し移動軌跡が得られたとする。建物と人間の移動軌跡はそれぞれ、判定図(右下図)に示す(a),(b)のようになる。このとき(a)の終点のx座標と、(a)の始点と消失点を結ぶ直線の(a)の終点と同じy座標(y1)上でのx座標は一致し障害物に属さないと判定される。また、このとき(b)の終点のx座標と、(b)の始点と消失点を結ぶ直線の(b)の終点と同じy座標(y1)上でのx座標は(c)となり、移動体の存在する方向に近い位置に存在し障害物に属すると判定される。   In the original image at time t = To (upper left figure), there is a building (not an obstacle) on the left side of the screen, and a human (obstacle) popping out is shown on the right side of the screen. From this situation, it is assumed that both the building and the human feature point have reached the end point position at time t = T1 (To <T1: lower left figure) and the movement trajectory is obtained. The movement trajectories of the building and the human are respectively as shown in (a) and (b) in the determination diagram (lower right diagram). At this time, the x-coordinate of the end point of (a) and the x-coordinate on the same y-coordinate (y1) as the end point of (a) of the straight line connecting the start point and the vanishing point of (a) match and do not belong to the obstacle. Determined. At this time, the x coordinate of the end point of (b) and the same y coordinate (y1) as the end point of (b) of the straight line connecting the start point and the vanishing point of (b) are (c) and moved. It is determined that the object is located near the body and belongs to the obstacle.

(5)障害物情報出力部50
障害物情報出力部50では、検出された障害物までの距離や、衝突までの時間等、障害物に関する情報を算出し、本装置が搭載されている車両の制御装置や車両の運転者に対して出力する。
(5) Obstacle information output unit 50
The obstacle information output unit 50 calculates information about the obstacle, such as the distance to the detected obstacle and the time until the collision, to the vehicle control device and the vehicle driver on which this device is mounted. Output.

障害物検出部40で検出された障害物のxy画像上での移動軌跡を用いると、自車両に対する障害物の実空間上での相対速度を求めることができる。   If the movement locus on the xy image of the obstacle detected by the obstacle detection unit 40 is used, the relative speed of the obstacle with respect to the host vehicle in the real space can be obtained.

画像上の位置(xo,yo)と実空間上のカメラを原点とした相対座標(Xo,Yo,Zo)の対応関係は、カメラと路面の既知の幾何的位置関係から容易に計算することができるが、X,Y,Zのどれか1つは仮定することになる。ここで、移動軌跡抽出部30によって抽出された移動軌跡は、画像上での障害物の接地位置の動きを示している。つまり、(Yo=0)と仮定できる。したがって、今仮定しているカメラ配置で、カメラが路面からhの高さにあるとすると、路面は画像平面に垂直な平面(y=−h)であるので、次式のようになる。   The correspondence between the position (xo, yo) on the image and the relative coordinates (Xo, Yo, Zo) with the camera in the real space as the origin can be easily calculated from the known geometric positional relationship between the camera and the road surface. Yes, but one of X, Y and Z will be assumed. Here, the movement trajectory extracted by the movement trajectory extraction unit 30 indicates the movement of the ground contact position of the obstacle on the image. That is, it can be assumed that (Yo = 0). Therefore, if the camera is assumed to be at a height h from the road surface in the assumed camera arrangement, the road surface is a plane (y = −h) perpendicular to the image plane, and therefore,


(Xo,Yo,Zo)=(−(xo・h)/yo,0,−f・h/yo)

この式を用いれば、xy画像上での障害物の接地位置の移動軌跡から、障害物の実空間上での自車両に対する相対的な動きを求めることができる。こうして得られた障害物の実空間上での自車両に対する相対的な動き情報から相対速度Vo=(Vox,0,Voz)を求める。相対速度Vo=(Vox,0,Voz)はさまざまな方法で算出できる。例えば以下のような方法がある
1.移動軌跡の始点と終点の時刻、相対座標を用いて求める。

(Xo, Yo, Zo) = (− (xo · h) / yo, 0, −f · h / yo)

Using this equation, the relative movement of the obstacle relative to the host vehicle in the real space can be obtained from the movement locus of the obstacle contact position on the xy image. The relative speed Vo = (Vox, 0, Voz) is obtained from the relative movement information of the obstacle with respect to the own vehicle in the real space. The relative velocity Vo = (Vox, 0, Voz) can be calculated by various methods. For example, there are the following methods: It is obtained using the time and relative coordinates of the start point and end point of the movement trajectory.

2.移動軌跡の任意の2時刻の相対座標を用いて求める。   2. It is obtained using the relative coordinates of any two times of the movement trajectory.

こうして求めた相対速度から、障害物の予測進路(Xc,Yc,Tc)を求めることができる。   The predicted course (Xc, Yc, Tc) of the obstacle can be obtained from the relative speed thus obtained.

予測進路は、障害物の等速運動、または等加速度運動を仮定して求める。この予測進路が、原点を通るとき障害物と自車両は衝突する。予測進路が座標値(0,0,Tc)満たすTcを求めることにより、時刻Tcで衝突するという結果を出力する。実際には、障害物の予測進路が原点を通ることはまれであるので、障害物の予測進路が原点の近傍を通るとき、時刻Tcで衝突するとする。   The predicted course is obtained by assuming a constant velocity motion or a constant acceleration motion of the obstacle. When this predicted path passes through the origin, the obstacle and the host vehicle collide. By obtaining Tc that the predicted course satisfies the coordinate value (0, 0, Tc), the result of collision at time Tc is output. Actually, since the predicted course of the obstacle rarely passes through the origin, it is assumed that a collision occurs at time Tc when the predicted course of the obstacle passes near the origin.

なお、本発明は上記実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.

本発明の一実施形態の画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 図1の移動軌跡抽出部の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the movement locus | trajectory extraction part of FIG. xy画像の座標系についての説明図である。It is explanatory drawing about the coordinate system of an xy image. 特徴点を抽出する方法についての説明図である。It is explanatory drawing about the method of extracting a feature point. 障害物に属する移動軌跡を判定する方法についての説明図である。It is explanatory drawing about the method of determining the movement locus | trajectory which belongs to an obstruction.

符号の説明Explanation of symbols

10 画像入力部
20 特徴点抽出部
30 移動軌跡抽出部
40 障害物検出部
50 障害物情報出力部
DESCRIPTION OF SYMBOLS 10 Image input part 20 Feature point extraction part 30 Movement locus extraction part 40 Obstacle detection part 50 Obstacle information output part

Claims (13)

移動体の進行方向の時系列画像を取得する撮像手段と、
前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記時系列画像の前記第1の時刻より後の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、
前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、
を具備する
ことを特徴とする画像処理装置。
Imaging means for acquiring a time-series image of the moving direction of the moving body;
Obstacle candidate extraction means for extracting an obstacle candidate and its estimated ground contact position from the image at the first time of the time series image;
Vanishing point estimating means for estimating vanishing points on the time-series image;
Tracking means for obtaining a destination position of the estimated ground contact position from an image at a second time after the first time of the time-series image;
When the destination position is in a region on the side where the moving object exists with a straight line connecting the vanishing point and the estimated ground contact position, the obstacle candidate having the estimated ground contact position is defined as an obstacle. Obstacle detection means to detect as,
An image processing apparatus comprising:
移動体の進行方向の時系列画像を取得する撮像手段と、
前記時系列画像の第1の時刻の画像から、障害物候補及びその推定接地位置を抽出する障害物候補抽出手段と、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記時系列画像の前記第1の時刻より前の第2の時刻の画像から、前記推定接地位置の移動先位置を求める追跡手段と、
前記移動先位置が、前記消失点と前記推定接地位置とを結んだ直線を境にして前記移動体が存在する側と反対側の領域にある場合に、当該推定接地位置を有する前記障害物候補を障害物として検出する障害物検出手段と、
を具備する
ことを特徴とする画像処理装置。
An imaging means for acquiring a time-series image of the moving direction of the moving body;
Obstacle candidate extraction means for extracting an obstacle candidate and its estimated ground contact position from the image at the first time of the time series image;
Vanishing point estimating means for estimating vanishing points on the time-series images;
Tracking means for obtaining a destination position of the estimated ground contact position from an image at a second time before the first time of the time-series image;
The obstacle candidate having the estimated ground contact position when the destination position is in a region on the opposite side to the side where the mobile object exists with a straight line connecting the vanishing point and the estimated ground contact position as a boundary. Obstacle detection means for detecting the obstacle as an obstacle,
An image processing apparatus comprising:
実空間内の平面上を移動する移動体に取り付けられて時系列画像を取得する画像入力手段と、
前記時系列画像の中のある時刻の画像である原画像の中から、前記平面上の接地位置に属している可能性のある点または領域を表す特徴点を接地特徴点として抽出する特徴点抽出手段と、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出する移動軌跡抽出手段と、
前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する障害物検出手段と、
を具備する
ことを特徴とする画像処理装置。
Image input means for acquiring a time-series image attached to a moving body that moves on a plane in real space;
Feature point extraction that extracts a feature point representing a point or region that may belong to the ground contact position on the plane from the original image that is an image at a certain time in the time series image as a ground feature point Means,
Vanishing point estimating means for estimating vanishing points on the time-series image;
Movement trajectory extracting means for extracting the movement trajectory of the ground feature point from each image of the time-series image;
When the end point of the movement trajectory is in a region where the moving object exists with a straight line connecting the vanishing point and the start point of the movement trajectory, the object including the ground feature point is determined to be an obstacle. Obstacle detection means to
An image processing apparatus comprising:
前記移動軌跡抽出手段は、
前記移動軌跡における前記原画像上の縦方向成分の終点位置を設定する縦方向終点設定手段と、
前記終点位置に到達するまでの前記接地特徴点の移動軌跡を算出する移動軌跡算出手段と、
を具備する
ことを特徴とする請求項3記載の画像処理装置。
The movement trajectory extraction means includes
Vertical end point setting means for setting an end point position of a vertical component on the original image in the movement locus;
A movement trajectory calculating means for calculating a movement trajectory of the grounding feature point until the end point position is reached;
The image processing apparatus according to claim 3, further comprising:
前記移動軌跡算出手段は、
前記原画像中の前記接地特徴点が、それ以降の時刻の画像中のどの位置にあるかを探索する存在位置探索手段と、
前記探索位置が前記終点位置に到達したか否かを判定する終点判定手段と、
を具備する
ことを特徴とする請求項4記載の画像処理装置。
The movement trajectory calculating means includes
Presence position search means for searching in which position in the image at a later time the ground feature point in the original image is located;
End point determination means for determining whether the search position has reached the end point position;
The image processing apparatus according to claim 4, further comprising:
前記移動体のピッチング運動による影響を補正するピッチング運動補正手段を具備する
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising a pitching motion correction unit that corrects an influence due to the pitching motion of the moving body.
前記移動体のヨーイング運動による影響を補正するヨーイング運動補正手段を具備する
ことを特徴とする請求項3記載の画像処理装置。
The image processing apparatus according to claim 3, further comprising a yawing motion correction unit that corrects an influence caused by a yawing motion of the moving body.
実空間内の平面上を移動する移動体に取り付けられた画像入力装置から取得した時系列画像の中のある時刻の画像である原画像の中から、前記平面上の接地位置に属している可能性のある点または領域を表す特徴点を接地特徴点として抽出し、
前記時系列画像上の消失点を推定する消失点推定手段と、
前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出し、
前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する
ことを特徴とする画像処理方法。
Possible to belong to the ground contact position on the plane from the original image that is the image at a certain time in the time series image acquired from the image input device attached to the moving body moving on the plane in the real space Extract feature points that represent characteristic points or areas as ground feature points,
Vanishing point estimating means for estimating vanishing points on the time-series image;
Extracting the movement trajectory of the ground feature point from each image of the time series image,
When the end point of the movement trajectory is in a region where the moving object exists with a straight line connecting the vanishing point and the start point of the movement trajectory, the object including the ground feature point is determined to be an obstacle. An image processing method characterized by:
前記移動軌跡を抽出するときに、
前記移動軌跡における前記原画像上の縦方向成分の終点位置を設定し、
前記終点位置に到達するまでの前記接地特徴点の移動軌跡を算出する
ことを特徴とする請求項8記載の画像処理方法。
When extracting the movement trajectory,
Set the end position of the vertical component on the original image in the movement trajectory,
The image processing method according to claim 8, further comprising: calculating a movement trajectory of the ground feature point until the end point position is reached.
前記移動軌跡を算出するときに、
前記原画像中の前記接地特徴点が、それ以降の時刻の画像中のどの位置にあるかを探索し、
前記探索位置が前記終点位置に到達したか否かを判定する
ことを特徴とする請求項9記載の画像処理方法。
When calculating the movement trajectory,
Searching in which position in the image at the subsequent time the ground feature point in the original image is located;
The image processing method according to claim 9, wherein it is determined whether or not the search position has reached the end point position.
実空間内の平面上を移動する移動体に取り付けられた画像入力装置から取得した時系列画像の中のある時刻の画像である原画像の中から、前記平面上の接地位置に属している可能性のある点または領域を表す特徴点を接地特徴点として抽出する特徴点抽出機能と、
前記時系列画像上の消失点を推定する消失点推定機能と、
前記接地特徴点の移動軌跡を前記時系列画像の各画像から抽出する移動軌跡抽出機能と、
前記移動軌跡の終点が、前記消失点と前記移動軌跡の始点を結んだ直線を境にして前記移動体が存在する領域にある場合に、前記接地特徴点を含む物体が障害物であると判定する障害物検出機能と、
をコンピュータによって実現する
ことを特徴とする画像処理プログラム。
Possible to belong to the ground contact position on the plane from the original image which is the image at a certain time in the time series image acquired from the image input device attached to the moving body moving on the plane in the real space A feature point extraction function that extracts a feature point representing a characteristic point or region as a ground feature point;
A vanishing point estimating function for estimating a vanishing point on the time-series image;
A movement trajectory extraction function for extracting the movement trajectory of the ground feature point from each image of the time-series image;
When the end point of the movement trajectory is in a region where the moving object exists with a straight line connecting the vanishing point and the start point of the movement trajectory, the object including the ground feature point is determined to be an obstacle. Obstacle detection function to
Is realized by a computer.
前記移動軌跡抽出機能は、
前記移動軌跡における前記原画像上の縦方向成分の終点位置を設定する縦方向終点設定機能と、
前記終点位置に到達するまでの前記接地特徴点の移動軌跡を算出する移動軌跡算出機能と、
を実現する
ことを特徴とする請求項11記載の画像処理プログラム。
The movement trajectory extraction function is:
A vertical direction end point setting function for setting an end point position of a vertical direction component on the original image in the movement locus;
A movement trajectory calculation function for calculating a movement trajectory of the grounding feature point until the end point position is reached;
The image processing program according to claim 11, wherein:
前記移動軌跡算出機能は、
前記原画像中の前記接地特徴点が、それ以降の時刻の画像中のどの位置にあるかを探索する存在位置探索機能と、
前記探索位置が前記終点位置に到達したか否かを判定する終点判定機能と、
を実現する
ことを特徴とする請求項12記載の画像処理プログラム。
The movement trajectory calculation function is:
An existing position search function for searching for a position in the image at a later time of the ground feature point in the original image;
An end point determination function for determining whether or not the search position has reached the end point position;
The image processing program according to claim 12, wherein the image processing program is realized.
JP2006016560A 2006-01-25 2006-01-25 Image processor and its method Abandoned JP2007199932A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006016560A JP2007199932A (en) 2006-01-25 2006-01-25 Image processor and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006016560A JP2007199932A (en) 2006-01-25 2006-01-25 Image processor and its method

Publications (1)

Publication Number Publication Date
JP2007199932A true JP2007199932A (en) 2007-08-09

Family

ID=38454506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006016560A Abandoned JP2007199932A (en) 2006-01-25 2006-01-25 Image processor and its method

Country Status (1)

Country Link
JP (1) JP2007199932A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012052884A (en) * 2010-08-31 2012-03-15 Honda Motor Co Ltd Range finder with the use of on-vehicle camera
US8760632B2 (en) 2009-11-09 2014-06-24 Toyota Jidosha Kabushiki Kaisha Distance measuring apparatus and distance measuring method
US9135709B2 (en) 2013-02-28 2015-09-15 Fujifilm Corporation Vehicle-to-vehicle distance calculation apparatus and method
KR101618501B1 (en) 2015-02-04 2016-05-09 한국기술교육대학교 산학협력단 Method for ego-motion estimation of vehicle
CN115497078A (en) * 2022-11-15 2022-12-20 广汽埃安新能源汽车股份有限公司 Lane line generation method, apparatus, device, and computer-readable medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760632B2 (en) 2009-11-09 2014-06-24 Toyota Jidosha Kabushiki Kaisha Distance measuring apparatus and distance measuring method
JP2012052884A (en) * 2010-08-31 2012-03-15 Honda Motor Co Ltd Range finder with the use of on-vehicle camera
US9135709B2 (en) 2013-02-28 2015-09-15 Fujifilm Corporation Vehicle-to-vehicle distance calculation apparatus and method
KR101618501B1 (en) 2015-02-04 2016-05-09 한국기술교육대학교 산학협력단 Method for ego-motion estimation of vehicle
CN115497078A (en) * 2022-11-15 2022-12-20 广汽埃安新能源汽车股份有限公司 Lane line generation method, apparatus, device, and computer-readable medium
CN115497078B (en) * 2022-11-15 2023-03-10 广汽埃安新能源汽车股份有限公司 Lane line generation method, apparatus, device, and computer-readable medium

Similar Documents

Publication Publication Date Title
US9230165B2 (en) Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP3904988B2 (en) Image processing apparatus and method
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP5561064B2 (en) Vehicle object recognition device
EP2422320A1 (en) Object detection device
JP4985306B2 (en) Obstacle determination device and method, and vehicle equipped with an obstacle determination device
JP2002352225A (en) Obstacle detector and its method
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
KR101180621B1 (en) Apparatus and method for detecting a vehicle
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP2007199932A (en) Image processor and its method
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
JP3868915B2 (en) Forward monitoring apparatus and method
US20190139177A1 (en) Device for detecting road surface state
JP2006047091A (en) Moving object detector
JP5950193B2 (en) Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program
EP3373199A2 (en) Object detector, object detection method, carrier means, and equipment control system
US7899212B2 (en) Image processing apparatus and image processing method
CN112513573B (en) Stereo camera device
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program
JP4015036B2 (en) Obstacle detection device and obstacle detection method
JP4397164B2 (en) Obstacle detection device and obstacle detection method
JPH1114376A (en) Vehicular traveling road detecting device

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090330