JP5652239B2 - Motion estimation apparatus and program - Google Patents
Motion estimation apparatus and program Download PDFInfo
- Publication number
- JP5652239B2 JP5652239B2 JP2011029820A JP2011029820A JP5652239B2 JP 5652239 B2 JP5652239 B2 JP 5652239B2 JP 2011029820 A JP2011029820 A JP 2011029820A JP 2011029820 A JP2011029820 A JP 2011029820A JP 5652239 B2 JP5652239 B2 JP 5652239B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- feature points
- moving body
- motion estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、運動推定装置及びプログラムに係り、特に、移動体の運動を推定する運動推定装置及びプログラムに関する。 The present invention relates to a motion estimation device and program, and more particularly, to a motion estimation device and program for estimating motion of a moving object.
従来より、屋外に存在する物体の三次元形状を精度良く特定する画像処理装置が知られている(特許文献1)。この画像処理装置では、複数の地点で撮影された画像間で同一部分の点を特定する。正しく同一部分の点を検出するために、センシング手段により画像間の位置・姿勢情報を取得し、得られた位置・姿勢情報に基づいたエピポーラ拘束条件を利用している。つまり、得られた位置・姿勢情報により決定するエピポーラ線上で同一点の探索を行っている。 2. Description of the Related Art Conventionally, an image processing apparatus that accurately identifies a three-dimensional shape of an object existing outdoors is known (Patent Document 1). In this image processing apparatus, a point of the same part is specified between images taken at a plurality of points. In order to correctly detect the same point, position / posture information between images is acquired by the sensing means, and epipolar constraint conditions based on the obtained position / posture information are used. That is, the same point is searched for on the epipolar line determined by the obtained position / posture information.
また、画像間での特徴点の誤対応を抑制し、自車運動および3次元構造を算出する車両用画像処理装置が知られている(特許文献2)。この車両用画像処理装置では、画像間での特徴点の誤対応を抑えるため、センサ情報から運動を推定し、推定した運動に基づいて1枚目の画像で検出した各特徴点に対して2枚目の画像での位置を予測し、その位置を中心とした領域に探索領域を限定して、特徴点に対応する2枚目の画像での位置を検出している。 There is also known a vehicle image processing apparatus that suppresses miscorrespondence between feature points between images and calculates the own vehicle motion and the three-dimensional structure (Patent Document 2). In this vehicular image processing apparatus, in order to suppress erroneous correspondence of feature points between images, motion is estimated from sensor information, and 2 for each feature point detected in the first image based on the estimated motion. The position in the second image is predicted, the search area is limited to the area centered on the position, and the position in the second image corresponding to the feature point is detected.
上記の特許文献1に記載の技術では、画像を用いずに画像間の位置・姿勢情報を検出可能なセンサを利用し、検出される位置・姿勢情報から決定されるエピポーラ拘束条件を満たす対応点のみを探索することで、点の誤対応を防いでいる。しかし、これを実現するためには、回転と平行移動の6自由度の成分をすべて精度良く計測できるセンサが必要であり、このようなセンサは一般的な車両では通常搭載されていない、という問題がある。
In the technique described in the above-mentioned
また、上記の特許文献2に記載の技術では、センサ情報または過去の自車運動情報から得られる運動情報に基づいて特徴点の探索領域を限定することで、点の誤対応を抑制している。車両速度、加速度、及び回転角などの車両運動を計測するセンサが必要となるが、一般的にはすべての運動成分を計測できるセンサは搭載されていない。そのようなセンサがない場合には、一般的な車載センサでの計測が困難であって、かつ、過去の自車運動情報からも推定できない、急激なピッチ変動のような運動が発生すると、正しく探索領域を設定することができず、正しい特徴点の対応を求めることができない、という問題がある。また、そのような急激なピッチ変動に対応するために探索領域を広く設定した場合には、誤対応の抑制効果が低下してしまう。 In addition, in the technique described in Patent Document 2 described above, miscorresponding to points is suppressed by limiting the search area for feature points based on motion information obtained from sensor information or past own vehicle motion information. . Sensors that measure vehicle motion such as vehicle speed, acceleration, and rotation angle are required, but generally no sensor that can measure all motion components is installed. Without such a sensor, if a movement such as a sudden pitch change that cannot be estimated from past vehicle movement information that is difficult to measure with a general vehicle-mounted sensor occurs correctly, There is a problem that a search area cannot be set and correct feature point correspondence cannot be obtained. In addition, when a wide search area is set in order to cope with such a rapid pitch fluctuation, the effect of suppressing a false response is reduced.
本発明は、上記の問題点を解決するためになされたもので、全ての運動成分を計測するセンサを用いずに、移動体の運動を精度よく推定することができる運動推定装置及びプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides a motion estimation apparatus and program capable of accurately estimating the motion of a moving body without using a sensor that measures all motion components. The purpose is to do.
上記の目的を達成するために本発明に係る運動推定装置は、移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段と、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段と、前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段と、前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段と、前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段とを含んで構成されている。 In order to achieve the above object, the motion estimation apparatus according to the present invention supports a correspondence between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body. Search means for searching for the feature point, motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured, and the first 3D position acquisition means for acquiring 3D positions of a plurality of feature points on one image, and 3D position acquisition means based on the movement of the moving body acquired by the movement acquisition means. Position prediction means for predicting the position on the second image of the plurality of feature points obtained from the second image on the second image in the plurality of sets of the corresponding feature points searched by the search means Multiple feature point locations The moving body when each of the first image and the second image is captured based on the difference from the positions of the plurality of feature points on the second image predicted by the position predicting means. Vertical rotation motion estimation means for estimating the vertical rotation motion representing the vertical change of the posture of the user, the plurality of corresponding feature points searched by the search means, and the first predicted by the position prediction means Each of the first image and the second image is captured based on the positions of a plurality of feature points on the second image and the vertical rotational motion of the movable body estimated by the vertical rotational motion estimation means. Motion estimation means for estimating the motion of the moving body at the time.
本発明に係るプログラムは、コンピュータを、移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段、前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段、前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段、及び前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段として機能させるためのプログラムである。 The program according to the present invention allows a computer to search for a feature point corresponding to the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body. Means, motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured, and a plurality of feature points on the first image The three-dimensional position acquisition means for acquiring the three-dimensional position, and the plurality of feature points from which the three-dimensional position is acquired by the three-dimensional position acquisition means based on the motion of the moving body acquired by the motion acquisition means Position prediction means for predicting a position on the second image, positions of a plurality of feature points on the second image in a plurality of sets of the corresponding feature points searched by the search means, Position predictor The vertical direction of the posture of the moving body when each of the first image and the second image is captured based on the difference from the positions of the plurality of feature points on the second image predicted by Vertical rotation motion estimation means for estimating the vertical rotation motion representing the change of the above, a plurality of sets of the corresponding feature points searched by the search means, and on the second image predicted by the position prediction means The movement when each of the first image and the second image is captured based on the positions of a plurality of feature points and the vertical rotational motion of the movable body estimated by the vertical rotational motion estimation means. This is a program for functioning as motion estimation means for estimating body motion.
本発明によれば、検索手段によって、移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する。運動取得手段によって、第1の画像及び第2の画像の各々を撮像したときの移動体の位置及び姿勢の変化を表わす運動を取得する。 According to the present invention, the search unit searches the corresponding feature points between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body. The motion acquisition means acquires a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured.
そして、3次元位置取得手段によって、第1の画像上における複数の特徴点の3次元位置を取得する。位置予測手段によって、運動取得手段によって取得された移動体の運動に基づいて、3次元位置取得手段によって3次元位置が取得された複数の特徴点の、第2の画像上の位置を予測する。 Then, the three-dimensional position acquisition unit acquires the three-dimensional positions of the plurality of feature points on the first image. The position predicting unit predicts the positions on the second image of the plurality of feature points whose three-dimensional positions are acquired by the three-dimensional position acquiring unit based on the movement of the moving body acquired by the movement acquiring unit.
そして、上下回転運動推定手段によって、検索手段によって検索された対応した特徴点の複数の組における第2の画像上の複数の特徴点の位置と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置との差分に基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する。運動推定手段によって、検索手段によって検索された対応した特徴点の複数の組と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置と、上下回転運動推定手段によって推定された移動体の上下回転運動とに基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の運動を推定する。 Then, the position of the plurality of feature points on the second image in the plurality of sets of corresponding feature points searched by the search means by the vertical rotation motion estimation means, and the second image predicted by the position prediction means Based on the difference from the positions of the plurality of feature points, a vertical rotation motion representing a vertical change in the posture of the moving body when each of the first image and the second image is captured is estimated. The motion estimation unit estimates the plurality of pairs of corresponding feature points searched by the search unit, the positions of the plurality of feature points on the second image predicted by the position prediction unit, and the vertical rotation motion estimation unit. Based on the vertical rotation motion of the moving body, the motion of the moving body when each of the first image and the second image is captured is estimated.
このように、取得された移動体の運動と特徴点の3次元位置とに基づいて予測された第2の画像上の特徴点の位置との差分に基づいて、移動体の上下回転運動を推定して、移動体の運動を推定することにより、全ての運動成分を計測するセンサを用いずに、移動体の運動を精度よく推定することができる。 As described above, the vertical rotational motion of the mobile object is estimated based on the difference between the acquired motion of the mobile object and the position of the feature point on the second image predicted based on the three-dimensional position of the feature point. Then, by estimating the motion of the moving body, it is possible to accurately estimate the motion of the moving body without using a sensor that measures all motion components.
本発明に係る運動推定装置は、検索手段によって検索された対応した特徴点の複数の組と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置と、上下回転運動推定手段によって推定された移動体の上下回転運動とに基づいて、検索手段によって検索された対応した特徴点の複数の組の各々について、静止物を表わす領域上の特徴点の対応であって、かつ、特徴点の対応の正しさを示す信頼度を算出する信頼度算出手段を更に含み、運動推定手段は、検索手段によって検索された対応した特徴点の複数の組と、対応した特徴点の複数の組について算出された信頼度とに基づいて、移動体の運動を推定するようにすることができる。 The motion estimation apparatus according to the present invention includes a plurality of sets of corresponding feature points searched by the search unit, a position of the plurality of feature points on the second image predicted by the position prediction unit, and a vertical rotation motion estimation. A plurality of sets of corresponding feature points searched by the search means based on the vertical rotational movement of the moving body estimated by the means, corresponding to the feature points on the area representing the stationary object, and And a reliability calculation means for calculating the reliability indicating the correctness of the correspondence between the feature points, wherein the motion estimation means includes a plurality of sets of corresponding feature points searched by the search means and a plurality of corresponding feature points. The motion of the moving body can be estimated on the basis of the reliability calculated for the set of the above.
本発明に係る運動推定装置は、検索手段によって検索された対応した特徴点の複数の組における第2の画像上の複数の特徴点の位置と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置を、上下回転運動推定手段によって推定された移動体の上下回転運動の分だけ変更した位置とに基づいて、検索手段によって検索された対応した特徴点の全ての組のうち、対応した特徴点の複数の組を選択する選択手段を更に含み、運動推定手段は、選択手段によって選択された対応した特徴点の複数の組に基づいて、移動体の運動を推定するようにすることができる。 The motion estimation apparatus according to the present invention includes the positions of a plurality of feature points on the second image in the plurality of sets of corresponding feature points searched by the search means, and the second image predicted by the position prediction means. The positions of the plurality of feature points are changed according to the vertical rotational motion of the moving body estimated by the vertical rotational motion estimation means, and all the pairs of corresponding feature points searched by the search means Among them, a selection unit that selects a plurality of sets of corresponding feature points is further included, and the motion estimation unit estimates the motion of the moving body based on the plurality of sets of corresponding feature points selected by the selection unit. Can be.
上記の運動推定装置は、移動体の運動を計測する運動計測手段を更に含み、運動取得手段は、運動計測手段によって計測された移動体の運動に基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の運動を取得するようにすることができる。 The motion estimation device further includes motion measurement means for measuring the motion of the moving body, and the motion acquisition means is configured to perform the first image and the second image based on the motion of the mobile body measured by the motion measurement means. It is possible to acquire the motion of the moving body when each of these is imaged.
上記の運動取得手段は、運動推定手段によって過去に推定された移動体の運動に基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の運動を推定するようにすることができる。 The motion acquisition means estimates the motion of the mobile body when each of the first image and the second image is captured based on the motion of the mobile body estimated in the past by the motion estimation means. be able to.
また、上記の3次元位置取得手段は、運動推定手段によって推定された、第1の画像より前に撮像された前画像及び第1の画像の各々を撮像したときの移動体の運動と、検索手段によって検索された前画像及び第1の画像で対応した特徴点の各組とに基づいて、第1の画像上における各特徴点の3次元位置を算出するようにすることができる。 In addition, the three-dimensional position acquisition unit is configured to search for the motion of the moving object when the previous image and the first image captured before the first image, which are estimated by the motion estimation unit, are captured. The three-dimensional position of each feature point on the first image can be calculated based on the previous image retrieved by the means and each set of feature points corresponding to the first image.
上記の運動推定装置は、第1の画像上における移動体が走行する道路領域を特定する道路領域特定手段を更に含み、3次元位置取得手段は、予め求められた道路と移動体の外部を撮像する撮像手段との位置関係に基づいて、道路領域特定手段によって特定された第1の画像上における道路領域内の各特徴点の3次元位置を算出するようにすることができる。 The motion estimation device further includes road area specifying means for specifying a road area on which the moving body travels on the first image, and the three-dimensional position acquisition means images the road and the outside of the moving body that are obtained in advance. The three-dimensional position of each feature point in the road area on the first image specified by the road area specifying means can be calculated based on the positional relationship with the imaging means.
以上説明したように、本発明の運動推定装置及びプログラムによれば、取得された移動体の運動と特徴点の3次元位置とに基づいて予測された第2の画像上の特徴点の位置との差分に基づいて、移動体の上下回転運動を推定して、移動体の運動を推定することにより、全ての運動成分を計測するセンサを用いずに、移動体の運動を精度よく推定することができる、という効果が得られる。 As described above, according to the motion estimation apparatus and program of the present invention, the position of the feature point on the second image predicted based on the acquired motion of the moving object and the three-dimensional position of the feature point Based on the difference between the two, the movement of the moving body is estimated accurately by estimating the vertical rotational movement of the moving body and estimating the movement of the moving body, without using a sensor that measures all movement components. The effect of being able to be obtained.
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、車両に搭載された運動推定装置に本発明を適用した場合を例に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The case where the present invention is applied to a motion estimation device mounted on a vehicle will be described as an example.
図1に示すように、第1の実施の形態に係る運動推定装置10は、自車両の前方の画像を撮像する単眼のカメラで構成される撮像装置12と、自車両の運動として、車速を計測する車速センサ14と、自車両の運動として、ヨー角速度を計測するヨー角速度センサ16と、撮像装置12によって撮像された画像、車速センサ14によって計測された車速、及びヨー角速度センサ16によって計測されたヨー角速度に基づいて、自車両の運動を推定して外部装置(図示省略)に出力するコンピュータ18とを備えている。なお、車速センサ14及びヨー角速度センサ16が、運動計測手段の一例である。
As shown in FIG. 1, the
本実施の形態では、撮像装置12の単眼のカメラを自車両の前方に設置して、自車両の前方の画像を取得する場合を例に説明するが、自車両の外部の画像を撮像すればよく、例えば、単眼のカメラを自車両の後方に設置し、自車両の後方を撮像してもよい。また、単眼のカメラは、通常の画角40度程度のカメラでもよいし、広角のカメラでもよいし、全方位カメラでもよい。また、撮像する画像の波長について、種類は問わない。運動量を適切に推定できる場所であれば、設置場所、画角、波長、及び設置個数について問わない。
In the present embodiment, a case where a monocular camera of the
ヨー角速度センサ16は、例えば、ジャイロセンサを用いて構成されている。
The yaw
コンピュータ18では、自車両の運動として、自車両の3軸角速度と並進方向を示す成分とを推定する。コンピュータ18は、CPUと、RAMと、後述する運動推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ18は、撮像装置12によって撮像された複数の画像を取得する画像取得部20と、画像取得部20により取得した複数の画像から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部22と、特徴点抽出部22により得られた2つの画像の各々における特徴点から、当該2つの画像間で対応する特徴点(以下、対応点とも称する)を検索する対応点検索部24と、を備えている。
The
特徴点抽出部22は、撮像装置12から得られる異なる時刻に撮像した2枚の画像から、それぞれ特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばTomasi−Kanadeの方法や、Harrisオペレータなど)を用いて、自動的に抽出される。特徴点の数としては、全画像に対して30〜500点程度を想定すると良いが、状況に応じて、固定であってもよいし、可変であってもよい。適切な抽出方法であればその手法は上記の限りではない。
The feature
Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。 In the method using the Harris operator, feature points are extracted as described below. First, the matrix M is calculated by the following equation (1), where the luminance of the point (u, v) of the image is I (u, v).
ただし、Iu,Ivはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.
そして、上記(1)式で計算された行列Mの固有値λ1、λ2を用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).
ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。 However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. In the method using the Harris operator, a point at which the corner intensity is equal to or greater than a threshold value is selected, and the selected point is extracted as a feature point.
対応点検索部24は、特徴点抽出部22において2つの画像の各々から抽出された特徴点について、2つの画像間での対応付けを行って、2つの画像間の対応点を検索する。画像間での特徴点の対応付けは、特徴点周辺の画像パターンの相関値が最大となり、かつ相関値がしきい値以上となるペアを求めることにより行われる。例えばSSD(Sum of squared differences)による相関を用いる場合、第1の画像の特徴点fと第2の画像の特徴点gの相関値は以下の(3)式により計算される値が小さいほど大きな値となるように設定される。
The corresponding
ただし、特徴点の画像座標はf=(fx,fy),g=(gx,gy)であり、I(x,y),J(x,y)はそれぞれ第1の画像、第2の画像の座標(x,y)における輝度を表す。また、wは相関を計算する周辺領域の大きさを決定する変数である。相関値の計算では、輝度でなく輝度勾配を用いる方法や、勾配方向のヒストグラムなどの特微量による相関を用いてもよい。 However, the image coordinates of the feature points are f = (f x , f y ), g = (g x , g y ), and I (x, y) and J (x, y) are the first image, It represents the luminance at the coordinates (x, y) of the second image. Further, w is a variable that determines the size of the peripheral region for calculating the correlation. In the calculation of the correlation value, a method using a luminance gradient instead of luminance, or a correlation based on a characteristic amount such as a histogram in the gradient direction may be used.
また、コンピュータ18は、車速センサ14及びヨー角速度センサ16の各々からの出力に基づいて、自車両の運動を取得する運動情報取得部26と、後述する運動推定部36による前回の推定値に基づいて、1つの画像上の特徴点の3次元位置を算出する3次元位置算出部28と、特徴点抽出部22によって抽出された特徴点、運動情報取得部26によって算出された自車両の運動、及び3次元位置算出部28によって算出された特徴点の3次元位置に基づいて、1つの画像の特徴点に対応する他の画像における特徴点の位置を予測する対応点予測部30とを更に備えている。なお、3次元位置算出部28が、3次元位置取得手段の一例であり、対応点予測部30が、位置予測手段の一例である。
Further, the
運動情報取得部26は、車速センサ14及びヨー角速度センサ16の各々からの出力に基づいて、第1の画像及び第2の画像を撮像した間における、3次元空間での3自由度の回転成分(ピッチ角、ヨー角、ロール角)と3自由度の平行移動成分(左右方向、上下方向、前後方向)を表わす自車両の運動を算出する。なお、自車両の運動の各成分は、第1の画像を撮影したときのカメラのカメラ座標系で表されるものとする。また、搭載されているセンサで計測できない成分は0とする。本実施の形態では、車速センサ14及びヨー角速度センサ16を搭載しているため、ピッチ角とロール角の回転成分、上下方向の平行移動は計測されず、それらの運動成分は0として運動情報が出力される。
The motion
3次元位置算出部28は、後述する運動推定部36によって前の時刻に推定された自車両の運動(現時点の第1の画像とその1つ前に撮像された画像(前の時刻における第1の画像と第2の画像)との間の運動)と、対応点検索部24によって前の時刻に検索された特徴点の対応(現時点の第1の画像とその1つ前に撮像された画像との間における特徴点の対応)とに基づいて、三角測量の原理に従って、第1の画像上での特徴点の3次元位置を算出する。
The three-dimensional
対応点予測部30は、運動情報取得部26から出力される第1の画像及び第2の画像間の自車両の運動と、3次元位置算出部28から出力される第1の画像上の特徴点の3次元位置とを用いて、特徴点抽出部22によって抽出された第1の画像の各特徴点が、第2の画像上のどの位置に現れるかを予測する。第1の画像を基準としたときの第2の画像における相対的な位置・姿勢が回転行列Rと平行移動ベクトルtで表され、第1の画像の特徴点fの3次元位置が(X,Y,Z)である場合、第2の画像で対応する点の座標(^x’,^y’)は、以下の(4)式に従って算出される。
The corresponding
なお、Kは撮像装置のキャリブレーション行列であり、以下の式で表される。 K is a calibration matrix of the imaging apparatus and is expressed by the following equation.
ただし、fx,fyは撮像装置のx方向、y方向の焦点距離、(cx,cy)は撮像装置の画像中心の画像座標を表す。 However, f x, f y represents the x-direction, the focal length of the y direction of the image pickup device, a (c x, c y) is the image coordinates of the image center of the image pickup device.
また、コンピュータ18は、対応点検索部24によって検索された対応点、及び対応点予測部30によって予測された第2の画像上の特徴点の位置に基づいて、第1の画像と第2の画像の間で発生したピッチ角変動量を推定するピッチ角変動推定部32と、対応点検索部24によって検索された対応点、ピッチ角変動推定部32によって推定されたピッチ角変動量、及び対応点予測部30によって予測された第2の画像上の特徴点の位置に基づいて、各対応点について信頼度を算出する信頼度算出部34と、対応点検索部24によって検索された各対応点、及び信頼度算出部34によって算出された各対応点の信頼度に基づいて、自車両の運動を推定する運動推定部36とを更に備えている。なお、ピッチ角変動推定部32が、上下回転運動推定手段の一例であり、ピッチ角変動量が、上下回転運動の一例である。
Further, the
ピッチ角変動推定部32は、以下に説明するように、ピッチ角変動量を推定する。
The pitch angle
まず、対応点検索部24から出力される各対応点の第1の画像での画像座標と第2の画像での画像座標、および対応点予測部30から出力される各特徴点の第2の画像での予測画像座標を入力として、各特徴点に対して差分フローdiを計算する。図2(A)、(B)に示すように、i番目の対応点の第1の画像での画像座標が(xi,yi)、i番目の対応点の第2の画像での画像座標が(x’i,y’i)、対応点予測部30から得られた第2の画像での予測画像座標が(^x’i,^y’i)であるとき、差分フローdi=(dix,diy)は、以下の(5)式に従って計算される。
First, the image coordinates in the first image and the second image of each corresponding point output from the corresponding
図3で示す実線のベクトルが差分フローdi=(dix,diy)であり、破線で示す2つのベクトルが、検索された対応点に基づくフローを示すベクトル(x'i−xi,y'i−yi)と、予測された特徴点に基づくフローを示すベクトル(^x'i−xi,^y'i−yi)である。このように、差分フローは、検索された対応点に基づくフローと、予測された特徴点に基づくフローとの差分の動きベクトルを示している。 The solid line vector shown in FIG. 3 is the difference flow d i = (d ix , d iy ), and the two vectors shown by broken lines are the vectors (x ′ i −x i , y ′ i −y i ) and a vector (^ x ′ i −x i , ^ y ′ i −y i ) indicating a flow based on the predicted feature points. As described above, the difference flow indicates a motion vector of a difference between the flow based on the searched corresponding point and the flow based on the predicted feature point.
差分フローdiは、上記図3に示すように、対応点検索部24で検出された対応点から得られるオプティカルフローと、対応点予測部30で予測された第2の画像上の特徴点の位置から得られるオプティカルフローとの差分を表しており、運動情報取得部26から出力された運動情報と実際の運動のずれを表している。画像間で大きなピッチ角変動があり、それが運動情報取得部26からの運動情報に含まれない場合には、この差分フローは主にピッチ角変動により発生したフローと考えることができる。
As shown in FIG. 3, the difference flow d i includes the optical flow obtained from the corresponding points detected by the corresponding
そこで、本実施の形態では、ピッチ角変動推定部32によって、各特徴点の差分フローに基づいて、運動情報取得部26からの運動情報に含まれていないピッチ角変動成分を推定する。
Therefore, in the present embodiment, the pitch angle
信頼度算出部34は、対応点検索部24から出力されるi番目の対応点(i=1,・・・,n)について、以下の(6)式に従って、静止物を表わす領域上の特徴点の対応であって、かつ、特徴点の対応の正しさを示す信頼度ciを算出する。
The
ただし、i番目の対応点の第1の画像での画像座標が(xi,yi)、i番目の対応点の第2の画像での画像座標が(xi’,yi’)、対応点予測部30から得られたi番目の特徴点の第2の画像での画像座標が(^xi’,^yi’)である。また、wは、ピッチ角変動推定部32で推定されたピッチ角変動量であり、kは予め設定される定数である。
However, the image coordinates in the first image of the i-th corresponding point are (x i , y i ), the image coordinates in the second image of the i-th corresponding point are (x i ′, y i ′), The image coordinates of the i-th feature point obtained from the corresponding
運動推定部36は、信頼度算出部34によって算出された各対応点の信頼度を用いて、第1の画像と第2の画像の間の位置及び姿勢の変化を、第1の画像と第2の画像を撮像したときの自車両の運動として推定する。
The
2枚の画像で対応する特徴点の座標から、2つの画像が撮像されたときの位置及び姿勢の変化を計算するとき、計算する位置及び姿勢の変化は、図4に示すような第1の画像から第2の画像への回転行列Rと並進ベクトルtから構成される6自由度の運動である。 When calculating the change in position and orientation when two images are captured from the coordinates of the corresponding feature points in the two images, the change in the position and orientation to be calculated is the first as shown in FIG. This is a six-degree-of-freedom motion composed of a rotation matrix R and a translation vector t from an image to a second image.
ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標Iiと第2の画像におけるn点の対応点の画像座標Ii’とについて(n≧8)、対応点の対応関係が正しくて誤差がなければ、位置及び姿勢の変化を示す行列として、以下の(7)式を満たす3×3行列Fが存在する。 Here, a calculation method of the rotation matrix R and the translation vector t from the first image to the second image will be described. For the first image coordinates of the corresponding point of the n points in the image I i and image coordinates I i of the corresponding point of n points in the second image '(n ≧ 8), correspondence is correct errors of corresponding points Otherwise, there is a 3 × 3 matrix F that satisfies the following expression (7) as a matrix indicating the change in position and orientation.
ただし、Ii=(ui,vi,1)T、Ii’=(ui’,vi’,1)Tであり、第1の画像での画像座標(ui,vi)の点に対応する第2の画像での点の画像座標が(ui’,vi’)である。 However, I i = (u i , v i , 1) T , I i ′ = (u i ′, v i ′, 1) T , and the image coordinates (u i , v i ) in the first image The image coordinates of the point in the second image corresponding to the point are (u i ′, v i ′).
ここで、上記(7)式を満たす行列Fは、定数倍の不定性を持っている。すなわち、Fsが上記(7)式を満たす場合には、αFsも上記(7)式を満たす(ただし、αは実数)。よって、行列Fを以下の(8)式のように表すことができる。 Here, the matrix F satisfying the equation (7) has a constant multiple indefiniteness. That is, when F s satisfies the above expression (7), αF s also satisfies the above expression (7) (where α is a real number). Therefore, the matrix F can be expressed as the following equation (8).
また、上記(7)式、(8)式より、以下の(9)式が得られる。 Further, the following expression (9) is obtained from the above expressions (7) and (8).
ここで、8組以上の対応点Ii、Ii’があれば、上記(9)式が少なくとも8つ得られるため、8つの変数f11〜f32を求めることができる。 Here, if there are eight or more pairs of corresponding points I i and I i ′, at least eight of the above formula (9) can be obtained, so that eight variables f 11 to f 32 can be obtained.
また、実画像で特徴点の対応を求めた場合には、対応する画像座標には誤差が含まれ、特徴点の中には誤った対応関係を持つ点も存在することがあるため、以下の(10)式で計算される評価値Zrが最大となるような行列Fを求める。 In addition, when the correspondence of the feature points is obtained in the real image, the corresponding image coordinates include an error, and some of the feature points may have an erroneous correspondence. (10) evaluation value Z r which is calculated by the formula seeks matrix F such that maximum.
ただし、Iiは、i番目の対応点の第1の画像での画像座標を表わす同次座標ベクトルであり、Ii’は、i番目の対応点の第2の画像での画像座標を表わす同次座標ベクトルである。また、ciはi番目の対応点の信頼度、δ(x)はxが真なら1、そうでないなら0をとる関数、d(a、b)はaとbとの距離を表し、θはあらかじめ設定するしきい値である。nは、対応点検索部24で検索された対応点の数である。
Where I i is a homogeneous coordinate vector representing the image coordinates of the i-th corresponding point in the first image, and I i ′ represents the image coordinates of the i-th corresponding point in the second image. It is a homogeneous coordinate vector. Also, c i is the reliability of the i-th corresponding point, δ (x) is a function that takes 1 if x is true, and 0 otherwise, d (a, b) represents the distance between a and b, θ Is a preset threshold value. n is the number of corresponding points searched by the corresponding
また、撮像装置12のキャリブレーション行列Kが既知である場合には、上述したように特定された行列Fに基づいて、以下の(11)式、(12)式に従って、回転行列Rと並進ベクトルtとを計算し、第1の画像及び第2の画像の各々が撮像されたときの撮像装置12の運動(位置及び姿勢の変化)として出力する。
Further, when the calibration matrix K of the
上記の方法により、運動推定部36は、第1の画像及び第2の画像における複数組の対応する特徴点の画像座標と、各対応点の信頼度とに基づいて、第1の画像及び第2の画像の間における自車両の運動を計算する。
By the above method, the
次に、第1の実施の形態に係る運動推定装置10の作用について説明する。なお、運動推定装置10を搭載した自車両が走行しているときに、自車両の運動を推定する場合を例に説明する。
Next, the operation of the
撮像装置12によって所定時間間隔で自車両前方を撮像し、撮像装置12によって撮像される度に、運動推定装置10において、図5に示す運動推定処理ルーチンが繰り返し実行される。ステップ100において、異なるタイミングで撮像装置12によって自車両前方を撮像した第1の画像(例えば最新の画像より1つ前に撮像された画像)及び第2の画像(例えば最新の画像)を取得すると共に、ステップ102において、第1の画像及び第2の画像を撮像する間に車速センサ14によって計測された車速及びヨー角速度センサ16によって計測されたヨー角速度を取得し、第1の画像及び第2の画像を撮像する間の自車両の運動を算出する。
The motion estimation processing routine shown in FIG. 5 is repeatedly executed in the
そして、ステップ104において、第1の画像及び第2の画像から、それぞれ所定の数だけ特徴点を抽出する。そして、ステップ106において、上記ステップ104で抽出された第1の画像における特徴点の各々を、第2の画像において追跡し、第2の画像から、対応する各特徴点をそれぞれ検索する。
In
次のステップ108では、前回実行された運動推定処理ルーチンにおいて推定された自車両の運動と、検索された2つの画像(今回の第1の画像とその1つ前に撮像された画像)で対応する特徴点とを取得する。そして、ステップ110において、上記ステップ108で取得した自車両の運動と特徴点の対応とに基づいて、第1の画像における各特徴点の3次元位置を算出する。
In the
ステップ112では、上記ステップ102で算出された自車両の運動と、上記ステップ110で算出された第1の画像における各特徴点の3次元位置とに基づいて、当該第1の画像の各特徴点に対応する第2の画像上の特徴点の位置を予測する。
In step 112, each feature point of the first image is calculated based on the motion of the host vehicle calculated in
そして、ステップ114において、上記ステップ106で検索された各対応点と、上記ステップ112で予測された第2の画像上の各特徴点の位置とに基づいて、第1の画像及び第2の画像を撮像する間の自車両のピッチ角変動量を推定する。
In
次のステップ116では、上記ステップ106で検索された各対応点と、上記ステップ112で予測された第2の画像上の各特徴点の位置と、上記ステップ114で推定された自車両のピッチ角変動量とに基づいて、各対応点の信頼度を算出する。
In the
そして、ステップ118において、上記ステップ106で検索された各対応点と、上記ステップ116で算出された各対応点の信頼度とに基づいて、2つの撮像時刻間における撮像装置12の位置姿勢の変化、即ち、撮像装置12を搭載した自車両のその2時刻間における運動(XYZ軸方向の移動量及びXYZ軸を基準とする回転量)を推定し、外部装置に出力して、運動推定処理ルーチンを終了する。
In
上記の運動推定処理ルーチンが繰り返し実行され、撮像装置12によって繰り返し撮像された画像間の各々の自車両の運動が推定される。
The above motion estimation processing routine is repeatedly executed, and the motion of each host vehicle between images repeatedly captured by the
上記ステップ114は、図6に示すピッチ角変動推定処理ルーチンによって実現される。
The
まず、ステップ120において、各対応点の差分フローdiとして、上記ステップ106で検索された対応点の第2の画像上の特徴点の位置と、上記ステップ112で予測された、第2の画像上の対応する特徴点の位置との差分を算出する。
First, in
そして、ステップ122において、推定ピッチ角変動pに初期値0を設定すると共に、最小ずれ量eminに初期値∞を設定する。ステップ124では、繰り返し回数を示す変数rに初期値1を設定し、ステップ126では、選択回数を示す変数sに初期値1を設定する。
In
そして、ステップ128において、上記ステップ106で検索された各対応点から、ランダムに1つの対応点を選択する。ステップ130では、選択した対応点について上記ステップ120で算出した差分フローdiに基づいて、ピッチ角変動量を算出する。ここでは、差分フローdiのx軸成分dixとy軸成分diyから、それぞれピッチ角変動量wx,wyを、以下の(13)式を解くことにより求める。
In
ただし、(xi,yi)は選択された対応点の第1の画像での画像座標、fx,fyはx方向、y方向の焦点距離を表す。 However, represents a (x i, y i) is the image coordinates of the first image of the selected corresponding points, f x, f y are the x direction, the focal length in the y-direction.
そして、ステップ132において、上記ステップ130で算出したwx、wyに基づくwx/wyが、許容範囲内かどうか判定する。なお、許容範囲は、1を中心とする、例えば0.9〜1.1などのあらかじめ設定された範囲である。差分フローがピッチ角変動によるフローであれば、計算されたwx,wyは同じになることから、wx/wyが、許容範囲内であれば、ステップ138へ進む。
Then, in
一方、wx/wyが許容範囲外であれば、対応点の選択をやり直すために、ステプ134へ移行し、選択回数sを1増やす。ステップ136では、選択回数sが最大選択回数S以下であるか否かを判定する。選択回数sがS以下であれば、上記ステップ128へ戻る。一方、選択回数sがSより大きければ、大きなピッチ角変動が起こっておらず、差分フローは、ピッチ角の変動の影響が小さいと判断し、ステップ154へ移行する。
On the other hand, if w x / w y is out of the allowable range, the process proceeds to step 134 in order to redo the selection of the corresponding point, and the selection count s is incremented by one. In
ステップ138では、ピッチ角変動量wをwx,wyの平均に設定し、ステップ140において、全対応点に対して、ピッチ角変動量から計算されるフローを算出する。ここでは、ピッチ角がwであるとき、第1の画像での画像座標が(xi,yi)のi番目の対応点のピッチ角の変動から計算されるフローVi=(vix,viy)は、以下の(14)式により算出される。
In
そして、ステップ142において、各対応点について、上記ステップ140で算出したフローと、上記ステップ120で算出した差分フローとのずれを以下の(15)式に従って算出する。
In
次のステップ144では、上記ステップ142で算出された各対応点に対するずれの降順又は昇順に、対応点を並べて、ちょうど真ん中に並べられた対応点のずれを、ずれの中央値eとして求める。そして、ステップ146において、ずれの中央値eが、最小ずれ量eminより小さいか否かを判定する。ずれの中央値eが、最小ずれ量emin以上であれば、ステップ150へ移行する。一方、ずれの中央値eが、最小ずれ量emin未満であれば、ステップ148において、推定ピッチ角変動pをwに更新すると共に、最小ずれ量eminをeに更新する。
In the
ステップ150では、繰り返し回数rを1増やして、ステップ152において、繰り返し回数rが、最大繰り返し数R以下であるか否かを判定する。繰り返し回数rがR以下であれば、上記ステップ126へ戻るが、繰り返し回数rがRより大きければ、ステップ154において、推定ピッチ角変動pを、ピッチ角変動量の推定値として出力する。
In
また、上記ステップ118は、図7に示す推定処理ルーチンによって実現される。
The
まず、ステップ160において、繰り返し回数を示す変数rを初期値1に設定し、ステップ162で、上記ステップ106で検索された各対応点から、ランダムに8点の対応点を選択する。
First, in
そして、ステップ164において、上記ステップ162で選択された8つの対応点の組み合わせに基づいて、行列Fの要素f11〜f32を算出して、行列Frを生成する。次のステップ166では、上記ステップ106で検索された各対応点と、上記ステップ164で生成された行列Frとに基づいて、上記(10)式に従って評価値Zrを算出する。ステップ168では、繰り返し回数rを1増やし、ステップ170において、繰り返し回数rが、最大繰り返し回数T以下であるか否かを判定する。繰り返し回数rがT以下である場合には、上記ステップ162へ戻るが、一方、繰り返し回数rがTより大きい場合には、ステップ172へ進む。
In
ステップ172では、上記ステップ166で算出された評価値Zrが最大となる行列Frを特定する。そして、ステップ174において、上記ステップ172で特定された行列Frに基づいて、上記(11)式及び(12)式に従って、第1の画像及び第2の画像を撮像した時刻間における自車両の運動の推定値を算出して、推定処理ルーチンを終了する。
In
以上説明したように、第1の実施の形態に係る運動推定装置によれば、カルマンフィルタを用いて推定された自車両の運動と特徴点の3次元位置とに基づいて予測された第2の画像上の特徴点の位置と、検索された対応点の第2画像上の位置との差分に基づいて、自車両のピッチ角変動を推定して、対応点の信頼度を算出し、対応点の信頼度を用いて自車両の運動を推定することにより、全ての運動成分を計測するセンサを用いずに、自車両の運動を精度よく推定することができる。 As described above, according to the motion estimation apparatus according to the first embodiment, the second image predicted based on the motion of the host vehicle estimated using the Kalman filter and the three-dimensional position of the feature point. Based on the difference between the position of the upper feature point and the position of the searched corresponding point on the second image, the pitch angle fluctuation of the host vehicle is estimated, the reliability of the corresponding point is calculated, By estimating the motion of the host vehicle using the reliability, the motion of the host vehicle can be accurately estimated without using a sensor that measures all motion components.
また、走行中に急激なピッチ変動が発生した場合においても、他の車両など周囲の移動物体の影響を受けずに、正しい静止物上の特徴点の対応に基づいて、高精度に自車両の運動を推定することができる。 In addition, even when sudden pitch fluctuations occur during traveling, the vehicle's own vehicle is accurately detected based on the correspondence of the feature points on the stationary object without being affected by other moving objects such as other vehicles. Motion can be estimated.
複数枚の画像を用いて画像の撮影時刻間に発生した運動を推定するとき、画像からコーナーなどの特徴的な点を抽出し、それらの点を画像間で対応付け、その点の対応関係から画像間の位置及び姿勢の変化を求める。このとき、実画像で対応点を検索する場合には誤対応した対応点が含まれていることが避けられない上、他の車両などの移動物体上の対応点も存在するため、それらの誤対応した対応点や移動物体上の対応点を用いて運動(位置・姿勢の変化)を推定すると推定誤差が大きくなる可能性がある。 When using multiple images to estimate the motion that occurred between image capture times, extract characteristic points such as corners from the images, associate those points between images, and use the correspondence between the points Find changes in position and orientation between images. In this case, when searching for corresponding points in a real image, it is inevitable that erroneously corresponding points are included, and there are also corresponding points on moving objects such as other vehicles. If motion (position / posture change) is estimated using corresponding corresponding points or corresponding points on a moving object, an estimation error may increase.
車載したカメラにより異なる時刻に撮影した画像間に発生する画像上の各点の動きは、各点の3次元位置および車両の運動により決定されるため、各点のおおよその3次元位置およびおおよその車両運動が既知であれば、画像間で対応する点の位置を予測することができる。各点の3次元位置、つまり周囲の環境の3次元構造情報については、前の時刻の自車両の運動と特徴点の対応とから算出可能である。また、自車両の運動情報は、車速センサやヨー角速度センサなどの車載センサから取得できる。従って、これらの情報が得られると、静止物体に関して画像間で発生する点の動きを予測できるため、その予測した動きと異なる動きを示す対応点は、誤対応または移動物体上の対応点である可能性が高いと判定することが可能であり、運動推定の精度劣化を防ぐことができる。 Since the movement of each point on the image that occurs between images taken at different times by the on-board camera is determined by the three-dimensional position of each point and the movement of the vehicle, the approximate three-dimensional position of each point and the approximate If the vehicle motion is known, the position of the corresponding point between images can be predicted. The three-dimensional position of each point, that is, the three-dimensional structure information of the surrounding environment, can be calculated from the movement of the host vehicle at the previous time and the correspondence between the feature points. In addition, the motion information of the host vehicle can be acquired from an in-vehicle sensor such as a vehicle speed sensor or a yaw angular velocity sensor. Therefore, when these pieces of information are obtained, it is possible to predict the movement of a point that occurs between images with respect to a stationary object. Therefore, a corresponding point that shows a movement different from the predicted movement is a corresponding point on a moving object or a corresponding point. It is possible to determine that the possibility is high, and it is possible to prevent deterioration in accuracy of motion estimation.
しかし、車両の走行中には、道路上の微小な凹凸などにより急激な上下方向の回転運動、すなわち、ピッチ角変動が発生することがあり、このピッチ角変動は通常の車載センサで計測することができない。また、急激に発生する変動であるため、前の時刻までに推定した運動から推定することも困難である。このピッチ角変動は画像上の点の動きに与える影響が大きいため、ピッチ角変動の回転成分が得られていない運動情報から画像間での点の動きを予測すると、実際の点の動きとは大きく異なる。従って、対応点の誤対応や移動物体上の対応点を正しく判定することができない。 However, when the vehicle is running, there may be a sudden up / down rotational movement, that is, pitch angle fluctuations due to minute irregularities on the road, etc., and this pitch angle fluctuation should be measured with a normal on-board sensor. I can't. Moreover, since it is a fluctuation | variation which generate | occur | produces rapidly, it is difficult to estimate from the motion estimated by the previous time. Because this pitch angle variation has a large effect on the movement of points on the image, if you predict the movement of points between images from the motion information for which the rotation component of the pitch angle variation is not obtained, what is the actual movement of the points? to differ greatly. Therefore, it is impossible to correctly determine the corresponding point on the moving point or the corresponding point on the moving object.
そこで、本実施の形態では、ピッチ角変動なしで予測した点の動きと、検索された対応点の動きとの差分から、ピッチ角変動の回転成分のみを推定した上で、対応点の信頼度を算出する。これにより、急激なピッチ変動が発生した場合においても、誤対応した対応点であるか、及び移動物体上の対応点であるかを正しく判定して、自車両の運動を高精度に推定することができる。 Therefore, in the present embodiment, the reliability of the corresponding point is estimated after estimating only the rotation component of the pitch angle variation from the difference between the predicted point motion without the pitch angle variation and the corresponding corresponding point motion. Is calculated. As a result, even when sudden pitch fluctuations occur, it is possible to correctly determine whether the corresponding point is a miscorresponding point or a corresponding point on a moving object, and estimate the motion of the host vehicle with high accuracy. Can do.
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。 Next, a second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第2の実施の形態では、前の時刻までに推定された車両運動に基づいて、現時点の運動情報を取得している点と、撮像装置と道路との位置関係に基づいて、特徴点の3次元位置を算出している点とが、第1の実施の形態と異なっている。 In the second embodiment, based on the vehicle motion estimated up to the previous time, the current motion information is acquired, and the feature point 3 is based on the positional relationship between the imaging device and the road. The difference from the first embodiment is that the dimension position is calculated.
図8に示すように、第2の実施の形態に係る運動推定装置210は、撮像装置12と、自車両の位置を計測するGPSセンサ214と、撮像装置12によって撮像された画像、及びGPSセンサ214によって計測された自車両の位置に基づいて、自車両の運動を推定して外部装置(図示省略)に出力するコンピュータ218とを備えている。
As shown in FIG. 8, the
コンピュータ218は、画像取得部20と、特徴点抽出部22と、対応点検索部24と、地図情報記憶部222と、道路領域特定部224と、運動情報取得部226と、3次元位置算出部228と、対応点予測部30と、ピッチ角変動推定部32と、信頼度算出部34と、運動推定部36とを備えている。
The
地図情報記憶部222は、道路の各地点における車線数や道路幅などの道路情報が格納された地図情報を記憶している。道路領域特定部224は、GPSセンサ214によって計測された自車両の位置に応じて、自車両の現在地点における道路情報を取得し、取得した道路情報に基づいて、撮像装置12によって撮像された画像上の道路領域を特定する。
The map
3次元位置算出部228は、予め求められた撮像装置12と自車両が走行する道路との3次元の位置関係に基づいて、道路領域特定部224によって特定された道路領域内の各特徴点の3次元位置を算出する。
The three-dimensional
運動情報取得部226は、運動推定部36によって前の時刻までに推定された自車両の運動を取得し、例えばカルマンフィルタを用いて、現時点における自車両の運動(第1の画像及び第2の画像間の自車両の運動)を推定する。
The motion
対応点予測部30は、特徴点抽出部22によって抽出された特徴点、運動情報取得部226によって算出された自車両の運動、及び3次元位置算出部228によって算出された道路領域内の特徴点の3次元位置に基づいて、3次元位置が算出された第1の画像の特徴点に対応する、第2の画像における特徴点の位置を予測する。
The corresponding
第2の実施の形態に係る運動推定処理ルーチンについて、図9を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。 A motion estimation processing routine according to the second embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
まず、ステップ100において、撮像装置12によって撮像された第1の画像及び第2の画像を取得すると共に、ステップ250において、前回までの運動推定処理ルーチンによって推定された自車両の運動を取得し、第1の画像及び第2の画像を撮像する間の自車両の運動を推定する。
First, in
そして、ステップ104において、第1の画像及び第2の画像から、それぞれ所定の数だけ特徴点を抽出し、ステップ106において、第1の画像における特徴点の各々について、第2の画像から、対応する各特徴点をそれぞれ検索する。
In
次のステップ252では、GPSセンサ214によって計測された自車両の位置を取得し、自車両の位置における道路情報を取得する。そして、ステップ254では、上記ステップ252で取得した道路情報に基づいて、第1の画像上の道路領域を特定する。ステップ256では、予め求められた撮像装置12と道路との位置関係に基づいて、上記ステップ254で特定された道路領域内の特徴点の3次元位置を算出する。
In the
ステップ112では、上記ステップ250で推定された自車両の運動と、上記ステップ256で算出された第1の画像における各特徴点の3次元位置とに基づいて、当該第1の画像の各特徴点に対応する第2の画像上の特徴点の位置を予測する。
In step 112, each feature point of the first image is based on the motion of the host vehicle estimated in
そして、ステップ114において、第1の画像及び第2の画像を撮像する間の自車両のピッチ角変動量を推定し、次のステップ116では、各対応点の信頼度を算出する。そして、ステップ118において、自車両の運動を推定し、外部装置に出力して、運動推定処理ルーチンを終了する。
In
このように、各点の3次元位置、つまり周囲の環境の3次元構造情報については、車載したカメラに対する道路面の位置など、おおよその構造を予測可能である。また、自車両の運動情報は、前の時刻までの自車両の運動から推定することができる。 As described above, with regard to the three-dimensional position of each point, that is, the three-dimensional structure information of the surrounding environment, an approximate structure such as the position of the road surface with respect to the camera mounted on the vehicle can be predicted. Also, the motion information of the host vehicle can be estimated from the motion of the host vehicle up to the previous time.
次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。 Next, a third embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第3の実施の形態では、各対応点に対する信頼度を算出せずに、車両運動を推定している点が、第1の実施の形態と主に異なっている。 The third embodiment is mainly different from the first embodiment in that the vehicle motion is estimated without calculating the reliability for each corresponding point.
図10に示すように、第3の実施の形態に係る運動推定装置310のコンピュータ318は、画像取得部20と、特徴点抽出部22と、対応点検索部24と、運動情報取得部26と、3次元位置算出部28と、対応点予測部30と、ピッチ角変動推定部32と、運動推定部336とを備えている。なお、運動推定部336が、選択手段及び運動推定手段の一例である。
As illustrated in FIG. 10, the
運動推定部336は、対応点検索部24によって検索された対応点、ピッチ角変動推定部32によって推定されたピッチ角変動量、及び対応点予測部30によって予測された第2の画像上の特徴点の位置に基づいて、以下に説明するように、自車両の運動を推定する。
The
まず、対応点検索部24によって検索された対応点のうち、検索された対応点の第2の画像上での画像座標と、対応点予測部30から得られた第2の画像上での予測画像座標にピッチ角変動推定部32で得られたピッチ角変動分を加えた画像座標と、の距離がしきい値以下である対応点を選択する。
First, among the corresponding points searched by the corresponding
ここで、検索された対応点の第2の画像上での画像座標と、予測画像座標にピッチ変動分を加えた画像座標との距離は、以下の(16)式で計算される。 Here, the distance between the image coordinates of the retrieved corresponding point on the second image and the image coordinates obtained by adding the pitch variation to the predicted image coordinates is calculated by the following equation (16).
そして、選択された対応点を用いて、第1の画像と第2の画像を撮像したときの自車両の運動を推定する。 And the motion of the own vehicle when the 1st image and the 2nd image are imaged is estimated using the selected corresponding point.
このとき、評価値を最大にする行列Frの特定に、対応点の信頼度は用いず、以下の(17)式で計算される評価値Zrを用いる。 At this time, in order to specify the matrix F r that maximizes the evaluation value, the reliability of the corresponding point is not used, but the evaluation value Z r calculated by the following equation (17) is used.
ただし、nは、選択された対応点の数である。 Where n is the number of selected corresponding points.
なお、第3の実施の形態に係る運動推定装置の他の構成及び処理については、第1の実施の形態と同様であるため、説明を省略する。 In addition, about the other structure and process of the motion estimation apparatus which concern on 3rd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.
このように、推定されたピッチ角変動を用いて、正しい静止物上の対応点を選択することにより、走行中に急激なピッチ変動が発生した場合においても、他の車両など周囲の移動物体の影響を受けずに、高精度に自車両の運動を推定することができる。 In this way, by selecting the corresponding point on the correct stationary object using the estimated pitch angle variation, even if a sudden pitch variation occurs during traveling, other moving objects such as other vehicles The motion of the host vehicle can be estimated with high accuracy without being affected.
なお、上記の第1の実施の形態〜第2の実施の形態では、上記(6)式に従って、対応点に対する信頼度を算出する場合を例に説明したが、これに限定されるものではなく、上記(16)式で算出される距離が大きいほど信頼度が低くなるような他の関数を用いて、対応点に対する信頼度を算出するようにしてもよい。 In the first to second embodiments, the case where the reliability for the corresponding point is calculated according to the above equation (6) has been described as an example. However, the present invention is not limited to this. The reliability for the corresponding points may be calculated using another function in which the reliability decreases as the distance calculated by the equation (16) increases.
また、上記の第1の実施の形態及び第3の実施の形態では、車速センサ及びヨー角速度センサを用いた場合を例に説明したが、これに限定されるものではなく、他のセンサを用いて、ピッチ角成分以外の運動情報を計測するようにしてもよい。 In the first embodiment and the third embodiment, the case where the vehicle speed sensor and the yaw angular velocity sensor are used has been described as an example. However, the present invention is not limited to this, and other sensors are used. Thus, motion information other than the pitch angle component may be measured.
本発明のプログラムは、記憶媒体に格納して提供するようにしてもよい。 The program of the present invention may be provided by being stored in a storage medium.
10、210、310 運動推定装置
12 撮像装置
14 車速センサ
16 ヨー角速度センサ
18、218、318 コンピュータ
22 特徴点抽出部
24 対応点検索部
26、226 運動情報取得部
28、228 3次元位置算出部
30 対応点予測部
32 ピッチ角変動推定部
34 信頼度算出部
36、336 運動推定部
214 GPSセンサ
222 地図情報記憶部
224 道路領域特定部
10, 210, 310
Claims (8)
前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段と、
前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、
前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段と、
前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段と、
前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段と、
を含む運動推定装置。 Search means for searching corresponding feature points between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body;
Motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured;
Three-dimensional position acquisition means for acquiring three-dimensional positions of a plurality of feature points on the first image;
A position for predicting the position on the second image of the plurality of feature points from which the three-dimensional position is acquired by the three-dimensional position acquisition unit based on the movement of the moving body acquired by the movement acquisition unit Prediction means,
The positions of the plurality of feature points on the second image in the plurality of sets of the corresponding feature points searched by the search means, and the plurality of features on the second image predicted by the position prediction means. Based on the difference from the position of the point, the vertical rotational motion estimation that estimates the vertical rotational motion representing the vertical change in the posture of the moving body when each of the first image and the second image is captured. Means,
The plurality of sets of corresponding feature points searched by the search means, the positions of the plurality of feature points on the second image predicted by the position prediction means, and estimated by the vertical rotation motion estimation means. Motion estimation means for estimating the motion of the mobile body when each of the first image and the second image is captured based on the vertical rotational motion of the mobile body;
A motion estimation device including:
前記運動推定手段は、前記検索手段によって検索された前記対応した特徴点の複数の組と、前記対応した特徴点の複数の組について算出された前記信頼度とに基づいて、前記移動体の運動を推定する請求項1記載の運動推定装置。 The plurality of sets of corresponding feature points searched by the search means, the positions of the plurality of feature points on the second image predicted by the position prediction means, and estimated by the vertical rotation motion estimation means. Further, each of the plurality of sets of corresponding feature points searched by the search means based on the vertical rotational movement of the moving body is a correspondence of the feature points on the area representing the stationary object, and A reliability calculation means for calculating a reliability indicating the correctness of the correspondence of the feature points;
The motion estimation unit is configured to determine the motion of the moving object based on the plurality of sets of corresponding feature points searched by the search unit and the reliability calculated for the plurality of sets of corresponding feature points. The motion estimation apparatus according to claim 1, wherein
前記運動推定手段は、前記選択手段によって選択された前記対応した特徴点の複数の組に基づいて、前記移動体の運動を推定する請求項1記載の運動推定装置。 The positions of the plurality of feature points on the second image in the plurality of sets of the corresponding feature points searched by the search means, and the plurality of features on the second image predicted by the position prediction means. Based on the positions of the points changed by the amount of the vertical rotational motion of the movable body estimated by the vertical rotational motion estimation means, all the sets of the corresponding feature points searched by the search means A selection means for selecting a plurality of sets of the corresponding feature points,
The motion estimation device according to claim 1, wherein the motion estimation unit estimates the motion of the moving body based on the plurality of sets of the corresponding feature points selected by the selection unit.
前記運動取得手段は、前記運動計測手段によって計測された前記移動体の運動に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を取得する請求項1〜請求項3の何れか1項記載の運動推定装置。 It further includes a motion measuring means for measuring the motion of the moving body,
The motion acquisition unit acquires the motion of the moving body when each of the first image and the second image is captured based on the motion of the moving body measured by the motion measuring unit. The motion estimation apparatus according to any one of claims 1 to 3.
前記3次元位置取得手段は、予め求められた道路と前記移動体の外部を撮像する撮像手段との位置関係に基づいて、前記道路領域特定手段によって特定された前記第1の画像上における道路領域内の各特徴点の3次元位置を算出する請求項1〜請求項5の何れか1項記載の運動推定装置。 A road area specifying means for specifying a road area on which the moving body travels on the first image;
The three-dimensional position acquisition means is a road area on the first image specified by the road area specification means based on a positional relationship between a road determined in advance and an imaging means for imaging the outside of the moving body. The motion estimation apparatus according to claim 1, wherein a three-dimensional position of each feature point is calculated.
移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段、
前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段、
前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、
前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段、
前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段、及び
前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段
として機能させるためのプログラム。 Computer
Retrieval means for retrieving a corresponding feature point between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body;
Motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured;
Three-dimensional position acquisition means for acquiring three-dimensional positions of a plurality of feature points on the first image;
A position for predicting the position on the second image of the plurality of feature points from which the three-dimensional position is acquired by the three-dimensional position acquisition unit based on the movement of the moving body acquired by the movement acquisition unit Prediction means,
The positions of the plurality of feature points on the second image in the plurality of sets of the corresponding feature points searched by the search means, and the plurality of features on the second image predicted by the position prediction means. Based on the difference from the position of the point, the vertical rotational motion estimation that estimates the vertical rotational motion representing the vertical change in the posture of the moving body when each of the first image and the second image is captured. And a plurality of sets of the corresponding feature points searched by the search means, positions of the plurality of feature points on the second image predicted by the position prediction means, and the vertical rotation motion estimation means Based on the up-and-down rotational movement of the moving body estimated by the above, the functioning as a motion estimation means for estimating the movement of the moving body when each of the first image and the second image is captured is performed. Of the program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011029820A JP5652239B2 (en) | 2011-02-15 | 2011-02-15 | Motion estimation apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011029820A JP5652239B2 (en) | 2011-02-15 | 2011-02-15 | Motion estimation apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012168788A JP2012168788A (en) | 2012-09-06 |
JP5652239B2 true JP5652239B2 (en) | 2015-01-14 |
Family
ID=46972875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011029820A Expired - Fee Related JP5652239B2 (en) | 2011-02-15 | 2011-02-15 | Motion estimation apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5652239B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016020718A1 (en) * | 2014-08-07 | 2016-02-11 | Hitachi Automotive Systems, Ltd. | Method and apparatus for determining the dynamic state of a vehicle |
JP6525148B2 (en) * | 2015-06-09 | 2019-06-05 | 株式会社パスコ | Trajectory estimation method, trajectory estimation apparatus and trajectory estimation program |
JP6622664B2 (en) * | 2016-07-12 | 2019-12-18 | 株式会社Soken | Self-vehicle position specifying device and self-vehicle position specifying method |
JP6420404B1 (en) | 2017-04-26 | 2018-11-07 | ファナック株式会社 | Object recognition device |
JP6905390B2 (en) * | 2017-06-01 | 2021-07-21 | 株式会社豊田中央研究所 | Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program |
WO2022064641A1 (en) * | 2020-09-25 | 2022-03-31 | 日本電気株式会社 | Vehicle behavior estimation device, unsafe driving detection device, method, and computer-readable medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009074859A (en) * | 2007-09-19 | 2009-04-09 | Toyota Central R&D Labs Inc | Motion measuring device and position measuring device |
JP4935769B2 (en) * | 2008-06-25 | 2012-05-23 | 株式会社豊田中央研究所 | Plane region estimation apparatus and program |
JP4702569B2 (en) * | 2008-09-30 | 2011-06-15 | マツダ株式会社 | Image processing apparatus for vehicle |
JP5262705B2 (en) * | 2008-12-26 | 2013-08-14 | 株式会社豊田中央研究所 | Motion estimation apparatus and program |
-
2011
- 2011-02-15 JP JP2011029820A patent/JP5652239B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012168788A (en) | 2012-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762643B2 (en) | Method for evaluating image data of a vehicle camera | |
JP5652239B2 (en) | Motion estimation apparatus and program | |
JP6328327B2 (en) | Image processing apparatus and image processing method | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP4702569B2 (en) | Image processing apparatus for vehicle | |
JP4556798B2 (en) | Image processing device | |
JP6138861B2 (en) | Distance calculation device | |
JP2009008662A (en) | Object detection cooperatively using sensor and video triangulation | |
JP2013186042A (en) | Distance calculating device and distance calculating method | |
EP3155369B1 (en) | System and method for measuring a displacement of a mobile platform | |
JP2011134207A (en) | Drive recorder and map generation system | |
TW201433774A (en) | Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium | |
JP6263453B2 (en) | Momentum estimation device and program | |
JP6523196B2 (en) | Estimation apparatus, method and program | |
US20090226094A1 (en) | Image correcting device and method, and computer program | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
JP5267100B2 (en) | Motion estimation apparatus and program | |
JP5981284B2 (en) | Object detection device and object detection method | |
CN111989541B (en) | Stereo camera device | |
JP5656018B2 (en) | Sphere detection method | |
JP5425500B2 (en) | Calibration apparatus and calibration method | |
JP2017196948A (en) | Three-dimensional measurement device and three-dimensional measurement method for train facility | |
JP5032415B2 (en) | Motion estimation apparatus and program | |
JP4622889B2 (en) | Image processing apparatus and image processing method | |
JP4876676B2 (en) | POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141103 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5652239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |