JP5652239B2 - Motion estimation apparatus and program - Google Patents

Motion estimation apparatus and program Download PDF

Info

Publication number
JP5652239B2
JP5652239B2 JP2011029820A JP2011029820A JP5652239B2 JP 5652239 B2 JP5652239 B2 JP 5652239B2 JP 2011029820 A JP2011029820 A JP 2011029820A JP 2011029820 A JP2011029820 A JP 2011029820A JP 5652239 B2 JP5652239 B2 JP 5652239B2
Authority
JP
Japan
Prior art keywords
image
motion
feature points
moving body
motion estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011029820A
Other languages
Japanese (ja)
Other versions
JP2012168788A (en
Inventor
山口 晃一郎
晃一郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2011029820A priority Critical patent/JP5652239B2/en
Publication of JP2012168788A publication Critical patent/JP2012168788A/en
Application granted granted Critical
Publication of JP5652239B2 publication Critical patent/JP5652239B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、運動推定装置及びプログラムに係り、特に、移動体の運動を推定する運動推定装置及びプログラムに関する。   The present invention relates to a motion estimation device and program, and more particularly, to a motion estimation device and program for estimating motion of a moving object.

従来より、屋外に存在する物体の三次元形状を精度良く特定する画像処理装置が知られている(特許文献1)。この画像処理装置では、複数の地点で撮影された画像間で同一部分の点を特定する。正しく同一部分の点を検出するために、センシング手段により画像間の位置・姿勢情報を取得し、得られた位置・姿勢情報に基づいたエピポーラ拘束条件を利用している。つまり、得られた位置・姿勢情報により決定するエピポーラ線上で同一点の探索を行っている。   2. Description of the Related Art Conventionally, an image processing apparatus that accurately identifies a three-dimensional shape of an object existing outdoors is known (Patent Document 1). In this image processing apparatus, a point of the same part is specified between images taken at a plurality of points. In order to correctly detect the same point, position / posture information between images is acquired by the sensing means, and epipolar constraint conditions based on the obtained position / posture information are used. That is, the same point is searched for on the epipolar line determined by the obtained position / posture information.

また、画像間での特徴点の誤対応を抑制し、自車運動および3次元構造を算出する車両用画像処理装置が知られている(特許文献2)。この車両用画像処理装置では、画像間での特徴点の誤対応を抑えるため、センサ情報から運動を推定し、推定した運動に基づいて1枚目の画像で検出した各特徴点に対して2枚目の画像での位置を予測し、その位置を中心とした領域に探索領域を限定して、特徴点に対応する2枚目の画像での位置を検出している。   There is also known a vehicle image processing apparatus that suppresses miscorrespondence between feature points between images and calculates the own vehicle motion and the three-dimensional structure (Patent Document 2). In this vehicular image processing apparatus, in order to suppress erroneous correspondence of feature points between images, motion is estimated from sensor information, and 2 for each feature point detected in the first image based on the estimated motion. The position in the second image is predicted, the search area is limited to the area centered on the position, and the position in the second image corresponding to the feature point is detected.

特開2006−234703号公報JP 2006-234703 A 特開2010−85240号公報JP 2010-85240 A

上記の特許文献1に記載の技術では、画像を用いずに画像間の位置・姿勢情報を検出可能なセンサを利用し、検出される位置・姿勢情報から決定されるエピポーラ拘束条件を満たす対応点のみを探索することで、点の誤対応を防いでいる。しかし、これを実現するためには、回転と平行移動の6自由度の成分をすべて精度良く計測できるセンサが必要であり、このようなセンサは一般的な車両では通常搭載されていない、という問題がある。   In the technique described in the above-mentioned Patent Document 1, a sensor that can detect position / posture information between images without using an image and corresponding points satisfying epipolar constraint conditions determined from the detected position / posture information By searching for only, miscorrespondence of points is prevented. However, in order to realize this, there is a need for a sensor that can accurately measure all the components of six degrees of freedom of rotation and translation, and such a sensor is not usually mounted in a general vehicle. There is.

また、上記の特許文献2に記載の技術では、センサ情報または過去の自車運動情報から得られる運動情報に基づいて特徴点の探索領域を限定することで、点の誤対応を抑制している。車両速度、加速度、及び回転角などの車両運動を計測するセンサが必要となるが、一般的にはすべての運動成分を計測できるセンサは搭載されていない。そのようなセンサがない場合には、一般的な車載センサでの計測が困難であって、かつ、過去の自車運動情報からも推定できない、急激なピッチ変動のような運動が発生すると、正しく探索領域を設定することができず、正しい特徴点の対応を求めることができない、という問題がある。また、そのような急激なピッチ変動に対応するために探索領域を広く設定した場合には、誤対応の抑制効果が低下してしまう。   In addition, in the technique described in Patent Document 2 described above, miscorresponding to points is suppressed by limiting the search area for feature points based on motion information obtained from sensor information or past own vehicle motion information. . Sensors that measure vehicle motion such as vehicle speed, acceleration, and rotation angle are required, but generally no sensor that can measure all motion components is installed. Without such a sensor, if a movement such as a sudden pitch change that cannot be estimated from past vehicle movement information that is difficult to measure with a general vehicle-mounted sensor occurs correctly, There is a problem that a search area cannot be set and correct feature point correspondence cannot be obtained. In addition, when a wide search area is set in order to cope with such a rapid pitch fluctuation, the effect of suppressing a false response is reduced.

本発明は、上記の問題点を解決するためになされたもので、全ての運動成分を計測するセンサを用いずに、移動体の運動を精度よく推定することができる運動推定装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a motion estimation apparatus and program capable of accurately estimating the motion of a moving body without using a sensor that measures all motion components. The purpose is to do.

上記の目的を達成するために本発明に係る運動推定装置は、移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段と、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段と、前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段と、前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段と、前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段とを含んで構成されている。   In order to achieve the above object, the motion estimation apparatus according to the present invention supports a correspondence between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body. Search means for searching for the feature point, motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured, and the first 3D position acquisition means for acquiring 3D positions of a plurality of feature points on one image, and 3D position acquisition means based on the movement of the moving body acquired by the movement acquisition means. Position prediction means for predicting the position on the second image of the plurality of feature points obtained from the second image on the second image in the plurality of sets of the corresponding feature points searched by the search means Multiple feature point locations The moving body when each of the first image and the second image is captured based on the difference from the positions of the plurality of feature points on the second image predicted by the position predicting means. Vertical rotation motion estimation means for estimating the vertical rotation motion representing the vertical change of the posture of the user, the plurality of corresponding feature points searched by the search means, and the first predicted by the position prediction means Each of the first image and the second image is captured based on the positions of a plurality of feature points on the second image and the vertical rotational motion of the movable body estimated by the vertical rotational motion estimation means. Motion estimation means for estimating the motion of the moving body at the time.

本発明に係るプログラムは、コンピュータを、移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段、前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段、前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段、及び前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段として機能させるためのプログラムである。   The program according to the present invention allows a computer to search for a feature point corresponding to the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body. Means, motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured, and a plurality of feature points on the first image The three-dimensional position acquisition means for acquiring the three-dimensional position, and the plurality of feature points from which the three-dimensional position is acquired by the three-dimensional position acquisition means based on the motion of the moving body acquired by the motion acquisition means Position prediction means for predicting a position on the second image, positions of a plurality of feature points on the second image in a plurality of sets of the corresponding feature points searched by the search means, Position predictor The vertical direction of the posture of the moving body when each of the first image and the second image is captured based on the difference from the positions of the plurality of feature points on the second image predicted by Vertical rotation motion estimation means for estimating the vertical rotation motion representing the change of the above, a plurality of sets of the corresponding feature points searched by the search means, and on the second image predicted by the position prediction means The movement when each of the first image and the second image is captured based on the positions of a plurality of feature points and the vertical rotational motion of the movable body estimated by the vertical rotational motion estimation means. This is a program for functioning as motion estimation means for estimating body motion.

本発明によれば、検索手段によって、移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する。運動取得手段によって、第1の画像及び第2の画像の各々を撮像したときの移動体の位置及び姿勢の変化を表わす運動を取得する。   According to the present invention, the search unit searches the corresponding feature points between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body. The motion acquisition means acquires a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured.

そして、3次元位置取得手段によって、第1の画像上における複数の特徴点の3次元位置を取得する。位置予測手段によって、運動取得手段によって取得された移動体の運動に基づいて、3次元位置取得手段によって3次元位置が取得された複数の特徴点の、第2の画像上の位置を予測する。   Then, the three-dimensional position acquisition unit acquires the three-dimensional positions of the plurality of feature points on the first image. The position predicting unit predicts the positions on the second image of the plurality of feature points whose three-dimensional positions are acquired by the three-dimensional position acquiring unit based on the movement of the moving body acquired by the movement acquiring unit.

そして、上下回転運動推定手段によって、検索手段によって検索された対応した特徴点の複数の組における第2の画像上の複数の特徴点の位置と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置との差分に基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する。運動推定手段によって、検索手段によって検索された対応した特徴点の複数の組と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置と、上下回転運動推定手段によって推定された移動体の上下回転運動とに基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の運動を推定する。   Then, the position of the plurality of feature points on the second image in the plurality of sets of corresponding feature points searched by the search means by the vertical rotation motion estimation means, and the second image predicted by the position prediction means Based on the difference from the positions of the plurality of feature points, a vertical rotation motion representing a vertical change in the posture of the moving body when each of the first image and the second image is captured is estimated. The motion estimation unit estimates the plurality of pairs of corresponding feature points searched by the search unit, the positions of the plurality of feature points on the second image predicted by the position prediction unit, and the vertical rotation motion estimation unit. Based on the vertical rotation motion of the moving body, the motion of the moving body when each of the first image and the second image is captured is estimated.

このように、取得された移動体の運動と特徴点の3次元位置とに基づいて予測された第2の画像上の特徴点の位置との差分に基づいて、移動体の上下回転運動を推定して、移動体の運動を推定することにより、全ての運動成分を計測するセンサを用いずに、移動体の運動を精度よく推定することができる。   As described above, the vertical rotational motion of the mobile object is estimated based on the difference between the acquired motion of the mobile object and the position of the feature point on the second image predicted based on the three-dimensional position of the feature point. Then, by estimating the motion of the moving body, it is possible to accurately estimate the motion of the moving body without using a sensor that measures all motion components.

本発明に係る運動推定装置は、検索手段によって検索された対応した特徴点の複数の組と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置と、上下回転運動推定手段によって推定された移動体の上下回転運動とに基づいて、検索手段によって検索された対応した特徴点の複数の組の各々について、静止物を表わす領域上の特徴点の対応であって、かつ、特徴点の対応の正しさを示す信頼度を算出する信頼度算出手段を更に含み、運動推定手段は、検索手段によって検索された対応した特徴点の複数の組と、対応した特徴点の複数の組について算出された信頼度とに基づいて、移動体の運動を推定するようにすることができる。   The motion estimation apparatus according to the present invention includes a plurality of sets of corresponding feature points searched by the search unit, a position of the plurality of feature points on the second image predicted by the position prediction unit, and a vertical rotation motion estimation. A plurality of sets of corresponding feature points searched by the search means based on the vertical rotational movement of the moving body estimated by the means, corresponding to the feature points on the area representing the stationary object, and And a reliability calculation means for calculating the reliability indicating the correctness of the correspondence between the feature points, wherein the motion estimation means includes a plurality of sets of corresponding feature points searched by the search means and a plurality of corresponding feature points. The motion of the moving body can be estimated on the basis of the reliability calculated for the set of the above.

本発明に係る運動推定装置は、検索手段によって検索された対応した特徴点の複数の組における第2の画像上の複数の特徴点の位置と、位置予測手段によって予測された第2の画像上の複数の特徴点の位置を、上下回転運動推定手段によって推定された移動体の上下回転運動の分だけ変更した位置とに基づいて、検索手段によって検索された対応した特徴点の全ての組のうち、対応した特徴点の複数の組を選択する選択手段を更に含み、運動推定手段は、選択手段によって選択された対応した特徴点の複数の組に基づいて、移動体の運動を推定するようにすることができる。   The motion estimation apparatus according to the present invention includes the positions of a plurality of feature points on the second image in the plurality of sets of corresponding feature points searched by the search means, and the second image predicted by the position prediction means. The positions of the plurality of feature points are changed according to the vertical rotational motion of the moving body estimated by the vertical rotational motion estimation means, and all the pairs of corresponding feature points searched by the search means Among them, a selection unit that selects a plurality of sets of corresponding feature points is further included, and the motion estimation unit estimates the motion of the moving body based on the plurality of sets of corresponding feature points selected by the selection unit. Can be.

上記の運動推定装置は、移動体の運動を計測する運動計測手段を更に含み、運動取得手段は、運動計測手段によって計測された移動体の運動に基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の運動を取得するようにすることができる。   The motion estimation device further includes motion measurement means for measuring the motion of the moving body, and the motion acquisition means is configured to perform the first image and the second image based on the motion of the mobile body measured by the motion measurement means. It is possible to acquire the motion of the moving body when each of these is imaged.

上記の運動取得手段は、運動推定手段によって過去に推定された移動体の運動に基づいて、第1の画像及び第2の画像の各々を撮像したときの移動体の運動を推定するようにすることができる。   The motion acquisition means estimates the motion of the mobile body when each of the first image and the second image is captured based on the motion of the mobile body estimated in the past by the motion estimation means. be able to.

また、上記の3次元位置取得手段は、運動推定手段によって推定された、第1の画像より前に撮像された前画像及び第1の画像の各々を撮像したときの移動体の運動と、検索手段によって検索された前画像及び第1の画像で対応した特徴点の各組とに基づいて、第1の画像上における各特徴点の3次元位置を算出するようにすることができる。   In addition, the three-dimensional position acquisition unit is configured to search for the motion of the moving object when the previous image and the first image captured before the first image, which are estimated by the motion estimation unit, are captured. The three-dimensional position of each feature point on the first image can be calculated based on the previous image retrieved by the means and each set of feature points corresponding to the first image.

上記の運動推定装置は、第1の画像上における移動体が走行する道路領域を特定する道路領域特定手段を更に含み、3次元位置取得手段は、予め求められた道路と移動体の外部を撮像する撮像手段との位置関係に基づいて、道路領域特定手段によって特定された第1の画像上における道路領域内の各特徴点の3次元位置を算出するようにすることができる。   The motion estimation device further includes road area specifying means for specifying a road area on which the moving body travels on the first image, and the three-dimensional position acquisition means images the road and the outside of the moving body that are obtained in advance. The three-dimensional position of each feature point in the road area on the first image specified by the road area specifying means can be calculated based on the positional relationship with the imaging means.

以上説明したように、本発明の運動推定装置及びプログラムによれば、取得された移動体の運動と特徴点の3次元位置とに基づいて予測された第2の画像上の特徴点の位置との差分に基づいて、移動体の上下回転運動を推定して、移動体の運動を推定することにより、全ての運動成分を計測するセンサを用いずに、移動体の運動を精度よく推定することができる、という効果が得られる。   As described above, according to the motion estimation apparatus and program of the present invention, the position of the feature point on the second image predicted based on the acquired motion of the moving object and the three-dimensional position of the feature point Based on the difference between the two, the movement of the moving body is estimated accurately by estimating the vertical rotational movement of the moving body and estimating the movement of the moving body, without using a sensor that measures all movement components. The effect of being able to be obtained.

本発明の第1の実施の形態に係る運動推定装置を示すブロック図である。It is a block diagram which shows the motion estimation apparatus which concerns on the 1st Embodiment of this invention. (A)対応点の第1の画像上の位置を示す図、及び(B)対応点の第2の画像上の位置と予測された特徴点の位置とを示す図である。(A) The figure which shows the position on the 1st image of a corresponding point, (B) The figure which shows the position on the 2nd image of a corresponding point, and the position of the predicted feature point. 差分フローを説明するための図である。It is a figure for demonstrating a difference flow. 抽出された特徴点と移動体の運動との関係を説明するための図である。It is a figure for demonstrating the relationship between the extracted feature point and a motion of a moving body. 本発明の第1の実施の形態に係る運動推定装置における運動推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the motion estimation process routine in the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運動推定装置におけるピッチ角変動推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pitch angle fluctuation | variation estimation processing routine in the movement estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運動推定装置における推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the estimation process routine in the movement estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る運動推定装置を示すブロック図である。It is a block diagram which shows the motion estimation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る運動推定装置における運動推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the motion estimation process routine in the motion estimation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る運動推定装置を示すブロック図である。It is a block diagram which shows the motion estimation apparatus which concerns on the 3rd Embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、車両に搭載された運動推定装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The case where the present invention is applied to a motion estimation device mounted on a vehicle will be described as an example.

図1に示すように、第1の実施の形態に係る運動推定装置10は、自車両の前方の画像を撮像する単眼のカメラで構成される撮像装置12と、自車両の運動として、車速を計測する車速センサ14と、自車両の運動として、ヨー角速度を計測するヨー角速度センサ16と、撮像装置12によって撮像された画像、車速センサ14によって計測された車速、及びヨー角速度センサ16によって計測されたヨー角速度に基づいて、自車両の運動を推定して外部装置(図示省略)に出力するコンピュータ18とを備えている。なお、車速センサ14及びヨー角速度センサ16が、運動計測手段の一例である。   As shown in FIG. 1, the motion estimation device 10 according to the first embodiment includes an imaging device 12 including a monocular camera that captures an image ahead of the host vehicle, and the vehicle speed as the motion of the host vehicle. The vehicle speed sensor 14 to be measured, the yaw angular velocity sensor 16 to measure the yaw angular velocity, the image captured by the imaging device 12, the vehicle speed measured by the vehicle speed sensor 14, and the yaw angular velocity sensor 16 are measured as the movement of the host vehicle. And a computer 18 that estimates the motion of the host vehicle based on the yaw angular velocity and outputs it to an external device (not shown). The vehicle speed sensor 14 and the yaw angular velocity sensor 16 are examples of motion measuring means.

本実施の形態では、撮像装置12の単眼のカメラを自車両の前方に設置して、自車両の前方の画像を取得する場合を例に説明するが、自車両の外部の画像を撮像すればよく、例えば、単眼のカメラを自車両の後方に設置し、自車両の後方を撮像してもよい。また、単眼のカメラは、通常の画角40度程度のカメラでもよいし、広角のカメラでもよいし、全方位カメラでもよい。また、撮像する画像の波長について、種類は問わない。運動量を適切に推定できる場所であれば、設置場所、画角、波長、及び設置個数について問わない。   In the present embodiment, a case where a monocular camera of the imaging device 12 is installed in front of the host vehicle and an image in front of the host vehicle is acquired will be described as an example. However, if an image outside the host vehicle is captured. For example, a monocular camera may be installed behind the host vehicle, and the rear of the host vehicle may be imaged. The monocular camera may be a normal camera with a field angle of about 40 degrees, a wide-angle camera, or an omnidirectional camera. Further, the type of the wavelength of the image to be captured is not limited. There is no limitation on the installation location, the angle of view, the wavelength, and the number of installations as long as the momentum can be estimated appropriately.

ヨー角速度センサ16は、例えば、ジャイロセンサを用いて構成されている。   The yaw angular velocity sensor 16 is configured using, for example, a gyro sensor.

コンピュータ18では、自車両の運動として、自車両の3軸角速度と並進方向を示す成分とを推定する。コンピュータ18は、CPUと、RAMと、後述する運動推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ18は、撮像装置12によって撮像された複数の画像を取得する画像取得部20と、画像取得部20により取得した複数の画像から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部22と、特徴点抽出部22により得られた2つの画像の各々における特徴点から、当該2つの画像間で対応する特徴点(以下、対応点とも称する)を検索する対応点検索部24と、を備えている。   The computer 18 estimates the three-axis angular velocity and the component indicating the translation direction of the host vehicle as the motion of the host vehicle. The computer 18 includes a CPU, a RAM, and a ROM that stores a program for executing a later-described motion estimation processing routine, and is functionally configured as follows. The computer 18 acquires a plurality of images captured by the imaging device 12, and a feature point extraction that extracts a plurality of feature points that are easy to track on the image from the plurality of images acquired by the image acquisition unit 20. A corresponding point search unit 24 that searches for corresponding feature points (hereinafter also referred to as corresponding points) between the two images from the feature points in each of the two images obtained by the feature point extracting unit 22; It is equipped with.

特徴点抽出部22は、撮像装置12から得られる異なる時刻に撮像した2枚の画像から、それぞれ特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばTomasi−Kanadeの方法や、Harrisオペレータなど)を用いて、自動的に抽出される。特徴点の数としては、全画像に対して30〜500点程度を想定すると良いが、状況に応じて、固定であってもよいし、可変であってもよい。適切な抽出方法であればその手法は上記の限りではない。   The feature point extraction unit 22 extracts feature points from two images captured at different times obtained from the imaging device 12. A feature point refers to a point that can be distinguished from surrounding points and that makes it easy to obtain a correspondence between different images. The feature points are automatically extracted by using a method (for example, the Tomasi-Kanade method or the Harris operator) that detects pixels in which the gradient value of the change in shading increases two-dimensionally. The number of feature points may be approximately 30 to 500 points for all images, but may be fixed or variable depending on the situation. The method is not limited to the above as long as it is an appropriate extraction method.

Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。   In the method using the Harris operator, feature points are extracted as described below. First, the matrix M is calculated by the following equation (1), where the luminance of the point (u, v) of the image is I (u, v).

Figure 0005652239
Figure 0005652239

ただし、I,Iはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.

そして、上記(1)式で計算された行列Mの固有値λ、λを用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).

Figure 0005652239
Figure 0005652239

ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。   However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. In the method using the Harris operator, a point at which the corner intensity is equal to or greater than a threshold value is selected, and the selected point is extracted as a feature point.

対応点検索部24は、特徴点抽出部22において2つの画像の各々から抽出された特徴点について、2つの画像間での対応付けを行って、2つの画像間の対応点を検索する。画像間での特徴点の対応付けは、特徴点周辺の画像パターンの相関値が最大となり、かつ相関値がしきい値以上となるペアを求めることにより行われる。例えばSSD(Sum of squared differences)による相関を用いる場合、第1の画像の特徴点fと第2の画像の特徴点gの相関値は以下の(3)式により計算される値が小さいほど大きな値となるように設定される。   The corresponding point search unit 24 associates the two images with respect to the feature points extracted from each of the two images by the feature point extraction unit 22 and searches for the corresponding points between the two images. The association of the feature points between the images is performed by obtaining a pair in which the correlation value of the image pattern around the feature point is maximized and the correlation value is equal to or greater than a threshold value. For example, when using correlation by SSD (Sum of squared differentials), the correlation value between the feature point f of the first image and the feature point g of the second image is larger as the value calculated by the following equation (3) is smaller. Set to be a value.

Figure 0005652239
Figure 0005652239

ただし、特徴点の画像座標はf=(f,f),g=(g,g)であり、I(x,y),J(x,y)はそれぞれ第1の画像、第2の画像の座標(x,y)における輝度を表す。また、wは相関を計算する周辺領域の大きさを決定する変数である。相関値の計算では、輝度でなく輝度勾配を用いる方法や、勾配方向のヒストグラムなどの特微量による相関を用いてもよい。 However, the image coordinates of the feature points are f = (f x , f y ), g = (g x , g y ), and I (x, y) and J (x, y) are the first image, It represents the luminance at the coordinates (x, y) of the second image. Further, w is a variable that determines the size of the peripheral region for calculating the correlation. In the calculation of the correlation value, a method using a luminance gradient instead of luminance, or a correlation based on a characteristic amount such as a histogram in the gradient direction may be used.

また、コンピュータ18は、車速センサ14及びヨー角速度センサ16の各々からの出力に基づいて、自車両の運動を取得する運動情報取得部26と、後述する運動推定部36による前回の推定値に基づいて、1つの画像上の特徴点の3次元位置を算出する3次元位置算出部28と、特徴点抽出部22によって抽出された特徴点、運動情報取得部26によって算出された自車両の運動、及び3次元位置算出部28によって算出された特徴点の3次元位置に基づいて、1つの画像の特徴点に対応する他の画像における特徴点の位置を予測する対応点予測部30とを更に備えている。なお、3次元位置算出部28が、3次元位置取得手段の一例であり、対応点予測部30が、位置予測手段の一例である。   Further, the computer 18 is based on a previous estimation value by a motion information acquisition unit 26 that acquires the motion of the host vehicle and a motion estimation unit 36 described later, based on outputs from the vehicle speed sensor 14 and the yaw angular velocity sensor 16. A three-dimensional position calculation unit 28 for calculating a three-dimensional position of a feature point on one image, a feature point extracted by the feature point extraction unit 22, a motion of the host vehicle calculated by the motion information acquisition unit 26, And a corresponding point predicting unit 30 for predicting the position of the feature point in another image corresponding to the feature point of one image based on the three-dimensional position of the feature point calculated by the three-dimensional position calculating unit 28. ing. The three-dimensional position calculation unit 28 is an example of a three-dimensional position acquisition unit, and the corresponding point prediction unit 30 is an example of a position prediction unit.

運動情報取得部26は、車速センサ14及びヨー角速度センサ16の各々からの出力に基づいて、第1の画像及び第2の画像を撮像した間における、3次元空間での3自由度の回転成分(ピッチ角、ヨー角、ロール角)と3自由度の平行移動成分(左右方向、上下方向、前後方向)を表わす自車両の運動を算出する。なお、自車両の運動の各成分は、第1の画像を撮影したときのカメラのカメラ座標系で表されるものとする。また、搭載されているセンサで計測できない成分は0とする。本実施の形態では、車速センサ14及びヨー角速度センサ16を搭載しているため、ピッチ角とロール角の回転成分、上下方向の平行移動は計測されず、それらの運動成分は0として運動情報が出力される。   The motion information acquisition unit 26, based on the outputs from the vehicle speed sensor 14 and the yaw angular velocity sensor 16, rotates components with three degrees of freedom in a three-dimensional space while the first image and the second image are captured. A motion of the host vehicle is calculated that represents (pitch angle, yaw angle, roll angle) and a parallel movement component (left-right direction, up-down direction, front-rear direction) with three degrees of freedom. Note that each component of the movement of the host vehicle is represented by the camera coordinate system of the camera when the first image is taken. The component that cannot be measured by the mounted sensor is set to zero. In the present embodiment, since the vehicle speed sensor 14 and the yaw angular velocity sensor 16 are mounted, the rotation component of the pitch angle and the roll angle and the parallel movement in the vertical direction are not measured. Is output.

3次元位置算出部28は、後述する運動推定部36によって前の時刻に推定された自車両の運動(現時点の第1の画像とその1つ前に撮像された画像(前の時刻における第1の画像と第2の画像)との間の運動)と、対応点検索部24によって前の時刻に検索された特徴点の対応(現時点の第1の画像とその1つ前に撮像された画像との間における特徴点の対応)とに基づいて、三角測量の原理に従って、第1の画像上での特徴点の3次元位置を算出する。   The three-dimensional position calculation unit 28 determines the motion of the host vehicle estimated at the previous time by the motion estimation unit 36 (to be described later) (the first image at the present time and the image captured immediately before (the first image at the previous time). Between the first image and the second image) and the corresponding feature points retrieved at the previous time by the corresponding point retrieval unit 24 (the first image at the present time and the image captured immediately before that) 3D position of the feature point on the first image is calculated according to the principle of triangulation.

対応点予測部30は、運動情報取得部26から出力される第1の画像及び第2の画像間の自車両の運動と、3次元位置算出部28から出力される第1の画像上の特徴点の3次元位置とを用いて、特徴点抽出部22によって抽出された第1の画像の各特徴点が、第2の画像上のどの位置に現れるかを予測する。第1の画像を基準としたときの第2の画像における相対的な位置・姿勢が回転行列Rと平行移動ベクトルtで表され、第1の画像の特徴点fの3次元位置が(X,Y,Z)である場合、第2の画像で対応する点の座標(^x’,^y’)は、以下の(4)式に従って算出される。   The corresponding point predicting unit 30 is a motion of the host vehicle between the first image and the second image output from the motion information acquiring unit 26 and a feature on the first image output from the three-dimensional position calculating unit 28. Using the three-dimensional position of the point, the position on the second image where each feature point of the first image extracted by the feature point extraction unit 22 appears is predicted. The relative position / orientation in the second image with respect to the first image is represented by the rotation matrix R and the translation vector t, and the three-dimensional position of the feature point f of the first image is (X, In the case of (Y, Z), the coordinates (^ x ', ^ y') of the corresponding point in the second image are calculated according to the following equation (4).

Figure 0005652239
Figure 0005652239

なお、Kは撮像装置のキャリブレーション行列であり、以下の式で表される。   K is a calibration matrix of the imaging apparatus and is expressed by the following equation.

Figure 0005652239
Figure 0005652239

ただし、f,fは撮像装置のx方向、y方向の焦点距離、(c,c)は撮像装置の画像中心の画像座標を表す。 However, f x, f y represents the x-direction, the focal length of the y direction of the image pickup device, a (c x, c y) is the image coordinates of the image center of the image pickup device.

また、コンピュータ18は、対応点検索部24によって検索された対応点、及び対応点予測部30によって予測された第2の画像上の特徴点の位置に基づいて、第1の画像と第2の画像の間で発生したピッチ角変動量を推定するピッチ角変動推定部32と、対応点検索部24によって検索された対応点、ピッチ角変動推定部32によって推定されたピッチ角変動量、及び対応点予測部30によって予測された第2の画像上の特徴点の位置に基づいて、各対応点について信頼度を算出する信頼度算出部34と、対応点検索部24によって検索された各対応点、及び信頼度算出部34によって算出された各対応点の信頼度に基づいて、自車両の運動を推定する運動推定部36とを更に備えている。なお、ピッチ角変動推定部32が、上下回転運動推定手段の一例であり、ピッチ角変動量が、上下回転運動の一例である。   Further, the computer 18 uses the first image and the second image based on the corresponding points searched by the corresponding point search unit 24 and the positions of the feature points on the second image predicted by the corresponding point prediction unit 30. Pitch angle variation estimation unit 32 for estimating the pitch angle variation amount generated between images, corresponding points retrieved by corresponding point retrieval unit 24, pitch angle variation amount estimated by pitch angle variation estimation unit 32, and correspondence Based on the position of the feature point on the second image predicted by the point prediction unit 30, a reliability calculation unit 34 that calculates the reliability for each corresponding point, and each corresponding point searched by the corresponding point search unit 24 And a motion estimation unit 36 that estimates the motion of the host vehicle based on the reliability of each corresponding point calculated by the reliability calculation unit 34. Note that the pitch angle variation estimation unit 32 is an example of vertical rotation motion estimation means, and the pitch angle variation is an example of vertical rotation motion.

ピッチ角変動推定部32は、以下に説明するように、ピッチ角変動量を推定する。   The pitch angle fluctuation estimation unit 32 estimates the pitch angle fluctuation amount as described below.

まず、対応点検索部24から出力される各対応点の第1の画像での画像座標と第2の画像での画像座標、および対応点予測部30から出力される各特徴点の第2の画像での予測画像座標を入力として、各特徴点に対して差分フローdiを計算する。図2(A)、(B)に示すように、i番目の対応点の第1の画像での画像座標が(xi,yi)、i番目の対応点の第2の画像での画像座標が(x’i,y’i)、対応点予測部30から得られた第2の画像での予測画像座標が(^x’i,^y’i)であるとき、差分フローdi=(dix,diy)は、以下の(5)式に従って計算される。 First, the image coordinates in the first image and the second image of each corresponding point output from the corresponding point search unit 24, and the second of each feature point output from the corresponding point prediction unit 30. Using the predicted image coordinates in the image as an input, a difference flow d i is calculated for each feature point. As shown in FIGS. 2A and 2B, the image coordinates in the first image of the i-th corresponding point are (x i , y i ), and the image in the second image of the i-th corresponding point. When the coordinates are (x ′ i , y ′ i ) and the predicted image coordinates in the second image obtained from the corresponding point prediction unit 30 are (^ x ′ i , ^ y ′ i ), the difference flow d i = (D ix , d iy ) is calculated according to the following equation (5).

Figure 0005652239
Figure 0005652239

図3で示す実線のベクトルが差分フローdi=(dix,diy)であり、破線で示す2つのベクトルが、検索された対応点に基づくフローを示すベクトル(x'i−xi,y'i−yi)と、予測された特徴点に基づくフローを示すベクトル(^x'i−xi,^y'i−yi)である。このように、差分フローは、検索された対応点に基づくフローと、予測された特徴点に基づくフローとの差分の動きベクトルを示している。 The solid line vector shown in FIG. 3 is the difference flow d i = (d ix , d iy ), and the two vectors shown by broken lines are the vectors (x ′ i −x i , y ′ i −y i ) and a vector (^ x ′ i −x i , ^ y ′ i −y i ) indicating a flow based on the predicted feature points. As described above, the difference flow indicates a motion vector of a difference between the flow based on the searched corresponding point and the flow based on the predicted feature point.

差分フローdiは、上記図3に示すように、対応点検索部24で検出された対応点から得られるオプティカルフローと、対応点予測部30で予測された第2の画像上の特徴点の位置から得られるオプティカルフローとの差分を表しており、運動情報取得部26から出力された運動情報と実際の運動のずれを表している。画像間で大きなピッチ角変動があり、それが運動情報取得部26からの運動情報に含まれない場合には、この差分フローは主にピッチ角変動により発生したフローと考えることができる。 As shown in FIG. 3, the difference flow d i includes the optical flow obtained from the corresponding points detected by the corresponding point search unit 24 and the feature points on the second image predicted by the corresponding point prediction unit 30. It represents the difference from the optical flow obtained from the position, and represents the difference between the motion information output from the motion information acquisition unit 26 and the actual motion. When there is a large pitch angle variation between images and it is not included in the motion information from the motion information acquisition unit 26, this difference flow can be considered as a flow mainly caused by the pitch angle variation.

そこで、本実施の形態では、ピッチ角変動推定部32によって、各特徴点の差分フローに基づいて、運動情報取得部26からの運動情報に含まれていないピッチ角変動成分を推定する。   Therefore, in the present embodiment, the pitch angle variation estimation unit 32 estimates a pitch angle variation component that is not included in the motion information from the motion information acquisition unit 26 based on the difference flow of each feature point.

信頼度算出部34は、対応点検索部24から出力されるi番目の対応点(i=1,・・・,n)について、以下の(6)式に従って、静止物を表わす領域上の特徴点の対応であって、かつ、特徴点の対応の正しさを示す信頼度cを算出する。 The reliability calculation unit 34, for the i-th corresponding point (i = 1,..., N) output from the corresponding point search unit 24, features on the region representing a stationary object according to the following equation (6). A reliability c i that is a correspondence between points and indicates the correctness of the correspondence between feature points is calculated.

Figure 0005652239
Figure 0005652239

ただし、i番目の対応点の第1の画像での画像座標が(x,y)、i番目の対応点の第2の画像での画像座標が(x’,y’)、対応点予測部30から得られたi番目の特徴点の第2の画像での画像座標が(^x’,^y’)である。また、wは、ピッチ角変動推定部32で推定されたピッチ角変動量であり、kは予め設定される定数である。 However, the image coordinates in the first image of the i-th corresponding point are (x i , y i ), the image coordinates in the second image of the i-th corresponding point are (x i ′, y i ′), The image coordinates of the i-th feature point obtained from the corresponding point prediction unit 30 in the second image are (^ x i ', ^ y i '). Further, w is the pitch angle variation estimated by the pitch angle variation estimation unit 32, and k is a preset constant.

運動推定部36は、信頼度算出部34によって算出された各対応点の信頼度を用いて、第1の画像と第2の画像の間の位置及び姿勢の変化を、第1の画像と第2の画像を撮像したときの自車両の運動として推定する。   The motion estimation unit 36 uses the reliability of each corresponding point calculated by the reliability calculation unit 34 to change the position and orientation between the first image and the second image, and the first image and the first image. This is estimated as the movement of the host vehicle when the second image is captured.

2枚の画像で対応する特徴点の座標から、2つの画像が撮像されたときの位置及び姿勢の変化を計算するとき、計算する位置及び姿勢の変化は、図4に示すような第1の画像から第2の画像への回転行列Rと並進ベクトルtから構成される6自由度の運動である。   When calculating the change in position and orientation when two images are captured from the coordinates of the corresponding feature points in the two images, the change in the position and orientation to be calculated is the first as shown in FIG. This is a six-degree-of-freedom motion composed of a rotation matrix R and a translation vector t from an image to a second image.

ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標Iと第2の画像におけるn点の対応点の画像座標I’とについて(n≧8)、対応点の対応関係が正しくて誤差がなければ、位置及び姿勢の変化を示す行列として、以下の(7)式を満たす3×3行列Fが存在する。 Here, a calculation method of the rotation matrix R and the translation vector t from the first image to the second image will be described. For the first image coordinates of the corresponding point of the n points in the image I i and image coordinates I i of the corresponding point of n points in the second image '(n ≧ 8), correspondence is correct errors of corresponding points Otherwise, there is a 3 × 3 matrix F that satisfies the following expression (7) as a matrix indicating the change in position and orientation.

Figure 0005652239
Figure 0005652239

ただし、I=(u,v,1)、I’=(u’,v’,1)であり、第1の画像での画像座標(u,v)の点に対応する第2の画像での点の画像座標が(u’,v’)である。 However, I i = (u i , v i , 1) T , I i ′ = (u i ′, v i ′, 1) T , and the image coordinates (u i , v i ) in the first image The image coordinates of the point in the second image corresponding to the point are (u i ′, v i ′).

ここで、上記(7)式を満たす行列Fは、定数倍の不定性を持っている。すなわち、Fが上記(7)式を満たす場合には、αFも上記(7)式を満たす(ただし、αは実数)。よって、行列Fを以下の(8)式のように表すことができる。 Here, the matrix F satisfying the equation (7) has a constant multiple indefiniteness. That is, when F s satisfies the above expression (7), αF s also satisfies the above expression (7) (where α is a real number). Therefore, the matrix F can be expressed as the following equation (8).

Figure 0005652239
Figure 0005652239

また、上記(7)式、(8)式より、以下の(9)式が得られる。   Further, the following expression (9) is obtained from the above expressions (7) and (8).

Figure 0005652239
Figure 0005652239

ここで、8組以上の対応点I、I’があれば、上記(9)式が少なくとも8つ得られるため、8つの変数f11〜f32を求めることができる。 Here, if there are eight or more pairs of corresponding points I i and I i ′, at least eight of the above formula (9) can be obtained, so that eight variables f 11 to f 32 can be obtained.

また、実画像で特徴点の対応を求めた場合には、対応する画像座標には誤差が含まれ、特徴点の中には誤った対応関係を持つ点も存在することがあるため、以下の(10)式で計算される評価値Zが最大となるような行列Fを求める。 In addition, when the correspondence of the feature points is obtained in the real image, the corresponding image coordinates include an error, and some of the feature points may have an erroneous correspondence. (10) evaluation value Z r which is calculated by the formula seeks matrix F such that maximum.

Figure 0005652239
Figure 0005652239

ただし、Iiは、i番目の対応点の第1の画像での画像座標を表わす同次座標ベクトルであり、Ii’は、i番目の対応点の第2の画像での画像座標を表わす同次座標ベクトルである。また、ciはi番目の対応点の信頼度、δ(x)はxが真なら1、そうでないなら0をとる関数、d(a、b)はaとbとの距離を表し、θはあらかじめ設定するしきい値である。nは、対応点検索部24で検索された対応点の数である。 Where I i is a homogeneous coordinate vector representing the image coordinates of the i-th corresponding point in the first image, and I i ′ represents the image coordinates of the i-th corresponding point in the second image. It is a homogeneous coordinate vector. Also, c i is the reliability of the i-th corresponding point, δ (x) is a function that takes 1 if x is true, and 0 otherwise, d (a, b) represents the distance between a and b, θ Is a preset threshold value. n is the number of corresponding points searched by the corresponding point search unit 24.

また、撮像装置12のキャリブレーション行列Kが既知である場合には、上述したように特定された行列Fに基づいて、以下の(11)式、(12)式に従って、回転行列Rと並進ベクトルtとを計算し、第1の画像及び第2の画像の各々が撮像されたときの撮像装置12の運動(位置及び姿勢の変化)として出力する。   Further, when the calibration matrix K of the imaging device 12 is known, the rotation matrix R and the translation vector according to the following expressions (11) and (12) based on the matrix F specified as described above. t is calculated and output as a motion (change in position and orientation) of the imaging device 12 when each of the first image and the second image is captured.

Figure 0005652239
Figure 0005652239

上記の方法により、運動推定部36は、第1の画像及び第2の画像における複数組の対応する特徴点の画像座標と、各対応点の信頼度とに基づいて、第1の画像及び第2の画像の間における自車両の運動を計算する。   By the above method, the motion estimation unit 36, based on the image coordinates of a plurality of sets of corresponding feature points in the first image and the second image, and the reliability of each corresponding point, The motion of the host vehicle between the two images is calculated.

次に、第1の実施の形態に係る運動推定装置10の作用について説明する。なお、運動推定装置10を搭載した自車両が走行しているときに、自車両の運動を推定する場合を例に説明する。   Next, the operation of the motion estimation apparatus 10 according to the first embodiment will be described. In addition, the case where the motion of the own vehicle is estimated when the own vehicle carrying the motion estimation device 10 is traveling will be described as an example.

撮像装置12によって所定時間間隔で自車両前方を撮像し、撮像装置12によって撮像される度に、運動推定装置10において、図5に示す運動推定処理ルーチンが繰り返し実行される。ステップ100において、異なるタイミングで撮像装置12によって自車両前方を撮像した第1の画像(例えば最新の画像より1つ前に撮像された画像)及び第2の画像(例えば最新の画像)を取得すると共に、ステップ102において、第1の画像及び第2の画像を撮像する間に車速センサ14によって計測された車速及びヨー角速度センサ16によって計測されたヨー角速度を取得し、第1の画像及び第2の画像を撮像する間の自車両の運動を算出する。   The motion estimation processing routine shown in FIG. 5 is repeatedly executed in the motion estimation device 10 each time the front of the host vehicle is imaged by the imaging device 12 at predetermined time intervals and captured by the imaging device 12. In step 100, a first image (for example, an image captured immediately before the latest image) and a second image (for example, the latest image) captured in front of the host vehicle at different timings are acquired. At the same time, in step 102, the vehicle speed measured by the vehicle speed sensor 14 and the yaw angular velocity measured by the yaw angular velocity sensor 16 are acquired while the first image and the second image are captured, and the first image and the second image are obtained. The motion of the host vehicle during the time of capturing the image is calculated.

そして、ステップ104において、第1の画像及び第2の画像から、それぞれ所定の数だけ特徴点を抽出する。そして、ステップ106において、上記ステップ104で抽出された第1の画像における特徴点の各々を、第2の画像において追跡し、第2の画像から、対応する各特徴点をそれぞれ検索する。   In step 104, a predetermined number of feature points are extracted from the first image and the second image. In step 106, each feature point in the first image extracted in step 104 is tracked in the second image, and each corresponding feature point is searched from the second image.

次のステップ108では、前回実行された運動推定処理ルーチンにおいて推定された自車両の運動と、検索された2つの画像(今回の第1の画像とその1つ前に撮像された画像)で対応する特徴点とを取得する。そして、ステップ110において、上記ステップ108で取得した自車両の運動と特徴点の対応とに基づいて、第1の画像における各特徴点の3次元位置を算出する。   In the next step 108, the motion of the host vehicle estimated in the motion estimation processing routine executed last time corresponds to the two searched images (the first image of this time and the image captured immediately before). And feature points to be acquired. In step 110, the three-dimensional position of each feature point in the first image is calculated based on the movement of the host vehicle acquired in step 108 and the correspondence between the feature points.

ステップ112では、上記ステップ102で算出された自車両の運動と、上記ステップ110で算出された第1の画像における各特徴点の3次元位置とに基づいて、当該第1の画像の各特徴点に対応する第2の画像上の特徴点の位置を予測する。   In step 112, each feature point of the first image is calculated based on the motion of the host vehicle calculated in step 102 and the three-dimensional position of each feature point in the first image calculated in step 110. The position of the feature point on the second image corresponding to is predicted.

そして、ステップ114において、上記ステップ106で検索された各対応点と、上記ステップ112で予測された第2の画像上の各特徴点の位置とに基づいて、第1の画像及び第2の画像を撮像する間の自車両のピッチ角変動量を推定する。   In step 114, based on the corresponding points searched in step 106 and the position of each feature point on the second image predicted in step 112, the first image and the second image The pitch angle fluctuation amount of the own vehicle during the imaging is estimated.

次のステップ116では、上記ステップ106で検索された各対応点と、上記ステップ112で予測された第2の画像上の各特徴点の位置と、上記ステップ114で推定された自車両のピッチ角変動量とに基づいて、各対応点の信頼度を算出する。   In the next step 116, each corresponding point searched in step 106, the position of each feature point on the second image predicted in step 112, and the pitch angle of the host vehicle estimated in step 114 above. The reliability of each corresponding point is calculated based on the fluctuation amount.

そして、ステップ118において、上記ステップ106で検索された各対応点と、上記ステップ116で算出された各対応点の信頼度とに基づいて、2つの撮像時刻間における撮像装置12の位置姿勢の変化、即ち、撮像装置12を搭載した自車両のその2時刻間における運動(XYZ軸方向の移動量及びXYZ軸を基準とする回転量)を推定し、外部装置に出力して、運動推定処理ルーチンを終了する。   In step 118, based on the corresponding points retrieved in step 106 and the reliability of the corresponding points calculated in step 116, the change in the position and orientation of the imaging device 12 between the two imaging times. That is, the motion (the amount of movement in the XYZ-axis direction and the amount of rotation based on the XYZ-axis) of the host vehicle on which the imaging device 12 is mounted is estimated and output to an external device, and the motion estimation processing routine Exit.

上記の運動推定処理ルーチンが繰り返し実行され、撮像装置12によって繰り返し撮像された画像間の各々の自車両の運動が推定される。   The above motion estimation processing routine is repeatedly executed, and the motion of each host vehicle between images repeatedly captured by the imaging device 12 is estimated.

上記ステップ114は、図6に示すピッチ角変動推定処理ルーチンによって実現される。   The step 114 is realized by a pitch angle variation estimation processing routine shown in FIG.

まず、ステップ120において、各対応点の差分フローdiとして、上記ステップ106で検索された対応点の第2の画像上の特徴点の位置と、上記ステップ112で予測された、第2の画像上の対応する特徴点の位置との差分を算出する。 First, in step 120, as the difference flow d i of each corresponding point, the position of the characteristic point on the second image of the corresponding points is searched in step 106, it predicted in step 112, the second image The difference from the position of the corresponding feature point above is calculated.

そして、ステップ122において、推定ピッチ角変動pに初期値0を設定すると共に、最小ずれ量eminに初期値∞を設定する。ステップ124では、繰り返し回数を示す変数rに初期値1を設定し、ステップ126では、選択回数を示す変数sに初期値1を設定する。 In step 122, an initial value 0 is set for the estimated pitch angle fluctuation p, and an initial value ∞ is set for the minimum deviation emin . In step 124, an initial value 1 is set to a variable r indicating the number of repetitions, and in step 126, an initial value 1 is set to a variable s indicating the number of selections.

そして、ステップ128において、上記ステップ106で検索された各対応点から、ランダムに1つの対応点を選択する。ステップ130では、選択した対応点について上記ステップ120で算出した差分フローdiに基づいて、ピッチ角変動量を算出する。ここでは、差分フローdiのx軸成分dixとy軸成分diyから、それぞれピッチ角変動量w,wを、以下の(13)式を解くことにより求める。 In step 128, one corresponding point is randomly selected from the corresponding points searched in step 106. In step 130, the pitch angle variation is calculated based on the difference flow d i calculated in step 120 for the selected corresponding point. Here, the x-axis component d ix and y-axis component d iy differential flow d i, respectively the pitch angle variation w x, a w y, determined by solving the following equation (13).

Figure 0005652239
Figure 0005652239

ただし、(xi,yi)は選択された対応点の第1の画像での画像座標、f,fはx方向、y方向の焦点距離を表す。 However, represents a (x i, y i) is the image coordinates of the first image of the selected corresponding points, f x, f y are the x direction, the focal length in the y-direction.

そして、ステップ132において、上記ステップ130で算出したw、wに基づくw/wが、許容範囲内かどうか判定する。なお、許容範囲は、1を中心とする、例えば0.9〜1.1などのあらかじめ設定された範囲である。差分フローがピッチ角変動によるフローであれば、計算されたw,wは同じになることから、w/wが、許容範囲内であれば、ステップ138へ進む。 Then, in step 132, w x calculated in step 130, w x / w y based on w y is, determines whether within the allowable range. The allowable range is a preset range such as 0.9 to 1.1 with 1 as the center. If the difference flow is a flow caused by pitch angle fluctuation, the calculated w x and w y are the same. If w x / w y is within the allowable range, the process proceeds to step 138.

一方、w/wが許容範囲外であれば、対応点の選択をやり直すために、ステプ134へ移行し、選択回数sを1増やす。ステップ136では、選択回数sが最大選択回数S以下であるか否かを判定する。選択回数sがS以下であれば、上記ステップ128へ戻る。一方、選択回数sがSより大きければ、大きなピッチ角変動が起こっておらず、差分フローは、ピッチ角の変動の影響が小さいと判断し、ステップ154へ移行する。 On the other hand, if w x / w y is out of the allowable range, the process proceeds to step 134 in order to redo the selection of the corresponding point, and the selection count s is incremented by one. In step 136, it is determined whether or not the selection count s is equal to or less than the maximum selection count S. If the number of selections s is S or less, the process returns to step 128. On the other hand, if the number of selections s is greater than S, it is determined that a large pitch angle variation has not occurred, and the difference flow has a small influence of the pitch angle variation, and the process proceeds to step 154.

ステップ138では、ピッチ角変動量wをw,wの平均に設定し、ステップ140において、全対応点に対して、ピッチ角変動量から計算されるフローを算出する。ここでは、ピッチ角がwであるとき、第1の画像での画像座標が(xi,yi)のi番目の対応点のピッチ角の変動から計算されるフローVi=(vix,viy)は、以下の(14)式により算出される。 In step 138, set the pitch angle variation w w x, the average of w y, at step 140, for all the corresponding points to calculate the flow to be calculated from the pitch angle variation. Here, when the pitch angle is w, the flow V i = (v ix , where the image coordinates in the first image are calculated from the variation of the pitch angle of the i-th corresponding point of (x i , y i ). v iy ) is calculated by the following equation (14).

Figure 0005652239
Figure 0005652239

そして、ステップ142において、各対応点について、上記ステップ140で算出したフローと、上記ステップ120で算出した差分フローとのずれを以下の(15)式に従って算出する。   In step 142, for each corresponding point, the deviation between the flow calculated in step 140 and the difference flow calculated in step 120 is calculated according to the following equation (15).

Figure 0005652239
Figure 0005652239

次のステップ144では、上記ステップ142で算出された各対応点に対するずれの降順又は昇順に、対応点を並べて、ちょうど真ん中に並べられた対応点のずれを、ずれの中央値eとして求める。そして、ステップ146において、ずれの中央値eが、最小ずれ量eminより小さいか否かを判定する。ずれの中央値eが、最小ずれ量emin以上であれば、ステップ150へ移行する。一方、ずれの中央値eが、最小ずれ量emin未満であれば、ステップ148において、推定ピッチ角変動pをwに更新すると共に、最小ずれ量eminをeに更新する。 In the next step 144, the corresponding points are arranged in descending order or ascending order of the deviations corresponding to the corresponding points calculated in step 142, and the deviation of the corresponding points arranged in the middle is obtained as the median e of deviations. In step 146, it is determined whether or not the median e of deviation is smaller than the minimum deviation e min . If the median e of deviation is equal to or greater than the minimum deviation amount e min , the process proceeds to step 150. On the other hand, if the median e of the deviation is less than the minimum deviation amount e min , the estimated pitch angle fluctuation p is updated to w and the minimum deviation amount e min is updated to e in step 148.

ステップ150では、繰り返し回数rを1増やして、ステップ152において、繰り返し回数rが、最大繰り返し数R以下であるか否かを判定する。繰り返し回数rがR以下であれば、上記ステップ126へ戻るが、繰り返し回数rがRより大きければ、ステップ154において、推定ピッチ角変動pを、ピッチ角変動量の推定値として出力する。   In step 150, the number of repetitions r is increased by 1. In step 152, it is determined whether the number of repetitions r is equal to or less than the maximum number of repetitions R. If the number of repetitions r is less than or equal to R, the process returns to step 126. If the number of repetitions r is greater than R, in step 154, the estimated pitch angle fluctuation p is output as an estimated value of the pitch angle fluctuation amount.

また、上記ステップ118は、図7に示す推定処理ルーチンによって実現される。   The step 118 is realized by an estimation processing routine shown in FIG.

まず、ステップ160において、繰り返し回数を示す変数rを初期値1に設定し、ステップ162で、上記ステップ106で検索された各対応点から、ランダムに8点の対応点を選択する。   First, in step 160, a variable r indicating the number of repetitions is set to an initial value 1, and in step 162, eight corresponding points are randomly selected from the corresponding points searched in step 106.

そして、ステップ164において、上記ステップ162で選択された8つの対応点の組み合わせに基づいて、行列Fの要素f11〜f32を算出して、行列Fを生成する。次のステップ166では、上記ステップ106で検索された各対応点と、上記ステップ164で生成された行列Fとに基づいて、上記(10)式に従って評価値Zを算出する。ステップ168では、繰り返し回数rを1増やし、ステップ170において、繰り返し回数rが、最大繰り返し回数T以下であるか否かを判定する。繰り返し回数rがT以下である場合には、上記ステップ162へ戻るが、一方、繰り返し回数rがTより大きい場合には、ステップ172へ進む。 In step 164, the elements F 11 to f 32 of the matrix F are calculated based on the combination of the eight corresponding points selected in step 162 to generate the matrix F r . In the next step 166, the evaluation value Z r is calculated according to the above equation (10) based on the corresponding points searched in step 106 and the matrix F r generated in step 164. In step 168, the repeat count r is incremented by 1. In step 170, it is determined whether the repeat count r is equal to or less than the maximum repeat count T. If the number of repetitions r is less than or equal to T, the process returns to step 162. On the other hand, if the number of repetitions r is greater than T, the process proceeds to step 172.

ステップ172では、上記ステップ166で算出された評価値Zが最大となる行列Frを特定する。そして、ステップ174において、上記ステップ172で特定された行列Frに基づいて、上記(11)式及び(12)式に従って、第1の画像及び第2の画像を撮像した時刻間における自車両の運動の推定値を算出して、推定処理ルーチンを終了する。 In step 172, identifies the matrix Fr evaluation value Z r calculated in step 166 is maximum. In step 174, based on the matrix Fr specified in step 172, the movement of the host vehicle between the times when the first image and the second image are captured according to the equations (11) and (12). Is calculated, and the estimation processing routine is terminated.

以上説明したように、第1の実施の形態に係る運動推定装置によれば、カルマンフィルタを用いて推定された自車両の運動と特徴点の3次元位置とに基づいて予測された第2の画像上の特徴点の位置と、検索された対応点の第2画像上の位置との差分に基づいて、自車両のピッチ角変動を推定して、対応点の信頼度を算出し、対応点の信頼度を用いて自車両の運動を推定することにより、全ての運動成分を計測するセンサを用いずに、自車両の運動を精度よく推定することができる。   As described above, according to the motion estimation apparatus according to the first embodiment, the second image predicted based on the motion of the host vehicle estimated using the Kalman filter and the three-dimensional position of the feature point. Based on the difference between the position of the upper feature point and the position of the searched corresponding point on the second image, the pitch angle fluctuation of the host vehicle is estimated, the reliability of the corresponding point is calculated, By estimating the motion of the host vehicle using the reliability, the motion of the host vehicle can be accurately estimated without using a sensor that measures all motion components.

また、走行中に急激なピッチ変動が発生した場合においても、他の車両など周囲の移動物体の影響を受けずに、正しい静止物上の特徴点の対応に基づいて、高精度に自車両の運動を推定することができる。   In addition, even when sudden pitch fluctuations occur during traveling, the vehicle's own vehicle is accurately detected based on the correspondence of the feature points on the stationary object without being affected by other moving objects such as other vehicles. Motion can be estimated.

複数枚の画像を用いて画像の撮影時刻間に発生した運動を推定するとき、画像からコーナーなどの特徴的な点を抽出し、それらの点を画像間で対応付け、その点の対応関係から画像間の位置及び姿勢の変化を求める。このとき、実画像で対応点を検索する場合には誤対応した対応点が含まれていることが避けられない上、他の車両などの移動物体上の対応点も存在するため、それらの誤対応した対応点や移動物体上の対応点を用いて運動(位置・姿勢の変化)を推定すると推定誤差が大きくなる可能性がある。   When using multiple images to estimate the motion that occurred between image capture times, extract characteristic points such as corners from the images, associate those points between images, and use the correspondence between the points Find changes in position and orientation between images. In this case, when searching for corresponding points in a real image, it is inevitable that erroneously corresponding points are included, and there are also corresponding points on moving objects such as other vehicles. If motion (position / posture change) is estimated using corresponding corresponding points or corresponding points on a moving object, an estimation error may increase.

車載したカメラにより異なる時刻に撮影した画像間に発生する画像上の各点の動きは、各点の3次元位置および車両の運動により決定されるため、各点のおおよその3次元位置およびおおよその車両運動が既知であれば、画像間で対応する点の位置を予測することができる。各点の3次元位置、つまり周囲の環境の3次元構造情報については、前の時刻の自車両の運動と特徴点の対応とから算出可能である。また、自車両の運動情報は、車速センサやヨー角速度センサなどの車載センサから取得できる。従って、これらの情報が得られると、静止物体に関して画像間で発生する点の動きを予測できるため、その予測した動きと異なる動きを示す対応点は、誤対応または移動物体上の対応点である可能性が高いと判定することが可能であり、運動推定の精度劣化を防ぐことができる。   Since the movement of each point on the image that occurs between images taken at different times by the on-board camera is determined by the three-dimensional position of each point and the movement of the vehicle, the approximate three-dimensional position of each point and the approximate If the vehicle motion is known, the position of the corresponding point between images can be predicted. The three-dimensional position of each point, that is, the three-dimensional structure information of the surrounding environment, can be calculated from the movement of the host vehicle at the previous time and the correspondence between the feature points. In addition, the motion information of the host vehicle can be acquired from an in-vehicle sensor such as a vehicle speed sensor or a yaw angular velocity sensor. Therefore, when these pieces of information are obtained, it is possible to predict the movement of a point that occurs between images with respect to a stationary object. Therefore, a corresponding point that shows a movement different from the predicted movement is a corresponding point on a moving object or a corresponding point. It is possible to determine that the possibility is high, and it is possible to prevent deterioration in accuracy of motion estimation.

しかし、車両の走行中には、道路上の微小な凹凸などにより急激な上下方向の回転運動、すなわち、ピッチ角変動が発生することがあり、このピッチ角変動は通常の車載センサで計測することができない。また、急激に発生する変動であるため、前の時刻までに推定した運動から推定することも困難である。このピッチ角変動は画像上の点の動きに与える影響が大きいため、ピッチ角変動の回転成分が得られていない運動情報から画像間での点の動きを予測すると、実際の点の動きとは大きく異なる。従って、対応点の誤対応や移動物体上の対応点を正しく判定することができない。   However, when the vehicle is running, there may be a sudden up / down rotational movement, that is, pitch angle fluctuations due to minute irregularities on the road, etc., and this pitch angle fluctuation should be measured with a normal on-board sensor. I can't. Moreover, since it is a fluctuation | variation which generate | occur | produces rapidly, it is difficult to estimate from the motion estimated by the previous time. Because this pitch angle variation has a large effect on the movement of points on the image, if you predict the movement of points between images from the motion information for which the rotation component of the pitch angle variation is not obtained, what is the actual movement of the points? to differ greatly. Therefore, it is impossible to correctly determine the corresponding point on the moving point or the corresponding point on the moving object.

そこで、本実施の形態では、ピッチ角変動なしで予測した点の動きと、検索された対応点の動きとの差分から、ピッチ角変動の回転成分のみを推定した上で、対応点の信頼度を算出する。これにより、急激なピッチ変動が発生した場合においても、誤対応した対応点であるか、及び移動物体上の対応点であるかを正しく判定して、自車両の運動を高精度に推定することができる。   Therefore, in the present embodiment, the reliability of the corresponding point is estimated after estimating only the rotation component of the pitch angle variation from the difference between the predicted point motion without the pitch angle variation and the corresponding corresponding point motion. Is calculated. As a result, even when sudden pitch fluctuations occur, it is possible to correctly determine whether the corresponding point is a miscorresponding point or a corresponding point on a moving object, and estimate the motion of the host vehicle with high accuracy. Can do.

次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。   Next, a second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、前の時刻までに推定された車両運動に基づいて、現時点の運動情報を取得している点と、撮像装置と道路との位置関係に基づいて、特徴点の3次元位置を算出している点とが、第1の実施の形態と異なっている。   In the second embodiment, based on the vehicle motion estimated up to the previous time, the current motion information is acquired, and the feature point 3 is based on the positional relationship between the imaging device and the road. The difference from the first embodiment is that the dimension position is calculated.

図8に示すように、第2の実施の形態に係る運動推定装置210は、撮像装置12と、自車両の位置を計測するGPSセンサ214と、撮像装置12によって撮像された画像、及びGPSセンサ214によって計測された自車両の位置に基づいて、自車両の運動を推定して外部装置(図示省略)に出力するコンピュータ218とを備えている。   As shown in FIG. 8, the motion estimation apparatus 210 according to the second embodiment includes an imaging device 12, a GPS sensor 214 that measures the position of the host vehicle, an image captured by the imaging device 12, and a GPS sensor. And a computer 218 that estimates the motion of the host vehicle based on the position of the host vehicle measured by 214 and outputs the estimated motion to an external device (not shown).

コンピュータ218は、画像取得部20と、特徴点抽出部22と、対応点検索部24と、地図情報記憶部222と、道路領域特定部224と、運動情報取得部226と、3次元位置算出部228と、対応点予測部30と、ピッチ角変動推定部32と、信頼度算出部34と、運動推定部36とを備えている。   The computer 218 includes an image acquisition unit 20, a feature point extraction unit 22, a corresponding point search unit 24, a map information storage unit 222, a road area specification unit 224, a motion information acquisition unit 226, and a three-dimensional position calculation unit. 228, a corresponding point prediction unit 30, a pitch angle variation estimation unit 32, a reliability calculation unit 34, and a motion estimation unit 36.

地図情報記憶部222は、道路の各地点における車線数や道路幅などの道路情報が格納された地図情報を記憶している。道路領域特定部224は、GPSセンサ214によって計測された自車両の位置に応じて、自車両の現在地点における道路情報を取得し、取得した道路情報に基づいて、撮像装置12によって撮像された画像上の道路領域を特定する。   The map information storage unit 222 stores map information in which road information such as the number of lanes and road width at each point on the road is stored. The road area specifying unit 224 acquires road information at the current location of the host vehicle according to the position of the host vehicle measured by the GPS sensor 214, and an image captured by the imaging device 12 based on the acquired road information. Identify the upper road area.

3次元位置算出部228は、予め求められた撮像装置12と自車両が走行する道路との3次元の位置関係に基づいて、道路領域特定部224によって特定された道路領域内の各特徴点の3次元位置を算出する。   The three-dimensional position calculation unit 228 calculates each feature point in the road area identified by the road area identification unit 224 based on the three-dimensional positional relationship between the imaging device 12 and the road on which the host vehicle is obtained in advance. A three-dimensional position is calculated.

運動情報取得部226は、運動推定部36によって前の時刻までに推定された自車両の運動を取得し、例えばカルマンフィルタを用いて、現時点における自車両の運動(第1の画像及び第2の画像間の自車両の運動)を推定する。   The motion information acquisition unit 226 acquires the motion of the host vehicle estimated up to the previous time by the motion estimation unit 36, and uses the Kalman filter, for example, to determine the motion of the host vehicle at the present time (first image and second image). Estimate the movement of the vehicle in between.

対応点予測部30は、特徴点抽出部22によって抽出された特徴点、運動情報取得部226によって算出された自車両の運動、及び3次元位置算出部228によって算出された道路領域内の特徴点の3次元位置に基づいて、3次元位置が算出された第1の画像の特徴点に対応する、第2の画像における特徴点の位置を予測する。   The corresponding point prediction unit 30 includes the feature points extracted by the feature point extraction unit 22, the motion of the host vehicle calculated by the motion information acquisition unit 226, and the feature points in the road region calculated by the three-dimensional position calculation unit 228. Based on the three-dimensional position, the position of the feature point in the second image corresponding to the feature point of the first image for which the three-dimensional position is calculated is predicted.

第2の実施の形態に係る運動推定処理ルーチンについて、図9を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   A motion estimation processing routine according to the second embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップ100において、撮像装置12によって撮像された第1の画像及び第2の画像を取得すると共に、ステップ250において、前回までの運動推定処理ルーチンによって推定された自車両の運動を取得し、第1の画像及び第2の画像を撮像する間の自車両の運動を推定する。   First, in step 100, the first image and the second image captured by the imaging device 12 are acquired. In step 250, the motion of the host vehicle estimated by the motion estimation processing routine up to the previous time is acquired. The motion of the host vehicle is estimated while the first image and the second image are captured.

そして、ステップ104において、第1の画像及び第2の画像から、それぞれ所定の数だけ特徴点を抽出し、ステップ106において、第1の画像における特徴点の各々について、第2の画像から、対応する各特徴点をそれぞれ検索する。   In step 104, a predetermined number of feature points are extracted from the first image and the second image, respectively. In step 106, each feature point in the first image is handled from the second image. Each feature point to be searched is retrieved.

次のステップ252では、GPSセンサ214によって計測された自車両の位置を取得し、自車両の位置における道路情報を取得する。そして、ステップ254では、上記ステップ252で取得した道路情報に基づいて、第1の画像上の道路領域を特定する。ステップ256では、予め求められた撮像装置12と道路との位置関係に基づいて、上記ステップ254で特定された道路領域内の特徴点の3次元位置を算出する。   In the next step 252, the position of the host vehicle measured by the GPS sensor 214 is acquired, and road information at the position of the host vehicle is acquired. In step 254, the road area on the first image is specified based on the road information acquired in step 252. In step 256, the three-dimensional position of the feature point in the road area specified in step 254 is calculated based on the positional relationship between the imaging device 12 and the road obtained in advance.

ステップ112では、上記ステップ250で推定された自車両の運動と、上記ステップ256で算出された第1の画像における各特徴点の3次元位置とに基づいて、当該第1の画像の各特徴点に対応する第2の画像上の特徴点の位置を予測する。   In step 112, each feature point of the first image is based on the motion of the host vehicle estimated in step 250 and the three-dimensional position of each feature point in the first image calculated in step 256. The position of the feature point on the second image corresponding to is predicted.

そして、ステップ114において、第1の画像及び第2の画像を撮像する間の自車両のピッチ角変動量を推定し、次のステップ116では、各対応点の信頼度を算出する。そして、ステップ118において、自車両の運動を推定し、外部装置に出力して、運動推定処理ルーチンを終了する。   In step 114, the pitch angle fluctuation amount of the host vehicle while the first image and the second image are captured is estimated, and in the next step 116, the reliability of each corresponding point is calculated. In step 118, the motion of the host vehicle is estimated and output to the external device, and the motion estimation processing routine is terminated.

このように、各点の3次元位置、つまり周囲の環境の3次元構造情報については、車載したカメラに対する道路面の位置など、おおよその構造を予測可能である。また、自車両の運動情報は、前の時刻までの自車両の運動から推定することができる。   As described above, with regard to the three-dimensional position of each point, that is, the three-dimensional structure information of the surrounding environment, an approximate structure such as the position of the road surface with respect to the camera mounted on the vehicle can be predicted. Also, the motion information of the host vehicle can be estimated from the motion of the host vehicle up to the previous time.

次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。   Next, a third embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態では、各対応点に対する信頼度を算出せずに、車両運動を推定している点が、第1の実施の形態と主に異なっている。   The third embodiment is mainly different from the first embodiment in that the vehicle motion is estimated without calculating the reliability for each corresponding point.

図10に示すように、第3の実施の形態に係る運動推定装置310のコンピュータ318は、画像取得部20と、特徴点抽出部22と、対応点検索部24と、運動情報取得部26と、3次元位置算出部28と、対応点予測部30と、ピッチ角変動推定部32と、運動推定部336とを備えている。なお、運動推定部336が、選択手段及び運動推定手段の一例である。   As illustrated in FIG. 10, the computer 318 of the motion estimation apparatus 310 according to the third embodiment includes an image acquisition unit 20, a feature point extraction unit 22, a corresponding point search unit 24, and a motion information acquisition unit 26. A three-dimensional position calculation unit 28, a corresponding point prediction unit 30, a pitch angle variation estimation unit 32, and a motion estimation unit 336 are provided. The motion estimation unit 336 is an example of a selection unit and a motion estimation unit.

運動推定部336は、対応点検索部24によって検索された対応点、ピッチ角変動推定部32によって推定されたピッチ角変動量、及び対応点予測部30によって予測された第2の画像上の特徴点の位置に基づいて、以下に説明するように、自車両の運動を推定する。   The motion estimation unit 336 includes the corresponding points searched by the corresponding point search unit 24, the pitch angle fluctuation amount estimated by the pitch angle fluctuation estimation unit 32, and the feature on the second image predicted by the corresponding point prediction unit 30. Based on the position of the point, the movement of the host vehicle is estimated as described below.

まず、対応点検索部24によって検索された対応点のうち、検索された対応点の第2の画像上での画像座標と、対応点予測部30から得られた第2の画像上での予測画像座標にピッチ角変動推定部32で得られたピッチ角変動分を加えた画像座標と、の距離がしきい値以下である対応点を選択する。   First, among the corresponding points searched by the corresponding point search unit 24, the image coordinates of the searched corresponding points on the second image and the prediction on the second image obtained from the corresponding point prediction unit 30. Corresponding points whose distance from the image coordinates obtained by adding the pitch angle variation obtained by the pitch angle variation estimation unit 32 to the image coordinates are equal to or smaller than a threshold value are selected.

ここで、検索された対応点の第2の画像上での画像座標と、予測画像座標にピッチ変動分を加えた画像座標との距離は、以下の(16)式で計算される。   Here, the distance between the image coordinates of the retrieved corresponding point on the second image and the image coordinates obtained by adding the pitch variation to the predicted image coordinates is calculated by the following equation (16).

Figure 0005652239
Figure 0005652239

そして、選択された対応点を用いて、第1の画像と第2の画像を撮像したときの自車両の運動を推定する。   And the motion of the own vehicle when the 1st image and the 2nd image are imaged is estimated using the selected corresponding point.

このとき、評価値を最大にする行列Fの特定に、対応点の信頼度は用いず、以下の(17)式で計算される評価値Zを用いる。 At this time, in order to specify the matrix F r that maximizes the evaluation value, the reliability of the corresponding point is not used, but the evaluation value Z r calculated by the following equation (17) is used.

Figure 0005652239
Figure 0005652239

ただし、nは、選択された対応点の数である。   Where n is the number of selected corresponding points.

なお、第3の実施の形態に係る運動推定装置の他の構成及び処理については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and process of the motion estimation apparatus which concern on 3rd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、推定されたピッチ角変動を用いて、正しい静止物上の対応点を選択することにより、走行中に急激なピッチ変動が発生した場合においても、他の車両など周囲の移動物体の影響を受けずに、高精度に自車両の運動を推定することができる。   In this way, by selecting the corresponding point on the correct stationary object using the estimated pitch angle variation, even if a sudden pitch variation occurs during traveling, other moving objects such as other vehicles The motion of the host vehicle can be estimated with high accuracy without being affected.

なお、上記の第1の実施の形態〜第2の実施の形態では、上記(6)式に従って、対応点に対する信頼度を算出する場合を例に説明したが、これに限定されるものではなく、上記(16)式で算出される距離が大きいほど信頼度が低くなるような他の関数を用いて、対応点に対する信頼度を算出するようにしてもよい。   In the first to second embodiments, the case where the reliability for the corresponding point is calculated according to the above equation (6) has been described as an example. However, the present invention is not limited to this. The reliability for the corresponding points may be calculated using another function in which the reliability decreases as the distance calculated by the equation (16) increases.

また、上記の第1の実施の形態及び第3の実施の形態では、車速センサ及びヨー角速度センサを用いた場合を例に説明したが、これに限定されるものではなく、他のセンサを用いて、ピッチ角成分以外の運動情報を計測するようにしてもよい。   In the first embodiment and the third embodiment, the case where the vehicle speed sensor and the yaw angular velocity sensor are used has been described as an example. However, the present invention is not limited to this, and other sensors are used. Thus, motion information other than the pitch angle component may be measured.

本発明のプログラムは、記憶媒体に格納して提供するようにしてもよい。   The program of the present invention may be provided by being stored in a storage medium.

10、210、310 運動推定装置
12 撮像装置
14 車速センサ
16 ヨー角速度センサ
18、218、318 コンピュータ
22 特徴点抽出部
24 対応点検索部
26、226 運動情報取得部
28、228 3次元位置算出部
30 対応点予測部
32 ピッチ角変動推定部
34 信頼度算出部
36、336 運動推定部
214 GPSセンサ
222 地図情報記憶部
224 道路領域特定部
10, 210, 310 Motion estimation device 12 Imaging device 14 Vehicle speed sensor 16 Yaw angular velocity sensor 18, 218, 318 Computer 22 Feature point extraction unit 24 Corresponding point search unit 26, 226 Motion information acquisition unit 28, 228 3D position calculation unit 30 Corresponding point prediction unit 32 Pitch angle variation estimation unit 34 Reliability calculation unit 36, 336 Motion estimation unit 214 GPS sensor 222 Map information storage unit 224 Road area specifying unit

Claims (8)

移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段と、
前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段と、
前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、
前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段と、
前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段と、
前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段と、
を含む運動推定装置。
Search means for searching corresponding feature points between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body;
Motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured;
Three-dimensional position acquisition means for acquiring three-dimensional positions of a plurality of feature points on the first image;
A position for predicting the position on the second image of the plurality of feature points from which the three-dimensional position is acquired by the three-dimensional position acquisition unit based on the movement of the moving body acquired by the movement acquisition unit Prediction means,
The positions of the plurality of feature points on the second image in the plurality of sets of the corresponding feature points searched by the search means, and the plurality of features on the second image predicted by the position prediction means. Based on the difference from the position of the point, the vertical rotational motion estimation that estimates the vertical rotational motion representing the vertical change in the posture of the moving body when each of the first image and the second image is captured. Means,
The plurality of sets of corresponding feature points searched by the search means, the positions of the plurality of feature points on the second image predicted by the position prediction means, and estimated by the vertical rotation motion estimation means. Motion estimation means for estimating the motion of the mobile body when each of the first image and the second image is captured based on the vertical rotational motion of the mobile body;
A motion estimation device including:
前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記検索手段によって検索された前記対応した特徴点の複数の組の各々について、静止物を表わす領域上の特徴点の対応であって、かつ、前記特徴点の対応の正しさを示す信頼度を算出する信頼度算出手段を更に含み、
前記運動推定手段は、前記検索手段によって検索された前記対応した特徴点の複数の組と、前記対応した特徴点の複数の組について算出された前記信頼度とに基づいて、前記移動体の運動を推定する請求項1記載の運動推定装置。
The plurality of sets of corresponding feature points searched by the search means, the positions of the plurality of feature points on the second image predicted by the position prediction means, and estimated by the vertical rotation motion estimation means. Further, each of the plurality of sets of corresponding feature points searched by the search means based on the vertical rotational movement of the moving body is a correspondence of the feature points on the area representing the stationary object, and A reliability calculation means for calculating a reliability indicating the correctness of the correspondence of the feature points;
The motion estimation unit is configured to determine the motion of the moving object based on the plurality of sets of corresponding feature points searched by the search unit and the reliability calculated for the plurality of sets of corresponding feature points. The motion estimation apparatus according to claim 1, wherein
前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置を、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動の分だけ変更した位置とに基づいて、前記検索手段によって検索された前記対応した特徴点の全ての組のうち、前記対応した特徴点の複数の組を選択する選択手段を更に含み、
前記運動推定手段は、前記選択手段によって選択された前記対応した特徴点の複数の組に基づいて、前記移動体の運動を推定する請求項1記載の運動推定装置。
The positions of the plurality of feature points on the second image in the plurality of sets of the corresponding feature points searched by the search means, and the plurality of features on the second image predicted by the position prediction means. Based on the positions of the points changed by the amount of the vertical rotational motion of the movable body estimated by the vertical rotational motion estimation means, all the sets of the corresponding feature points searched by the search means A selection means for selecting a plurality of sets of the corresponding feature points,
The motion estimation device according to claim 1, wherein the motion estimation unit estimates the motion of the moving body based on the plurality of sets of the corresponding feature points selected by the selection unit.
前記移動体の運動を計測する運動計測手段を更に含み、
前記運動取得手段は、前記運動計測手段によって計測された前記移動体の運動に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を取得する請求項1〜請求項3の何れか1項記載の運動推定装置。
It further includes a motion measuring means for measuring the motion of the moving body,
The motion acquisition unit acquires the motion of the moving body when each of the first image and the second image is captured based on the motion of the moving body measured by the motion measuring unit. The motion estimation apparatus according to any one of claims 1 to 3.
前記運動取得手段は、前記運動推定手段によって過去に推定された前記移動体の運動に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する請求項1〜請求項3の何れか1項記載の運動推定装置。   The motion acquisition means estimates the motion of the moving body when each of the first image and the second image is captured based on the motion of the mobile body estimated in the past by the motion estimation means. The motion estimation device according to any one of claims 1 to 3. 前記3次元位置取得手段は、前記運動推定手段によって推定された、前記第1の画像より前に撮像された前画像及び前記第1の画像の各々を撮像したときの前記移動体の運動と、前記検索手段によって検索された前記前画像及び前記第1の画像で対応した特徴点の各組とに基づいて、前記第1の画像上における各特徴点の3次元位置を算出する請求項1〜請求項5の何れか1項記載の運動推定装置。   The three-dimensional position acquisition means is estimated by the motion estimation means, and the motion of the moving body when each of the previous image and the first image captured before the first image is captured, The three-dimensional position of each feature point on the first image is calculated based on each set of feature points corresponding to the previous image and the first image searched by the search unit. The motion estimation apparatus according to claim 5. 前記第1の画像上における前記移動体が走行する道路領域を特定する道路領域特定手段を更に含み、
前記3次元位置取得手段は、予め求められた道路と前記移動体の外部を撮像する撮像手段との位置関係に基づいて、前記道路領域特定手段によって特定された前記第1の画像上における道路領域内の各特徴点の3次元位置を算出する請求項1〜請求項5の何れか1項記載の運動推定装置。
A road area specifying means for specifying a road area on which the moving body travels on the first image;
The three-dimensional position acquisition means is a road area on the first image specified by the road area specification means based on a positional relationship between a road determined in advance and an imaging means for imaging the outside of the moving body. The motion estimation apparatus according to claim 1, wherein a three-dimensional position of each feature point is calculated.
コンピュータを、
移動体の外部を撮像した第1の画像及び第2の画像の各々から、前記第1の画像及び第2の画像間で対応した特徴点を検索する検索手段、
前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の位置及び姿勢の変化を表わす運動を取得する運動取得手段、
前記第1の画像上における複数の特徴点の3次元位置を取得する3次元位置取得手段と、
前記運動取得手段によって取得された前記移動体の運動に基づいて、前記3次元位置取得手段によって3次元位置が取得された前記複数の特徴点の、前記第2の画像上の位置を予測する位置予測手段、
前記検索手段によって検索された前記対応した特徴点の複数の組における前記第2の画像上の複数の特徴点の位置と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置との差分に基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の姿勢の上下方向の変化を表わす上下回転運動を推定する上下回転運動推定手段、及び
前記検索手段によって検索された前記対応した特徴点の複数の組と、前記位置予測手段によって予測された前記第2の画像上の複数の特徴点の位置と、前記上下回転運動推定手段によって推定された前記移動体の上下回転運動とに基づいて、前記第1の画像及び前記第2の画像の各々を撮像したときの前記移動体の運動を推定する運動推定手段
として機能させるためのプログラム。
Computer
Retrieval means for retrieving a corresponding feature point between the first image and the second image from each of the first image and the second image obtained by imaging the outside of the moving body;
Motion acquisition means for acquiring a motion representing a change in position and posture of the moving body when each of the first image and the second image is captured;
Three-dimensional position acquisition means for acquiring three-dimensional positions of a plurality of feature points on the first image;
A position for predicting the position on the second image of the plurality of feature points from which the three-dimensional position is acquired by the three-dimensional position acquisition unit based on the movement of the moving body acquired by the movement acquisition unit Prediction means,
The positions of the plurality of feature points on the second image in the plurality of sets of the corresponding feature points searched by the search means, and the plurality of features on the second image predicted by the position prediction means. Based on the difference from the position of the point, the vertical rotational motion estimation that estimates the vertical rotational motion representing the vertical change in the posture of the moving body when each of the first image and the second image is captured. And a plurality of sets of the corresponding feature points searched by the search means, positions of the plurality of feature points on the second image predicted by the position prediction means, and the vertical rotation motion estimation means Based on the up-and-down rotational movement of the moving body estimated by the above, the functioning as a motion estimation means for estimating the movement of the moving body when each of the first image and the second image is captured is performed. Of the program.
JP2011029820A 2011-02-15 2011-02-15 Motion estimation apparatus and program Expired - Fee Related JP5652239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011029820A JP5652239B2 (en) 2011-02-15 2011-02-15 Motion estimation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011029820A JP5652239B2 (en) 2011-02-15 2011-02-15 Motion estimation apparatus and program

Publications (2)

Publication Number Publication Date
JP2012168788A JP2012168788A (en) 2012-09-06
JP5652239B2 true JP5652239B2 (en) 2015-01-14

Family

ID=46972875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011029820A Expired - Fee Related JP5652239B2 (en) 2011-02-15 2011-02-15 Motion estimation apparatus and program

Country Status (1)

Country Link
JP (1) JP5652239B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016020718A1 (en) * 2014-08-07 2016-02-11 Hitachi Automotive Systems, Ltd. Method and apparatus for determining the dynamic state of a vehicle
JP6525148B2 (en) * 2015-06-09 2019-06-05 株式会社パスコ Trajectory estimation method, trajectory estimation apparatus and trajectory estimation program
JP6622664B2 (en) * 2016-07-12 2019-12-18 株式会社Soken Self-vehicle position specifying device and self-vehicle position specifying method
JP6420404B1 (en) 2017-04-26 2018-11-07 ファナック株式会社 Object recognition device
JP6905390B2 (en) * 2017-06-01 2021-07-21 株式会社豊田中央研究所 Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program
WO2022064641A1 (en) * 2020-09-25 2022-03-31 日本電気株式会社 Vehicle behavior estimation device, unsafe driving detection device, method, and computer-readable medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device
JP4935769B2 (en) * 2008-06-25 2012-05-23 株式会社豊田中央研究所 Plane region estimation apparatus and program
JP4702569B2 (en) * 2008-09-30 2011-06-15 マツダ株式会社 Image processing apparatus for vehicle
JP5262705B2 (en) * 2008-12-26 2013-08-14 株式会社豊田中央研究所 Motion estimation apparatus and program

Also Published As

Publication number Publication date
JP2012168788A (en) 2012-09-06

Similar Documents

Publication Publication Date Title
US10762643B2 (en) Method for evaluating image data of a vehicle camera
JP5652239B2 (en) Motion estimation apparatus and program
JP6328327B2 (en) Image processing apparatus and image processing method
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP4702569B2 (en) Image processing apparatus for vehicle
JP4556798B2 (en) Image processing device
JP6138861B2 (en) Distance calculation device
JP2009008662A (en) Object detection cooperatively using sensor and video triangulation
JP2013186042A (en) Distance calculating device and distance calculating method
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
JP2011134207A (en) Drive recorder and map generation system
TW201433774A (en) Vehicle specifications measurement processing device, vehicle specifications measuring method, and recording medium
JP6263453B2 (en) Momentum estimation device and program
JP6523196B2 (en) Estimation apparatus, method and program
US20090226094A1 (en) Image correcting device and method, and computer program
JP4935769B2 (en) Plane region estimation apparatus and program
JP5267100B2 (en) Motion estimation apparatus and program
JP5981284B2 (en) Object detection device and object detection method
CN111989541B (en) Stereo camera device
JP5656018B2 (en) Sphere detection method
JP5425500B2 (en) Calibration apparatus and calibration method
JP2017196948A (en) Three-dimensional measurement device and three-dimensional measurement method for train facility
JP5032415B2 (en) Motion estimation apparatus and program
JP4622889B2 (en) Image processing apparatus and image processing method
JP4876676B2 (en) POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141103

R151 Written notification of patent or utility model registration

Ref document number: 5652239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees