JP5609667B2 - Motion estimation apparatus and program - Google Patents

Motion estimation apparatus and program Download PDF

Info

Publication number
JP5609667B2
JP5609667B2 JP2011008829A JP2011008829A JP5609667B2 JP 5609667 B2 JP5609667 B2 JP 5609667B2 JP 2011008829 A JP2011008829 A JP 2011008829A JP 2011008829 A JP2011008829 A JP 2011008829A JP 5609667 B2 JP5609667 B2 JP 5609667B2
Authority
JP
Japan
Prior art keywords
motion estimation
motion
candidate
candidates
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011008829A
Other languages
Japanese (ja)
Other versions
JP2012150655A (en
Inventor
洪二郎 武山
洪二郎 武山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2011008829A priority Critical patent/JP5609667B2/en
Publication of JP2012150655A publication Critical patent/JP2012150655A/en
Application granted granted Critical
Publication of JP5609667B2 publication Critical patent/JP5609667B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、運動推定装置及びプログラムに係り、特に、移動体の運動を推定する運動推定装置及びプログラムに関する。   The present invention relates to a motion estimation device and program, and more particularly, to a motion estimation device and program for estimating motion of a moving object.

従来より、RANSAC(Random Sampling Consensus法)を用いて、最も多くの特徴点の動き(オプティカルフロー)に従う運動を推定することで、少数の誤ったオプティカルフローの影響を排除し、ロバストな運動推定を行う運動計測装置が知られている(例えば、特許文献1)。   Traditionally, RANSAC (Random Sampling Consensus) is used to estimate the motion that follows the motion of the most feature points (optical flow), thereby eliminating the influence of a small number of erroneous optical flows and performing robust motion estimation. A motion measuring device to perform is known (for example, Patent Document 1).

特開2006−350897号公報JP 2006-350897 A

しかしながら、上記の特許文献1に記載の技術では、移動物上のオプティカルフローが多いシーンなどにおいて、多数のオプティカルフローに誤りが生じているため、多くのオプティカルフローに従う運動を推定することで誤差が生じてしまう、という問題がある。   However, in the technique described in Patent Document 1 described above, errors occur in many optical flows in a scene where there are many optical flows on a moving object. Therefore, an error is caused by estimating a motion that follows many optical flows. There is a problem that it occurs.

本発明は、上記の問題点を解決するためになされたもので、移動体の運動を精度よく推定することができる運動推定装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a motion estimation device and program capable of accurately estimating the motion of a moving object.

上記の目的を達成するために本発明に係る運動推定装置は、移動体の外部を撮像した複数の画像の各々から、前記複数の画像間で対応した特徴点を検索する検索手段と、前記検索手段によって検索された前記対応した特徴点の全ての組から、前記対応した特徴点の複数の組を繰り返し選択し、前記繰り返し選択された前記対応した特徴点の複数の組に基づいて、前記複数の画像の各々を撮像したときの前記移動体の位置及び姿勢の相対関係を表わす運動を、前記移動体の運動の推定候補として各々算出する候補算出手段と、前記候補算出手段によって算出された前記運動の推定候補の各々について、該運動の推定候補がどれだけ信頼できるかを示す信頼度を算出する信頼度算出手段と、 前記候補算出手段によって算出された前記運動の推定候補の各々に基づいて、前記運動の推定候補のばらつき度合いを算出し、前記運動の推定候補のばらつき度合いに基づいて、前記運動の推定候補の使用可否を判定する使用可否判定手段と、前記使用可否判定手段によって前記運動の推定候補が使用可能であると判定された場合に、前記信頼度算出手段によって算出された前記運動の推定候補の各々の信頼度に基づいて、前記運動の推定候補のうちの何れか1つを、前記移動体の運動の推定結果として選択する運動推定手段と、を含んで構成されている。   In order to achieve the above object, a motion estimation apparatus according to the present invention includes a search unit that searches for feature points corresponding to a plurality of images from each of a plurality of images obtained by imaging the outside of a moving body, and the search A plurality of sets of the corresponding feature points are repeatedly selected from all the sets of the corresponding feature points searched by the means, and the plurality of sets based on the plurality of sets of the corresponding feature points selected repeatedly A motion representing a relative relationship between the position and orientation of the moving body when each of the images is captured as a candidate for motion estimation of the moving body, and a candidate calculating means for calculating the motion calculated by the candidate calculating means. For each of the motion estimation candidates, reliability calculation means for calculating the reliability indicating how reliable the motion estimation candidate is, and the estimation of the motion calculated by the candidate calculation means Based on each of the complements, a degree of variation of the motion estimation candidate is calculated, and based on the degree of variation of the motion estimation candidate, a usability determination unit that determines whether the motion estimation candidate is usable, and the use When it is determined by the availability determining means that the motion estimation candidate is usable, the motion estimation candidate is calculated based on the reliability of each of the motion estimation candidates calculated by the reliability calculation means. Motion estimation means for selecting any one of them as the motion estimation result of the moving body.

本発明に係るプログラムは、コンピュータを、移動体の外部を撮像した複数の画像の各々から、前記複数の画像間で対応した特徴点を検索する検索手段、前記検索手段によって検索された前記対応した特徴点の全ての組から、前記対応した特徴点の複数の組を繰り返し選択し、前記繰り返し選択された前記対応した特徴点の複数の組に基づいて、前記複数の画像の各々を撮像したときの前記移動体の位置及び姿勢の相対関係を表わす運動を、前記移動体の運動の推定候補として各々算出する候補算出手段、前記候補算出手段によって算出された前記運動の推定候補の各々について、該運動の推定候補がどれだけ信頼できるかを示す信頼度を算出する信頼度算出手段、前記候補算出手段によって算出された前記運動の推定候補の各々に基づいて、前記運動の推定候補のばらつき度合いを算出し、前記運動の推定候補のばらつき度合いに基づいて、前記運動の推定候補の使用可否を判定する使用可否判定手段、及び前記使用可否判定手段によって前記運動の推定候補が使用可能であると判定された場合に、前記信頼度算出手段によって算出された前記運動の推定候補の各々の信頼度に基づいて、前記運動の推定候補のうちの何れか1つを、前記移動体の運動の推定結果として選択する運動推定手段として機能させるためのプログラムである。   According to the present invention, there is provided a program for searching a computer for a feature point corresponding to a plurality of images from each of a plurality of images obtained by imaging the outside of the moving body, and the corresponding unit searched by the search unit. When a plurality of sets of corresponding feature points are repeatedly selected from all sets of feature points, and each of the plurality of images is captured based on the plurality of sets of corresponding feature points selected repeatedly. A candidate calculating means for calculating a motion representing a relative relationship between the position and orientation of the mobile body as a motion motion candidate for the mobile body, and each of the motion estimation candidates calculated by the candidate calculating means, Reliability calculation means for calculating the reliability indicating how reliable the motion estimation candidate is, based on each of the motion estimation candidates calculated by the candidate calculation means The degree of variation of the motion estimation candidate is calculated, and based on the degree of variation of the motion estimation candidate, the availability determination unit that determines the availability of the motion estimation candidate, and the availability determination unit determine the availability of the motion. When it is determined that the estimation candidate is usable, one of the motion estimation candidates is selected based on the reliability of each of the motion estimation candidates calculated by the reliability calculation means. , A program for functioning as motion estimation means for selecting as a motion estimation result of the moving body.

本発明によれば、検索手段によって、移動体の外部を撮像した複数の画像の各々から、前記複数の画像間で対応した特徴点を検索する。候補算出手段によって、検索手段によって検索された対応した特徴点の全ての組から、対応した特徴点の複数の組を繰り返し選択し、繰り返し選択された対応した特徴点の複数の組に基づいて、複数の画像の各々を撮像したときの移動体の位置及び姿勢の相対関係を表わす運動を、移動体の運動の推定候補として各々算出する。   According to the present invention, the search unit searches for feature points corresponding to the plurality of images from each of the plurality of images obtained by imaging the outside of the moving body. The candidate calculation means repeatedly selects a plurality of pairs of corresponding feature points from all the pairs of corresponding feature points searched by the search means, and based on the plurality of sets of corresponding feature points repeatedly selected, The motion representing the relative relationship between the position and orientation of the moving body when each of the plurality of images is captured is calculated as an estimation candidate for the motion of the moving body.

そして、信頼度算出手段によって、候補算出手段によって算出された運動の推定候補の各々について、該運動の推定候補がどれだけ信頼できるかを示す信頼度を算出する。使用可否判定手段によって、候補算出手段によって算出された運動の推定候補の各々に基づいて、運動の推定候補のばらつき度合いを算出し、運動の推定候補のばらつき度合いに基づいて、運動の推定候補の使用可否を判定する。   Then, the reliability calculation means calculates, for each of the motion estimation candidates calculated by the candidate calculation means, a reliability indicating how reliable the motion estimation candidate is. The usability determining means calculates the degree of variation of the motion estimation candidate based on each of the motion estimation candidates calculated by the candidate calculation means, and based on the degree of variation of the motion estimation candidate, Judge whether it can be used.

そして、運動推定手段によって、使用可否判定手段によって運動の推定候補が使用可能であると判定された場合に、信頼度算出手段によって算出された運動の推定候補の各々の信頼度に基づいて、運動の推定候補のうちの何れか1つを、移動体の運動の推定結果として選択する。また、使用可否判定手段によって運動の推定候補が使用不可能であると判定された場合には、運動推定手段は、移動体の運動の推定結果の出力を行わない。   Then, when it is determined by the motion estimation means that the motion estimation candidate is usable by the availability determination means, the motion is calculated based on the reliability of each of the motion estimation candidates calculated by the reliability calculation means. Any one of the estimation candidates is selected as the motion estimation result of the moving object. In addition, when it is determined that the motion estimation candidate is unusable by the availability determination unit, the motion estimation unit does not output the motion estimation result of the moving object.

このように、運動の推定候補のばらつき度合いに基づいて、運動の推定候補が使用不可能であると判定された場合には、運動推定結果の出力を行わず、運動の推定候補のばらつき度合いに基づいて、運動の推定候補が使用可能であると判定された場合に、運動の推定候補の各々の信頼度に基づいて、運動の推定候補のうちの何れか1つを、移動体の運動の推定結果として選択することにより、移動体の運動を精度よく推定することができる。   As described above, when it is determined that the motion estimation candidate cannot be used based on the degree of variation of the motion estimation candidate, the motion estimation result is not output, and the motion estimation candidate variation degree is not calculated. Based on the reliability of each of the motion estimation candidates, if one of the motion estimation candidates is determined to be usable, one of the motion estimation candidates is By selecting as the estimation result, it is possible to accurately estimate the motion of the moving body.

本発明に係る候補算出手段は、検索手段によって検索された対応した特徴点の複数の組をランダムに繰り返し選択して、移動体の運動の推定候補を各々算出するようにすることができる。これによって、運動の推定方向の各々に誤差が分散し、運動の推定候補のばらつき度合いに反映されるため、移動体の運動をより精度よく推定することができる。   The candidate calculation means according to the present invention can repeatedly select a plurality of sets of corresponding feature points searched by the search means at random, and calculate respective motion candidate motion candidates. Accordingly, the error is dispersed in each of the motion estimation directions and reflected in the degree of variation of the motion estimation candidates, so that the motion of the moving body can be estimated with higher accuracy.

本発明に係る運動推定装置は、ジャイロセンサを用いて前記移動体の運動を計測する運動計測手段と、運動計測手段による移動体の運動の計測値と、運動推定手段による移動体の運動の推定結果との差分に基づいて、ジャイロセンサを用いて計測される移動体の運動の計測値のオフセット量を補正するオフセット補正手段とを更に含むようにすることができる。これによって、移動体の運動を精度よく計測することができ、移動体の運動をより精度よく推定することができる。   The motion estimation apparatus according to the present invention includes a motion measurement unit that measures the motion of the moving body using a gyro sensor, a measurement value of the motion of the mobile body by the motion measurement unit, and an estimation of the motion of the mobile body by the motion estimation unit. An offset correction unit that corrects an offset amount of the measurement value of the movement of the moving object measured using the gyro sensor based on the difference from the result can be further included. Thereby, the movement of the moving body can be measured with high accuracy, and the movement of the moving body can be estimated with higher accuracy.

以上説明したように、本発明の運動推定装置及びプログラムによれば、運動の推定候補のばらつき度合いに基づいて、運動の推定候補が使用不可能であると判定された場合には、運動推定結果の出力を行わず、運動の推定候補のばらつき度合いに基づいて、運動の推定候補が使用可能であると判定された場合に、運動の推定候補の各々の信頼度に基づいて、運動の推定候補のうちの何れか1つを、移動体の運動の推定結果として選択することにより、移動体の運動を精度よく推定することができる、という効果が得られる。   As described above, according to the motion estimation apparatus and program of the present invention, when it is determined that a motion estimation candidate is unusable based on the degree of variation of motion estimation candidates, the motion estimation result If the motion estimation candidates are determined to be usable based on the degree of variation of the motion estimation candidates, the motion estimation candidates are determined based on the reliability of each motion estimation candidate. By selecting any one of them as the estimation result of the movement of the moving body, an effect that the movement of the moving body can be estimated with high accuracy can be obtained.

本発明の第1の実施の形態に係る運動推定装置を示すブロック図である。It is a block diagram which shows the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運動推定装置の運動推定候補算出部の構成を示すブロック図である。It is a block diagram which shows the structure of the motion estimation candidate calculation part of the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 抽出された特徴点と移動体の運動との関係を説明するための図である。It is a figure for demonstrating the relationship between the extracted feature point and a motion of a moving body. 本発明の第1の実施の形態に係る運動推定装置の運動推定部の構成を示すブロック図である。It is a block diagram which shows the structure of the motion estimation part of the motion estimation apparatus which concerns on the 1st Embodiment of this invention. エピポーラ線を説明するためのイメージ図である。It is an image figure for demonstrating an epipolar line. 運動推定候補の分散値を説明するための図である。It is a figure for demonstrating the variance value of a motion estimation candidate. オプティカルフローの誤差とシーンの信頼度との関係を示すグラフである。It is a graph which shows the relationship between the error of an optical flow, and the reliability of a scene. 本発明の第1の実施の形態に係る運動推定装置における運動推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the motion estimation process routine in the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運動推定装置における運動推定候補算出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the motion estimation candidate calculation processing routine in the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運動推定装置における運動候補選定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the exercise | movement candidate selection process routine in the exercise | movement estimation apparatus which concerns on the 1st Embodiment of this invention. (A)遠方の物体上の特徴点のオプティカルフローを示す図、及び(B)遠方の物体上の特徴点のオプティカルフローを用いて運動推定候補を算出する様子を示す図である。(A) The figure which shows the optical flow of the feature point on a distant object, (B) The figure which shows a mode that a motion estimation candidate is calculated using the optical flow of the feature point on a distant object. (A)近くの物体上の特徴点のオプティカルフローを示す図、及び(B)近くの物体上の特徴点のオプティカルフローを用いて運動推定候補を算出する様子を示す図である。(A) The figure which shows the optical flow of the feature point on the near object, and (B) The figure which shows a mode that the motion estimation candidate is calculated using the optical flow of the feature point on the near object.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、車両に搭載された運動推定装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The case where the present invention is applied to a motion estimation device mounted on a vehicle will be described as an example.

図1に示すように、第1の実施の形態に係る運動推定装置10は、自車両の前方の画像を撮像する単眼のカメラで構成される画像撮像部12と、自車両の運動として、ヨー角速度を計測するジャイロセンサ14と、画像撮像部12によって撮像された画像、及びジャイロセンサ14によって計測されたヨー角速度に基づいて、自車両の運動を推定して外部装置(図示省略)に出力するコンピュータ16とを備えている。なお、ジャイロセンサ14が、運動計測手段の一例である。   As shown in FIG. 1, the motion estimation apparatus 10 according to the first embodiment includes an image capturing unit 12 including a monocular camera that captures an image ahead of the host vehicle, and yaw motion as the host vehicle. Based on the gyro sensor 14 that measures the angular velocity, the image captured by the image capturing unit 12, and the yaw angular velocity measured by the gyro sensor 14, the motion of the host vehicle is estimated and output to an external device (not shown). And a computer 16. The gyro sensor 14 is an example of a motion measuring unit.

本実施の形態では、単眼のカメラを自車両の前方に設置して、自車両の前方の画像を取得する場合を例に説明するが、自車両の外部の画像を撮像すればよく、例えば、単眼のカメラを自車両の後方に設置し、自車両の後方を撮像してもよい。また、単眼のカメラは、通常の画角40度程度のカメラでもよいし、広角のカメラでもよいし、全方位カメラでもよい。また、撮像する画像の波長について、種類は問わない。運動量を適切に推定できる場所であれば、設置場所、画角、波長、及び設置個数について問わない。   In the present embodiment, a case where a monocular camera is installed in front of the host vehicle and an image in front of the host vehicle is acquired will be described as an example, but an image outside the host vehicle may be captured. A monocular camera may be installed behind the host vehicle to capture the rear of the host vehicle. The monocular camera may be a normal camera with a field angle of about 40 degrees, a wide-angle camera, or an omnidirectional camera. Further, the type of the wavelength of the image to be captured is not limited. There is no limitation on the installation location, the angle of view, the wavelength, and the number of installations as long as the momentum can be estimated appropriately.

コンピュータ16では、自車両の運動として、自車両の3軸角速度と並進方向を示す成分とを推定する。コンピュータ16は、CPUと、RAMと、後述する運動推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ16は、画像撮像部12によって撮像された複数の画像を取得する画像入力部18と、複数の画像に基づいて、自車両の運動推定候補を複数算出する運動推定候補算出部20と、算出された複数の運動推定候補に基づいて、自車両の運動を推定する運動推定部22と、ジャイロセンサ14によって計測された計測値のオフセット量を補正するオフセット補正部24と、推定された自車両の運動又はオフセット補正されたヨー角速度の計測値を、自車両の運動の推定結果として出力する運動推定結果出力部26とを備えている。   The computer 16 estimates the three-axis angular velocity of the host vehicle and a component indicating the translation direction as the motion of the host vehicle. The computer 16 includes a CPU, a RAM, and a ROM that stores a program for executing a motion estimation processing routine described later, and is functionally configured as follows. The computer 16 includes an image input unit 18 that acquires a plurality of images captured by the image capturing unit 12, a motion estimation candidate calculation unit 20 that calculates a plurality of motion estimation candidates for the host vehicle based on the plurality of images, and a calculation. Based on the plurality of motion estimation candidates, the motion estimation unit 22 that estimates the motion of the host vehicle, the offset correction unit 24 that corrects the offset amount of the measurement value measured by the gyro sensor 14, and the estimated host vehicle And a motion estimation result output unit 26 that outputs a measured value of the yaw angular velocity subjected to the motion or offset correction as an estimation result of the motion of the host vehicle.

運動推定候補算出部20は、図2に示すように、画像撮像部12により得られた複数の画像の各々から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部30と、特徴点抽出部30により得られた2つの画像の各々における特徴点から、2つの画像の間で対応する特徴点(以下、対応点と称する)を検索し、対応点に基づくオプティカルフローを算出する対応点検索部32と、対応点検索部32で得られたオプティカルフローから、8つのオプティカルフローを複数種類の組み合わせで選択するオプティカルフローグルーピング部34と、選択されたオプティカルフローの組み合わせの各種類について、当該オプティカルフローの組み合わせを入力として、対応点が検索された一方の画像を撮像したときの画像撮像部12の位置姿勢を基準とした、対応点が検索された他方の画像を撮像したときの画像撮像部12の位置姿勢への変化(位置姿勢の相対関係)を、画像撮像部12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量として算出する運動算出部36とを備えている。   As shown in FIG. 2, the motion estimation candidate calculation unit 20 extracts a feature point extraction unit 30 that extracts a plurality of feature points that can be easily traced on an image from each of a plurality of images obtained by the image capturing unit 12, and a feature. Corresponding feature that searches corresponding feature points (hereinafter referred to as corresponding points) between the two images from the feature points in each of the two images obtained by the point extraction unit 30, and calculates an optical flow based on the corresponding points. From the point search unit 32 and the optical flow obtained by the corresponding point search unit 32, an optical flow grouping unit 34 that selects eight optical flows in a combination of a plurality of types, and each type of combination of selected optical flows, Position and orientation of the image capturing unit 12 when the image of one of the corresponding points retrieved is captured using the combination of the optical flows as an input Changes in the position and orientation of the image capturing unit 12 (relative relationship between positions and orientations) when the other image for which the corresponding point has been searched are captured as a reference are the movement amounts of the motion of the image capturing unit 12 in the XYZ-axis directions. And a motion calculation unit 36 that calculates the rotation amount with reference to the XYZ axes.

特徴点抽出部30は、画像撮像部12から得られる異なる時刻に撮像した2枚の画像から、それぞれ特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばTomasi−Kanadeの方法や、Harrisオペレータなど)を用いて、自動的に抽出される。特徴点の数としては、全画像に対して30〜500点程度を想定すると良いが、状況に応じて、固定であってもよいし、可変であってもよい。適切な抽出方法であればその手法は上記の限りではない。   The feature point extraction unit 30 extracts feature points from two images captured at different times obtained from the image capturing unit 12. A feature point refers to a point that can be distinguished from surrounding points and that makes it easy to obtain a correspondence between different images. The feature points are automatically extracted by using a method (for example, the Tomasi-Kanade method or the Harris operator) that detects pixels in which the gradient value of the change in shading increases two-dimensionally. The number of feature points may be approximately 30 to 500 points for all images, but may be fixed or variable depending on the situation. The method is not limited to the above as long as it is an appropriate extraction method.

Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。   In the method using the Harris operator, feature points are extracted as described below. First, the matrix M is calculated by the following equation (1), where the luminance of the point (u, v) of the image is I (u, v).

Figure 0005609667
Figure 0005609667

ただし、I,Iはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.

そして、上記(1)式で計算された行列Mの固有値λ、λを用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).

Figure 0005609667
Figure 0005609667

ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。   However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. In the method using the Harris operator, a point at which the corner intensity is equal to or greater than a threshold value is selected, and the selected point is extracted as a feature point.

対応点検索部32は、特徴点抽出部30において2つの画像の各々から抽出された特徴点について、2つの画像間での対応付けを行って、2つの画像間の対応点を検索する。画像間での特徴点の対応付けでは、対応する点が同一ならば、画像1と画像2で対応する点とその周囲の点の輝度は殆ど変化しないと仮定し、この仮定に基づいて各特徴点の対応付けを行う。例えば、特徴点周辺に設定した小領域での輝度分布が似ている点の組を選択し、選択された点の組を対応点とする。特徴点の対応付け(特徴点追跡)の周知の手法として、ルーカスカナデ法(Lucas−Kanade法)などが挙げられる。また、対応点検索部32は、検索した対応点の各々について、オプティカルフローを算出する。   The corresponding point search unit 32 searches the corresponding points between the two images by associating the two points of the feature points extracted from each of the two images by the feature point extracting unit 30. In the association of feature points between images, if the corresponding points are the same, it is assumed that the luminance of the corresponding points in image 1 and image 2 and the surrounding points hardly change, and based on this assumption, each feature Do point association. For example, a set of points having similar brightness distributions in a small area set around a feature point is selected, and the selected set of points is set as a corresponding point. A well-known technique for feature point association (feature point tracking) includes the Lucas-Kanade method (Lucas-Kanade method). The corresponding point search unit 32 calculates an optical flow for each of the searched corresponding points.

オプティカルフローグルーピング部34は、特徴点の対応付け(追跡)が完了した全対応点について算出された全オプティカルフローの中から、運動推定に用いる8つのオプティカルフローを任意に選択する。ここで選択したオプティカルフローの組み合わせによって、運動算出部36で算出される運動推定候補が決定される。オプティカルフローグルーピング部34は、8つのオプティカルフローの選択をN回繰り返し、N種類のオプティカルフローの組み合わせを生成する。なお、オプティカルフローの選び方はランダムであってもよいし、任意の方法でもよいが、オプティカルフローに含まれる誤差が分散するようにランダムに選択することが好ましい。また、8つ以上のオプティカルフローを選択するようにしてもよい。   The optical flow grouping unit 34 arbitrarily selects eight optical flows used for motion estimation from all the optical flows calculated for all corresponding points for which feature point association (tracking) has been completed. The motion estimation candidate calculated by the motion calculation unit 36 is determined by the combination of the optical flows selected here. The optical flow grouping unit 34 repeats the selection of eight optical flows N times, and generates a combination of N types of optical flows. The method of selecting the optical flow may be random or any method, but it is preferable to select the optical flow at random so that errors contained in the optical flow are dispersed. Also, eight or more optical flows may be selected.

運動算出部36は、オプティカルフローグルーピング部34より選択された8つのオプティカルフローの複数種類の組み合わせの各々について、当該組み合わせにおける8つのオプティカルフローから、2つの画像の各々が撮像されたときの画像撮像部12の位置及び姿勢の変化(XYZ軸方向の移動量及びXYZ軸を基準とする回転量)を計算する。位置姿勢の変化は、図3に示すように、第1の画像から第2の画像への回転行列R(X軸を基準とする回転量、Y軸を基準とする回転量、Z軸を基準とする回転量)と、並進ベクトルt(X軸方向の移動量t、Y軸方向の移動量t、Z軸方向の移動量t)との6要素から構成される運動である。なお、回転行列R及び並進ベクトルtの要素は、2つの画像間の画像座標の変換を表す物理量である。 For each of a plurality of combinations of the eight optical flows selected by the optical flow grouping unit 34, the motion calculation unit 36 captures images when each of the two images is captured from the eight optical flows in the combination. Changes in the position and orientation of the unit 12 (the amount of movement in the XYZ axis direction and the amount of rotation based on the XYZ axis) are calculated. As shown in FIG. 3, the change of the position and orientation is based on the rotation matrix R from the first image to the second image (the rotation amount based on the X axis, the rotation amount based on the Y axis, and the Z axis based on And a translation vector t (a movement amount t x in the X-axis direction, a movement amount t y in the Y-axis direction, and a movement amount t z in the Z-axis direction). Note that the elements of the rotation matrix R and the translation vector t are physical quantities representing conversion of image coordinates between two images.

ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標xと第2の画像におけるn点の対応点の画像座標x(オプティカルフローの始点と終点)について(n≧8)、対応点が正しくて誤差がなければ、以下の(3)式を満たす3×3行列Fが存在する。 Here, a calculation method of the rotation matrix R and the translation vector t from the first image to the second image will be described. For the first image coordinates of the corresponding point of the n points and the image coordinates x 1 of the corresponding point of n points in the second image in the image x 2 (start and end points of the optical flow) (n ≧ 8), corresponding points are correct If there is no error, there is a 3 × 3 matrix F that satisfies the following expression (3).

Figure 0005609667
Figure 0005609667

ここで、8組以上の対応点x、xがあれば、上記の基礎行列Fを算出することができる。 Here, if there are eight or more pairs of corresponding points x 1 and x 2 , the basic matrix F can be calculated.

上述したように基礎行列Fが計算でき、また、画像撮像部12のキャリブレーション行列Kが既知である場合には、カメラの撮像特性に依る画像の歪みを補正するキャリブレーション行列K、及び基礎行列Fを用いて、以下の(4)式、(5)式より、回転行列Rと並進ベクトルtとを計算することができる.   As described above, when the basic matrix F can be calculated and the calibration matrix K of the image capturing unit 12 is known, the calibration matrix K for correcting image distortion due to the imaging characteristics of the camera, and the basic matrix Using F, the rotation matrix R and the translation vector t can be calculated from the following equations (4) and (5).

Figure 0005609667
Figure 0005609667

ここで算出した運動を運動推定候補とする。オプティカルフローグルーピング部34によるオプティカルフローの選択と運動算出部36による算出とをN回繰り返すことにより、N個の運動推定候補が得られる。   The motion calculated here is set as a motion estimation candidate. By repeating the selection of the optical flow by the optical flow grouping unit 34 and the calculation by the motion calculation unit 36 N times, N motion estimation candidates are obtained.

また、運動推定部22は、図4に示すように、複数の運動推定候補の各々について、当該運動推定候補に対し動きが整合する特徴点を選別する特徴点選別部40と、各運動推定候補について選別された特徴点の数から運動推定候補の信頼度を判定する信頼度判定部42と、運動推定候補の信頼度に基づいて、運動推定候補を並び替えると共に選定する運動候補選定部44と、複数の運動推定候補に基づいて、画像中のオプティカルフロー群に対する信頼度を、シーンの信頼度として判定するシーン信頼度判定部46と、シーン信頼度判定部46で判定したシーンの信頼度に基づいて、運動候補選定部44で選定した運動推定候補の出力の可否を判定する使用判定部48とを備えている。   Further, as shown in FIG. 4, the motion estimation unit 22 selects, for each of a plurality of motion estimation candidates, a feature point selection unit 40 that selects a feature point whose motion matches the motion estimation candidate, and each motion estimation candidate. A reliability determination unit 42 that determines the reliability of the motion estimation candidate from the number of feature points selected with respect to the motion candidate selection unit 44 that rearranges and selects the motion estimation candidates based on the reliability of the motion estimation candidates; Based on a plurality of motion estimation candidates, the reliability of the optical flow group in the image is determined as the reliability of the scene, and the reliability of the scene determined by the scene reliability determination unit 46 And a use determination unit 48 that determines whether or not the motion estimation candidate selected by the motion candidate selection unit 44 can be output.

特徴点選別部40は、複数の運動推定候補の各々について、当該運動推定候補を算出する際に用いられた複数の特徴点のうち、当該運動推定候補に対し動きが整合する特徴点を選別する。   The feature point selection unit 40 selects, for each of a plurality of motion estimation candidates, a feature point whose motion matches the motion estimation candidate from among a plurality of feature points used when calculating the motion estimation candidate. .

例えば、図5に示すように、画像1で座標xに位置する特徴点Pが、基礎行列Fで表わされる運動に従って動く時、画像2での特徴点Pの座標はFxで表わされる線(エピポーラ線)上に位置する。すなわち、画像2における対応する特徴点の位置とエピポーラ線の距離が近い程、その特徴点の動きは運動推定候補に対する整合性が高いと言える。この性質を利用して、当該運動推定候補を算出する際に用いられた複数の特徴点のうち、対応するエピポーラ線との距離が閾値以下となる特徴点を選別する。 For example, as shown in FIG. 5, when the feature point P located at the coordinate x 1 in the image 1 moves according to the motion represented by the basic matrix F, the coordinate of the feature point P in the image 2 is a line represented by Fx 1. Located on (epipolar line). That is, it can be said that the closer the distance between the corresponding feature point in the image 2 and the epipolar line is, the higher the movement of the feature point is with the motion estimation candidate. Using this property, among the feature points used when calculating the motion estimation candidate, the feature point whose distance from the corresponding epipolar line is equal to or less than the threshold is selected.

信頼度判定部42は、複数の運動推定候補の各々について、特徴点選別部40で選別された、当該運動推定候補に対し動きが整合する特徴点の数に基づいて、当該運動推定候補の信頼度を判定する。特徴点の数が大きいほど、高い信頼度が判定される。また、信頼度の指標として、選別された特徴点の数をそのまま用いてもよいし、特徴点の数に任意の関数を適用した結果を用いてもよい。   For each of the plurality of motion estimation candidates, the reliability determination unit 42 selects the reliability of the motion estimation candidate based on the number of feature points that are selected by the feature point selection unit 40 and whose motion matches the motion estimation candidate. Determine the degree. The higher the number of feature points, the higher the reliability is determined. As the reliability index, the number of selected feature points may be used as it is, or a result obtained by applying an arbitrary function to the number of feature points may be used.

運動候補選定部44は、N個の運動推定候補について、算出された信頼度が高い順に並び替え、信頼度によって順位付けされた運動推定候補M〜Nのうち一番順位が高い運動推定候補が出力される。 The motion candidate selection unit 44 rearranges the N motion estimation candidates in descending order of the calculated reliability, and the motion estimation with the highest ranking among the motion estimation candidates M 1 to N N ranked according to the reliability. Candidates are output.

シーン信頼度判定部46は、運動推定候補算出部20で得たN個の運動推定候補M〜MNに基づき、画像中のオプティカルフロー群に対する信頼度をシーンの信頼度として算出する。まず、図6に示すように、運動推定候補のばらつき度合いとして、運動推定候補M〜MNの分散値σを算出する。次に、その分散値σに基づいて、シーンの信頼度の算出を行う。例えば、以下の(6)式に従って、シーンの信頼度を算出する。
R=log(1+1/σ) ・・・(6)
上記(6)式によって、オプティカルフロー誤差と反比例の関係にあるシーンの信頼度が得られる(図7参照)。なお、図7では、各オプティカルフローに対してランダムに誤差を与えたときの誤差の平均値[pixel]と、シーンの信頼度との関係を示している。
The scene reliability determination unit 46 calculates the reliability of the optical flow group in the image as the reliability of the scene based on the N motion estimation candidates M 1 to M N obtained by the motion estimation candidate calculation unit 20. First, as illustrated in FIG. 6, the variance value σ of the motion estimation candidates M 1 to M N is calculated as the degree of variation of the motion estimation candidates. Next, the reliability of the scene is calculated based on the variance value σ. For example, the reliability of the scene is calculated according to the following equation (6).
R = log (1 + 1 / σ) (6)
By the above equation (6), the reliability of the scene that is inversely proportional to the optical flow error is obtained (see FIG. 7). FIG. 7 shows the relationship between the error average value [pixel] when an error is randomly given to each optical flow and the reliability of the scene.

分散値の算出では、運動推定候補M〜MNのうち、全て用いてもよいし、ジャイロセンサ14を用いた計測結果との比較などによって選別した一部を用いてもよい。また、運動の回転3成分(pitch、yaw、roll)と並進3成分(tx,ty,tz)のうち、分散値の算出に用いる運動成分は1成分でもよいし、複数成分でもよいし、複数成分の組み合わせでもよい。 In the calculation of the variance value, all of the motion estimation candidates M 1 to M N may be used, or a part selected by comparison with a measurement result using the gyro sensor 14 may be used. Of the three rotational components of motion (pitch, yaw, roll) and the three translational components (tx, ty, tz), the motion component used to calculate the variance value may be one component, multiple components, or multiple A combination of ingredients may be used.

使用判定部48は、シーン信頼度判定部46で判定したシーンの信頼度に基づき、運動候補選定部44で選定した運動推定結果の出力の可否を判定する。例えば、θをシーンの信頼度Rに関する閾値とした場合、R≧θを満たす時のみ、選定した運動推定結果を出力可能であると判定する。これによって、誤差の値が一定値以下の運動推定結果のみが出力される。一方、R<θの時は、使用判定部48は、運動推定結果が使用不可であると判定する。例えば、誤ったオプティカルフローが多いシーンでは、シーンの信頼度Rが低くなるため、運動推定結果を出力しない。   The use determination unit 48 determines whether the motion estimation result selected by the motion candidate selection unit 44 can be output based on the reliability of the scene determined by the scene reliability determination unit 46. For example, when θ is a threshold value regarding the reliability R of the scene, it is determined that the selected motion estimation result can be output only when R ≧ θ is satisfied. As a result, only a motion estimation result with an error value equal to or less than a certain value is output. On the other hand, when R <θ, the use determination unit 48 determines that the motion estimation result is unusable. For example, in a scene with many erroneous optical flows, since the reliability R of the scene is low, a motion estimation result is not output.

オフセット補正部24は、ジャイロセンサ14によって計測されたヨー角速度の計測値を取得し、ジャイロセンサ14の計測値のオフセット(定常的な偏差)を補正した値を、運動計測結果Yとして出力する。運動推定部22の出力値とジャイロセンサ14の計測値とについて、現時刻から過去一定期間の平均値の差を算出し、オフセット補正値として設定する。また、オフセット補正値はタイムステップ毎に算出される。ただし、運動推定部22において、運動推定候補算出部20により算出された運動推定候補が全て不採用であった場合、その時刻の入力を除いて平均値を算出する。 Offset correction unit 24 obtains the measured value of the yaw angular velocity measured by the gyro sensor 14, a value obtained by correcting an offset (steady deviation) of the measurement values of the gyro sensor 14, and outputs as the motion measurement result Y g . For the output value of the motion estimator 22 and the measured value of the gyro sensor 14, the difference between the average values of the past fixed period from the current time is calculated and set as the offset correction value. The offset correction value is calculated for each time step. However, when all the motion estimation candidates calculated by the motion estimation candidate calculation unit 20 are not adopted, the motion estimation unit 22 calculates an average value except for the input of the time.

運動推定結果出力部26は、運動推定部22から運動推定候補が出力された場合には、当該運動推定候補を、運動推定結果として出力し、運動推定部22から運動推定候補が出力されなかった場合には、オフセット補正部24から出力されたYを運動の推定結果として出力する。また、運動推定結果出力部26は、運動推定部22から運動推定候補が出力されなかった場合に、適当な文字列を出力するようにしてもよいし、運動推定値として通常取り得ない大きな値などを出力するようにしてもよい。 When the motion estimation candidate is output from the motion estimation unit 22, the motion estimation result output unit 26 outputs the motion estimation candidate as a motion estimation result, and the motion estimation candidate 22 is not output. In this case, Y g output from the offset correction unit 24 is output as the motion estimation result. The motion estimation result output unit 26 may output an appropriate character string when a motion estimation candidate is not output from the motion estimation unit 22, or a large value that cannot normally be obtained as a motion estimation value. May be output.

次に、第1の実施の形態に係る運動推定装置10の作用について説明する。なお、運動推定装置10を搭載した自車両が走行しているときに、自車両の運動を推定する場合を例に説明する。   Next, the operation of the motion estimation apparatus 10 according to the first embodiment will be described. In addition, the case where the motion of the own vehicle is estimated when the own vehicle carrying the motion estimation device 10 is traveling will be described as an example.

まず、運動推定装置10において、図8に示す運動推定処理ルーチンが実行される。ステップ100において、異なるタイミングで画像撮像部12によって自車両前方を撮像した第1の画像及び第2の画像を取得すると共に、第1の画像及び第2の画像を撮像する間にジャイロセンサ14によって計測されたヨー角速度を取得する。そして、ステップ102において、上記ステップ100で取得された第1の画像及び第2の画像に基づいて、複数の運動推定候補を算出する。   First, in the motion estimation apparatus 10, a motion estimation processing routine shown in FIG. 8 is executed. In step 100, the first image and the second image obtained by imaging the front of the host vehicle at different timings are acquired, and the gyro sensor 14 captures the first image and the second image. Get the measured yaw angular velocity. In step 102, a plurality of motion estimation candidates are calculated based on the first image and the second image acquired in step 100.

上記ステップ102は、図9に示す運動推定候補算出処理ルーチンによって実現される。まず、ステップ120において、第1の画像及び第2の画像から、それぞれ所定の数だけ特徴点を抽出する。そして、ステップ122において、上記ステップ120で抽出された第1の画像における特徴点の各々を、第2の画像において追跡し、第2の画像から、対応する各特徴点をそれぞれ検索し、検索された対応点のオプティカルフローを各々算出する。   Step 102 is realized by the motion estimation candidate calculation processing routine shown in FIG. First, in step 120, a predetermined number of feature points are extracted from each of the first image and the second image. Then, in step 122, each feature point in the first image extracted in step 120 is tracked in the second image, and each corresponding feature point is searched from the second image. Each optical flow of the corresponding points is calculated.

そして、ステップ124において、算出された運動推定候補の数を示す変数nを初期値の1に設定し、ステップ126において、上記ステップ122で算出された複数のオプティカルフローから、8つのオプティカルフローの組み合わせをランダムに選択する。ステップ128では、上記ステップ126で選択された8つのオプティカルフローから、2つの撮像時刻間における画像撮像部12の相対的な位置関係、即ち、画像撮像部12を搭載した自車両のその2時刻間における運動を推定する。   In step 124, a variable n indicating the number of motion estimation candidates calculated is set to an initial value of 1. In step 126, a combination of eight optical flows is selected from the plurality of optical flows calculated in step 122. Select at random. In step 128, from the eight optical flows selected in step 126, the relative positional relationship of the image capturing unit 12 between the two image capturing times, that is, between the two times of the host vehicle on which the image capturing unit 12 is mounted. Estimate the motion at.

そして、ステップ130では、変数nが、算出する運動推定候補の数を表わす定数N未満であるか否かを判定し、N個の運動推定候補を算出していない場合には、ステップ132において、変数nをインクリメントしてステップ126へ戻るが、一方、変数nがNに達した場合には、運動推定候補算出処理ルーチンを終了する。以上のように、運動推定候補算出処理ルーチンが実行されると、N個の運動推定候補が出力される。   In step 130, it is determined whether the variable n is less than a constant N representing the number of motion estimation candidates to be calculated. If N motion estimation candidates are not calculated, in step 132, The variable n is incremented and the process returns to step 126. On the other hand, if the variable n reaches N, the motion estimation candidate calculation processing routine is terminated. As described above, when the motion estimation candidate calculation processing routine is executed, N motion estimation candidates are output.

そして、運動推定処理ルーチンのステップ104では、上記ステップ102で算出されたN個の運動推定候補から、1つの運動推定候補を選定する。上記ステップ104は、図10に示す運動候補選定処理ルーチンによって実現される。   In step 104 of the motion estimation processing routine, one motion estimation candidate is selected from the N motion estimation candidates calculated in step 102. Step 104 is realized by the exercise candidate selection processing routine shown in FIG.

まず、ステップ140において、判定対象の運動推定候補を設定し、ステップ142において、判定対象の運動推定候補を算出する際に用いられた複数の特徴点の各々について、第2の画像におけるエピポーラ線を求める。   First, in step 140, a motion estimation candidate to be determined is set, and in step 142, an epipolar line in the second image is obtained for each of a plurality of feature points used when calculating the motion estimation candidate to be determined. Ask.

そして、ステップ144において、判定対象の運動推定候補を算出する際に用いられた複数の特徴点から、第2の画像における対応する特徴点とエピポーラ線との距離が閾値以下となる特徴点を選別する。次のステップ146では、上記ステップ144で選別された特徴点の数に基づいて、判定対象の運動推定候補の信頼度を判定する。   In step 144, a feature point in which the distance between the corresponding feature point in the second image and the epipolar line is equal to or less than a threshold is selected from the plurality of feature points used in calculating the motion estimation candidate to be determined. To do. In the next step 146, the reliability of the motion estimation candidate to be determined is determined based on the number of feature points selected in step 144.

そして、ステップ148では、全ての運動推定候補について信頼度の判定が行われたか否かを判定し、信頼度が判定されていない運動推定候補がある場合には、ステップ140へ戻るが、一方、全ての運動推定候補について信頼度の判定が行われた場合には、ステップ150へ移行する。   In step 148, it is determined whether or not reliability determination has been performed for all motion estimation candidates. If there is a motion estimation candidate for which reliability has not been determined, the process returns to step 140. When the reliability determination is performed for all the motion estimation candidates, the process proceeds to step 150.

ステップ150では、各運動推定候補について判定された信頼度に基づいて、N個の運動推定候補を、信頼度の高い順に並び替え、最も信頼度の高い運動推定候補を選定して、運動候補選定処理ルーチンを終了する。   In step 150, based on the reliability determined for each motion estimation candidate, the N motion estimation candidates are rearranged in descending order of reliability, the motion estimation candidate with the highest reliability is selected, and motion candidate selection is performed. The processing routine ends.

そして、運動推定処理ルーチンのステップ106では、上記ステップ102で算出されたN個の運動推定候補に基づいて、シーンの信頼度を判定する。次のステップ108では、上記ステップ106で判定されたシーンの信頼度と閾値とを比較して、上記ステップ104で選定された運動推定候補が、使用可能であるか否かを判定する。シーンの信頼度が閾値以上である場合には、選定された運動推定候補が、使用可能であると判定され、ステップ110において、上記ステップ104で選定された運動推定候補を、運動の推定結果として出力する。   In step 106 of the motion estimation processing routine, the reliability of the scene is determined based on the N motion estimation candidates calculated in step 102. In the next step 108, the reliability of the scene determined in step 106 is compared with a threshold value to determine whether or not the motion estimation candidate selected in step 104 is usable. If the reliability of the scene is equal to or greater than the threshold value, it is determined that the selected motion estimation candidate is usable. In step 110, the motion estimation candidate selected in step 104 is used as the motion estimation result. Output.

そして、ステップ112において、過去一定期間で推定された運動のヨー角速度の平均値と、過去一定期間でジャイロセンサ14より計測されたヨー角速度の平均値とを算出し、ステップ114において、上記ステップ112で算出されたヨー角速度の平均値の差分を、オフセット補正値として算出して、上記ステップ100へ戻る。   In step 112, the average value of the yaw angular velocity of the motion estimated in the past fixed period and the average value of the yaw angular velocity measured by the gyro sensor 14 in the past fixed period are calculated. In step 114, the above step 112 The difference between the average values of the yaw angular velocities calculated in step 1 is calculated as an offset correction value, and the process returns to step 100.

一方、上記ステップ108で、シーンの信頼度が閾値未満であり、選定された運動推定候補が、使用不可であると判定された場合には、ステップ116において、上記ステップ114で前回算出されたオフセット補正値を用いて、上記ステップ100で取得したヨー角速度のオフセット量を補正する。次のステップ118では、上記ステップ116で補正されたヨー角速度を、自車両の運動の推定結果として出力し、上記ステップ100へ戻る。   On the other hand, if it is determined in step 108 that the reliability of the scene is less than the threshold value and the selected motion estimation candidate is unusable, the offset previously calculated in step 114 is determined in step 116. Using the correction value, the offset amount of the yaw angular velocity acquired in step 100 is corrected. In the next step 118, the yaw angular velocity corrected in step 116 is output as the motion estimation result of the host vehicle, and the process returns to step 100.

以上説明したように、第1の実施の形態に係る運動推定装置によれば、運動推定候補の分散値に基づくシーンの信頼度に基づいて、運動推定候補が使用不可能であると判定された場合には、運動推定結果の出力を行わず、運動推定候補の分散値に基づくシーンの信頼度に基づいて、運動推定候補が使用可能であると判定された場合に、運動推定候補の各々の信頼度に基づいて、運動推定候補のうちの何れか1つを、移動体の運動の推定結果として選択することにより、自車両の運動を精度よく推定することができる。   As described above, according to the motion estimation device according to the first embodiment, it is determined that the motion estimation candidate is unusable based on the reliability of the scene based on the variance value of the motion estimation candidate. If the motion estimation candidate is determined to be usable based on the reliability of the scene based on the variance value of the motion estimation candidate without outputting the motion estimation result, each of the motion estimation candidates is output. By selecting any one of the motion estimation candidates as the motion estimation result of the moving body based on the reliability, the motion of the host vehicle can be accurately estimated.

また、照明条件の変化や移動物の移動などによって多数の特徴点が誤った動き(自車両の運動とは異なる動きを含む)をする時、ランダムに生成したオプティカルフローのグループから算出する運動推定候補は、それぞれランダムに誤差を含むため、複数の運動推定候補の分散値は増加する。よって、運動推定候補の分散値を指標として用いることで、誤った動きの特徴点が多いシーン(大きな運動推定誤差が生じる可能性が高いシーン)を区別することができ、運動推定誤差が生じやすいシーンか否かを判定することができる。また、この判定を行うことで、算出された運動推定候補から信頼度が高い運動のみを抽出することができる。   In addition, when many feature points move incorrectly (including movements different from the movement of the host vehicle) due to changes in lighting conditions or movement of moving objects, motion estimation is calculated from a randomly generated optical flow group. Since each candidate includes an error at random, the variance value of a plurality of motion estimation candidates increases. Therefore, by using the variance value of motion estimation candidates as an index, it is possible to distinguish a scene with many erroneous motion feature points (a scene with a high possibility of causing a large motion estimation error), and a motion estimation error is likely to occur. Whether it is a scene or not can be determined. In addition, by performing this determination, it is possible to extract only a motion with high reliability from the calculated motion estimation candidates.

一般に、画像中の遠方の物体は、近くの物体に比べて、解像度(物体領域を表現する画素数)が低下する。このため、遠方の物体では近くの物体に比べて1画素あたりの誤差の影響が大きくなる。例えば、画像中のオプティカルフローが一律に1画素の誤差を有する場合、図11(A)に示すような近くの物体上のオプティカルフローを用いて自車運動推定を行うよりも、図12(A)に示すような遠方の物体上のオプティカルフローを用いて自車運動推定を行う方が推定精度の劣化が大きい。   In general, a distant object in an image has a lower resolution (the number of pixels representing an object region) than a nearby object. For this reason, the influence of an error per pixel is greater in a distant object than in a nearby object. For example, when the optical flow in the image uniformly has an error of one pixel, the vehicle motion estimation is performed rather than performing the vehicle motion estimation using the optical flow on a nearby object as illustrated in FIG. The estimation accuracy is greatly degraded when the vehicle motion estimation is performed using the optical flow on the distant object as shown in FIG.

本実施の形態では、オプティカルフロー群からオプティカルフローを複数個選択して、複数種類の組み合わせを作り、それぞれの組み合わせから運動推定候補を算出し、その分散値に基づきオプティカルフロー群全体の信頼性を評価している。従って、各オプティカルフローの画素の誤差ではなく、選択したオプティカルフローから算出した運動推定候補の分散値を評価することで、上述した遠近の差による誤差の影響の違いを反映することができる。すなわち、図11(B)に示すように、選択したオプティカルフローが近くの物体上のオプティカルフローであれば、オプティカルフローの誤差が小さくなり、運動候補の分散が小さくなるため、シーンの信頼度が高くなる。一方、図12(B)に示すように、選択したオプティカルフローが遠くの物体上のオプティカルフローであれば、オプティカルフローの誤差が大きくなり、運動候補の分散が大きくなるため、シーンの信頼度が低くなる。よって、上述した遠近の差による誤差の影響の違いを反映して、自車両の運動を精度良く推定することができる。   In this embodiment, a plurality of optical flows are selected from the optical flow group, a plurality of types of combinations are created, a motion estimation candidate is calculated from each combination, and the reliability of the entire optical flow group is determined based on the variance value. Evaluating. Therefore, by evaluating the variance value of the motion estimation candidate calculated from the selected optical flow instead of the error of each optical flow pixel, it is possible to reflect the difference in error due to the above-described perspective difference. That is, as shown in FIG. 11B, if the selected optical flow is an optical flow on a nearby object, the error of the optical flow is reduced and the variance of motion candidates is reduced, so that the reliability of the scene is increased. Get higher. On the other hand, as shown in FIG. 12B, if the selected optical flow is an optical flow on a distant object, the error of the optical flow becomes large and the variance of motion candidates becomes large. Lower. Therefore, it is possible to accurately estimate the motion of the host vehicle by reflecting the difference in the influence of the error due to the difference in perspective.

また、ジャイロセンサによる計測値のオフセット量を補正することにより、自車両のヨー角速度を精度よく計測することができ、これにより、自車両の運動をより精度よく推定することができる。   Further, by correcting the offset amount of the measurement value by the gyro sensor, it is possible to accurately measure the yaw angular velocity of the own vehicle, and thereby it is possible to estimate the motion of the own vehicle more accurately.

また、撮像画像に基づく運動推定において、複数の運動推定候補を算出し、運動推定候補が使用不可であると判定された場合、ジャイロセンサの計測値を運動推定結果として用いることで、適切な運動推定結果を安定的に取得することができる。   In addition, in motion estimation based on captured images, a plurality of motion estimation candidates are calculated, and when it is determined that the motion estimation candidates are unusable, an appropriate motion can be obtained by using the measurement value of the gyro sensor as the motion estimation result. The estimation result can be acquired stably.

次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る運動推定装置は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。   Next, a second embodiment will be described. In addition, since the motion estimation apparatus according to the second embodiment has the same configuration as that of the first embodiment, the same reference numerals are given and description thereof is omitted.

第2の実施の形態では、ジャイロセンサを用いた計測値との差分が一定範囲内となる運動推定候補から、運動推定候補を選定している点が、第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that a motion estimation candidate is selected from motion estimation candidates whose difference from a measurement value using a gyro sensor is within a certain range. .

第2の実施の形態に係る運動推定装置では、運動候補選定部44によって、ジャイロセンサ14によって計測されたヨー角速度の計測値を取得し、N個の運動推定候補について、ヨー角速度の計測値との差分が一定範囲内となる運動推定候補を選択する。また、運動候補選定部44は、選択した運動推定候補(例えば、L個の運動推定候補とする)を、算出された信頼度が高い順に並び替え、信頼度によって順位付けされた運動推定候補M〜Mの(L≦N)うち一番順位が高い運動推定候補を選定して出力する。 In the motion estimation apparatus according to the second embodiment, the motion candidate selection unit 44 acquires the measured value of the yaw angular velocity measured by the gyro sensor 14, and the measured values of the yaw angular velocity for the N motion estimation candidates are obtained. Motion estimation candidates for which the difference between them is within a certain range are selected. In addition, the motion candidate selection unit 44 rearranges the selected motion estimation candidates (for example, L motion estimation candidates) in descending order of the calculated reliability, and the motion estimation candidates M ranked according to the reliability. A motion estimation candidate having the highest rank among 1 to ML (L ≦ N) is selected and output.

なお、第2の実施の形態に係る運動推定装置の他の構成及び処理については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and process of the motion estimation apparatus which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

また、上記の第1の実施の形態〜第2の実施の形態では、選別された特徴点の数に基づいて、運動推定候補に対する信頼度を判定する場合を例に説明したが、これに限定されるものではなく、運動推定候補を算出する際に用いられた複数の特徴点の各々とエピポーラ線との距離の平均値を用いて、当該運動推定候補に対する信頼度を判定してもよい。   In the first to second embodiments described above, the case where the reliability of the motion estimation candidate is determined based on the number of selected feature points has been described as an example. However, the present invention is not limited thereto. Instead, the reliability of the motion estimation candidate may be determined using the average value of the distances between each of the plurality of feature points used in calculating the motion estimation candidate and the epipolar line.

また、算出した複数の運動推定候補のうち何れかを選定した後に、運動推定候補の使用可否を判定する場合を例に説明したが、これに限定されるものではなく、運動推定候補の使用可否を判定し、運動推定候補が使用可能であると判定された場合に、算出した複数の運動推定候補のうち何れかを選定するようにしてもよい。   Moreover, although the case where the availability of the motion estimation candidate is determined after selecting one of the calculated motion estimation candidates has been described as an example, the present invention is not limited to this. If it is determined that the motion estimation candidate is usable, any one of the plurality of calculated motion estimation candidates may be selected.

また、8つのオプティカルフローの組み合わせを選択するたびに、運動推定候補を算出する場合を例に説明したが、これに限定されるものではなく、8つのオプティカルフローの組み合わせからなるグループを複数生成してから、各グループについて、運動推定候補を算出するようにしてもよい。   In addition, the case where the motion estimation candidate is calculated every time a combination of eight optical flows is selected has been described as an example. However, the present invention is not limited to this, and a plurality of groups composed of combinations of eight optical flows are generated. Then, the motion estimation candidate may be calculated for each group.

また、検索された対応点についてオプティカルフローを算出する場合を例に説明したが、これに限定されるものではなく、オプティカルフローを算出せずに、検索された全ての対応点から8つの対応点を選択して、選択された8つの対応点について、運動推定候補を算出するようにしてもよい。   Further, the case where the optical flow is calculated for the searched corresponding points has been described as an example. However, the present invention is not limited to this, and eight corresponding points are calculated from all the searched corresponding points without calculating the optical flow. The motion estimation candidates may be calculated for the eight selected corresponding points.

また、ジャイロセンサによってヨー角速度を計測する場合を例に説明したが、これに限定されるものではなく、ジャイロセンサによって3軸角速度を計測するように構成してもよく、ヨー角速度、ピッチ角速度、及びロール角速度の少なくとも1つを計測するように構成してもよい。また、センサによって並進3成分の少なくとも1つを計測するようにしてもよい。   Further, the case where the yaw angular velocity is measured by the gyro sensor has been described as an example. However, the present invention is not limited to this, and the three-axis angular velocity may be measured by the gyro sensor, and the yaw angular velocity, pitch angular velocity, In addition, at least one of the roll angular velocity may be measured. Further, at least one of the three translational components may be measured by a sensor.

本発明のプログラムは、記憶媒体に格納して提供するようにしてもよい。   The program of the present invention may be provided by being stored in a storage medium.

10 運動推定装置
12 画像撮像部
14 ジャイロセンサ
16 コンピュータ
20 運動推定候補算出部
22 運動推定部
24 オフセット補正部
26 運動推定結果出力部
30 特徴点抽出部
32 対応点検索部
34 オプティカルフローグルーピング部
36 運動算出部
40 特徴点選別部
42 信頼度判定部
44 運動候補選定部
46 シーン信頼度判定部
48 使用判定部
DESCRIPTION OF SYMBOLS 10 Motion estimation apparatus 12 Image pick-up part 14 Gyro sensor 16 Computer 20 Motion estimation candidate calculation part 22 Motion estimation part 24 Offset correction part 26 Motion estimation result output part 30 Feature point extraction part 32 Corresponding point search part 34 Optical flow grouping part 36 Motion Calculation unit 40 Feature point selection unit 42 Reliability determination unit 44 Motion candidate selection unit 46 Scene reliability determination unit 48 Usage determination unit

Claims (4)

移動体の外部を撮像した複数の画像の各々から、前記複数の画像間で対応した特徴点を検索する検索手段と、
前記検索手段によって検索された前記対応した特徴点の全ての組から、前記対応した特徴点の複数の組を繰り返し選択し、前記繰り返し選択された前記対応した特徴点の複数の組に基づいて、前記複数の画像の各々を撮像したときの前記移動体の位置及び姿勢の相対関係を表わす運動を、前記移動体の運動の推定候補として各々算出する候補算出手段と、
前記候補算出手段によって算出された前記運動の推定候補の各々について、該運動の推定候補がどれだけ信頼できるかを示す信頼度を算出する信頼度算出手段と、
前記候補算出手段によって算出された前記運動の推定候補の各々に基づいて、前記運動の推定候補のばらつき度合いを算出し、前記運動の推定候補のばらつき度合いに基づいて、前記運動の推定候補の使用可否を判定する使用可否判定手段と、
前記使用可否判定手段によって前記運動の推定候補が使用可能であると判定された場合に、前記信頼度算出手段によって算出された前記運動の推定候補の各々の信頼度に基づいて、前記運動の推定候補のうちの何れか1つを、前記移動体の運動の推定結果として選択する運動推定手段と、
を含む運動推定装置。
Search means for searching for feature points corresponding to the plurality of images from each of a plurality of images obtained by imaging the outside of the moving body;
From all the sets of corresponding feature points searched by the search means, repeatedly select a plurality of sets of the corresponding feature points, and based on the plurality of sets of the corresponding feature points repeatedly selected, Candidate calculation means for calculating motions representing the relative relationship between the position and orientation of the moving body when each of the plurality of images is captured, as motion motion estimation candidates, respectively.
For each of the motion estimation candidates calculated by the candidate calculation means, reliability calculation means for calculating the reliability indicating how reliable the motion estimation candidate is,
Based on each of the motion estimation candidates calculated by the candidate calculation means, the variation degree of the motion estimation candidates is calculated, and based on the variation degree of the motion estimation candidates, the use of the motion estimation candidates Availability determination means for determining availability; and
When it is determined that the motion estimation candidate is usable by the usability determination unit, the motion estimation is performed based on the reliability of each of the motion estimation candidates calculated by the reliability calculation unit. Motion estimation means for selecting any one of the candidates as a motion estimation result of the moving body;
A motion estimation device including:
前記候補算出手段は、前記検索手段によって検索された前記対応した特徴点の複数の組をランダムに繰り返し選択して、前記移動体の運動の推定候補を各々算出する請求項1記載の運動推定装置。   The motion estimation apparatus according to claim 1, wherein the candidate calculation unit repeatedly selects a plurality of sets of the corresponding feature points searched by the search unit at random, and calculates each motion estimation candidate of the moving object. . ジャイロセンサを用いて前記移動体の運動を計測する運動計測手段と、
前記運動計測手段による前記移動体の運動の計測値と、前記運動推定手段による前記移動体の運動の推定結果との差分に基づいて、前記ジャイロセンサを用いて計測される前記移動体の運動の計測値のオフセット量を補正するオフセット補正手段とを更に含む請求項1又は2記載の運動推定装置。
Motion measuring means for measuring the motion of the moving body using a gyro sensor;
Based on the difference between the measured value of the motion of the moving body by the motion measuring means and the estimation result of the motion of the moving body by the motion estimating means, the motion of the moving body measured using the gyro sensor is measured. The motion estimation apparatus according to claim 1, further comprising offset correction means for correcting an offset amount of the measurement value.
コンピュータを、
移動体の外部を撮像した複数の画像の各々から、前記複数の画像間で対応した特徴点を検索する検索手段、
前記検索手段によって検索された前記対応した特徴点の全ての組から、前記対応した特徴点の複数の組を繰り返し選択し、前記繰り返し選択された前記対応した特徴点の複数の組に基づいて、前記複数の画像の各々を撮像したときの前記移動体の位置及び姿勢の相対関係を表わす運動を、前記移動体の運動の推定候補として各々算出する候補算出手段、
前記候補算出手段によって算出された前記運動の推定候補の各々について、該運動の推定候補がどれだけ信頼できるかを示す信頼度を算出する信頼度算出手段、
前記候補算出手段によって算出された前記運動の推定候補の各々に基づいて、前記運動の推定候補のばらつき度合いを算出し、前記運動の推定候補のばらつき度合いに基づいて、前記運動の推定候補の使用可否を判定する使用可否判定手段、及び
前記使用可否判定手段によって前記運動の推定候補が使用可能であると判定された場合に、前記信頼度算出手段によって算出された前記運動の推定候補の各々の信頼度に基づいて、前記運動の推定候補のうちの何れか1つを、前記移動体の運動の推定結果として選択する運動推定手段
として機能させるためのプログラム。
Computer
Search means for searching corresponding feature points between the plurality of images from each of a plurality of images obtained by imaging the outside of the moving body;
From all the sets of corresponding feature points searched by the search means, repeatedly select a plurality of sets of the corresponding feature points, and based on the plurality of sets of the corresponding feature points repeatedly selected, Candidate calculation means for calculating a motion representing a relative relationship between the position and orientation of the moving body when each of the plurality of images is captured as an estimation candidate for the motion of the moving body,
For each of the motion estimation candidates calculated by the candidate calculation means, reliability calculation means for calculating the reliability indicating how reliable the motion estimation candidate is,
Based on each of the motion estimation candidates calculated by the candidate calculation means, the variation degree of the motion estimation candidates is calculated, and based on the variation degree of the motion estimation candidates, the use of the motion estimation candidates And a determination unit for determining whether or not the motion estimation candidate is usable by the availability determination unit, and each of the motion estimation candidates calculated by the reliability calculation unit is determined. A program for causing any one of the motion estimation candidates to function as motion estimation means for selecting as a motion estimation result of the moving body based on the reliability.
JP2011008829A 2011-01-19 2011-01-19 Motion estimation apparatus and program Expired - Fee Related JP5609667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011008829A JP5609667B2 (en) 2011-01-19 2011-01-19 Motion estimation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011008829A JP5609667B2 (en) 2011-01-19 2011-01-19 Motion estimation apparatus and program

Publications (2)

Publication Number Publication Date
JP2012150655A JP2012150655A (en) 2012-08-09
JP5609667B2 true JP5609667B2 (en) 2014-10-22

Family

ID=46792842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011008829A Expired - Fee Related JP5609667B2 (en) 2011-01-19 2011-01-19 Motion estimation apparatus and program

Country Status (1)

Country Link
JP (1) JP5609667B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6865064B2 (en) * 2017-03-03 2021-04-28 日立Astemo株式会社 Moving body position estimation device and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702569B2 (en) * 2008-09-30 2011-06-15 マツダ株式会社 Image processing apparatus for vehicle
JP5267100B2 (en) * 2008-12-18 2013-08-21 株式会社豊田中央研究所 Motion estimation apparatus and program

Also Published As

Publication number Publication date
JP2012150655A (en) 2012-08-09

Similar Documents

Publication Publication Date Title
JP5548482B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
CN108955718B (en) Visual odometer and positioning method thereof, robot and storage medium
JP4809291B2 (en) Measuring device and program
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP5746477B2 (en) Model generation device, three-dimensional measurement device, control method thereof, and program
JP5393318B2 (en) Position and orientation measurement method and apparatus
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
KR100855657B1 (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP6464938B2 (en) Image processing apparatus, image processing method, and image processing program
US8971576B2 (en) Information processing apparatus and processing method thereof
JP4810893B2 (en) Distance measuring device
CN107941212B (en) Vision and inertia combined positioning method
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP6061770B2 (en) Camera posture estimation apparatus and program thereof
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
US8941732B2 (en) Three-dimensional measuring method
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP5267100B2 (en) Motion estimation apparatus and program
JP5515018B2 (en) Environment recognition device
JP5652239B2 (en) Motion estimation apparatus and program
JP4935769B2 (en) Plane region estimation apparatus and program
JP2009186287A (en) Plane parameter estimating device, plane parameter estimating method, and plane parameter estimating program
JP5656018B2 (en) Sphere detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140818

R151 Written notification of patent or utility model registration

Ref document number: 5609667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees