JP5032415B2 - Motion estimation apparatus and program - Google Patents

Motion estimation apparatus and program Download PDF

Info

Publication number
JP5032415B2
JP5032415B2 JP2008202898A JP2008202898A JP5032415B2 JP 5032415 B2 JP5032415 B2 JP 5032415B2 JP 2008202898 A JP2008202898 A JP 2008202898A JP 2008202898 A JP2008202898 A JP 2008202898A JP 5032415 B2 JP5032415 B2 JP 5032415B2
Authority
JP
Japan
Prior art keywords
image
orientation
point
feature
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008202898A
Other languages
Japanese (ja)
Other versions
JP2010038753A (en
Inventor
晃一郎 山口
達也 白石
尚秀 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2008202898A priority Critical patent/JP5032415B2/en
Publication of JP2010038753A publication Critical patent/JP2010038753A/en
Application granted granted Critical
Publication of JP5032415B2 publication Critical patent/JP5032415B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、運動推定装置及びプログラムに係り、特に、撮像された画像に基づいて、撮像手段の位置及び姿勢の変化を推定する運動推定装置及びプログラムに関する。   The present invention relates to a motion estimation apparatus and program, and more particularly, to a motion estimation apparatus and program for estimating changes in the position and orientation of an imaging unit based on a captured image.

従来より、撮像手段の相対的な位置および姿勢を特定する移動体周辺監視装置が知られている(特許文献1)。この移動体周辺監視装置では、画像から特定平面上にある4点以上の特徴点を抽出し、それらの特徴点を追跡して、2枚の画像平面での特徴点の座標値に基づき、位置姿勢を計算している。   2. Description of the Related Art Conventionally, a moving object periphery monitoring device that identifies a relative position and posture of an imaging unit is known (Patent Document 1). In this moving object periphery monitoring device, four or more feature points on a specific plane are extracted from an image, the feature points are tracked, and the position is determined based on the coordinate values of the feature points on two image planes. The posture is calculated.

また、撮像手段から得られた2枚以上の画像から対応点を求め、加速度センサ及び磁気センサで得られた位置姿勢情報から、画像の対応点の拘束条件を算出し、拘束条件により対応点を修正することで、撮像装置の相対的な位置関係を精度良く算出する画像入力装置が知られている(特許文献2)。
特開2004−198211号公報 特開2004−78315号公報
Also, the corresponding points are obtained from two or more images obtained from the imaging means, the constraint condition of the corresponding points of the image is calculated from the position and orientation information obtained by the acceleration sensor and the magnetic sensor, and the corresponding points are determined by the constraint conditions. An image input device that calculates the relative positional relationship of the imaging device with high accuracy by correction is known (Patent Document 2).
JP 2004-198211 A JP 2004-78315 A

しかしながら、上記の特許文献1に記載の技術では、同一平面上にある4点の対応点を検出することで撮像装置の位置関係を計算しているが、撮像した画像についての知識がない場合、同一平面上にある4点を検出することが困難である、という問題がある。   However, in the technique described in Patent Document 1 described above, the positional relationship of the imaging device is calculated by detecting four corresponding points on the same plane, but when there is no knowledge about the captured image, There is a problem that it is difficult to detect four points on the same plane.

また、上記の特許文献2に記載の技術では、撮像装置以外に、加速センサや磁気センサなどの他のセンサが必要となる、という問題がある。   Further, the technique described in Patent Document 2 has a problem that other sensors such as an acceleration sensor and a magnetic sensor are required in addition to the imaging device.

本発明は、上記の問題点を解決するためになされたもので、簡易な構成で、撮像手段の位置及び姿勢の変化を高精度に推定することができる運動推定装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a motion estimation device and a program that can accurately estimate changes in the position and orientation of an imaging unit with a simple configuration. Objective.

上記の目的を達成するために第1の発明に係る運動推定装置は、移動体に取り付けられて所定領域を撮像する撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域内に存在する前記特徴点の数が少ないほど大きい重み係数を決定する重み係数決定手段と、対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段とを含んで構成されている。   In order to achieve the above object, a motion estimation apparatus according to a first aspect of the present invention includes an imaging unit that is attached to a moving body and images a predetermined region, and the imaging unit has a first position and a first posture. A feature point extracting means for extracting a plurality of feature points from the first image captured when the image is taken, and points corresponding to each of the feature points extracted from the first image by the feature point extracting means. Search means for searching from a second image captured when the imaging means is in a second position and a second attitude different from the first position and the first attitude; and the first For each of the feature points of the image, a weighting factor determination unit that determines a larger weighting factor as the number of the feature points existing in the predetermined area including the feature point of the first image decreases, The feature point of the first image and the second image Change in the position and orientation of the imaging means estimated on the basis of a plurality of pairs with the point between the first image and the second image when the position and orientation change The change in the position and orientation at which the sum of the weighting factors of the pair of the corresponding feature point and the point is equal to or greater than a predetermined value or the maximum value is represented by the first position, the first orientation, and the second Estimation means for estimating the change in position and orientation of the imaging means between the position and the second orientation.

第2の発明に係るプログラムは、コンピュータを、移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域内に存在する前記特徴点の数が少ないほど大きい重み係数を決定する重み係数決定手段、及び対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段として機能させるためのプログラムである。   A program according to a second aspect of the present invention provides a computer from a first image captured when an imaging unit that is attached to a moving body and images a predetermined area is in a first position and a first posture. A feature point extracting unit that extracts a plurality of feature points, and the imaging unit selects a point corresponding to each of the feature points extracted from the first image by the feature point extracting unit. Search means for searching from the second image captured when the second position and the second position are different from the posture of the first image, and the first image for each of the feature points of the first image Weight coefficient determining means for determining a larger weight coefficient as the number of the feature points existing in the predetermined region including the feature points decreases, and the corresponding feature points of the first image and the second image Based on multiple pairs with points A change in the position and orientation of the imaging means, and a set of the feature point and the point corresponding to each other between the first image and the second image when the position and orientation change The change in the position and posture at which the sum of the weighting coefficients is equal to or greater than a predetermined value or the maximum value is determined between the first position and the first posture and the second position and the second posture. It is a program for functioning as estimation means for estimating the change in position and orientation of the imaging means.

第1の発明及び第2の発明によれば、撮像手段が第1の位置及び第1の姿勢となっているときに撮影手段によって第1の画像を撮像し、撮像手段が第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮影手段によって第2の画像を撮像する。   According to the first invention and the second invention, when the imaging means is in the first position and the first posture, the imaging means takes a first image, and the imaging means takes the first position and When the second position and the second position are different from the first position, the second image is captured by the photographing unit.

そして、特徴点抽出手段によって、第1の画像から、複数の特徴点を抽出し、検索手段によって、特徴点抽出手段によって第1の画像から抽出された特徴点の各々に対応する点を、第2の画像から検索する。   Then, a plurality of feature points are extracted from the first image by the feature point extraction means, and points corresponding to each of the feature points extracted from the first image by the feature point extraction means are obtained by the search means. Search from 2 images.

また、重み係数決定手段によって、第1の画像の前記特徴点の各々について、第1の画像の特徴点を含む所定領域内に存在する特徴点の数が少ないほど大きい重み係数を決定する。   Further, the weighting factor determining means determines a larger weighting factor for each of the feature points of the first image as the number of feature points existing in the predetermined area including the feature points of the first image decreases.

そして、推定手段によって、対応する第1の画像の特徴点と第2の画像の点との複数の組に基づいて推定される撮像手段の位置及び姿勢の変化であって、位置及び姿勢が変化したときに第1の画像と第2の画像との間で対応する特徴点と点との組の重み係数の総和が所定値以上又は最大値となる位置及び姿勢の変化を、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との間の撮像手段の位置及び姿勢の変化として推定する。   And the change of the position and orientation of the imaging means estimated by the estimation means based on the plurality of pairs of the feature points of the corresponding first image and the points of the second image, the position and orientation change The position and orientation change at which the sum of the weighting factors of the pair of feature points corresponding to the first image and the second image is equal to or greater than a predetermined value or the maximum value when the And a change in the position and orientation of the imaging means between the first orientation and the second and second orientations.

このように、特徴点について、特徴点を含む所定領域内に存在する特徴点の数が少ないほど大きい重み係数を決定し、撮像手段の位置及び姿勢の変化として、位置及び姿勢が変化したときに画像間で対応する特徴点と点との組の重み係数の総和が大きくなる位置及び姿勢の変化を推定することにより、簡易な構成で、撮像手段の位置及び姿勢の変化を高精度に推定することができる。   As described above, for the feature points, the smaller the number of feature points existing in the predetermined area including the feature points, the larger the weighting factor is determined, and when the position and orientation changes as the change in the position and orientation of the imaging means. Estimate changes in the position and orientation of the imaging means with high accuracy by estimating changes in the position and orientation where the sum of the weighting factors of the pairs of feature points corresponding to the images increases. be able to.

第3の発明に係る運動推定装置は、移動体に取り付けられて所定領域を撮像する撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と他の特徴点との距離が長いほど大きい重み係数を決定する重み係数決定手段と、対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段とを含んで構成されている。   According to a third aspect of the present invention, there is provided a motion estimation apparatus that is attached to a moving body and that captures an image of a predetermined area, and a first image that is captured when the imaging unit is in a first position and a first posture. The imaging means extracts a feature point extracting means for extracting a plurality of feature points from the image and points corresponding to each of the feature points extracted from the first image by the feature point extracting means. Retrieval means for retrieving from the second image captured when the second position and the second posture are different from the first position and the first posture, and each of the feature points of the first image , Weighting factor determination means for determining a larger weighting factor as the distance between the feature point of the first image and the other feature point is longer, and the feature point and the second image of the corresponding first image The imaging hand estimated based on a plurality of pairs with a point Of the weighting coefficient of the set of the feature point and the point corresponding to each other between the first image and the second image when the position and posture change. The position of the imaging means between the first position and the first position and the second position and the second position is the change in the position and position where the sum is equal to or greater than a predetermined value or the maximum value. And estimation means for estimating the change in posture.

第4の発明に係るプログラムは、コンピュータを、移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と他の特徴点との距離が長いほど大きい重み係数を決定する重み係数決定手段、及び対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段として機能させるためのプログラムである。   According to a fourth aspect of the present invention, there is provided a program from a first image captured when an imaging unit attached to a moving body and images a predetermined area is in a first position and a first posture. A feature point extracting unit that extracts a plurality of feature points, and the imaging unit selects a point corresponding to each of the feature points extracted from the first image by the feature point extracting unit. Search means for searching from the second image captured when the second position and the second position are different from the posture of the first image, and the first image for each of the feature points of the first image A weighting factor determination unit that determines a larger weighting factor as the distance between the feature point and the other feature point is longer, and a plurality of the feature point of the corresponding first image and the point of the second image Of the imaging means estimated based on the set A sum of the weighting factors of the set of feature points and points corresponding to the first image and the second image when the position and orientation change. Change in the position and orientation at which is equal to or greater than a predetermined value or a maximum value, the position of the imaging means between the first position and the first position and the second position and the second position, and It is a program for functioning as an estimation means for estimating a change in posture.

第3の発明及び第4の発明によれば、撮像手段が第1の位置及び第1の姿勢となっているときに撮影手段によって第1の画像を撮像し、撮像手段が第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮影手段によって第2の画像を撮像する。   According to the third invention and the fourth invention, when the imaging means is in the first position and the first posture, the imaging means takes a first image, and the imaging means takes the first position and When the second position and the second position are different from the first position, the second image is captured by the photographing unit.

そして、特徴点抽出手段によって、第1の画像から、複数の特徴点を抽出し、検索手段によって、特徴点抽出手段によって第1の画像から抽出された特徴点の各々に対応する点を、第2の画像から検索する。   Then, a plurality of feature points are extracted from the first image by the feature point extraction means, and points corresponding to each of the feature points extracted from the first image by the feature point extraction means are obtained by the search means. Search from 2 images.

また、重み係数決定手段によって、第1の画像の前記特徴点の各々について、第1の画像の特徴点と他の特徴点との距離が長いほど大きい重み係数を決定する。   In addition, the weighting factor determination unit determines a larger weighting factor for each of the feature points of the first image as the distance between the feature point of the first image and the other feature points is longer.

そして、推定手段によって、対応する第1の画像の特徴点と第2の画像の点との複数の組に基づいて推定される撮像手段の位置及び姿勢の変化であって、位置及び姿勢が変化したときに第1の画像と第2の画像との間で対応する特徴点と点との組の重み係数の総和が所定値以上又は最大値となる位置及び姿勢の変化を、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との間の撮像手段の位置及び姿勢の変化として推定する。   And the change of the position and orientation of the imaging means estimated by the estimation means based on the plurality of pairs of the feature points of the corresponding first image and the points of the second image, the position and orientation change The position and orientation change at which the sum of the weighting factors of the pair of feature points corresponding to the first image and the second image is equal to or greater than a predetermined value or the maximum value when the And a change in the position and orientation of the imaging means between the first orientation and the second and second orientations.

このように、特徴点について、他の特徴点との距離が長いほど大きい重み係数を決定し、撮像手段の位置及び姿勢の変化として、位置及び姿勢が変化したときに画像間で対応する特徴点と点との組の重み係数の総和が大きくなる位置及び姿勢の変化を推定することにより、簡易な構成で、撮像手段の位置及び姿勢の変化を高精度に推定することができる。   In this way, for feature points, the larger the distance from other feature points, the larger the weighting factor is determined, and the feature points corresponding between images when the position and orientation change as the change in the position and orientation of the imaging means. By estimating the change in the position and orientation at which the sum of the weight coefficients of the pairs of points and points becomes large, the change in the position and orientation of the imaging means can be estimated with high accuracy with a simple configuration.

第5の発明に係る運動推定装置は、移動体に取り付けられて所定領域を撮像する撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と周囲の点との濃度又は輝度の変化度合いを示す特徴量の大きさが大きいほど大きい重み係数を決定する重み係数決定手段と、対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段とを含んで構成されている。   According to a fifth aspect of the present invention, there is provided a motion estimation apparatus that is attached to a moving body and that captures an image of a predetermined area, and a first image captured when the imaging unit is in a first position and a first posture. The imaging means extracts a feature point extracting means for extracting a plurality of feature points from the image and points corresponding to each of the feature points extracted from the first image by the feature point extracting means. Retrieval means for retrieving from the second image captured when the second position and the second posture are different from the first position and the first posture, and each of the feature points of the first image , A weighting factor determination unit that determines a larger weighting factor as the size of the feature amount indicating the degree of change in density or luminance between the feature point of the first image and surrounding points is larger, and the corresponding first The feature points of the image and the points of the second image; Changes in the position and orientation of the imaging means estimated based on a plurality of sets, the features corresponding between the first image and the second image when the position and orientation change The change of the position and orientation at which the sum of the weighting factors of a set of points and the point is equal to or greater than a predetermined value or the maximum value is represented by the first position, the first attitude, the second position, and the first Estimation means for estimating the change in the position and orientation of the imaging means between two orientations.

第6の発明に係るプログラムは、コンピュータを、移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と周囲の点との濃度又は輝度の変化度合いを示す特徴量の大きさが大きいほど大きい重み係数を決定する重み係数決定手段、及び対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段として機能させるためのプログラムである。   According to a sixth aspect of the present invention, there is provided a program from a first image captured when an imaging unit that is attached to a moving body and images a predetermined area is in a first position and a first posture. A feature point extracting unit that extracts a plurality of feature points, and the imaging unit selects a point corresponding to each of the feature points extracted from the first image by the feature point extracting unit. Search means for searching from the second image captured when the second position and the second position are different from the posture of the first image, and the first image for each of the feature points of the first image Weighting factor determining means for determining a larger weighting factor as the size of the feature quantity indicating the degree of change in density or brightness between the feature point and the surrounding points of the first feature point, and the corresponding feature point of the first image, The second image point Changes in the position and orientation of the imaging means estimated on the basis of the set of the feature points corresponding between the first image and the second image when the position and orientation change The change of the position and orientation at which the sum of the weighting factors of the set of the point and the point is equal to or greater than a predetermined value or the maximum value is represented by the first position, the first attitude, the second position, and the second Is a program for functioning as an estimation unit that estimates a change in the position and orientation of the imaging unit between two positions.

第5の発明及び第6の発明によれば、撮像手段が第1の位置及び第1の姿勢となっているときに撮影手段によって第1の画像を撮像し、撮像手段が第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮影手段によって第2の画像を撮像する。   According to the fifth invention and the sixth invention, when the imaging means is in the first position and the first posture, the imaging means takes a first image, and the imaging means takes the first position and When the second position and the second position are different from the first position, the second image is captured by the photographing unit.

そして、特徴点抽出手段によって、第1の画像から、複数の特徴点を抽出し、検索手段によって、特徴点抽出手段によって第1の画像から抽出された特徴点の各々に対応する点を、第2の画像から検索する。   Then, a plurality of feature points are extracted from the first image by the feature point extraction means, and points corresponding to each of the feature points extracted from the first image by the feature point extraction means are obtained by the search means. Search from 2 images.

また、重み係数決定手段によって、第1の画像の前記特徴点の各々について、第1の画像の前記特徴点と周囲の点との濃度又は輝度の変化度合いを示す特徴量の大きさが大きいほど大きい重み係数を決定する。   Further, for each of the feature points of the first image, the larger the feature amount indicating the degree of change in density or luminance between the feature points of the first image and the surrounding points by the weighting factor determination means. Determine a large weighting factor.

そして、推定手段によって、対応する第1の画像の特徴点と第2の画像の点との複数の組に基づいて推定される撮像手段の位置及び姿勢の変化であって、位置及び姿勢が変化したときに第1の画像と第2の画像との間で対応する特徴点と点との組の重み係数の総和が所定値以上又は最大値となる位置及び姿勢の変化を、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との間の撮像手段の位置及び姿勢の変化として推定する。   And the change of the position and orientation of the imaging means estimated by the estimation means based on the plurality of pairs of the feature points of the corresponding first image and the points of the second image, the position and orientation change The position and orientation change at which the sum of the weighting factors of the pair of feature points corresponding to the first image and the second image is equal to or greater than a predetermined value or the maximum value when the And a change in the position and orientation of the imaging means between the first orientation and the second and second orientations.

このように、特徴点について、周囲の点との濃度又は輝度の変化度合いを示す特徴量が大きいほど大きい重み係数を決定し、撮像手段の位置及び姿勢の変化として、位置及び姿勢が変化したときに画像間で対応する特徴点と点との組の重み係数の総和が大きくなる位置及び姿勢の変化を推定することにより、簡易な構成で、撮像手段の位置及び姿勢の変化を高精度に推定することができる。   As described above, when the feature point indicating the degree of change in density or luminance with respect to the surrounding points is increased, a larger weighting factor is determined, and the position and orientation change as the change in the position and orientation of the imaging unit. By estimating changes in position and orientation that increase the sum of the weighting factors of pairs of feature points corresponding to images, the position and orientation of the imaging means can be estimated with high accuracy and with a simple configuration. can do.

第7の発明に係る運動推定装置は、移動体に取り付けられて所定領域を撮像する撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域の画像と、前記第1の画像の前記特徴点に対応する前記第2の画像の前記特徴点を含む所定領域の画像とが類似するほど大きい重み係数を決定する重み係数決定手段と、対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段とを含んで構成されている。   According to a seventh aspect of the present invention, there is provided a motion estimation apparatus that includes an imaging unit that is attached to a moving body and images a predetermined region, and a first image that is captured when the imaging unit is in a first position and a first posture. The imaging means extracts a feature point extracting means for extracting a plurality of feature points from the image and points corresponding to each of the feature points extracted from the first image by the feature point extracting means. Retrieval means for retrieving from the second image captured when the second position and the second posture are different from the first position and the first posture, and each of the feature points of the first image The image of the predetermined area including the feature point of the first image is more similar to the image of the predetermined area including the feature point of the second image corresponding to the feature point of the first image. Corresponding to weighting factor determination means to determine a large weighting factor A change in the position and orientation of the imaging means estimated based on a plurality of sets of the feature point of the first image and the point of the second image, and the position and orientation change A change in the position and orientation at which the sum of the weighting factors of the set of the feature point and the point corresponding to the first image and the second image is a predetermined value or more or a maximum value, And estimation means for estimating the change in the position and orientation of the imaging means between the first position and the first orientation and the second position and the second orientation.

第8の発明に係るプログラムは、コンピュータを、移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域の画像と、前記第1の画像の前記特徴点に対応する前記第2の画像の前記特徴点を含む所定領域の画像とが類似するほど大きい重み係数を決定する重み係数決定手段、及び対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段として機能させるためのプログラムである。   According to an eighth aspect of the present invention, there is provided a program from a first image captured when an imaging unit that is attached to a moving body and images a predetermined area is in a first position and a first posture. A feature point extracting unit that extracts a plurality of feature points, and the imaging unit selects a point corresponding to each of the feature points extracted from the first image by the feature point extracting unit. Search means for searching from the second image captured when the second position and the second position are different from the posture of the first image, and the first image for each of the feature points of the first image A larger weight coefficient is determined so that the image of the predetermined area including the feature point of the second image and the image of the predetermined area including the feature point of the second image corresponding to the feature point of the first image are similar to each other. Weight coefficient determination means and corresponding A change in the position and orientation of the imaging means estimated based on a plurality of sets of the feature point of the first image and the point of the second image, and the position and orientation change The change in the position and orientation at which the sum of the weighting factors of the set of the feature point and the point corresponding to each other between the first image and the second image becomes a predetermined value or more or a maximum value, A program for functioning as an estimation unit that estimates a change in position and posture of the imaging unit between a first position and the first posture and the second position and the second posture.

第7の発明及び第8の発明によれば、撮像手段が第1の位置及び第1の姿勢となっているときに撮影手段によって第1の画像を撮像し、撮像手段が第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮影手段によって第2の画像を撮像する。   According to the seventh invention and the eighth invention, when the imaging means is in the first position and the first posture, the imaging means takes a first image, and the imaging means takes the first position and When the second position and the second posture are different from the first posture, the second image is picked up by the photographing means.

そして、特徴点抽出手段によって、第1の画像から、複数の特徴点を抽出し、検索手段によって、特徴点抽出手段によって第1の画像から抽出された特徴点の各々に対応する点を、第2の画像から検索する。   Then, a plurality of feature points are extracted from the first image by the feature point extraction means, and points corresponding to each of the feature points extracted from the first image by the feature point extraction means are obtained by the search means. Search from 2 images.

また、重み係数決定手段によって、第1の画像の前記特徴点の各々について、第1の画像の特徴点を含む所定領域の画像と、第1の画像の特徴点に対応する第2の画像の点を含む所定領域の画像とが類似するほど大きい重み係数を決定する。   In addition, for each of the feature points of the first image, an image of a predetermined area including the feature points of the first image and a second image corresponding to the feature points of the first image are obtained by the weighting factor determination unit. A weighting factor that is larger as the image is similar to an image in a predetermined area including a point is determined.

そして、推定手段によって、対応する第1の画像の特徴点と第2の画像の点との複数の組に基づいて推定される撮像手段の位置及び姿勢の変化であって、位置及び姿勢が変化したときに第1の画像と第2の画像との間で対応する特徴点と点との組の重み係数の総和が所定値以上又は最大値となる位置及び姿勢の変化を、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との間の撮像手段の位置及び姿勢の変化として推定する。   And the change of the position and orientation of the imaging means estimated by the estimation means based on the plurality of pairs of the feature points of the corresponding first image and the points of the second image, the position and orientation change The position and orientation change at which the sum of the weighting factors of the pair of feature points corresponding to the first image and the second image is equal to or greater than a predetermined value or the maximum value when the And a change in the position and orientation of the imaging means between the first orientation and the second and second orientations.

このように、特徴点について、特徴点を含む所定領域と、対応する第2の画像の点を含む所定領域とが類似するほど大きい重み係数を決定し、撮像手段の位置及び姿勢の変化として、位置及び姿勢が変化したときに画像間で対応する特徴点と点との組の重み係数の総和が大きくなる位置及び姿勢の変化を推定することにより、簡易な構成で、撮像手段の位置及び姿勢の変化を高精度に推定することができる。   Thus, for the feature points, a weighting factor that is so large that the predetermined region including the feature points and the predetermined region including the corresponding second image point are similar to each other is determined. The position and orientation of the imaging means can be determined with a simple configuration by estimating the change in position and orientation in which the sum of the weighting factors of pairs of corresponding feature points between the images increases when the position and orientation change. Can be estimated with high accuracy.

誤対応である可能性の高い特徴点の対応の組についての重みを高く設定しないようにするために、第5、6の発明では、特徴点と周囲の点との濃度または輝度の変化度合いを示す特微量の大きさが大きいほど大きい重み係数を設定し、第7、8の発明では、第1の画像の特徴点を含む所定領域の画像と、その特微点に対応する第2の画像の点を含む所定領域の画像とが類似するほど大きい重み係数を設定する。   In order to avoid setting a high weight for a pair of feature points corresponding to a possibility of erroneous correspondence, in the fifth and sixth inventions, the degree of change in density or luminance between the feature point and surrounding points is set. A larger weighting coefficient is set as the feature amount to be shown is larger. In the seventh and eighth inventions, an image of a predetermined region including the feature point of the first image and a second image corresponding to the feature point A larger weighting coefficient is set as the image of the predetermined area including the point becomes more similar.

特微点の特微量の大きさが大きい点は、画像間で対応を求めやすいため、誤対応となる可能性が小さいことに基づき重みを設定し、あるいは、2枚の画像間の対応する点を含むそれぞれの所定領域の画像が類似していれば、誤対応である可能性が小さいことに基づき重みを設定することで、誤対応の可能性が高い特徴点の組に高い重みを設定することを防ぐことができ、正しい運動推定が可能となる。   A point where the size of the feature point is large is easy to obtain a correspondence between images. Therefore, a weight is set based on a low possibility of miscorresponding, or a point corresponding between two images. If the images of each predetermined area including the image are similar, a high weight is set for a set of feature points that are likely to be miscorresponding by setting a weight based on the low possibility of miscorrespondence Can be prevented, and correct motion estimation becomes possible.

以上説明したように、本発明の運動推定装置及びプログラムによれば、特徴点について重み係数を決定し、撮像手段の位置及び姿勢の変化として、位置及び姿勢が変化したときに画像間で対応する特徴点と点との組の重み係数の総和が大きくなる位置及び姿勢の変化を推定することにより、簡易な構成で、撮像手段の位置及び姿勢の変化を高精度に推定することができる、という効果が得られる。   As described above, according to the motion estimation device and the program of the present invention, the weighting coefficient is determined for the feature point, and when the position and orientation change as the change in the position and orientation of the imaging means, the correspondence is made between images. By estimating the change in the position and orientation at which the sum of the weighting factors of the feature point-point pairs increases, it is possible to estimate the change in the position and orientation of the imaging means with high accuracy with a simple configuration. An effect is obtained.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、車両に搭載された運動推定装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The case where the present invention is applied to a motion estimation device mounted on a vehicle will be described as an example.

図1に示すように、本実施の形態に係る運動推定装置10は、車両(図示省略)に取り付けられ、かつ、車両の前方を撮像して画像を生成する画像撮像装置12と、画像撮像装置12から得られる画像に基づいて、画像撮像装置12の位置及び姿勢の変化としての移動量及び回転量を推定するコンピュータ14とを備えている。   As shown in FIG. 1, a motion estimation device 10 according to the present embodiment is attached to a vehicle (not shown), captures the front of the vehicle, and generates an image. And a computer 14 that estimates the amount of movement and the amount of rotation as a change in the position and orientation of the image capturing device 12 based on the image obtained from the image capturing device 12.

画像撮像装置12は、車両の前方を撮像し、画像の画像信号を生成する撮像部18と、撮像部18で生成された画像信号をA/D変換するA/D変換部20と、A/D変換された画像信号を一時的に格納するための画像メモリ22とを備えている。   The image capturing device 12 captures an image of the front of the vehicle and generates an image signal of the image, an A / D converter 20 that performs A / D conversion on the image signal generated by the image capturing unit 18, and an A / D And an image memory 22 for temporarily storing the D-converted image signal.

コンピュータ14は、CPUと、RAMと、後述する運動推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ14は、画像撮像装置12により得られた第1の画像から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部30と、特徴点抽出部30によって抽出された第1の画像の特徴点に対応する点を、第1の画像を撮像した第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で撮像して画像撮像装置12により得られた第2の画像上で検索して追跡し、第1の画像の特徴点に対応する点の画像座標を検出する対応点検索部32と、特徴点抽出部30によって抽出された第1の画像の複数の特徴点の画像座標を入力として、各特徴点に対する重み係数を決定する特徴点重み決定部34と、対応点検索部32で得られた対応する第1の画像の特徴点の画像座標及び第2の画像の点の画像座標の組、及び特徴点重み決定部34で決定された各特徴点に対する重み係数を入力として、第1の画像を撮像したときの第1の位置から第2の画像を撮像したときの第2の位置への変化を、画像撮像装置12の運動の3軸方向の移動量として推定すると共に、第1の画像を撮像したときの第1の姿勢を基準とした第2の画像を撮像したときの第2の姿勢への変化を、画像撮像装置12の運動の3軸を基準とする回転量として推定する運動推定部36と、運動推定部36の結果を出力する出力部38とを備えている。   The computer 14 includes a CPU, a RAM, and a ROM that stores a program for executing a later-described motion estimation processing routine, and is functionally configured as follows. The computer 14 extracts a plurality of feature points that are easy to track on the image from the first image obtained by the image capturing device 12, and the first image extracted by the feature point extraction unit 30. A second point obtained by the image pickup device 12 by picking up a point corresponding to the feature point at a second position and a second posture different from the first position and the first posture at which the first image is picked up. A corresponding point search unit 32 for searching and tracking on the image of the image and detecting the image coordinates of the point corresponding to the feature point of the first image, and a plurality of the first image extracted by the feature point extraction unit 30 Using the image coordinates of the feature points as input, the feature point weight determination unit 34 that determines the weighting coefficient for each feature point, the image coordinates of the feature points of the corresponding first image obtained by the corresponding point search unit 32, and the second Sets of image coordinates of points of the image and feature point weight determination unit 4, the weighting coefficient for each feature point determined in 4 is input, and the change from the first position when the first image is captured to the second position when the second image is captured 12 movements of the three movements in the three-axis direction are estimated, and the change to the second posture when the second image is taken with reference to the first posture when the first image is taken, A motion estimation unit 36 that estimates the amount of rotation with reference to the three axes of motion of the image capturing device 12 and an output unit 38 that outputs the result of the motion estimation unit 36 are provided.

特徴点抽出部30は、画像撮像装置12から得られる第1の画像から、特徴点を複数抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばHarrisオペレータなど)を用いて、自動的に抽出される。Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。   The feature point extraction unit 30 extracts a plurality of feature points from the first image obtained from the image capturing device 12. A feature point refers to a point that can be distinguished from surrounding points and that makes it easy to obtain a correspondence between different images. The feature points are automatically extracted by using a method (for example, a Harris operator) that detects pixels in which the gradient value of the change in shading increases two-dimensionally. In the method using the Harris operator, feature points are extracted as described below.

まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。   First, the matrix M is calculated by the following equation (1), where the luminance of the point (u, v) of the image is I (u, v).

Figure 0005032415
Figure 0005032415

ただし、I,Iはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.

そして、上記(1)式で計算された行列Mの固有値λ、λを用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).

Figure 0005032415
Figure 0005032415

ただし、kは、予め設定される定数であって、0.04〜0.06の値が一般に用いられる。そして、このコーナー強度がしきい値以上であってかつ極大となる点を選択し、選択された点を特徴点として抽出する。   However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. Then, a point at which the corner strength is equal to or greater than the threshold value and is maximized is selected, and the selected point is extracted as a feature point.

対応点検索部32は、特徴点抽出部30により第1の画像から抽出された特徴点の各々について、第1の画像及び第2の画像の間で対応付けを行って、第1の画像の特徴点に対応する点を第2の画像から検索する。なお、第1の画像と第2の画像とで対応する点を検索するときには、第1の画像と第2の画像とで対応する点及びその周囲の点の輝度は変化しないという仮定を用いて、第1の画像と第2の画像との輝度のマッチングを行えばよく、例えば、Lucas−Kanade法を用いて、第1の画像上の特徴点に対応する点を、第2の画像上から検索する。   The corresponding point search unit 32 associates each of the feature points extracted from the first image by the feature point extraction unit 30 between the first image and the second image, and A point corresponding to the feature point is searched from the second image. When searching for corresponding points in the first image and the second image, it is assumed that the luminance of the corresponding points in the first image and the second image and the brightness of the surrounding points do not change. The luminance matching between the first image and the second image may be performed. For example, using the Lucas-Kanade method, a point corresponding to the feature point on the first image is detected from the second image. Search for.

Lucas−Kanade法では、第1の画像の座標(x、y)の輝度値をI(x、y)、第2の画像の座標(x、y)の輝度値をJ(x、y)と表すとき、第1の画像の座標(p、p)に対応する第2の画像の座標(p+u、p+v)を、以下の(3)式で表される関数を最小化する(u、v)を求めることにより、求める。 In the Lucas-Kanade method, the luminance value of the coordinates (x, y) of the first image is I (x, y), and the luminance value of the coordinates (x, y) of the second image is J (x, y). When representing the coordinates (p x + u, py + v) of the second image corresponding to the coordinates (p x , p y ) of the first image, the function represented by the following expression (3) is minimized. Is obtained by obtaining (u, v).

Figure 0005032415
Figure 0005032415

ここで、Ωは、(p、p)を中心とするウィンドウであり、w(x、y)は、重み関数でありウィンドウの中心であるほど大きい値をとる関数(ガウシアン関数など)である。また、I(x、y)は、I(x、y)をx軸方向に微分した値であり、I(x、y)は、y軸方向に微分した値である。 Here, Ω is a window centered on (p x , p y ), and w (x, y) is a function (such as a Gaussian function) that takes a larger value as the center of the window is a weight function. is there. I x (x, y) is a value obtained by differentiating I (x, y) in the x-axis direction, and I y (x, y) is a value obtained by differentiating in the y-axis direction.

特徴点重み決定部34は、以下に説明するように、特徴点抽出部30で抽出された複数の特徴点の各々について重み係数を決定する。まず、図2に示すように、特徴点を中心とするウィンドウ(図2における特徴点p1の周りに設定されたウィンドウw1、及び特徴点p2の周りのウィンドウw2を参照)を設定し、設定されたウィンドウ内にある他の特徴点の数をカウントする(例えば、図2のウィンドウw1について1点カウントされ、ウィンドウw2について4点カウントされる。)。そして、カウントされた特徴点の数に応じて、ウィンドウ内にある他の特徴点の数が多いほど小さい重み係数を決定し、他の特徴点の数が少ないほど大きい重み係数を決定する。例えば、設定されたウィンドウ内にある特徴点の数がnのとき、重み係数を以下の(4)式に従って決定する。
(重み係数)=k・exp(−n) ・・・(4)
The feature point weight determination unit 34 determines a weight coefficient for each of the plurality of feature points extracted by the feature point extraction unit 30 as described below. First, as shown in FIG. 2, a window centered on the feature point (see window w1 set around feature point p1 and window w2 around feature point p2 in FIG. 2) is set and set. The number of other feature points in the window is counted (for example, one point is counted for the window w1 in FIG. 2 and four points are counted for the window w2). Then, the smaller the number of other feature points in the window, the smaller the weighting factor is determined, and the smaller the number of other feature points, the larger the weighting factor is determined in accordance with the counted number of feature points. For example, when the number of feature points in the set window is n, the weighting coefficient is determined according to the following equation (4).
(Weighting factor) = k · exp (−n) (4)

ただし、kは定数である。なお、重み係数を決定するための式は、上記の(5)式に限定されるものではなく、例えば、以下の(5)式に従って決定してもよい。
(重み係数)=k/(n+1) ・・・(5)
However, k is a constant. Note that the equation for determining the weighting factor is not limited to the above equation (5), and may be determined according to the following equation (5), for example.
(Weighting factor) = k / (n + 1) (5)

運動推定部36は、対応点検索部32より得られる第1の画像及び第2の画像における複数組の対応点の画像座標と、特徴点重み決定部34から得られる各特徴点の重み係数とから、以下に説明するように、第1の画像及び第2の画像の各々が撮像されたときの画像撮像装置12の位置及び姿勢の変化(XYZ軸方向の移動量及びXYZ軸を基準とする回転量)を計算する。   The motion estimation unit 36 includes image coordinates of a plurality of sets of corresponding points in the first image and the second image obtained from the corresponding point search unit 32, and a weight coefficient of each feature point obtained from the feature point weight determination unit 34. As described below, the change in the position and orientation of the image capturing device 12 when each of the first image and the second image is captured (based on the movement amount in the XYZ axis direction and the XYZ axis) Rotation amount) is calculated.

位置姿勢の変化は、図3に示すように、第1の画像から第2の画像への回転行列R(X軸を基準とする回転量、Y軸を基準とする回転量、Z軸を基準とする回転量)と、並進ベクトルt(X軸方向の移動量t、Y軸方向の移動量t、Z軸方向の移動量t)との6要素から構成される運動である。なお、回転行列R及び並進ベクトルtの要素は、2つの画像間の画像座標の変換を表す物理量である。 As shown in FIG. 3, the change of the position and orientation is based on the rotation matrix R from the first image to the second image (the rotation amount based on the X axis, the rotation amount based on the Y axis, and the Z axis based on And a translation vector t (a movement amount t x in the X-axis direction, a movement amount t y in the Y-axis direction, and a movement amount t z in the Z-axis direction). Note that the elements of the rotation matrix R and the translation vector t are physical quantities representing conversion of image coordinates between two images.

ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標Iと第2の画像におけるn点の対応点の画像座標I’とについて(n≧8)、対応点の対応関係が正しくて誤差がなければ、位置及び姿勢の変化を示す行列として、以下の(6)式を満たす3×3行列Fが存在する。 Here, a calculation method of the rotation matrix R and the translation vector t from the first image to the second image will be described. For the first image coordinates of the corresponding point of the n points in the image I i and image coordinates I i of the corresponding point of n points in the second image '(n ≧ 8), correspondence is correct errors of corresponding points Otherwise, there is a 3 × 3 matrix F that satisfies the following expression (6) as a matrix indicating changes in position and orientation.

Figure 0005032415
Figure 0005032415

ただし、I=(u,v,1)、I’=(u’,v’,1)であり、第1の画像での画像座標(u,v)の点に対応する第2の画像での点の画像座標が(u’,v’)である。 However, I i = (u i , v i , 1) T , I i ′ = (u i ′, v i ′, 1) T , and the image coordinates (u i , v i ) in the first image The image coordinates of the point in the second image corresponding to the point are (u i ′, v i ′).

ここで、上記(6)式を満たす行列Fは、定数倍の不定性を持っている。すなわち、Fが上記(6)式を満たす場合には、αFも上記(6)式を満たす(ただし、αは実数)。よって、行列Fを以下の(7)式のように表すことができる。 Here, the matrix F satisfying the above equation (6) has a constant multiple indefiniteness. That is, when F s satisfies the above equation (6), αF s also satisfies the above equation (6) (where α is a real number). Therefore, the matrix F can be expressed as the following equation (7).

Figure 0005032415
Figure 0005032415

また、上記(6)式、(7)式より、以下の(8)式が得られる。   Further, from the above formulas (6) and (7), the following formula (8) is obtained.

Figure 0005032415
Figure 0005032415

ここで、8組以上の対応点I、I’があれば、上記(8)式が少なくとも8つ得られるため、8つの変数f11〜f32を求めることができる。 Here, if there are eight or more pairs of corresponding points I i and I i ′, at least eight of the above equations (8) are obtained, so that eight variables f 11 to f 32 can be obtained.

また、実画像から特徴点の対応を求めた場合には、対応する画像座標には誤差が含まれ、特徴点の中には、誤った点と対応付けられた特徴点も存在する。そこで、運動推定部36は、対応する点の複数の組の画像座標、及び決定された各特徴点の重み係数に基づいて、以下の(9)式で表される重み係数の総和Zが最大となるような行列Fを特定する。   In addition, when the correspondence between the feature points is obtained from the real image, the corresponding image coordinates include an error, and among the feature points, there are feature points associated with an incorrect point. Therefore, the motion estimation unit 36 maximizes the sum Z of the weighting factors represented by the following equation (9) based on the image coordinates of the plurality of sets of corresponding points and the determined weighting factors of each feature point. A matrix F such that

Figure 0005032415
Figure 0005032415

ただし,wiは、特徴点重み決定部34で決定されたi番目の特徴点の重み係数であり、δ(x)は、xが真なら1、そうでないなら0をとる関数である。また、d(a,b)は、aとbとの距離を表し、θは予め設定されたしきい値である。 Here, w i is a weighting coefficient of the i-th feature point determined by the feature point weight determination unit 34, and δ (x) is a function that takes 1 if x is true and 0 otherwise. D (a, b) represents the distance between a and b, and θ is a preset threshold value.

上記(9)式の重み係数の総和Zが最大となる行列を特定することによって、対応する点の複数の組に基づいて計算される行列Fであって、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点に対して決定された重み係数の総和が最大となる行列Fが特定される。   A matrix F that is calculated based on a plurality of pairs of corresponding points by specifying a matrix that maximizes the total sum Z of the weighting coefficients in the above equation (9). A matrix F is specified that maximizes the sum of the weighting factors determined for the feature points of the set of corresponding points between the first image and the second image.

また、撮像部18のキャリブレーション行列Kが既知である場合には、上述したように特定された行列Fに基づいて、以下の(10)式、(11)式に従って、回転行列Rと並進ベクトルtとを計算し、第1の画像及び第2の画像の各々が撮像されたときの画像撮像装置12の位置及び姿勢の変化として出力する。   When the calibration matrix K of the imaging unit 18 is known, the rotation matrix R and the translation vector according to the following equations (10) and (11) based on the matrix F specified as described above. t is calculated and output as a change in the position and orientation of the image capturing device 12 when each of the first image and the second image is captured.

Figure 0005032415
Figure 0005032415

上記の方法により、運動推定部36は、第1の画像及び第2の画像における複数組の対応点の画像座標と、各特徴点の重み係数とに基づいて、画像撮像装置12の位置及び姿勢の変化を計算する。   With the above method, the motion estimation unit 36 determines the position and orientation of the image capturing device 12 based on the image coordinates of a plurality of corresponding points in the first image and the second image and the weighting coefficient of each feature point. Calculate the change in.

次に、本実施の形態の原理について説明する。複数の画像を用いて運動を推定する場合には、複数の画像間での特徴点の対応を求めることが必要となるが、自動的な処理で特徴点の対応関係を求めると、誤った特徴点の対応が含まれる。そこで、運動の推定に、誤った特徴点の対応の影響を与えないようにするために、できるだけ多くの特徴点の対応に従った運動を選択する方法が一般的に用いられる。   Next, the principle of this embodiment will be described. When estimating motion using multiple images, it is necessary to determine the correspondence of feature points between multiple images. However, if the correspondence between feature points is determined by automatic processing, incorrect features will be obtained. A point correspondence is included. Therefore, a method of selecting a motion according to the correspondence of as many feature points as possible is generally used so as not to affect the estimation of the motion due to the correspondence of erroneous feature points.

正しい運動が推定されれば、様々な距離にある物体上の特徴点の対応が、推定された運動に従うはずであるが、車両に搭載したカメラで道路環境を撮影した画像を用いた場合、距離の近い路面部分から抽出される特徴点は少なく、一方、距離の遠い建物などの背景部分からは、多くの特徴点が抽出されるため、従う特徴点数が最大となる運動を選択すると、誤った運動を推定してしまう可能性がある。   If correct motion is estimated, the correspondence of feature points on objects at various distances should follow the estimated motion, but when using an image taken of the road environment with a camera mounted on the vehicle, the distance There are few feature points extracted from the road surface part near, while many feature points are extracted from the background part such as a distant building, so selecting the motion that maximizes the number of feature points to follow is incorrect. There is a possibility of estimating the movement.

例えば、距離の近い特徴点が3点抽出され、遠方の同じような距離にある特徴点が30点抽出され、遠方の30点の特徴点のうち5点の特徴点について対応が誤っていた場合、従う特徴点数が最大となる運動を選択すると、近傍の3点の特徴点の対応には合わないが、誤った対応を含む遠方の30点の特徴点の対応には合った運動が推定される。すなわち、誤対応を除いた28点の特徴点の対応に従う正しい運動より、遠方の誤った対応を含む30点の特徴点の対応には合う運動の方が、運動に従う特徴点の対応が多くなるため、正しい運動が推定されない。   For example, when three feature points that are close to each other are extracted, 30 feature points that are at a similar distance in the distance are extracted, and five of the feature points in the far 30 points are incorrectly matched If the motion that maximizes the number of feature points to be followed is selected, the motion that matches the correspondence of the 30 feature points in the distance including the wrong correspondence is estimated, although it does not match the correspondence of the three nearby feature points. The In other words, the motion that matches the correspondence of 30 feature points including the erroneous correspondence of far away has more correspondence of the feature points that follow the motion than the correct motion that follows the correspondence of 28 feature points excluding the false correspondence. Therefore, correct motion is not estimated.

上記より、様々な距離の特徴点の対応に従う運動を選択することが望ましいが、画像から抽出された特徴点の距離を予め知ることは困難である。そこで、画像上の距離が近い特徴点は、3次元空間でも距離が近いという知識を利用し、特徴点を抽出した画像上における特徴点の密度に応じて、特徴点に対して重みを付け、運動に従う対応点の特徴点の重みの総和が最大となる運動を選択することで、正しい運動推定を実現する。   From the above, it is desirable to select a motion according to the correspondence of feature points at various distances, but it is difficult to know in advance the distance between feature points extracted from the image. Therefore, feature points that are close to each other on the image use the knowledge that the distance is close even in a three-dimensional space, weight the feature points according to the density of feature points on the image from which the feature points are extracted, Correct motion estimation is realized by selecting the motion that maximizes the sum of the weights of the feature points of the corresponding points that follow the motion.

前の例において、距離の近い3点の特徴点については特徴点の密度が低いため、重み係数を大きくし、遠方の30点の特徴点については特徴点の密度が高いため、重み係数を小さくする。これによって、遠方の5点の重み係数より近傍の3点の重み係数の方が大きくなるため、誤った対応の5点を含んだ特徴点の対応に従う運動は選択されない。このように、画像上で特徴点の密度が低い領域にある特徴点に対する重み係数を大きくし、運動に従う対応点の特徴点の重みの総和が最大となるような運動を推定することで、画像中から抽出される特徴点の距離の分布に偏りがある場合であっても、正しい運動推定が可能となる。   In the previous example, the feature point density is low for the three feature points that are close to each other, so the weighting factor is increased, and the feature point density is high for the 30 feature points that are far away. To do. As a result, the weighting factors of the three neighboring points are larger than the weighting factors of the five far points, so that the motion according to the correspondence of the feature points including the erroneously corresponding five points is not selected. In this way, by increasing the weighting coefficient for the feature points in the region where the feature point density is low on the image and estimating the motion that maximizes the sum of the weights of the feature points of the corresponding points according to the motion, Even if the distribution of the distance between feature points extracted from inside is biased, correct motion estimation is possible.

次に、第1の実施の形態に係る運動推定装置10の作用について説明する。なお、運動推定装置10を搭載した車両の走行中に、画像撮像装置12の運動を推定する場合を例に説明する。   Next, the operation of the motion estimation apparatus 10 according to the first embodiment will be described. An example in which the motion of the image capturing device 12 is estimated while the vehicle on which the motion estimation device 10 is mounted will be described.

まず、画像撮像装置12が、自車両の前方に向けられ、推定する運動の開始時における画像撮像装置12の第1の位置及び第1の姿勢で、画像撮像装置12によって、自車両の前方領域が撮像されて第1の画像が生成される。そして、推定する運動の終了時における画像撮像装置12の第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で、画像撮像装置12によって、自車両の前方領域が撮像されて第2の画像が生成されると、コンピュータ14において、図4に示す運動推定処理ルーチンが実行される。   First, the image capturing device 12 is directed to the front of the host vehicle, and the image capturing device 12 uses the first position and the first posture of the image capturing device 12 at the start of the motion to be estimated. Is captured to generate a first image. Then, the front region of the host vehicle is imaged by the image capturing device 12 at a second position and a second posture different from the first position and the first posture of the image capturing device 12 at the end of the estimated motion. When the second image is generated, the motion estimation processing routine shown in FIG.

まず、ステップ100において、画像撮像装置12から第1の画像を取得し、ステップ102において、上記ステップ100で取得した第1の画像から特徴点を複数抽出する。そして、ステップ104において、画像撮像装置12から第2の画像を取得し、次のステップ106で、上記ステップ102で抽出された第1の画像上の複数の特徴点の各々に対応する点を、上記ステップ104で得られた第2の画像上で検索して追跡し、各特徴点に対応する第2の画像上の点の画像座標を検出する。   First, in step 100, a first image is acquired from the image pickup device 12, and in step 102, a plurality of feature points are extracted from the first image acquired in step 100. Then, in step 104, a second image is acquired from the image capturing device 12, and in the next step 106, points corresponding to each of the plurality of feature points on the first image extracted in step 102 are determined. The second image obtained in step 104 is searched for and tracked, and the image coordinates of the point on the second image corresponding to each feature point are detected.

そして、ステップ108において、特徴点を識別するための変数iを初期値1に設定すると共に、特徴点数を表わす定数Nに、上記ステップ102で抽出された特徴点の数を設定する。次のステップ110では、第1の画像上において、特徴点pを中心とした所定のウィンドウを設定し、ウィンドウ内に存在する特徴点p以外の他の特徴点の数をカウントし、ステップ112において、上記ステップ110でカウントされたウィンドウ内の他の特徴点の数に基づいて、上記(4)式に従って、特徴点pに対する重み係数wを決定する。 In step 108, a variable i for identifying a feature point is set to an initial value 1, and the number of feature points extracted in step 102 is set to a constant N representing the number of feature points. In the next step 110, a predetermined window centered on the feature point p i is set on the first image, the number of feature points other than the feature point p i existing in the window is counted, in 112, based on the number of other feature points in the window that is counted in step 110, according to the above (4), determines the weight coefficient w i for the feature point p i.

そして、ステップ114において、変数iが定数N未満であるか否かを判定し、変数iが定数N未満であり、重み係数が決定されていない特徴点がある場合には、ステップ116で、変数iをインクリメントして、ステップ110へ戻る。一方、上記ステップ114において、変数iが定数N以上であり、全ての特徴点について重み係数を決定した場合には、ステップ118へ移行する。   In step 114, it is determined whether or not the variable i is less than the constant N. If there is a feature point in which the variable i is less than the constant N and the weighting factor has not been determined, the variable i is determined in step 116. Increment i and return to step 110. On the other hand, if the variable i is equal to or greater than the constant N in step 114 and the weighting coefficients have been determined for all feature points, the process proceeds to step 118.

上記ステップ100〜ステップ116を実行することにより、以下の(12)式に示すような、対応する第1の画像上の特徴点と第2の画像上の点とのn個の組と、n個の特徴点の重み係数とからなるデータが得られる。
(I,I’,w),i=1,・・・,N ・・・(12)
By executing the above steps 100 to 116, n sets of corresponding feature points on the first image and points on the second image as shown in the following expression (12), and n Data consisting of the weight coefficients of the individual feature points is obtained.
(I i , I i ′, w i ), i = 1,..., N (12)

ここで、Iは、第1の画像での画像座標の同次座標ベクトルであり、I=(u,v,1)である。また、I’は、第2の画像での画像座標の同次座標ベクトルであり、I’=(u’,v’,1)である。また、第1の画像での特徴点の画像座標(u,v)の点に対応する第2の画像での点の画像座標が(u’,v’)である。 Here, I i is a homogeneous coordinate vector of image coordinates in the first image, and I i = (u i , v i , 1) T. Also, I i 'is the homogeneous coordinate vector of the image coordinates of the second image, I i' = (u i ', v i', 1) is T. Further, the image coordinates of the point in the second image corresponding to the image coordinates (u i , v i ) of the feature point in the first image are (u i ′, v i ′).

ステップ118では、繰り返しの数を示す変数rを初期値の1に設定し、ステップ120において、N組の対応する点からランダムに8組の対応する点を選択する。そして、ステップ122において、上記ステップ120で選択された8組の対応する点の画像座標から、上記(8)式に従って、行列Fの要素f11〜f32を算出し、算出された要素f11〜f32から行列Fを生成する。 In step 118, a variable r indicating the number of repetitions is set to an initial value of 1. In step 120, eight sets of corresponding points are selected at random from the N sets of corresponding points. Then, in step 122, the eight pairs of corresponding points image coordinates of selected in step 120, according to the above (8), calculates an element f 11 ~f 32 of the matrix F, which is calculated element f 11 A matrix F r is generated from ~ f 32 .

次のステップ124では、上記ステップ120で生成された行列F、N組の対応する点の画像座標、及び上記ステップ112で決定された各特徴点の重み係数に基づいて、上記(9)に従って、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点の重み係数の総和Zを算出する。 In the next step 124, based on the matrix F r generated in step 120, the image coordinates of the N corresponding points, and the weighting factor of each feature point determined in step 112, according to (9) above. When the matrix F r is applied, the sum Z r of the weight coefficients of the feature points of the set of corresponding points between the first image and the second image is calculated.

そして、ステップ126では、変数rが、最大繰り返し数を示す定数T未満であるか否かを判定し、変数rが定数T未満である場合には、ステップ128において、変数rをインクリメントして、ステップ120へ戻る。一方、上記ステップ126で、変数rが定数T以上である場合には、ステップ130へ移行する。   In step 126, it is determined whether or not the variable r is less than a constant T indicating the maximum number of repetitions. If the variable r is less than the constant T, in step 128, the variable r is incremented, Return to step 120. On the other hand, if the variable r is greater than or equal to the constant T in step 126, the process proceeds to step.

ステップ130では、上記ステップ124で算出された重み係数の総和Zが最大となる行列Fを特定し、ステップ132において、上記ステップ130で特定された行列Fに基づいて、上記(10)式及び(11)式に従って、第1の画像を撮像したときの画像撮像装置12の第1の位置及び第1の姿勢と第2の画像を撮像したときの画像撮像装置12の第2の位置及び第2の姿勢との変化として、画像撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量を算出する。 In step 130, the matrix F r that maximizes the sum Z r of the weighting coefficients calculated in step 124 is specified. In step 132, based on the matrix F r specified in step 130, (10) The first position of the image capturing device 12 when the first image is captured and the first position of the image capturing device 12 when the second image is captured according to the equations (11) and (11) As the change from the second posture, the movement amount of the movement of the image pickup device 12 in the XYZ axis direction and the rotation amount based on the XYZ axis are calculated.

次のステップ134では、運動推定結果として、ステップ132で算出された画像撮像装置12の移動量及び回転量を、コンピュータ14のディスプレイ(図示省略)に表示して、運動推定処理ルーチンを終了する。   In the next step 134, the movement amount and the rotation amount of the image capturing device 12 calculated in step 132 are displayed on the display (not shown) of the computer 14 as the motion estimation result, and the motion estimation processing routine is terminated.

以上説明したように、本実施の形態に係る運動推定装置によれば、抽出された各特徴点について、第1の画像上の特徴点を中心としたウィンドウ内に存在する他の特徴点の数が少ないほど大きい重み係数を決定し、画像撮像装置の位置及び姿勢の変化を示す行列を適用したときに画像間で対応する第1の画像上の特徴点と第2の画像上の点との組の重み係数の総和が最大となる位置及び姿勢の変化を示す行列を特定して、画像撮像装置の位置及び姿勢の変化を推定することにより、画像撮像装置の位置及び姿勢の変化を高精度に推定することができる。   As described above, according to the motion estimation device according to the present embodiment, for each extracted feature point, the number of other feature points existing in the window centered on the feature point on the first image. The smaller the is, the larger the weighting coefficient is determined, and when the matrix indicating the change in the position and orientation of the image capturing device is applied, the feature points on the first image and the points on the second image corresponding between the images By identifying a matrix that indicates a change in the position and orientation at which the sum of the weighting factors of the pair is maximum, and estimating the change in the position and orientation of the image pickup device, the change in the position and orientation of the image pickup device is highly accurate. Can be estimated.

また、画像撮像装置以外に他のセンサを用いることなく、簡易な構成で、画像撮像装置の運動を高精度に推定することができる。   In addition, the motion of the image pickup apparatus can be estimated with high accuracy with a simple configuration without using any other sensor besides the image pickup apparatus.

画像に基づいて運動を推定するとき、画像全体から特徴点を抽出すると、パターンの多い物体などが存在する一部の画像領域から集中して多くの特徴点が抽出され、一方、路面などのパターンの少ない領域から抽出される特徴点は少なくなる。そのような特徴点の対応に基づいて運動を推定すると精度が劣化する。本実施の形態では、パターンの多い領域から抽出された特徴点とパターンの少ない領域から抽出された特徴点に対して異なる重み係数を与えて運動を推定することにより、特徴点の数に関わらず、様々な距離にある点の誤差を最小化するように運動を推定することができ、運動の推定精度が向上する。   When estimating motion based on an image, if feature points are extracted from the entire image, many feature points are extracted from a part of the image area where objects with many patterns exist. Fewer feature points are extracted from a region with less. If the motion is estimated based on such feature point correspondence, the accuracy deteriorates. In the present embodiment, motions are estimated by applying different weighting factors to feature points extracted from regions with many patterns and feature points extracted from regions with few patterns, regardless of the number of feature points. The motion can be estimated so as to minimize the error of points at various distances, and the motion estimation accuracy is improved.

次に、第2の実施の形態に係る運動推定装置について説明する。なお、第2の実施の形態に係る運動推定装置の構成は、第1の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a motion estimation apparatus according to the second embodiment will be described. In addition, since the structure of the motion estimation apparatus which concerns on 2nd Embodiment is the same as that of 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第2の実施の形態では、他の特徴点との距離に応じて、特徴点の重み係数を決定している点が第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that the weighting coefficient of the feature point is determined according to the distance from other feature points.

第2の実施の形態に係る運動推定装置では、特徴点重み決定部34において、特徴点から周囲にある他の特徴点までの第1の画像上での距離を計算し、距離値を小さい順に並べたときのm番目までの距離値の平均値dを求め、dが小さいほど小さい重み係数を決定し、dが大きいほど重み係数を決定する。   In the motion estimation apparatus according to the second embodiment, the feature point weight determination unit 34 calculates the distance on the first image from the feature point to other feature points around it, and sets the distance values in ascending order. The average value d of the distance values up to the m-th when arranged is determined, a smaller weight coefficient is determined as d is smaller, and a weight coefficient is determined as d is larger.

例えば、図5に示すように、特徴点の重み係数を決定するときに距離値を小さい順に並べたときの3番目までの距離値を利用する場合には、特徴点p1の重みを決定するとき、特徴点p1との距離が近い3つの特徴点を求め、それら3つの特徴点と決定対象の特徴点p1との距離d1、d2、d3の平均値dを計算する。決定対象の特徴点p1について、この平均距離dが小さいほど小さい重み係数を決定し、平均距離が大きいほど大きい重み係数を決定する。   For example, as shown in FIG. 5, when the weight values of feature points p1 are determined when using the distance values up to the third when the distance values are arranged in ascending order when determining the weight coefficients of the feature points, Then, three feature points that are close to the feature point p1 are obtained, and an average value d of the distances d1, d2, and d3 between the three feature points and the feature point p1 to be determined is calculated. For the feature point p1 to be determined, a smaller weight coefficient is determined as the average distance d is smaller, and a larger weight coefficient is determined as the average distance is larger.

第2の実施の形態に係る運動推定処理ルーチンでは、まず、画像撮像装置12から第1の画像を取得して、第1の画像から特徴点を複数抽出する。そして、画像撮像装置12から第2の画像を取得して、第1の画像上の複数の特徴点の各々に対応する点を、第2の画像上で検索して追跡し、各特徴点に対応する第2の画像上の点の画像座標を検出する。   In the motion estimation processing routine according to the second embodiment, first, a first image is acquired from the image capturing device 12, and a plurality of feature points are extracted from the first image. Then, a second image is acquired from the image capturing device 12, and points corresponding to each of the plurality of feature points on the first image are searched and tracked on the second image, and each feature point is detected. The image coordinates of the corresponding point on the second image are detected.

そして、抽出されたN個の特徴点p(i=1〜N)について、第1の画像上において、特徴点pからの距離が近い3つの特徴点を、特徴点pの周囲から抽出し、抽出された3つの特徴点と特徴点pとの距離の平均値を算出し、算出された距離の平均値の大きさに応じて、特徴点pに対する重み係数wを決定する。 Then, with respect to the extracted N feature points p i (i = 1 to N), three feature points that are close to the feature point p i on the first image are extracted from the surroundings of the feature points p i . extracted, calculates an average value of the distance between the extracted three feature points and the feature point p i, in accordance with the magnitude of the average value of the distance calculated, determines a weight coefficient w i for the feature point p i To do.

そして、N組の対応する点からランダムに8組の対応する点を選択し、選択された8組の対応する点の画像座標から、行列Fの要素f11〜f32を算出し、算出された要素f11〜f32から行列Fを生成する。次に、生成された行列F、N組の対応する点の画像座標、及び決定された各特徴点の重み係数に基づいて、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点の重み係数の総和Zを算出する。 Then, eight sets of corresponding points are randomly selected from the N sets of corresponding points, and the elements f 11 to f 32 of the matrix F are calculated from the image coordinates of the selected eight sets of corresponding points. A matrix F r is generated from the elements f 11 to f 32 . Next, based on the generated matrix F r , the image coordinates of the N corresponding points, and the determined weighting factor of each feature point, the first image and the second image when the matrix F r is applied calculating the sum Z r of the weighting coefficients of the set of feature points of the corresponding points between the images.

上記のランダムに選択された8組の対応する点から、重み係数の総和Zを算出する処理を、所定回数T繰り返すと、算出された重み係数の総和Zが最大となる行列Fを特定し、特定された行列Fに基づいて、画像撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量を算出する。 When the process of calculating the weight coefficient sum Z r from the eight randomly selected points is repeated a predetermined number of times T, a matrix F r that maximizes the calculated weight coefficient sum Z r is obtained. Based on the identified matrix Fr , the movement amount of the movement of the image pickup device 12 in the XYZ axis direction and the rotation amount based on the XYZ axis are calculated.

このように、抽出された各特徴点について、第1の画像上の特徴点の周囲にある特徴点との平均距離が長いほど大きい重み係数を決定し、画像撮像装置の位置及び姿勢の変化を示す行列を適用したときに画像間で対応する第1の画像上の特徴点と第2の画像上の点との組の重み係数の総和が最大となる位置及び姿勢の変化を示す行列を特定して、画像撮像装置の位置及び姿勢の変化を推定することにより、簡易な構成で、画像撮像装置の位置及び姿勢の変化を高精度に推定することができる。   In this way, for each extracted feature point, a larger weighting factor is determined as the average distance from the feature points around the feature point on the first image is longer, and the change in the position and orientation of the image capturing device is determined. Identifies a matrix that indicates a change in position and orientation that maximizes the sum of the weighting factors of pairs of feature points on the first image and points on the second image that correspond to each other when the matrix shown is applied Thus, by estimating the change in the position and orientation of the image capturing apparatus, it is possible to estimate the change in the position and orientation of the image capturing apparatus with high accuracy with a simple configuration.

次に、第3の実施の形態に係る運動推定装置について説明する。なお、第3の実施の形態に係る運動推定装置の構成は、第1の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a motion estimation apparatus according to the third embodiment will be described. In addition, since the structure of the motion estimation apparatus which concerns on 3rd Embodiment is the same as that of 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第3の実施の形態では、周囲の点との輝度の変化度合いを示す特徴量に応じて、特徴点の重み係数を決定している点が第1の実施の形態と異なっている。   The third embodiment is different from the first embodiment in that the weighting coefficient of the feature point is determined according to the feature amount indicating the degree of change in luminance with the surrounding points.

第3の実施の形態に係る運動推定装置では、特徴点重み決定部34において、周囲の点との輝度の変化度合いを示す特徴量として、特徴点抽出部30でHarrisオペレータを用いて特徴点を抽出するときに得られたコーナー強度を取得し、特徴点のコーナー強度が大きいほど大きく重み係数を決定し、コーナー強度が小さいほど小さい重み係数を決定する。   In the motion estimation apparatus according to the third embodiment, the feature point weight determination unit 34 uses the Harris operator in the feature point extraction unit 30 as a feature amount indicating the degree of change in luminance with the surrounding points. The corner strength obtained at the time of extraction is acquired, and the larger the corner strength of the feature point, the larger the weighting factor is determined. The smaller the corner strength, the smaller the weighting factor is determined.

第3の実施の形態に係る運動推定処理ルーチンでは、まず、画像撮像装置12から第1の画像及び第2の画像を取得して、第1の画像から特徴点を複数抽出し、また、第1の画像上の複数の特徴点の各々に対応する点を、第2の画像上で検索して追跡し、各特徴点に対応する第2の画像上の点の画像座標を検出する。   In the motion estimation processing routine according to the third embodiment, first, the first image and the second image are acquired from the image capturing device 12, and a plurality of feature points are extracted from the first image. A point corresponding to each of the plurality of feature points on one image is searched and tracked on the second image, and the image coordinates of the point on the second image corresponding to each feature point are detected.

そして、抽出されたN個の特徴点p(i=1〜N)について、特徴点pを抽出するときに得られたコーナー強度を取得し、取得されたコーナー強度の大きさに応じて、特徴点pに対する重み係数wを決定する。 Then, for the extracted N feature points p i (i = 1 to N), the corner strength obtained when extracting the feature points p i is acquired, and according to the size of the acquired corner strength. , to determine the weight coefficient w i for the feature point p i.

そして、N組の対応する点からランダムに8組の対応する点を選択し、選択された8組の対応する点の画像座標から、行列Fの要素f11〜f32を算出し、要素f11〜f32から行列Fを生成する。次に、生成された行列F、N組の対応する点の画像座標、及び決定された各特徴点の重み係数に基づいて、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点の重み係数の総和Zを算出する。 Then, eight sets of corresponding points are selected at random from the N sets of corresponding points, and the elements f 11 to f 32 of the matrix F are calculated from the image coordinates of the selected eight sets of corresponding points. A matrix F r is generated from 11 to f 32 . Next, based on the generated matrix F r , the image coordinates of the N corresponding points, and the determined weighting factor of each feature point, the first image and the second image when the matrix F r is applied calculating the sum Z r of the weighting coefficients of the set of feature points of the corresponding points between the images.

上記のランダムに選択された8組の対応する点から、重み係数の総和Zを算出する処理を、所定回数T繰り返すと、算出された重み係数の総和Zが最大となる行列Fを特定し、特定された行列Fに基づいて、画像撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量を算出する。 When the process of calculating the weight coefficient sum Z r from the eight randomly selected points is repeated a predetermined number of times T, a matrix F r that maximizes the calculated weight coefficient sum Z r is obtained. Based on the identified matrix Fr , the movement amount of the movement of the image pickup device 12 in the XYZ axis direction and the rotation amount based on the XYZ axis are calculated.

このように、抽出された各特徴点について、第1の画像上の特徴点のコーナー強度が大きいほど大きい重み係数を決定し、画像撮像装置の位置及び姿勢の変化を示す行列を適用したときに画像間で対応する第1の画像上の特徴点と第2の画像上の点との組の重み係数の総和が最大となる位置及び姿勢の変化を示す行列を特定して、画像撮像装置の位置及び姿勢の変化を推定することにより、簡易な構成で、画像撮像装置の位置及び姿勢の変化を高精度に推定することができる。   Thus, for each extracted feature point, a larger weighting factor is determined as the corner strength of the feature point on the first image is larger, and a matrix indicating changes in the position and orientation of the image capturing device is applied. A matrix indicating a change in position and orientation at which the sum of the weighting factors of a set of feature points on the first image and points on the second image corresponding to each other between images is maximized is determined. By estimating the change in position and orientation, it is possible to estimate the change in position and orientation of the image capturing apparatus with high accuracy with a simple configuration.

なお、上記の実施の形態では、周囲の点との輝度の変化度合いを示す特徴量として、コーナー強度を用いた場合を例に説明したが、これに限定されるものではなく、周囲の点との濃度又は輝度の変化度合いを示す特徴量を用いればよく、例えば、周囲の点との濃度又は輝度の変化度合いを示す特徴量であるエッジや二次微分量を算出し、エッジや二次微分量が大きいほど大きい重み係数を決定するようにしてもよい。   In the above embodiment, the case where the corner strength is used as the feature amount indicating the degree of change in luminance with the surrounding points is described as an example. However, the present invention is not limited to this. The feature amount indicating the degree of change in the density or luminance of the image may be used. For example, the edge or the second derivative is calculated by calculating the edge or the second derivative that is the feature amount indicating the degree of change in the density or the luminance with the surrounding points. A larger weighting factor may be determined as the amount increases.

次に、第4の実施の形態に係る運動推定装置について説明する。なお、第4の実施の形態に係る運動推定装置の構成は、第1の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a motion estimation apparatus according to the fourth embodiment will be described. In addition, since the structure of the motion estimation apparatus which concerns on 4th Embodiment is the same as that of 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第4の実施の形態では、2つの画像において対応する点の周辺領域の画像が類似しているかによって、特徴点の重み係数を決定している点が第1の実施の形態と異なっている。   The fourth embodiment is different from the first embodiment in that a weighting coefficient of a feature point is determined depending on whether images in a peripheral area of corresponding points in two images are similar.

第4の実施の形態に係る運動推定装置では、特徴点重み決定部34において、対応点検索部32により得られた第1の画像上の特徴点の周囲の小領域と第2の画像上の対応する点の周囲の小領域とについて、輝度の類似度を示す指標として、例えば、小領域の画素ごとの輝度の差を2乗和した値であるSSD(Sum of Squared Distances)の値を計算し、SSDの値が大きいほど小さい重み係数を決定し、SSDの値が小さいほど大きい重み係数を決定する。   In the motion estimation apparatus according to the fourth embodiment, in the feature point weight determination unit 34, the small region around the feature point on the first image obtained by the corresponding point search unit 32 and the second image For example, a value of SSD (Sum of Squared Distances), which is a value obtained by summing squares of luminance differences for each pixel in the small area, is calculated as an index indicating luminance similarity with respect to the small area around the corresponding point. A smaller weighting factor is determined as the SSD value is larger, and a larger weighting factor is determined as the SSD value is smaller.

例えば、図6(A)、(B)に示すように、第1の画像の特徴点pと第2の画像の点p’とが対応点として検出された場合、特徴点pの周囲に設定した小領域wの輝度と、対応する点p’の周囲に設定した同じ大きさの小領域w’の輝度とに基づいて、SSDを計算する。ここで、第1の画像の特徴点と対応する第2の画像の点とが、2つの画像間で正しい対応であれば、周囲のパターンの変化も小さくなるため、SSDの値は小さくなる。よって、SSDの値が小さければ、第1の画像の特徴点の周囲の小領域と、対応する第2の画像の点の周囲の小領域とが類似しており、対応が正しい可能性が高く、対応の信頼度が高いため、大きい重み係数を決定する。一方、計算されるSSDの値が大きければ、第1の画像の特徴点の周囲の小領域と、対応する第2の画像の点の周囲の小領域とが類似しておらず、対応が誤っている可能性が高く、対応の信頼度が低いため、小さい重み係数を決定する。これにより、誤対応の可能性が高い特徴点の重み係数を小さくすることができる。   For example, as shown in FIGS. 6A and 6B, when the feature point p of the first image and the point p ′ of the second image are detected as corresponding points, they are set around the feature point p. The SSD is calculated based on the brightness of the small area w and the brightness of the small area w ′ having the same size set around the corresponding point p ′. Here, if the feature point of the first image and the corresponding point of the second image correspond to each other correctly between the two images, the change in the surrounding pattern is also small, so the SSD value is small. Therefore, if the SSD value is small, the small area around the feature point of the first image is similar to the small area around the point of the corresponding second image, and it is highly possible that the correspondence is correct. Since the reliability of correspondence is high, a large weighting factor is determined. On the other hand, if the calculated SSD value is large, the small area around the feature point of the first image is not similar to the small area around the point of the corresponding second image, and the correspondence is incorrect. Since the reliability of correspondence is low, a small weighting factor is determined. Thereby, it is possible to reduce the weight coefficient of the feature point that has a high possibility of erroneous correspondence.

第4の実施の形態に係る運動推定処理ルーチンでは、まず、画像撮像装置12から第1の画像及び第2の画像を取得して、第1の画像から特徴点を複数抽出し、また、第1の画像上の複数の特徴点の各々に対応する点を、第2の画像上で検索して追跡し、各特徴点に対応する第2の画像上の点の画像座標を検出する。   In the motion estimation processing routine according to the fourth embodiment, first, a first image and a second image are acquired from the image capturing device 12, and a plurality of feature points are extracted from the first image. A point corresponding to each of the plurality of feature points on one image is searched and tracked on the second image, and the image coordinates of the point on the second image corresponding to each feature point are detected.

そして、抽出されたN個の特徴点p(i=1〜N)について、第1の画像の特徴点pの周囲の小領域を抽出すると共に、特徴点pに対応する第2の画像の点の周囲の小領域を抽出する。そして、抽出された第1の画像の特徴点pの周囲の小領域の輝度、及び抽出された第2の画像の点の周囲の小領域の輝度に基づいて、SSDを算出し、算出されたSSDの値の大きさに応じて、特徴点pに対する重み係数wを決定する。 Then, for the extracted N feature points p i (i = 1 to N), a small area around the feature point p i of the first image is extracted, and the second corresponding to the feature point p i is extracted. Extract a small area around a point in the image. Then, based on the first second luminance small region around the point of images around the small region of luminance, and extraction of the feature point p i of the images extracted to calculate the SSD, it is calculated depending on the magnitude of the value of the SSD, to determine the weight coefficient w i for the feature point p i.

そして、N組の対応する点からランダムに8組の対応する点を選択し、選択された8組の対応する点の画像座標から、行列Fの要素f11〜f32を算出し、要素f11〜f32から行列Fを生成する。次に、生成された行列F、N組の対応する点の画像座標、及び決定された各特徴点の重み係数に基づいて、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点の重み係数の総和Zを算出する。 Then, eight sets of corresponding points are selected at random from the N sets of corresponding points, and the elements f 11 to f 32 of the matrix F are calculated from the image coordinates of the selected eight sets of corresponding points. A matrix F r is generated from 11 to f 32 . Next, based on the generated matrix F r , the image coordinates of the N corresponding points, and the determined weighting factor of each feature point, the first image and the second image when the matrix F r is applied calculating the sum Z r of the weighting coefficients of the set of feature points of the corresponding points between the images.

上記のランダムに選択された8組の対応する点から、重み係数の総和Zを算出する処理を、所定回数T繰り返すと、算出された重み係数の総和Zが最大となる行列Fを特定し、特定された行列Fに基づいて、画像撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量を算出する。 When the process of calculating the weight coefficient sum Z r from the eight randomly selected points is repeated a predetermined number of times T, a matrix F r that maximizes the calculated weight coefficient sum Z r is obtained. Based on the identified matrix Fr , the movement amount of the movement of the image pickup device 12 in the XYZ axis direction and the rotation amount based on the XYZ axis are calculated.

このように、抽出された各特徴点について、第1の画像上の特徴点の周囲の小領域と、第2の画像上の対応する点の周囲の小領域とに基づくSSDの値が小さいほど大きい重み係数を決定し、画像撮像装置の位置及び姿勢の変化を示す行列を適用したときに第1の画像と第2の画像との間で対応する第1の画像上の特徴点と第2の画像上の点との組の重み係数の総和が最大となる位置及び姿勢の変化を示す行列を特定して、画像撮像装置の位置及び姿勢の変化を推定することにより、簡易な構成で、画像撮像装置の位置及び姿勢の変化を高精度に推定することができる。   Thus, for each extracted feature point, the smaller the SSD value based on the small region around the feature point on the first image and the small region around the corresponding point on the second image, the smaller the feature point. When a large weighting factor is determined and a matrix indicating changes in the position and orientation of the image capturing device is applied, the corresponding feature points on the first image and the second between the first image and the second image By specifying a matrix indicating a change in position and orientation at which the sum of weight coefficients of a pair with a point on the image of the image becomes the maximum, and estimating a change in the position and orientation of the image capturing device, with a simple configuration, Changes in the position and orientation of the image capturing apparatus can be estimated with high accuracy.

なお、上記の実施の形態では、2つの画像において対応する点の周辺領域の画像が類似しているか否かを示す指標として、SSDを用いた場合を例に説明したが、これに限定されるものではなく、2つの画像において対応する点の周辺領域の画像の類似度を示す他の指標を用いてもよい。この場合には、求められた指標に基づいて、2つの画像において対応する点の周辺領域の画像が類似するほど大きい重み係数を、特徴点に対して決定すればよい。   In the above-described embodiment, the case where the SSD is used as an index indicating whether or not the images of the peripheral areas of corresponding points in the two images are similar is described. However, the present invention is not limited to this. Instead of this, another index indicating the similarity between the images in the peripheral areas of the corresponding points in the two images may be used. In this case, based on the obtained index, a weighting factor that is so large that the images in the peripheral areas of corresponding points in the two images are similar may be determined for the feature points.

また、上記の第1の実施の形態〜第4の実施の形態では、第1の画像の特徴点に対応する点を、第2の画像上から検索する場合を例に説明したが、第2の画像からも特徴点を抽出し、第1の画像の特徴点に対応する点を、第2の画像上の特徴点から検索するようにしてもよい。   In the first to fourth embodiments, the case where the point corresponding to the feature point of the first image is searched from the second image has been described as an example. It is also possible to extract feature points from the first image and search for points corresponding to the feature points of the first image from the feature points on the second image.

また、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点に対する重み係数の総和が最大となる行列Fを特定し、特定された行列Fを用いて画像撮像装置の位置及び姿勢の変化を求める場合を例に説明したが、これに限定されるものではなく、例えば、行列Fを適用したときに第1の画像と第2の画像との間で対応する点の組の特徴点する重み係数の総和が所定値以上となる行列Fを特定し、特定された行列Fを用いて画像撮像装置の位置及び姿勢の変化を求めるようにしてもよい。   In addition, when the matrix F is applied, a matrix F that maximizes the sum of the weighting factors for the feature points of the pair of corresponding points between the first image and the second image is identified, and the identified matrix F However, the present invention is not limited to this. For example, when the matrix F is applied, the first image and the second image The matrix F in which the sum of the weighting coefficients of the feature points of the pair of corresponding points is greater than or equal to a predetermined value is specified, and the change in the position and orientation of the image pickup device is obtained using the specified matrix F Also good.

また、本発明に係るプログラムを、CDROMなどの記憶媒体に格納して提供するようにしてもよい。   The program according to the present invention may be provided by being stored in a storage medium such as a CDROM.

本発明の第1の実施の形態に係る運動推定装置の構成を示す概略図である。It is the schematic which shows the structure of the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 特徴点を中心としたウィンドウ内に存在する特徴点の数をカウントする様子を示すイメージ図である。It is an image figure which shows a mode that the number of the feature points which exist in the window centering on the feature point is counted. 位置姿勢の変化を表わす並進ベクトル及び回転行列を説明するための図である。It is a figure for demonstrating the translation vector and rotation matrix showing the change of a position and orientation. 本発明の第1の実施の形態に係る運動推定装置における運動推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the motion estimation process routine in the motion estimation apparatus which concerns on the 1st Embodiment of this invention. 特徴点の周辺に存在する他の特徴点との距離を求める様子を示すイメージ図である。It is an image figure which shows a mode that the distance with the other feature point which exists around a feature point is calculated | required. (A)第1の画像上の特徴点の周囲の小領域を抽出する様子を示すイメージ図、及び(B)第2の画像上の対応する点の周囲の小領域を抽出する様子を示すイメージ図である。(A) The image figure which shows a mode that the small area | region around the feature point on a 1st image is extracted, (B) The image figure which shows a mode that a small area | region around the corresponding point on a 2nd image is extracted. is there.

符号の説明Explanation of symbols

10 運動推定装置
12 画像撮像装置
14 コンピュータ
30 特徴点抽出部
32 対応点検索部
34 特徴点重み決定部
36 運動推定部
DESCRIPTION OF SYMBOLS 10 Motion estimation apparatus 12 Image pick-up apparatus 14 Computer 30 Feature point extraction part 32 Corresponding point search part 34 Feature point weight determination part 36 Motion estimation part

Claims (8)

移動体に取り付けられて所定領域を撮像する撮像手段と、
前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域内に存在する前記特徴点の数が少ないほど大きい重み係数を決定する重み係数決定手段と、
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段と、
を含む運動推定装置。
An imaging means attached to the moving body for imaging a predetermined area;
Feature point extracting means for extracting a plurality of feature points from a first image captured when the imaging means is in a first position and a first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, a weighting factor determination unit that determines a larger weighting factor as the number of the feature points existing in a predetermined region including the feature point of the first image decreases.
A change in the position and orientation of the imaging means estimated based on a plurality of sets of the corresponding feature point of the first image and the point of the second image, the position and orientation being changed Sometimes the change in position and orientation is such that the sum of the weighting factors of the set of feature points and points corresponding between the first image and the second image is greater than or equal to a predetermined value or a maximum value. Estimating means for estimating a change in position and orientation of the imaging means between the first position and the first attitude and the second position and the second attitude;
A motion estimation device including:
移動体に取り付けられて所定領域を撮像する撮像手段と、
前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と他の特徴点との距離が長いほど大きい重み係数を決定する重み係数決定手段と、
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段と、
を含む運動推定装置。
An imaging means attached to the moving body for imaging a predetermined area;
Feature point extracting means for extracting a plurality of feature points from a first image captured when the imaging means is in a first position and a first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, a weighting factor determination unit that determines a larger weighting factor as the distance between the feature point of the first image and another feature point is longer;
A change in the position and orientation of the imaging means estimated based on a plurality of sets of the corresponding feature point of the first image and the point of the second image, the position and orientation being changed Sometimes the change in position and orientation is such that the sum of the weighting factors of the set of feature points and points corresponding between the first image and the second image is greater than or equal to a predetermined value or a maximum value. Estimating means for estimating a change in position and orientation of the imaging means between the first position and the first attitude and the second position and the second attitude;
A motion estimation device including:
移動体に取り付けられて所定領域を撮像する撮像手段と、
前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と周囲の点との濃度又は輝度の変化度合いを示す特徴量の大きさが大きいほど大きい重み係数を決定する重み係数決定手段と、
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段と、
を含む運動推定装置。
An imaging means attached to the moving body for imaging a predetermined area;
Feature point extracting means for extracting a plurality of feature points from a first image captured when the imaging means is in a first position and a first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, a larger weighting factor is determined as the feature amount indicating the degree of change in density or luminance between the feature points of the first image and surrounding points is larger. A weight coefficient determination means;
A change in the position and orientation of the imaging means estimated based on a plurality of sets of the corresponding feature point of the first image and the point of the second image, the position and orientation being changed Sometimes the change in position and orientation is such that the sum of the weighting factors of the set of feature points and points corresponding between the first image and the second image is greater than or equal to a predetermined value or a maximum value. Estimating means for estimating a change in position and orientation of the imaging means between the first position and the first attitude and the second position and the second attitude;
A motion estimation device including:
移動体に取り付けられて所定領域を撮像する撮像手段と、
前記撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段と、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域の画像と、前記第1の画像の前記特徴点に対応する前記第2の画像の点を含む所定領域の画像とが類似するほど大きい重み係数を決定する重み係数決定手段と、
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段と、
を含む運動推定装置。
An imaging means attached to the moving body for imaging a predetermined area;
Feature point extracting means for extracting a plurality of feature points from a first image captured when the imaging means is in a first position and a first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, an image of a predetermined area including the feature points of the first image and a point of the second image corresponding to the feature points of the first image. A weighting factor determining means for determining a weighting factor that is larger as the image of the predetermined area including the image is similar;
A change in the position and orientation of the imaging means estimated based on a plurality of sets of the corresponding feature point of the first image and the point of the second image, the position and orientation being changed Sometimes the change in position and orientation is such that the sum of the weighting factors of the set of feature points and points corresponding between the first image and the second image is greater than or equal to a predetermined value or a maximum value. Estimating means for estimating a change in position and orientation of the imaging means between the first position and the first attitude and the second position and the second attitude;
A motion estimation device including:
コンピュータを、
移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域内に存在する前記特徴点の数が少ないほど大きい重み係数を決定する重み係数決定手段、及び
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段
として機能させるためのプログラム。
Computer
A feature point extraction unit that extracts a plurality of feature points from a first image captured when the imaging unit attached to the moving body captures a predetermined area is in the first position and the first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, a weighting factor determination unit that determines a larger weighting factor as the number of the feature points existing in a predetermined region including the feature point of the first image decreases, and A change in the position and orientation of the imaging means estimated based on a plurality of sets of the corresponding feature point of the first image and the point of the second image, the position and orientation being changed Sometimes the change in position and orientation is such that the sum of the weighting factors of the set of feature points and points corresponding between the first image and the second image is greater than or equal to a predetermined value or a maximum value. A program for functioning as an estimation unit that estimates a change in position and orientation of the imaging unit between the first position and the first posture and the second position and the second posture.
コンピュータを、
移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と他の特徴点との距離が長いほど大きい重み係数を決定する重み係数決定手段、及び
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段
として機能させるためのプログラム。
Computer
A feature point extraction unit that extracts a plurality of feature points from a first image captured when the imaging unit attached to the moving body captures a predetermined area is in the first position and the first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, a weighting factor determination unit that determines a larger weighting factor as the distance between the feature point of the first image and another feature point is longer, and the corresponding first Change in the position and orientation of the imaging means estimated based on a plurality of sets of the feature points of the image and the points of the second image when the position and orientation change A change in the position and orientation at which the sum of the weighting factors of the set of the feature points and the points corresponding to each other between the image and the second image is equal to or greater than a predetermined value or a maximum value; A program for functioning as an estimation unit that estimates a change in the position and orientation of the imaging unit between a position and the first orientation and the second position and the second orientation.
コンピュータを、
移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点と周囲の点との濃度又は輝度の変化度合いを示す特徴量の大きさが大きいほど大きい重み係数を決定する重み係数決定手段、及び
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段
として機能させるためのプログラム。
Computer
A feature point extraction unit that extracts a plurality of feature points from a first image captured when the imaging unit attached to the moving body captures a predetermined area is in the first position and the first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, a larger weighting factor is determined as the feature amount indicating the degree of change in density or luminance between the feature points of the first image and surrounding points is larger. A change in position and orientation of the imaging means estimated on the basis of a plurality of sets of weight coefficient determination means and the corresponding feature points of the first image and points of the second image, When the position and orientation change, the sum of the weighting factors of the set of feature points and points corresponding between the first image and the second image is greater than or equal to a predetermined value or a maximum value. A function for estimating a change in position and orientation as a change in the position and orientation of the imaging means between the first position and the first orientation and the second position and the second orientation Program to let you.
コンピュータを、
移動体に取り付けられて所定領域を撮像する撮像手段が第1の位置及び第1の姿勢となっているときに撮像された第1の画像から、複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段によって前記第1の画像から抽出された前記特徴点の各々に対応する点を、前記撮像手段が前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢となっているときに撮像された第2の画像から検索する検索手段、
前記第1の画像の前記特徴点の各々について、前記第1の画像の前記特徴点を含む所定領域の画像と、前記第1の画像の前記特徴点に対応する前記第2の画像の点を含む所定領域の画像とが類似するほど大きい重み係数を決定する重み係数決定手段、及び
対応する前記第1の画像の前記特徴点と前記第2の画像の点との複数の組に基づいて推定される前記撮像手段の位置及び姿勢の変化であって、前記位置及び姿勢が変化したときに前記第1の画像と前記第2の画像との間で対応する前記特徴点と前記点との組の前記重み係数の総和が所定値以上又は最大値となる前記位置及び姿勢の変化を、前記第1の位置及び前記第1の姿勢と前記第2の位置及び前記第2の姿勢との間の前記撮像手段の位置及び姿勢の変化として推定する推定手段
として機能させるためのプログラム。
Computer
A feature point extraction unit that extracts a plurality of feature points from a first image captured when the imaging unit attached to the moving body captures a predetermined area is in the first position and the first posture;
A point corresponding to each of the feature points extracted from the first image by the feature point extraction unit is a second position and a second point where the imaging unit is different from the first position and the first posture. Search means for searching from a second image captured when in a posture;
For each of the feature points of the first image, an image of a predetermined area including the feature points of the first image and a point of the second image corresponding to the feature points of the first image. A weighting factor determining unit that determines a weighting factor that is larger as the image of the predetermined region is more similar, and an estimation based on a plurality of sets of the feature point of the corresponding first image and the point of the second image A change in the position and orientation of the imaging means, and a set of the feature point and the point corresponding to each other between the first image and the second image when the position and orientation change The change in the position and posture at which the sum of the weighting coefficients is equal to or greater than a predetermined value or the maximum value is determined between the first position and the first posture and the second position and the second posture. Estimating means for estimating changes in position and orientation of the imaging means Program to function.
JP2008202898A 2008-08-06 2008-08-06 Motion estimation apparatus and program Expired - Fee Related JP5032415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008202898A JP5032415B2 (en) 2008-08-06 2008-08-06 Motion estimation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008202898A JP5032415B2 (en) 2008-08-06 2008-08-06 Motion estimation apparatus and program

Publications (2)

Publication Number Publication Date
JP2010038753A JP2010038753A (en) 2010-02-18
JP5032415B2 true JP5032415B2 (en) 2012-09-26

Family

ID=42011459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008202898A Expired - Fee Related JP5032415B2 (en) 2008-08-06 2008-08-06 Motion estimation apparatus and program

Country Status (1)

Country Link
JP (1) JP5032415B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5177579B2 (en) * 2010-03-31 2013-04-03 アイシン・エィ・ダブリュ株式会社 Image processing system and positioning system
JP6398219B2 (en) * 2014-02-24 2018-10-03 日産自動車株式会社 Self-position calculation device and self-position calculation method
JP6398218B2 (en) * 2014-02-24 2018-10-03 日産自動車株式会社 Self-position calculation device and self-position calculation method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02183102A (en) * 1989-01-10 1990-07-17 Fanuc Ltd Automatic calibration adjusting system for visual sensor
JP2730457B2 (en) * 1993-10-01 1998-03-25 株式会社デンソー Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP3326851B2 (en) * 1993-03-08 2002-09-24 株式会社デンソー Method and apparatus for recognizing three-dimensional position and orientation based on vision
JP2002008040A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Three-dimensional information detecting device and three-dimensional information detecting method
JP5362189B2 (en) * 2006-05-10 2013-12-11 株式会社トプコン Image processing apparatus and processing method thereof
JP4833743B2 (en) * 2006-06-09 2011-12-07 日本電子株式会社 Stage motion correction method by image montage processing

Also Published As

Publication number Publication date
JP2010038753A (en) 2010-02-18

Similar Documents

Publication Publication Date Title
US10996062B2 (en) Information processing device, data management device, data management system, method, and program
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6573354B2 (en) Image processing apparatus, image processing method, and program
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP4859205B2 (en) Information processing apparatus, information processing method, and program
JP4809291B2 (en) Measuring device and program
JP5262705B2 (en) Motion estimation apparatus and program
US7812871B2 (en) Index identification method and apparatus
US20130230235A1 (en) Information processing apparatus and information processing method
JP2010033447A (en) Image processor and image processing method
JP6922348B2 (en) Information processing equipment, methods, and programs
JP5652239B2 (en) Motion estimation apparatus and program
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP5032415B2 (en) Motion estimation apparatus and program
JP4935769B2 (en) Plane region estimation apparatus and program
CN112393721B (en) Camera pose estimation method
JP5267100B2 (en) Motion estimation apparatus and program
JP2011203148A (en) Estimation device, estimation method and estimation program
US20240085448A1 (en) Speed measurement method and apparatus based on multiple cameras
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
JP2007257489A (en) Image processor and image processing method
KR20210028538A (en) Accelerated Vision-based Pose Estimation utilizing IMU sensor data for Inside-out Tracking in Virtual Reality
JP6944144B2 (en) Swing analyzer, method and program
Viswanath et al. A simplified error model for height estimation using a single camera
US20240119620A1 (en) Posture estimation apparatus, posture estimation method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120628

R150 Certificate of patent or registration of utility model

Ref document number: 5032415

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees