JP6645051B2 - Self-position estimation device, self-position estimation method and program - Google Patents
Self-position estimation device, self-position estimation method and program Download PDFInfo
- Publication number
- JP6645051B2 JP6645051B2 JP2015136294A JP2015136294A JP6645051B2 JP 6645051 B2 JP6645051 B2 JP 6645051B2 JP 2015136294 A JP2015136294 A JP 2015136294A JP 2015136294 A JP2015136294 A JP 2015136294A JP 6645051 B2 JP6645051 B2 JP 6645051B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature points
- feature point
- self
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000000605 extraction Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 description 49
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Description
本発明は、移動体などの自己位置を推定する自己位置推定装置、自己位置推定方法及びプログラムに関するものである。 The present invention relates to a self-position estimation device, a self-position estimation method, and a program for estimating a self-position of a moving object or the like.
環境内の特徴点と該特徴点の位置情報とを予め記憶し、記憶した特徴点と、移動体の撮影手段により撮影された画像から抽出した実特徴点と、を比較することで移動体の自己位置を推定する自己位置推定装置が知られている(特許文献1参照)。 The feature points in the environment and the position information of the feature points are stored in advance, and the stored feature points are compared with actual feature points extracted from an image captured by the capturing means of the mobile body, to thereby determine the position of the mobile body. A self-position estimating device for estimating a self-position is known (see Patent Document 1).
上記自己位置推定装置においては、例えば、実特徴点を抽出するための撮影手段の視点と、予め特徴点を記憶させたときの視点と、が異なる場合に、自己位置推定精度が低下する虞がある。 In the self-position estimation device, for example, when the viewpoint of the photographing unit for extracting the actual feature point is different from the viewpoint when the feature point is stored in advance, the self-position estimation accuracy may be reduced. is there.
本発明は、このような問題点を解決するためになされたものであり、自己位置推定精度を向上させることができる自己位置推定装置、自己位置推定方法及びプログラムを提供することを主たる目的とする。 The present invention has been made to solve such a problem, and has as its main object to provide a self-position estimating device, a self-position estimating method, and a program capable of improving the self-position estimating accuracy. .
上記目的を達成するための本発明の一態様は、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶する記憶手段と、前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得する画像取得手段と、前記画像取得手段により取得された画像から実特徴点を抽出する特徴点抽出手段と、前記記憶手段に記憶された各画像の特徴点と、前記特徴点抽出手段により抽出された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶手段の特徴点と前記特徴点抽出手段に抽出された実特徴点とを対応付けるマッチング手段と、前記実特徴点の位置と、前記記憶手段に記憶された該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する自己位置算出手段と、を備え、前記マッチング手段は、前記画像取得手段により取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記画像取得手段により取得された画像から抽出された実特徴点と、マッチングする、ことを特徴とする、自己位置推定装置である。
この一態様において、前記記憶手段には、前記環境内を複数の視点から撮影した画像が記憶されていてもよい。
この一態様において、前記特徴点抽出手段により抽出された実特徴点の中から、動的物体の動的特徴点を除去する特徴点除去手段を更に備えていてもよい。
この一態様において、前記マッチング手段は、前記画像取得手段により取得された画像から抽出された各実特徴点と、前記記憶手段に記憶された画像群の各特徴点と、のマッチングを行って、前記記憶手段の画像毎に、一致した特徴点の数を算出し、該一致した特徴点数が多い順に前記記憶手段の各画像をソートし、該ソートした順で、前記記憶手段に記憶された画像群の中から画像を選択し、該選択した画像に含まれる特徴点と、前記画像取得手段により取得された画像から抽出された実特徴点と、のマッチングを行ってもよい。
上記目的を達成するための本発明の一態様は、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶するステップと、前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得するステップと、前記取得された画像から実特徴点を抽出するステップと、前記記憶された各画像の特徴点と、前記抽出された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記抽出された実特徴点とを対応付けるステップと、前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出するステップと、を含み、前記取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記取得された画像から抽出された実特徴点と、マッチングする、ことを特徴とする自己位置推定方法であってもよい。
上記目的を達成するための本発明の一態様は、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶する処理と、前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得するステップと、前記取得された画像から実特徴点を抽出する処理と、前記取得された画像と類似度の高い前記記憶された画像に含まれる特徴点を、前記記憶された他の画像に含まれる特徴点よりも優先して、前記取得された画像から抽出された実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記抽出された実特徴点とを対応付ける処理と、前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する処理と、をコンピュータに実行させることを特徴とするプログラムであってもよい。
One embodiment of the present invention for achieving the above object is a storage unit that stores a plurality of images captured in an environment, each feature point of each image, and position information of each feature point in association with each other. Provided on a moving body moving in the environment, an image obtaining means for obtaining an image around the moving body, a feature point extracting means for extracting an actual feature point from the image obtained by the image obtaining means, Matching is performed to determine whether a feature point of each image stored in the storage unit matches an actual feature point of the image extracted by the feature point extraction unit, and the feature point of the storage unit and the feature point extraction are performed. Matching means for associating the extracted actual feature points with the means, and the geometrical positional relationship between the position of the actual feature point and the position of the feature point corresponding to the actual feature point stored in the storage means. Based on the self-position of the moving body And a self-position calculating unit that outputs the image. A self-position estimating device for matching with actual feature points extracted from the image obtained by the image obtaining means.
In this aspect, the storage unit may store images obtained by photographing the environment from a plurality of viewpoints.
In this aspect, the apparatus may further include a feature point removing unit that removes a dynamic feature point of the dynamic object from the actual feature points extracted by the feature point extracting unit.
In this aspect, the matching unit performs matching between each actual feature point extracted from the image acquired by the image acquisition unit and each feature point of an image group stored in the storage unit. For each image in the storage means, calculate the number of matched feature points, sort the images in the storage means in descending order of the number of matched feature points, and store the images stored in the storage means in the sorted order. An image may be selected from the group, and matching between a feature point included in the selected image and an actual feature point extracted from the image obtained by the image obtaining unit may be performed.
One embodiment of the present invention for achieving the above object includes a step of storing a plurality of images photographed in an environment, each feature point of each image, and position information of each feature point in association with each other, Provided on a moving body moving in the environment, acquiring an image around the moving body, extracting actual feature points from the acquired image, and feature points of each of the stored images. Performing matching to determine coincidence with the actual feature points of the extracted image, and associating the stored feature points with the extracted actual feature points; and Calculating the self-position of the moving object based on a geometrical positional relationship between the position of the feature point corresponding to an actual feature point, and a high similarity image with the acquired image. The feature points included in the In preference to the point, the actual feature point extracted from the acquired image, matching, it may be a self-position estimation method according to claim.
One embodiment of the present invention for achieving the above object includes a process of storing a plurality of images captured in an environment, each feature point of each image, and position information of each feature point in association with each other. A step of obtaining an image around the moving body, the processing being provided on a moving body moving in the environment, extracting actual feature points from the obtained image, and having a high degree of similarity with the obtained image. Matching for determining a match between a feature point included in the stored image and an actual feature point extracted from the acquired image by giving priority to a feature point included in the other stored image. Performing the process of associating the stored feature points with the extracted actual feature points, and the geometric position of the positions of the actual feature points and the positions of the feature points corresponding to the actual feature points Processing for calculating the self-position of the moving object based on the relationship , It may be a program for causing a computer to execute the.
本発明によれば、自己位置推定精度を向上させることができる自己位置推定装置、自己位置推定方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide a self-position estimating device, a self-position estimating method, and a program that can improve the self-position estimating accuracy.
以下、図面を参照して本発明の実施形態について説明する。本実施形態に係る自己位置推定装置は、例えば、自律移動型ロボットなどの移動体に搭載され、移動体の自己位置を推定する。移動体は、自己位置推定装置により推定された自己位置に基づいて移動を行う。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The self-position estimating device according to the present embodiment is mounted on a moving object such as an autonomous mobile robot, and estimates the self-position of the moving object. The moving body moves based on the self-position estimated by the self-position estimation device.
自己位置推定装置は、まず、環境内の全体景色を学習したマッピングデータを記憶するマッピング処理を行う。その後、自己位置推定装置は、そのマッピング処理後に、取得した現在画像とマッピングデータとを対応させて、グローバルの自己位置推定処理を行い、移動体の自己位置を推定する。 First, the self-position estimating device performs a mapping process of storing mapping data obtained by learning the entire scene in the environment. After that, after the mapping processing, the self-position estimating apparatus performs global self-position estimation processing by associating the acquired current image with the mapping data, and estimates the self-position of the moving object.
図1は、本実施形態に係る自己位置推定装置の概略的なシステム構成を示すブロック図である。本実施形態に係る自己位置推定装置1は、画像取得部2と、特徴点抽出部3と、対応付け部4と、特徴点除去部5と、マッチング部6と、自己位置算出部7と、メモリ8と、を備えている。
FIG. 1 is a block diagram illustrating a schematic system configuration of the self-position estimation device according to the present embodiment. The self-
なお、自己位置推定装置1は、例えば、演算処理等を行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)などからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU、メモリ及びインターフェイス部は、データバスなどを介して相互に接続されている。
The self-
画像取得部2は、画像取得手段の一具体例である。画像取得部2は、環境内における移動体周囲の画像を取得する。画像取得部2は、例えば、移動体に設けらたRGB−Dセンサなどの距離画像センサ21を用いて、移動体周囲の輝度画像及び距離画像を取得する。
The
特徴点抽出部3は、特徴点抽出手段の一具体例である。特徴点抽出部3は、画像取得部2により取得された輝度画像から特徴点を抽出する。特徴点は、例えば、エッジ、コーナー、色分布などを含む。
The feature
対応付け部4は、特徴点抽出部3により抽出された特徴点とグローバル座標系の三次元位置(以下、三次元グローバル位置)とを対応付ける。なお、対応付け部4は、環境内の複数の視点で取得された画像の特徴点と、三次元グローバル位置と、を対応付ける。
The associating
例えば、対応付け部4は、画像取得部2により取得された距離画像に基づいて、特徴点抽出部3により抽出された輝度画像の特徴点fのセンサ座標系の三次元位置SPを算出する(図2)。なお、このセンサ座標系の三次元位置SPは、輝度画像の特徴点fに対して、一意に対応付けられるものとする。対応付け部4は、算出したセンサ座標系の三次元位置SPに基づいて、下記式により、特徴点抽出部3により抽出された特徴点fに対応する三次元グローバル位置GPを算出する。
GP=GTS SP
For example,
G P = G T S S P
なお、上記式において、GTSは、グローバル座標系における距離画像センサ21の位置姿勢の同次変換行列である。また、グローバル座標系における距離画像センサ21の位置姿勢Tは、任意方法で計測あるいは算出できる。対応付け部4は、例えば、移動体の目的や制約条件(移動体に搭載されるセンサなど)に応じて、下記のような方法で、グローバル座標系における距離画像センサ21の位置姿勢Tを算出してもよい。
In the above formula, G T S is a homogeneous transformation matrix of position and orientation of the
例えば、対応付け部4は、移動体の立上げ位置をグローバル座標系の原点としたデットレコニング(Dead-Reckoning:DR)結果に基づいて、グローバル座標系における距離画像センサ21の位置姿勢Tを算出する。対応付け部4は、SLAM(Simultaneous Localization and Mapping)による距離画像センサ21の位置推定結果に基づいて、グローバル座標系における距離画像センサ21の位置姿勢Tを算出する。対応付け部4は、外部計測器(モーションキャプチャなど)により計測された三次元位置に基づいて、グローバル座標系における距離画像センサ21の位置姿勢Tを算出する。
For example, the associating
対応付け部4は、算出した特徴点の三次元グローバル位置GPを、その特徴点と対応付ける。
対応付け部4は、例えば、各特徴点にインデックスi(i=1、2、・・・)、及び各画像にインデックスj(j=1、2、・・・)を付ける。そして、対応付け部4は、特徴点のインデックス(以下、特徴点インデックス)iと、その特徴点が抽出された画像のインデックス(画像インデックス)jと、その特徴点の三次元グローバル位置Pij=(xij、yij、zij)と、を対応付けた特徴点の三次元位置データ(図3)をメモリ8に記憶させる。
Associating
The associating
対応付け部4は、上記特徴点の三次元位置データと共に、特徴点を抽出した画像群をマッピングデータとしてメモリ8に記憶させる(図4)。メモリ8は、記憶手段の一具体例である。なお、自己位置推定装置1は、対応付け部4を有しない構成であってもよい。この場合、上記マッピングデータが予めメモリ8に記憶されている、あるいは、ユーザにより、上記マッピングデータがメモリ8に入力される。
The associating
特徴点除去部5は、特徴点除去手段の一具体例である。特徴点除去部5は、特徴点抽出部3により抽出された実特徴点(自己位置推定処理時に抽出された特徴点)群の中から、動的物体の実特徴点(動的特徴点)を除去する。この処理は、例えば、自己位置推定処理時に、上記取得した時間的連続する2枚の画像中に、移動している動的物体があれば、実特徴点群の中から、その動的物体に対応する実特徴点(動的特徴点)が除去させる。これにより、位置不変の特徴点のみを用いて自己位置推定を行うことができるため、後述の自己位置推定精度を向上させることができる。なお、本動的特徴点の除去処理方法は、既に本願発明者が提案した特願2012−244540に詳細に開示されており、これを援用できるものとする。自己位置推定装置1は、上記特徴点除去部5を有しない構成であってもよい。この場合、自己位置推定装置1の構成はより簡略化され、その処理速度が向上する。
The feature
ところで、例えば、移動体の自己位置推定処理時における実特徴点を抽出するための距離画像センサの視点と、マッピング処理時における予め特徴点を記憶させるための距離画像センサの視点と、が異なる場合に、自己位置推定精度が低下する虞がある。 By the way, for example, when the viewpoint of the distance image sensor for extracting the actual feature point at the time of the self-position estimation processing of the moving object is different from the viewpoint of the distance image sensor for previously storing the feature point at the time of the mapping processing. In addition, there is a possibility that the self-position estimation accuracy is reduced.
例えば、図3に示す如く、視点が異なる画像1及び3に同一の特徴点1が存在するように、同一の特徴点が複数の異なる視点の画像に存在することがある。このため、同一の特徴点1であっても、画像1の特徴点1と画像3の特徴点1とでは、対応する三次元グローバル位置が異なる。したがって、後述の如く、この三次元グローバル位置を用いて自己位置推定を行った場合に、選択する画像によっては、その自己位置推定精度が変動する。特に、視点が大きく異なる画像を選択した場合に、対応する三次元グローバル位置が大きくずれるため、自己位置推定精度が大きく低下し得る。
For example, as shown in FIG. 3, the same feature point may be present in a plurality of images of different viewpoints such that the
これに対し、本実施形態においては、 マッチング部8は、画像取得部6により取得された画像と類似度の高いメモリ8の画像に含まれる特徴点を、メモリ8の他の画像に含まれる特徴点よりも優先して、画像取得部6により取得された画像から抽出された実特徴点と、マッチングし、メモリ8の特徴点と実特徴点とを対応付ける。すなわち、マッチング部6は、画像取得部2により取得された現在画像と類似度の高い順で、予めメモリ8に記憶された画像群の中から画像を選択し、該選択した画像に含まれる特徴点と、画像取得部2により取得された現在画像から抽出された実特徴点と、の一致を判定するマッチングを行い、メモリ8の特徴点と実特徴点とを対応付ける。そして、自己位置算出部7は、実特徴点の位置と、メモリ8に記憶された実特徴点に対応する特徴点の位置と、の幾何学的位置関係に基づいて、移動体の自己位置を算出する。
On the other hand, in the present embodiment, the
これにより、マッチング部6は、画像取得部2により取得された現在画像と類似度の高い順で、すなわち、自己位置推定処理時における距離画像センサ21の視点に近い順で、メモリ8に記憶された画像群の中から画像を選択し、その画像の特徴点と、現在画像から抽出された実特徴点と、のマッチングを行うことができる。すなわち、自己位置推定処理時における距離画像センサ21の視点に近い画像を優先的に選択し、その画像の特徴点の三次元グローバル位置を用いて、自己位置を推定できる。したがって、上述したマッピング処理時と自己位置推定処理時とにおける距離画像センサ21の視点の相違によって生じる自己位置推定精度の誤差を抑制し、自己位置推定精度を向上させることができる。
Thereby, the
また、メモリ8には、環境内の複数の視点で取得された画像の特徴点と、三次元グローバル位置と、を対応付けたマッピングデータが記憶され、マッチング部6は、このマッピングデータを用いてマッチングを行っている。したがって、たとえ、マッピング処理時と自己位置推定処理時とにおける距離画像センサ21の視点が大きく相違する場合でも、複数の視点で取得された画像の中から、自己位置推定処理時における距離画像センサ21の視点により近い画像を複数選択できる。このため、上記のような視点が異なる場合でも、自己位置推定を高精度かつ確実に行うことができる。
Further, the
さらに、現在画像と類似度の高い順で、メモリ8に記憶された複数視点の画像群の中から画像を連続的に選択し、その画像の特徴点と、現在画像から抽出された実特徴点と、のマッチングを行い、メモリ8の特徴点と実特徴点とを複数組対応付ける。そして、自己位置算出部7は、複数組の、実特徴点の位置と、メモリ8に記憶された実特徴点に対応する特徴点の位置と、に基づいて、移動体の自己位置を算出する。このように、より多くの特徴点を用いることで、より高精度に自己位置推定できる。
Further, images are successively selected from a group of images at a plurality of viewpoints stored in the
マッチング部6は、特徴点除去部5により動的特徴点を除去した画像(以下、現在画像)の実特徴点群と、メモリ8に記憶されたマッピングデータの画像群の特徴点群と、が一致するか否を判定するマッチングを行う(図5)。マッチング部6は、マッピングデータの画像インデックス毎に、一致した特徴点の数(以下、マッチング特徴点数)を算出する。図6は、マッピングデータの各画像インデックス(画像1、画像2、・・・)およびマッチング特徴点数の一例を示す図である。
The
マッチング部6は、各画像インデックスを、例えば、図7に示す如く、マッチング特徴点数が多い順にソートする。これは、マッピングデータの各画像インデックスを、現在画像との類似度が高い順に並べることを意味する。すなわち、マッチング部6は、現在画像と類似度の高い順で、メモリ8に記憶されたマッピングデータの画像群の中から画像を選択し、該選択した画像に含まれる各特徴点と、現在画像から抽出された各実特徴点と、のマッチングを行うこととなる。
The
なお、マッチング部6は、マッチング特徴点数に基づいて、マッピングデータの各画像インデックスを現在画像との類似度が高い順に並べているが、これに限定されない。マッチング部6は、例えば、各特徴点の配置に基づいて、マッピングデータの各画像インデックスを現在画像との類似度が高い順に並べてもよい。より具体的には、マッチング部6は、現在画像の実特徴点群と、メモリ8に記憶されたマッピングデータの画像群の特徴点群と、を比較し、その特徴点の配置が近い順に、各画像インデックスをソートしてもよい。
Note that the
マッチング部6は、上記ソートした順で、画像インデックス毎に、各実特徴点がマッピングデータの各画像インデックスの各特徴点と一致するか否かを判定する。
例えば、図8に示す如く、マッチング部6は、現在画像の実特徴点1がマッピングデータの画像2(マッチング特徴点数が1番多い画像インデックス)の各特徴点と一致するか否かを判定する(a)。マッチング部6は、現在画像の実特徴点1がマッピングデータの画像2の各特徴点と一致しないと判定し、続いて、現在画像の実特徴点1がマッピングデータの画像3(マッチング特徴点数が2番目に多い画像インデックス)の各特徴点と一致するか否かを判定する(b)。ここで、マッチング部6は、現在画像の実特徴点1がマッピングデータの画像3の特徴点と一致したと判定し、この画像3の特徴点を抽出し、現在画像の実特徴点1に対応付ける。この時点で、マッチング部6は、現在画像の実特徴点1の判定処理を終了する。同様にして、マッチング部6は、現在画像の実特徴点2、3、4・・・の判定処理を繰り返し、各実特徴点をマッピングデータの各画像の各特徴点と対応付ける。
The
For example, as shown in FIG. 8, the
マッチング部6は、上記算出した現在画像の各実特徴点に対応したマッピングデータの各画像の各特徴点と、メモリ8に記憶された特徴点の三次元グローバル位置を含むマッピングデータと、に基づいて、現在画像の各実特徴点に対応する各特徴点の三次元グローバル位置を算出する。
The
自己位置算出部7は、自己位置算出手段の一具体例である。自己位置算出部7は、上記求めた現在画像の各実特徴点の位置と、対応するマッピングデータの各画像の各特徴点の位置と、の幾何学位置関係から、グローバル座標系基準における距離画像センサ21の位置、すなわち、移動体の自己位置を算出する。
The self-
図9に示す如く、距離画像センサ21により得られた各実特徴点1、2、・・・は、センサ座標系基準で位置が計測されており、対応するマッピングデータの各画像の各特徴点1、2、・・・は、グローバル座標系基準で表現されている。
As shown in FIG. 9, the
自己位置算出部7は、上記求めた現在画像の各実特徴点と、対応付けたマッピングデータの各画像の各特徴点と、の対応をとり位置合わせを行うことで、距離画像センサ21の位置を算出し、自己位置を推定する。自己位置算出部7は、例えば、現在画像の実特徴点のセンサ座標系位置を、対応付けたマッピングデータの画像の特徴点のグローバル座標系位置に、合わせるための変換パラメータを算出する。そして、自己位置算出部7は、算出した変換パラメータを用いて、距離画像センサ21のグローバル座標系基準における位置を算出する。
The self-
自己位置算出部7は、例えば、RANSAC(Random sample consensus)を用いて、あるいは、ICP(Iterative Closest Point)アルゴリズムなどを用いて、上記変換パラメータを算出する。自己位置算出部7は、例えば、移動体の目的や制約条件(移動体に搭載されるセンサなど)に応じて、下記のような方法で、上記変換パラメータを算出してもよい。上記自己位置の算出方法は一例であり、これに限定されず、任意の幾何学的位置関係による算出方法を用いることができる。
The self-
次に、上述した自己位置推定装置のマッピング処理フロー及び自己位置推定処理フローについて、説明する。図10は、本実施形態に係る自己位置推定装置のマッピング処理フローを示すフローチャートである。 Next, the mapping processing flow and the self-position estimation processing flow of the above-described self-position estimation device will be described. FIG. 10 is a flowchart illustrating a mapping processing flow of the self-position estimation device according to the present embodiment.
画像取得部2は、距離画像センサ21を用いて、複数の視点で環境内における輝度画像及び距離画像を取得する(ステップS101)。
特徴点抽出部3は、画像取得部2により取得された輝度画像から特徴点を抽出する(ステップS102)。なお、ここで、特徴点除去部5は、特徴点抽出部3により抽出された特徴点群の中から、動的特徴点を除去してもよい。
The
The feature
対応付け部4は、特徴点抽出部3により抽出された各特徴点の特徴点インデックスiと、その各特徴点が抽出された各画像の画像インデックスjと、その各特徴点の三次元グローバル位置Pij=(xij、yij、zij)と、を対応付けた特徴点の三次元位置データをメモリ8に記憶させる(ステップS103)。
最後に、対応付け部4は、上記特徴点の三次元位置データと共に、特徴点を抽出した画像群をマッピングデータとしてメモリ8に記憶させる(ステップS104)。
The associating
Finally, the associating
図11は、本実施形態に係る自己位置推定装置の自己位置推定処理フローを示すフローチャートである。
マッチング部6は、メモリ8からマッピングデータを読み込む(ステップS201)。
画像取得部2は、距離画像センサ21を用いて、環境内における輝度画像及び距離画像を取得する(ステップS202)。
FIG. 11 is a flowchart illustrating a self-position estimation processing flow of the self-position estimation device according to the present embodiment.
The
The
特徴点抽出部3は、画像取得部2により取得された輝度画像から実特徴点を抽出する(ステップS203)。
特徴点除去部5は、特徴点抽出部3により抽出された実特徴点群の中から、動的特徴点を除去する(ステップS204)。
The feature
The feature
マッチング部6は、特徴点除去部5により動的特徴点を除去した現在画像の実特徴点と、メモリ8に記憶されたマッピングデータの画像群の特徴点と、のマッチングを行う(ステップS205)
マッチング部6は、マッピングデータの画像毎に、マッチング特徴点数を算出する(ステップS206)。
The
The
マッチング部6は、各画像の画像インデックスを、マッチング特徴点数が多い順にソートする(ステップS207)。
マッチング部6は、上記ソートした順で、画像インデックス毎に、現在画像の各実特徴点とマッピングデータの各画像の各特徴点との一致を判定し、一致したものを対応付ける(ステップS208)。
The
The
自己位置算出部7は、上記求めた現在画像の各実特徴点の位置と、対応するマッピングデータの各画像の各特徴点の三次元グローバル位置と、の幾何学位置関係から、移動体の自己位置を算出する(ステップS209)。
The self-
以上、本実施形態に係る自己位置推定装置において、メモリ8には、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶されている。そして、マッチング部8は、画像取得部6により取得された画像と類似度の高いメモリ8の画像に含まれる特徴点を、メモリ8の他の画像に含まれる特徴点よりも優先して、画像取得部6により取得された画像から抽出された実特徴点と、マッチングし、メモリ8の特徴点と実特徴点とを対応付ける。そして、自己位置算出部7は、実特徴点の位置と、メモリ8に記憶された実特徴点に対応する特徴点の位置と、の幾何学的位置関係に基づいて、移動体の自己位置を算出する。
これにより、マッチング部6は、自己位置推定処理時における距離画像センサ21の視点に近い順で、メモリ8に記憶された画像群の中から画像を選択し、その画像の特徴点と、現在画像から抽出された実特徴点と、のマッチングを行うことができる。したがって、上述したマッピング処理時と自己位置推定処理時とにおける距離画像センサ21の視点の相違によって生じる自己位置推定精度の誤差を抑制し、自己位置推定精度を向上させることができる。
As described above, in the self-position estimating apparatus according to the present embodiment, the
As a result, the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態において、自己位置推定装置1は、移動体に搭載される構成であるが、これに限定されない。例えば、画像取得部2のみが移動体に設けられ、特徴点抽出部3、対応付け部4、特徴点除去部5、マッチング部6、および自己位置算出部7は、移動体外に設けれる構成であってもよい。
It should be noted that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist.
In the above embodiment, the self-
また、本発明は、例えば、図10又は図11に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
Further, the present invention can be realized, for example, by causing the CPU to execute a computer program for the processing shown in FIG. 10 or FIG.
The program may be stored using various types of non-transitory computer readable media and provided to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media are magnetic recording media (eg, flexible disk, magnetic tape, hard disk drive), magneto-optical recording media (eg, magneto-optical disk), CD-ROM (Read Only Memory), CD-R, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)).
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Also, the program may be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer readable media can provide the program to a computer via a wired communication line such as an electric wire and an optical fiber, or a wireless communication line.
1 自己位置推定装置、2 画像取得部、3 特徴点抽出部、4 対応付け部、5 特徴点除去部、6 マッチング部、7 自己位置算出部、21 距離画像センサ
REFERENCE SIGNS
Claims (4)
前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得する画像取得手段と、
前記画像取得手段により取得された画像から実特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された実特徴点の中から、動的物体の動的特徴点を除去する特徴点除去手段と、
前記記憶手段に記憶された各画像の特徴点と、前記特徴点除去手段により除去された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶手段の特徴点と前記特徴点除去手段により除去された実特徴点とを対応付けるマッチング手段と、
前記実特徴点の位置と、前記記憶手段に記憶された該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する自己位置算出手段と、
を備え、
前記マッチング手段は、前記画像取得手段により取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記画像取得手段により取得された画像から抽出された実特徴点と、マッチングし、
前記記憶手段には、前記環境内を複数の視点から撮影した画像が記憶されており、
前記マッチング手段は、前記類似度の高い順で、前記記憶手段に記憶された複数視点の画像群の中から画像を連続的に選択し、該画像の特徴点と、前記実特徴点と、のマッチングを行い、前記記憶手段の特徴点と実特徴点とを複数組対応付け、
前記自己位置算出手段は、前記複数組の、実特徴点の位置と、前記記憶手段に記憶された実特徴点に対応する特徴点の位置と、に基づいて、前記移動体の自己位置を算出する、
ことを特徴とする、自己位置推定装置。 Storage means for storing a plurality of images taken of the environment, each feature point of each image, and position information of each feature point in association with each other,
Image acquisition means provided in a moving body moving in the environment, to acquire an image around the moving body,
Feature point extraction means for extracting actual feature points from the image acquired by the image acquisition means,
A feature point removing unit that removes a dynamic feature point of a dynamic object from among the actual feature points extracted by the feature point extracting unit;
Matching is performed to determine whether a feature point of each image stored in the storage unit matches an actual feature point of the image removed by the feature point removal unit, and the feature point of the storage unit and the feature point removal are performed. Matching means for associating the actual feature points removed by the means,
A self-position for calculating a self-position of the moving object based on a geometrical positional relationship between the position of the real feature point and the position of the feature point corresponding to the real feature point stored in the storage unit; Calculating means;
With
The matching unit is configured to prioritize feature points included in an image having a high degree of similarity to the image acquired by the image acquisition unit over feature points included in other images, and obtain an image acquired by the image acquisition unit. Matching with the actual feature points extracted from
In the storage means, images captured from a plurality of viewpoints in the environment is stored ,
The matching means continuously selects images from a group of images of a plurality of viewpoints stored in the storage means in descending order of the degree of similarity, and selects a feature point of the image and an actual feature point. Performing matching, associating a plurality of sets of feature points and actual feature points of the storage unit,
The self-position calculating means calculates the self-position of the moving body based on the positions of the plurality of sets of real feature points and the positions of the feature points corresponding to the real feature points stored in the storage means. Do
A self-position estimating device, characterized in that:
前記マッチング手段は、
前記画像取得手段により取得された画像から抽出された各実特徴点と、前記記憶手段に記憶された画像群の各特徴点と、のマッチングを行って、前記記憶手段の画像毎に、一致した特徴点の数を算出し、
該一致した特徴点数が多い順に前記記憶手段の各画像をソートし、
該ソートした順で、前記記憶手段に記憶された画像群の中から画像を選択し、該選択した画像に含まれる特徴点と、前記画像取得手段により取得された画像から抽出された実特徴点と、のマッチングを行う、
ことを特徴とする自己位置推定装置。 The self-position estimating device according to claim 1 ,
The matching means,
Matching was performed between each actual feature point extracted from the image acquired by the image acquisition unit and each feature point of the image group stored in the storage unit, and a match was obtained for each image in the storage unit. Calculate the number of feature points,
Sorting each image of the storage means in descending order of the number of matching feature points,
In the sorted order, an image is selected from the image group stored in the storage unit, and the feature points included in the selected image and the actual feature points extracted from the image acquired by the image acquisition unit And matching,
A self-position estimating device characterized by the above-mentioned.
前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得するステップと、
前記取得された画像から実特徴点を抽出するステップと、
前記抽出された実特徴点の中から、動的物体の動的特徴点を除去するステップと、
前記記憶された各画像の特徴点と、前記除去された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記除去された実特徴点とを対応付けるステップと、
前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出するステップと、
を含み、
前記取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記取得された画像から抽出された実特徴点と、マッチングし、
前記類似度の高い順で、前記記憶された複数視点の画像群の中から画像を連続的に選択し、該画像の特徴点と、前記実特徴点と、のマッチングを行い、前記特徴点と実特徴点とを複数組対応付け、
前記複数組の、実特徴点の位置と、前記記憶された実特徴点に対応する特徴点の位置と、に基づいて、前記移動体の自己位置を算出する、
ことを特徴とする自己位置推定方法。 Storing a plurality of images captured in the environment from a plurality of viewpoints , each feature point of each image, and position information of each feature point, in association with each other;
A step of obtaining an image around the moving body, the moving body being provided in the moving body;
Extracting real feature points from the obtained image;
Removing the dynamic feature points of the dynamic object from the extracted actual feature points;
A step of associating feature points of each image the storage, the actual feature point of the removed image, of for matching determining match, the actual feature point said stored feature points and the removal ,
Calculating the self-position of the moving object based on a geometrical positional relationship between the position of the actual feature point and the position of the feature point corresponding to the actual feature point;
Including
The feature points included in the image having a high degree of similarity to the obtained image are given priority over the feature points included in other images, and are matched with the actual feature points extracted from the obtained image ,
In the descending order of the degree of similarity, images are continuously selected from the stored image group of the plurality of viewpoints, and the feature points of the image and the actual feature points are matched, and the feature points and Associating multiple pairs with actual feature points,
Based on the plurality of sets of positions of actual feature points and the positions of feature points corresponding to the stored actual feature points, calculate a self-position of the moving body,
A self-position estimation method characterized by the above-mentioned.
前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得する処理と、
前記取得された画像から実特徴点を抽出する処理と、
前記抽出された実特徴点の中から、動的物体の動的特徴点を除去する処理と、
前記取得された画像と類似度の高い前記記憶された画像に含まれる特徴点を、前記記憶された他の画像に含まれる特徴点よりも優先して、前記除去された実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記除去された実特徴点とを対応付ける処理と、
前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する処理と、
をコンピュータに実行させ、
前記類似度の高い順で、前記記憶された複数視点の画像群の中から画像を連続的に選択し、該画像の特徴点と、前記実特徴点と、のマッチングを行い、前記特徴点と実特徴点とを複数組対応付け、
前記複数組の、実特徴点の位置と、前記記憶された実特徴点に対応する特徴点の位置と、に基づいて、前記移動体の自己位置を算出する、
ことを特徴とするプログラム。 A process of storing a plurality of images captured in the environment from a plurality of viewpoints , each feature point of each image, and position information of each feature point, in association with each other;
A process for obtaining an image around the moving body, the processing being provided on the moving body moving in the environment;
A process of extracting actual feature points from the obtained image;
A process of removing a dynamic feature point of a dynamic object from the extracted actual feature points;
Feature points included in the acquired image similar high degree of the stored image, the stored been another priority than feature points included in the image, and the actual feature point said removal, the Performing matching to determine a match, and associating the stored feature points with the removed actual feature points;
A process of calculating a self-position of the moving body based on a geometric positional relationship between the position of the actual feature point and the position of the feature point corresponding to the actual feature point;
To the computer ,
In the descending order of the degree of similarity, images are continuously selected from the stored image group of the plurality of viewpoints, and the feature points of the image and the actual feature points are matched, and the feature points and Associating multiple pairs with actual feature points,
Based on the positions of the plurality of sets and the actual feature points and the positions of the feature points corresponding to the stored actual feature points, calculate the self-position of the moving body,
A program characterized by that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015136294A JP6645051B2 (en) | 2015-07-07 | 2015-07-07 | Self-position estimation device, self-position estimation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015136294A JP6645051B2 (en) | 2015-07-07 | 2015-07-07 | Self-position estimation device, self-position estimation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017021427A JP2017021427A (en) | 2017-01-26 |
JP6645051B2 true JP6645051B2 (en) | 2020-02-12 |
Family
ID=57888109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015136294A Active JP6645051B2 (en) | 2015-07-07 | 2015-07-07 | Self-position estimation device, self-position estimation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6645051B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7242822B2 (en) * | 2017-06-29 | 2023-03-20 | 株式会社東芝 | Estimation system and car |
JP7074438B2 (en) | 2017-09-05 | 2022-05-24 | トヨタ自動車株式会社 | Vehicle position estimation device |
JP6950521B2 (en) * | 2017-12-26 | 2021-10-13 | トヨタ自動車株式会社 | Collection system |
US11822341B2 (en) | 2017-12-28 | 2023-11-21 | Sony Corporation | Control device, control method, and mobile object to estimate the mobile object's self-position |
CN110097045A (en) * | 2018-01-31 | 2019-08-06 | 株式会社理光 | A kind of localization method, positioning device and readable storage medium storing program for executing |
JP7131994B2 (en) | 2018-07-04 | 2022-09-06 | 株式会社東芝 | Self-position estimation device, self-position estimation method, self-position estimation program, learning device, learning method and learning program |
JP2020030568A (en) * | 2018-08-22 | 2020-02-27 | 株式会社ダイヘン | Moving vehicle |
JP2020113134A (en) * | 2019-01-15 | 2020-07-27 | 株式会社アトラックラボ | Unmanned moving object, unmanned moving object control method and unmanned moving program |
JP7176421B2 (en) | 2019-01-25 | 2022-11-22 | トヨタ自動車株式会社 | parking assist device |
JP7147728B2 (en) | 2019-10-11 | 2022-10-05 | トヨタ自動車株式会社 | parking assist device |
-
2015
- 2015-07-07 JP JP2015136294A patent/JP6645051B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017021427A (en) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6645051B2 (en) | Self-position estimation device, self-position estimation method and program | |
CN108986161B (en) | Three-dimensional space coordinate estimation method, device, terminal and storage medium | |
US9681150B2 (en) | Optical flow determination using pyramidal block matching | |
KR101791590B1 (en) | Object pose recognition apparatus and method using the same | |
CN107735797B (en) | Method for determining a movement between a first coordinate system and a second coordinate system | |
KR100855657B1 (en) | System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor | |
KR102483641B1 (en) | Method and apparatus for processing binocular image | |
JP2016517084A (en) | Computer-based method of dynamic category object recognition Computer-based method and system | |
CN110458772B (en) | Point cloud filtering method and device based on image processing and storage medium | |
US10142613B2 (en) | Image processing apparatus, image processing system, and image processing method | |
CN111047634B (en) | Scene depth determination method, device, equipment and storage medium | |
KR101280392B1 (en) | Apparatus for managing map of mobile robot based on slam and method thereof | |
CN109255801B (en) | Method, device and equipment for tracking edges of three-dimensional object in video and storage medium | |
JP2014170368A (en) | Image processing device, method and program and movable body | |
JP6240706B2 (en) | Line tracking using automatic model initialization with graph matching and cycle detection | |
WO2021108626A1 (en) | System and method for correspondence map determination | |
JPWO2014073204A1 (en) | Feature amount extraction device and location estimation device | |
CN111539352A (en) | Method and system for judging human body joint motion direction | |
JP6429466B2 (en) | Image processing apparatus, control method therefor, imaging apparatus, and program | |
KR20150097251A (en) | Camera alignment method using correspondences between multi-images | |
CN110956131B (en) | Single-target tracking method, device and system | |
JP5310402B2 (en) | Image conversion parameter calculation apparatus, image conversion parameter calculation method, and program | |
JP6080424B2 (en) | Corresponding point search device, program thereof, and camera parameter estimation device | |
KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
KR101178015B1 (en) | Generating method for disparity map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191223 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6645051 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |