JP6645051B2 - Self-position estimation device, self-position estimation method and program - Google Patents

Self-position estimation device, self-position estimation method and program Download PDF

Info

Publication number
JP6645051B2
JP6645051B2 JP2015136294A JP2015136294A JP6645051B2 JP 6645051 B2 JP6645051 B2 JP 6645051B2 JP 2015136294 A JP2015136294 A JP 2015136294A JP 2015136294 A JP2015136294 A JP 2015136294A JP 6645051 B2 JP6645051 B2 JP 6645051B2
Authority
JP
Japan
Prior art keywords
image
feature points
feature point
self
actual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015136294A
Other languages
Japanese (ja)
Other versions
JP2017021427A (en
Inventor
豊 高岡
豊 高岡
和仁 田中
和仁 田中
長谷川 修
修 長谷川
ゴセ カ
ゴセ カ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015136294A priority Critical patent/JP6645051B2/en
Publication of JP2017021427A publication Critical patent/JP2017021427A/en
Application granted granted Critical
Publication of JP6645051B2 publication Critical patent/JP6645051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体などの自己位置を推定する自己位置推定装置、自己位置推定方法及びプログラムに関するものである。   The present invention relates to a self-position estimation device, a self-position estimation method, and a program for estimating a self-position of a moving object or the like.

環境内の特徴点と該特徴点の位置情報とを予め記憶し、記憶した特徴点と、移動体の撮影手段により撮影された画像から抽出した実特徴点と、を比較することで移動体の自己位置を推定する自己位置推定装置が知られている(特許文献1参照)。   The feature points in the environment and the position information of the feature points are stored in advance, and the stored feature points are compared with actual feature points extracted from an image captured by the capturing means of the mobile body, to thereby determine the position of the mobile body. A self-position estimating device for estimating a self-position is known (see Patent Document 1).

特開2011−248441号公報JP 2011-248441 A

上記自己位置推定装置においては、例えば、実特徴点を抽出するための撮影手段の視点と、予め特徴点を記憶させたときの視点と、が異なる場合に、自己位置推定精度が低下する虞がある。   In the self-position estimation device, for example, when the viewpoint of the photographing unit for extracting the actual feature point is different from the viewpoint when the feature point is stored in advance, the self-position estimation accuracy may be reduced. is there.

本発明は、このような問題点を解決するためになされたものであり、自己位置推定精度を向上させることができる自己位置推定装置、自己位置推定方法及びプログラムを提供することを主たる目的とする。   The present invention has been made to solve such a problem, and has as its main object to provide a self-position estimating device, a self-position estimating method, and a program capable of improving the self-position estimating accuracy. .

上記目的を達成するための本発明の一態様は、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶する記憶手段と、前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得する画像取得手段と、前記画像取得手段により取得された画像から実特徴点を抽出する特徴点抽出手段と、前記記憶手段に記憶された各画像の特徴点と、前記特徴点抽出手段により抽出された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶手段の特徴点と前記特徴点抽出手段に抽出された実特徴点とを対応付けるマッチング手段と、前記実特徴点の位置と、前記記憶手段に記憶された該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する自己位置算出手段と、を備え、前記マッチング手段は、前記画像取得手段により取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記画像取得手段により取得された画像から抽出された実特徴点と、マッチングする、ことを特徴とする、自己位置推定装置である。
この一態様において、前記記憶手段には、前記環境内を複数の視点から撮影した画像が記憶されていてもよい。
この一態様において、前記特徴点抽出手段により抽出された実特徴点の中から、動的物体の動的特徴点を除去する特徴点除去手段を更に備えていてもよい。
この一態様において、前記マッチング手段は、前記画像取得手段により取得された画像から抽出された各実特徴点と、前記記憶手段に記憶された画像群の各特徴点と、のマッチングを行って、前記記憶手段の画像毎に、一致した特徴点の数を算出し、該一致した特徴点数が多い順に前記記憶手段の各画像をソートし、該ソートした順で、前記記憶手段に記憶された画像群の中から画像を選択し、該選択した画像に含まれる特徴点と、前記画像取得手段により取得された画像から抽出された実特徴点と、のマッチングを行ってもよい。
上記目的を達成するための本発明の一態様は、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶するステップと、前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得するステップと、前記取得された画像から実特徴点を抽出するステップと、前記記憶された各画像の特徴点と、前記抽出された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記抽出された実特徴点とを対応付けるステップと、前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出するステップと、を含み、前記取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記取得された画像から抽出された実特徴点と、マッチングする、ことを特徴とする自己位置推定方法であってもよい。
上記目的を達成するための本発明の一態様は、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶する処理と、前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得するステップと、前記取得された画像から実特徴点を抽出する処理と、前記取得された画像と類似度の高い前記記憶された画像に含まれる特徴点を、前記記憶された他の画像に含まれる特徴点よりも優先して、前記取得された画像から抽出された実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記抽出された実特徴点とを対応付ける処理と、前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する処理と、をコンピュータに実行させることを特徴とするプログラムであってもよい。
One embodiment of the present invention for achieving the above object is a storage unit that stores a plurality of images captured in an environment, each feature point of each image, and position information of each feature point in association with each other. Provided on a moving body moving in the environment, an image obtaining means for obtaining an image around the moving body, a feature point extracting means for extracting an actual feature point from the image obtained by the image obtaining means, Matching is performed to determine whether a feature point of each image stored in the storage unit matches an actual feature point of the image extracted by the feature point extraction unit, and the feature point of the storage unit and the feature point extraction are performed. Matching means for associating the extracted actual feature points with the means, and the geometrical positional relationship between the position of the actual feature point and the position of the feature point corresponding to the actual feature point stored in the storage means. Based on the self-position of the moving body And a self-position calculating unit that outputs the image. A self-position estimating device for matching with actual feature points extracted from the image obtained by the image obtaining means.
In this aspect, the storage unit may store images obtained by photographing the environment from a plurality of viewpoints.
In this aspect, the apparatus may further include a feature point removing unit that removes a dynamic feature point of the dynamic object from the actual feature points extracted by the feature point extracting unit.
In this aspect, the matching unit performs matching between each actual feature point extracted from the image acquired by the image acquisition unit and each feature point of an image group stored in the storage unit. For each image in the storage means, calculate the number of matched feature points, sort the images in the storage means in descending order of the number of matched feature points, and store the images stored in the storage means in the sorted order. An image may be selected from the group, and matching between a feature point included in the selected image and an actual feature point extracted from the image obtained by the image obtaining unit may be performed.
One embodiment of the present invention for achieving the above object includes a step of storing a plurality of images photographed in an environment, each feature point of each image, and position information of each feature point in association with each other, Provided on a moving body moving in the environment, acquiring an image around the moving body, extracting actual feature points from the acquired image, and feature points of each of the stored images. Performing matching to determine coincidence with the actual feature points of the extracted image, and associating the stored feature points with the extracted actual feature points; and Calculating the self-position of the moving object based on a geometrical positional relationship between the position of the feature point corresponding to an actual feature point, and a high similarity image with the acquired image. The feature points included in the In preference to the point, the actual feature point extracted from the acquired image, matching, it may be a self-position estimation method according to claim.
One embodiment of the present invention for achieving the above object includes a process of storing a plurality of images captured in an environment, each feature point of each image, and position information of each feature point in association with each other. A step of obtaining an image around the moving body, the processing being provided on a moving body moving in the environment, extracting actual feature points from the obtained image, and having a high degree of similarity with the obtained image. Matching for determining a match between a feature point included in the stored image and an actual feature point extracted from the acquired image by giving priority to a feature point included in the other stored image. Performing the process of associating the stored feature points with the extracted actual feature points, and the geometric position of the positions of the actual feature points and the positions of the feature points corresponding to the actual feature points Processing for calculating the self-position of the moving object based on the relationship , It may be a program for causing a computer to execute the.

本発明によれば、自己位置推定精度を向上させることができる自己位置推定装置、自己位置推定方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide a self-position estimating device, a self-position estimating method, and a program that can improve the self-position estimating accuracy.

本発明の一実施形態に係る自己位置推定装置の概略的なシステム構成を示すブロック図である。FIG. 1 is a block diagram illustrating a schematic system configuration of a self-position estimation device according to an embodiment of the present invention. 輝度画像の特徴点とセンサ座標系の三次元位置と三次元グローバル位置との対応を示す図である。FIG. 5 is a diagram illustrating correspondence between a feature point of a luminance image, a three-dimensional position of a sensor coordinate system, and a three-dimensional global position. 特徴点インデックスと画像インデックスと三次元グローバル位置を対応付けた特徴点の三次元位置データの一例を示す図である。FIG. 9 is a diagram illustrating an example of three-dimensional position data of a feature point in which a feature point index, an image index, and a three-dimensional global position are associated with each other. メモリに記憶されるマッピングデータの一例を示す図である。FIG. 4 is a diagram illustrating an example of mapping data stored in a memory. 現在画像の各実特徴点とマッピングデータの各画像の各特徴点とのマッチングを示す図である。FIG. 7 is a diagram illustrating matching between each actual feature point of a current image and each feature point of each image of mapping data. マッピングデータの各画像インデックスおよびマッチング特徴点数の一例を示す図である。FIG. 5 is a diagram illustrating an example of each image index of mapping data and the number of matching feature points. マッチング特徴点数が多い順のマッピングデータの一例を示す図である。FIG. 9 is a diagram illustrating an example of mapping data in the order of a large number of matching feature points. 現在画像の各実特徴点とマッピングデータの各画像インデックスの各特徴点とマッチングを説明するための図である。FIG. 6 is a diagram for explaining matching with each actual feature point of a current image and each feature point of each image index of mapping data. センサ座標系の各実特徴点と、対応するグローバル座標系のマッピングデータの各画像の各特徴点と、を示す図である。It is a figure which shows each real feature point of a sensor coordinate system, and each feature point of each image of the mapping data of the corresponding global coordinate system. 本発明の一実施形態に係る自己位置推定装置のマッピング処理フローを示すフローチャートである。5 is a flowchart illustrating a mapping processing flow of the self-position estimation device according to the embodiment of the present invention. 本発明の一実施形態に係る自己位置推定装置の自己位置推定処理フローを示すフローチャートである。5 is a flowchart showing a self-position estimation processing flow of the self-position estimation device according to one embodiment of the present invention.

以下、図面を参照して本発明の実施形態について説明する。本実施形態に係る自己位置推定装置は、例えば、自律移動型ロボットなどの移動体に搭載され、移動体の自己位置を推定する。移動体は、自己位置推定装置により推定された自己位置に基づいて移動を行う。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The self-position estimating device according to the present embodiment is mounted on a moving object such as an autonomous mobile robot, and estimates the self-position of the moving object. The moving body moves based on the self-position estimated by the self-position estimation device.

自己位置推定装置は、まず、環境内の全体景色を学習したマッピングデータを記憶するマッピング処理を行う。その後、自己位置推定装置は、そのマッピング処理後に、取得した現在画像とマッピングデータとを対応させて、グローバルの自己位置推定処理を行い、移動体の自己位置を推定する。   First, the self-position estimating device performs a mapping process of storing mapping data obtained by learning the entire scene in the environment. After that, after the mapping processing, the self-position estimating apparatus performs global self-position estimation processing by associating the acquired current image with the mapping data, and estimates the self-position of the moving object.

図1は、本実施形態に係る自己位置推定装置の概略的なシステム構成を示すブロック図である。本実施形態に係る自己位置推定装置1は、画像取得部2と、特徴点抽出部3と、対応付け部4と、特徴点除去部5と、マッチング部6と、自己位置算出部7と、メモリ8と、を備えている。   FIG. 1 is a block diagram illustrating a schematic system configuration of the self-position estimation device according to the present embodiment. The self-position estimating device 1 according to the present embodiment includes an image acquisition unit 2, a feature point extraction unit 3, a correspondence unit 4, a feature point removal unit 5, a matching unit 6, a self-location calculation unit 7, A memory 8.

なお、自己位置推定装置1は、例えば、演算処理等を行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)などからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU、メモリ及びインターフェイス部は、データバスなどを介して相互に接続されている。   The self-position estimating apparatus 1 includes, for example, a CPU (Central Processing Unit) that performs arithmetic processing and the like, a ROM (Read Only Memory) and a RAM (Random Access Memory) in which an arithmetic program executed by the CPU is stored. The hardware configuration is centered on a microcomputer including a memory, an interface unit (I / F) for inputting and outputting signals to and from the outside. The CPU, the memory, and the interface unit are mutually connected via a data bus or the like.

画像取得部2は、画像取得手段の一具体例である。画像取得部2は、環境内における移動体周囲の画像を取得する。画像取得部2は、例えば、移動体に設けらたRGB−Dセンサなどの距離画像センサ21を用いて、移動体周囲の輝度画像及び距離画像を取得する。   The image acquisition unit 2 is a specific example of an image acquisition unit. The image acquisition unit 2 acquires an image around a moving object in the environment. The image acquisition unit 2 acquires, for example, a luminance image and a distance image around the moving object using a distance image sensor 21 such as an RGB-D sensor provided on the moving object.

特徴点抽出部3は、特徴点抽出手段の一具体例である。特徴点抽出部3は、画像取得部2により取得された輝度画像から特徴点を抽出する。特徴点は、例えば、エッジ、コーナー、色分布などを含む。   The feature point extracting unit 3 is a specific example of a feature point extracting unit. The feature point extraction unit 3 extracts a feature point from the luminance image acquired by the image acquisition unit 2. The feature points include, for example, edges, corners, and color distributions.

対応付け部4は、特徴点抽出部3により抽出された特徴点とグローバル座標系の三次元位置(以下、三次元グローバル位置)とを対応付ける。なお、対応付け部4は、環境内の複数の視点で取得された画像の特徴点と、三次元グローバル位置と、を対応付ける。   The associating unit 4 associates the feature points extracted by the feature point extracting unit 3 with a three-dimensional position in a global coordinate system (hereinafter, a three-dimensional global position). The associating unit 4 associates the feature points of the images acquired from a plurality of viewpoints in the environment with the three-dimensional global position.

例えば、対応付け部4は、画像取得部2により取得された距離画像に基づいて、特徴点抽出部3により抽出された輝度画像の特徴点fのセンサ座標系の三次元位置Pを算出する(図2)。なお、このセンサ座標系の三次元位置Pは、輝度画像の特徴点fに対して、一意に対応付けられるものとする。対応付け部4は、算出したセンサ座標系の三次元位置Pに基づいて、下記式により、特徴点抽出部3により抽出された特徴点fに対応する三次元グローバル位置Pを算出する。
P=
For example, mapping unit 4, based on the obtained distance image by the image acquisition unit 2, and calculates the three-dimensional position S P output sensor coordinate system of the feature point f of the extracted luminance image by the feature point extraction section 3 (FIG. 2). Note that the three-dimensional position SP in the sensor coordinate system is uniquely associated with the feature point f of the luminance image. Associating unit 4, based on the three-dimensional position S P output calculated sensor coordinate system, the following equation to calculate the three-dimensional global position G P corresponding to the feature point f extracted by the feature point extracting unit 3.
G P = G T S S P

なお、上記式において、は、グローバル座標系における距離画像センサ21の位置姿勢の同次変換行列である。また、グローバル座標系における距離画像センサ21の位置姿勢Tは、任意方法で計測あるいは算出できる。対応付け部4は、例えば、移動体の目的や制約条件(移動体に搭載されるセンサなど)に応じて、下記のような方法で、グローバル座標系における距離画像センサ21の位置姿勢Tを算出してもよい。 In the above formula, G T S is a homogeneous transformation matrix of position and orientation of the range image sensor 21 in the global coordinate system. The position and orientation T of the distance image sensor 21 in the global coordinate system can be measured or calculated by an arbitrary method. The associating unit 4 calculates the position and orientation T of the distance image sensor 21 in the global coordinate system according to the following method, for example, according to the purpose of the moving object and the constraint conditions (such as a sensor mounted on the moving object). May be.

例えば、対応付け部4は、移動体の立上げ位置をグローバル座標系の原点としたデットレコニング(Dead-Reckoning:DR)結果に基づいて、グローバル座標系における距離画像センサ21の位置姿勢Tを算出する。対応付け部4は、SLAM(Simultaneous Localization and Mapping)による距離画像センサ21の位置推定結果に基づいて、グローバル座標系における距離画像センサ21の位置姿勢Tを算出する。対応付け部4は、外部計測器(モーションキャプチャなど)により計測された三次元位置に基づいて、グローバル座標系における距離画像センサ21の位置姿勢Tを算出する。   For example, the associating unit 4 calculates the position and orientation T of the distance image sensor 21 in the global coordinate system based on the result of dead reckoning (Dead-Reckoning: DR) in which the starting position of the moving object is the origin of the global coordinate system. I do. The associating unit 4 calculates the position and orientation T of the range image sensor 21 in the global coordinate system based on the position estimation result of the range image sensor 21 using Simultaneous Localization and Mapping (SLAM). The associating unit 4 calculates the position and orientation T of the range image sensor 21 in the global coordinate system based on the three-dimensional position measured by an external measuring device (such as a motion capture).

対応付け部4は、算出した特徴点の三次元グローバル位置Pを、その特徴点と対応付ける。
対応付け部4は、例えば、各特徴点にインデックスi(i=1、2、・・・)、及び各画像にインデックスj(j=1、2、・・・)を付ける。そして、対応付け部4は、特徴点のインデックス(以下、特徴点インデックス)iと、その特徴点が抽出された画像のインデックス(画像インデックス)jと、その特徴点の三次元グローバル位置Pij=(xij、yij、zij)と、を対応付けた特徴点の三次元位置データ(図3)をメモリ8に記憶させる。
Associating unit 4, a three-dimensional global position G P of the calculated feature points, it associates the characteristic points.
The associating unit 4 attaches an index i (i = 1, 2,...) To each feature point and an index j (j = 1, 2,...) To each image, for example. Then, the associating unit 4 calculates the index i of the feature point (hereinafter, feature point index), the index j of the image from which the feature point is extracted (image index) j, and the three-dimensional global position P ij of the feature point. (X ij , y ij , z ij ) are stored in the memory 8 in three-dimensional position data (FIG. 3) of the feature points associated with each other.

対応付け部4は、上記特徴点の三次元位置データと共に、特徴点を抽出した画像群をマッピングデータとしてメモリ8に記憶させる(図4)。メモリ8は、記憶手段の一具体例である。なお、自己位置推定装置1は、対応付け部4を有しない構成であってもよい。この場合、上記マッピングデータが予めメモリ8に記憶されている、あるいは、ユーザにより、上記マッピングデータがメモリ8に入力される。   The associating unit 4 causes the memory 8 to store, as mapping data, an image group from which the feature points have been extracted, together with the three-dimensional position data of the feature points (FIG. 4). The memory 8 is a specific example of a storage unit. In addition, the self-position estimating device 1 may be configured to have no association unit 4. In this case, the mapping data is stored in the memory 8 in advance, or the mapping data is input to the memory 8 by a user.

特徴点除去部5は、特徴点除去手段の一具体例である。特徴点除去部5は、特徴点抽出部3により抽出された実特徴点(自己位置推定処理時に抽出された特徴点)群の中から、動的物体の実特徴点(動的特徴点)を除去する。この処理は、例えば、自己位置推定処理時に、上記取得した時間的連続する2枚の画像中に、移動している動的物体があれば、実特徴点群の中から、その動的物体に対応する実特徴点(動的特徴点)が除去させる。これにより、位置不変の特徴点のみを用いて自己位置推定を行うことができるため、後述の自己位置推定精度を向上させることができる。なお、本動的特徴点の除去処理方法は、既に本願発明者が提案した特願2012−244540に詳細に開示されており、これを援用できるものとする。自己位置推定装置1は、上記特徴点除去部5を有しない構成であってもよい。この場合、自己位置推定装置1の構成はより簡略化され、その処理速度が向上する。   The feature point removing unit 5 is a specific example of a feature point removing unit. The feature point removing unit 5 extracts the real feature points (dynamic feature points) of the dynamic object from the real feature points (feature points extracted at the time of the self-position estimation process) extracted by the feature point extraction unit 3. Remove. This process is performed, for example, at the time of the self-position estimation process, if there is a moving dynamic object in the two temporally continuous images acquired above, the dynamic object is selected from the actual feature point group. The corresponding real feature points (dynamic feature points) are removed. Thus, since the self-position estimation can be performed using only the position-invariant feature points, the self-position estimation accuracy described later can be improved. The present dynamic feature point removal processing method is already disclosed in detail in Japanese Patent Application No. 2012-244540 proposed by the inventor of the present application, and this can be referred to. The self-position estimating apparatus 1 may be configured not to include the feature point removing unit 5. In this case, the configuration of the self-position estimation device 1 is further simplified, and the processing speed is improved.

ところで、例えば、移動体の自己位置推定処理時における実特徴点を抽出するための距離画像センサの視点と、マッピング処理時における予め特徴点を記憶させるための距離画像センサの視点と、が異なる場合に、自己位置推定精度が低下する虞がある。   By the way, for example, when the viewpoint of the distance image sensor for extracting the actual feature point at the time of the self-position estimation processing of the moving object is different from the viewpoint of the distance image sensor for previously storing the feature point at the time of the mapping processing. In addition, there is a possibility that the self-position estimation accuracy is reduced.

例えば、図3に示す如く、視点が異なる画像1及び3に同一の特徴点1が存在するように、同一の特徴点が複数の異なる視点の画像に存在することがある。このため、同一の特徴点1であっても、画像1の特徴点1と画像3の特徴点1とでは、対応する三次元グローバル位置が異なる。したがって、後述の如く、この三次元グローバル位置を用いて自己位置推定を行った場合に、選択する画像によっては、その自己位置推定精度が変動する。特に、視点が大きく異なる画像を選択した場合に、対応する三次元グローバル位置が大きくずれるため、自己位置推定精度が大きく低下し得る。   For example, as shown in FIG. 3, the same feature point may be present in a plurality of images of different viewpoints such that the same feature point 1 exists in images 1 and 3 having different viewpoints. Therefore, even for the same feature point 1, the corresponding three-dimensional global position is different between feature point 1 of image 1 and feature point 1 of image 3. Therefore, as described later, when the self-position estimation is performed using the three-dimensional global position, the self-position estimation accuracy varies depending on the selected image. In particular, when an image having a significantly different viewpoint is selected, the corresponding three-dimensional global position is greatly shifted, and the self-position estimation accuracy may be significantly reduced.

これに対し、本実施形態においては、 マッチング部8は、画像取得部6により取得された画像と類似度の高いメモリ8の画像に含まれる特徴点を、メモリ8の他の画像に含まれる特徴点よりも優先して、画像取得部6により取得された画像から抽出された実特徴点と、マッチングし、メモリ8の特徴点と実特徴点とを対応付ける。すなわち、マッチング部6は、画像取得部2により取得された現在画像と類似度の高い順で、予めメモリ8に記憶された画像群の中から画像を選択し、該選択した画像に含まれる特徴点と、画像取得部2により取得された現在画像から抽出された実特徴点と、の一致を判定するマッチングを行い、メモリ8の特徴点と実特徴点とを対応付ける。そして、自己位置算出部7は、実特徴点の位置と、メモリ8に記憶された実特徴点に対応する特徴点の位置と、の幾何学的位置関係に基づいて、移動体の自己位置を算出する。   On the other hand, in the present embodiment, the matching unit 8 replaces the feature point included in the image of the memory 8 having a high similarity with the image acquired by the image acquisition unit 6 with the feature point included in another image of the memory 8. The actual feature points extracted from the image acquired by the image acquisition unit 6 are matched with each other, and the feature points in the memory 8 are associated with the actual feature points. That is, the matching unit 6 selects an image from an image group stored in advance in the memory 8 in the order of similarity to the current image acquired by the image acquisition unit 2, and selects a feature included in the selected image. Matching is performed to determine whether a point matches an actual feature point extracted from the current image acquired by the image acquisition unit 2, and the feature point in the memory 8 is associated with the actual feature point. Then, the self-position calculating unit 7 calculates the self-position of the moving object based on the geometrical positional relationship between the position of the real feature point and the position of the feature point corresponding to the real feature point stored in the memory 8. calculate.

これにより、マッチング部6は、画像取得部2により取得された現在画像と類似度の高い順で、すなわち、自己位置推定処理時における距離画像センサ21の視点に近い順で、メモリ8に記憶された画像群の中から画像を選択し、その画像の特徴点と、現在画像から抽出された実特徴点と、のマッチングを行うことができる。すなわち、自己位置推定処理時における距離画像センサ21の視点に近い画像を優先的に選択し、その画像の特徴点の三次元グローバル位置を用いて、自己位置を推定できる。したがって、上述したマッピング処理時と自己位置推定処理時とにおける距離画像センサ21の視点の相違によって生じる自己位置推定精度の誤差を抑制し、自己位置推定精度を向上させることができる。   Thereby, the matching unit 6 is stored in the memory 8 in the order of similarity to the current image acquired by the image acquisition unit 2, that is, in the order close to the viewpoint of the distance image sensor 21 at the time of the self-position estimation processing. An image can be selected from the group of images, and the feature points of the image can be matched with the actual feature points extracted from the current image. That is, an image close to the viewpoint of the range image sensor 21 at the time of the self-position estimation processing is preferentially selected, and the self-position can be estimated using the three-dimensional global position of the feature point of the image. Therefore, it is possible to suppress the error of the self-position estimation accuracy caused by the difference in the viewpoint of the distance image sensor 21 between the above-described mapping processing and the self-position estimation processing, and to improve the self-position estimation accuracy.

また、メモリ8には、環境内の複数の視点で取得された画像の特徴点と、三次元グローバル位置と、を対応付けたマッピングデータが記憶され、マッチング部6は、このマッピングデータを用いてマッチングを行っている。したがって、たとえ、マッピング処理時と自己位置推定処理時とにおける距離画像センサ21の視点が大きく相違する場合でも、複数の視点で取得された画像の中から、自己位置推定処理時における距離画像センサ21の視点により近い画像を複数選択できる。このため、上記のような視点が異なる場合でも、自己位置推定を高精度かつ確実に行うことができる。   Further, the memory 8 stores mapping data in which feature points of images acquired from a plurality of viewpoints in the environment are associated with three-dimensional global positions. The matching unit 6 uses the mapping data. Matching. Therefore, even if the viewpoints of the distance image sensor 21 at the time of the mapping process and at the time of the self-position estimation process are significantly different, the distance image sensor 21 at the time of the self-position estimation process is selected from the images acquired from the plurality of viewpoints. Can select a plurality of images closer to the viewpoint. Therefore, even when the viewpoints are different as described above, the self-position estimation can be performed with high accuracy and reliability.

さらに、現在画像と類似度の高い順で、メモリ8に記憶された複数視点の画像群の中から画像を連続的に選択し、その画像の特徴点と、現在画像から抽出された実特徴点と、のマッチングを行い、メモリ8の特徴点と実特徴点とを複数組対応付ける。そして、自己位置算出部7は、複数組の、実特徴点の位置と、メモリ8に記憶された実特徴点に対応する特徴点の位置と、に基づいて、移動体の自己位置を算出する。このように、より多くの特徴点を用いることで、より高精度に自己位置推定できる。   Further, images are successively selected from a group of images at a plurality of viewpoints stored in the memory 8 in the order of similarity to the current image, and feature points of the image and actual feature points extracted from the current image are selected. And a plurality of sets of feature points and actual feature points in the memory 8 are associated with each other. Then, the self-position calculating unit 7 calculates the self-position of the moving object based on the plurality of sets of the positions of the actual characteristic points and the positions of the characteristic points corresponding to the actual characteristic points stored in the memory 8. . As described above, by using more feature points, the self-position can be estimated with higher accuracy.

マッチング部6は、特徴点除去部5により動的特徴点を除去した画像(以下、現在画像)の実特徴点群と、メモリ8に記憶されたマッピングデータの画像群の特徴点群と、が一致するか否を判定するマッチングを行う(図5)。マッチング部6は、マッピングデータの画像インデックス毎に、一致した特徴点の数(以下、マッチング特徴点数)を算出する。図6は、マッピングデータの各画像インデックス(画像1、画像2、・・・)およびマッチング特徴点数の一例を示す図である。   The matching unit 6 includes a real feature point group of an image (current image) from which dynamic feature points have been removed by the feature point removing unit 5 and a feature point group of an image group of mapping data stored in the memory 8. Matching is performed to determine whether they match (FIG. 5). The matching unit 6 calculates the number of matching feature points (hereinafter, the number of matching feature points) for each image index of the mapping data. FIG. 6 is a diagram showing an example of each image index (image 1, image 2,...) Of the mapping data and the number of matching feature points.

マッチング部6は、各画像インデックスを、例えば、図7に示す如く、マッチング特徴点数が多い順にソートする。これは、マッピングデータの各画像インデックスを、現在画像との類似度が高い順に並べることを意味する。すなわち、マッチング部6は、現在画像と類似度の高い順で、メモリ8に記憶されたマッピングデータの画像群の中から画像を選択し、該選択した画像に含まれる各特徴点と、現在画像から抽出された各実特徴点と、のマッチングを行うこととなる。   The matching unit 6 sorts the image indices in descending order of the number of matching feature points, for example, as shown in FIG. This means that the image indexes of the mapping data are arranged in descending order of similarity with the current image. That is, the matching unit 6 selects an image from the group of images of the mapping data stored in the memory 8 in the order of similarity with the current image, and selects each feature point included in the selected image and the current image. Is matched with each actual feature point extracted from.

なお、マッチング部6は、マッチング特徴点数に基づいて、マッピングデータの各画像インデックスを現在画像との類似度が高い順に並べているが、これに限定されない。マッチング部6は、例えば、各特徴点の配置に基づいて、マッピングデータの各画像インデックスを現在画像との類似度が高い順に並べてもよい。より具体的には、マッチング部6は、現在画像の実特徴点群と、メモリ8に記憶されたマッピングデータの画像群の特徴点群と、を比較し、その特徴点の配置が近い順に、各画像インデックスをソートしてもよい。   Note that the matching unit 6 arranges the image indexes of the mapping data in descending order of similarity with the current image based on the number of matching feature points, but is not limited thereto. For example, the matching unit 6 may arrange the image indexes of the mapping data in descending order of similarity with the current image based on the arrangement of each feature point. More specifically, the matching unit 6 compares the actual feature point group of the current image with the feature point group of the image group of the mapping data stored in the memory 8, Each image index may be sorted.

マッチング部6は、上記ソートした順で、画像インデックス毎に、各実特徴点がマッピングデータの各画像インデックスの各特徴点と一致するか否かを判定する。
例えば、図8に示す如く、マッチング部6は、現在画像の実特徴点1がマッピングデータの画像2(マッチング特徴点数が1番多い画像インデックス)の各特徴点と一致するか否かを判定する(a)。マッチング部6は、現在画像の実特徴点1がマッピングデータの画像2の各特徴点と一致しないと判定し、続いて、現在画像の実特徴点1がマッピングデータの画像3(マッチング特徴点数が2番目に多い画像インデックス)の各特徴点と一致するか否かを判定する(b)。ここで、マッチング部6は、現在画像の実特徴点1がマッピングデータの画像3の特徴点と一致したと判定し、この画像3の特徴点を抽出し、現在画像の実特徴点1に対応付ける。この時点で、マッチング部6は、現在画像の実特徴点1の判定処理を終了する。同様にして、マッチング部6は、現在画像の実特徴点2、3、4・・・の判定処理を繰り返し、各実特徴点をマッピングデータの各画像の各特徴点と対応付ける。
The matching unit 6 determines, for each image index, whether or not each actual feature point matches each feature point of each image index of the mapping data in the sorted order.
For example, as shown in FIG. 8, the matching unit 6 determines whether or not the actual feature point 1 of the current image matches each feature point of the image 2 of the mapping data (the image index with the largest number of matching feature points). (A). The matching unit 6 determines that the actual feature point 1 of the current image does not match each feature point of the image 2 of the mapping data. It is determined whether or not each feature point matches the second most common image index (b). Here, the matching unit 6 determines that the actual feature point 1 of the current image matches the feature point of the image 3 of the mapping data, extracts the feature point of the image 3 and associates the extracted feature point with the actual feature point 1 of the current image. . At this point, the matching unit 6 ends the process of determining the actual feature point 1 of the current image. Similarly, the matching unit 6 repeats the process of determining the actual feature points 2, 3, 4,... Of the current image, and associates each actual feature point with each feature point of each image of the mapping data.

マッチング部6は、上記算出した現在画像の各実特徴点に対応したマッピングデータの各画像の各特徴点と、メモリ8に記憶された特徴点の三次元グローバル位置を含むマッピングデータと、に基づいて、現在画像の各実特徴点に対応する各特徴点の三次元グローバル位置を算出する。   The matching unit 6 is configured based on each of the feature points of each image of the mapping data corresponding to each of the calculated actual feature points of the current image and the mapping data including the three-dimensional global position of the feature point stored in the memory 8. Then, the three-dimensional global position of each feature point corresponding to each actual feature point of the current image is calculated.

自己位置算出部7は、自己位置算出手段の一具体例である。自己位置算出部7は、上記求めた現在画像の各実特徴点の位置と、対応するマッピングデータの各画像の各特徴点の位置と、の幾何学位置関係から、グローバル座標系基準における距離画像センサ21の位置、すなわち、移動体の自己位置を算出する。   The self-position calculator 7 is a specific example of a self-position calculator. The self-position calculator 7 calculates the distance image based on the global coordinate system based on the geometrical positional relationship between the position of each actual feature point of the current image obtained above and the position of each feature point of each image of the corresponding mapping data. The position of the sensor 21, that is, the self-position of the moving body is calculated.

図9に示す如く、距離画像センサ21により得られた各実特徴点1、2、・・・は、センサ座標系基準で位置が計測されており、対応するマッピングデータの各画像の各特徴点1、2、・・・は、グローバル座標系基準で表現されている。   As shown in FIG. 9, the actual feature points 1, 2,... Obtained by the distance image sensor 21 have their positions measured on the basis of the sensor coordinate system, and the respective feature points of each image of the corresponding mapping data. .. Are represented on a global coordinate system basis.

自己位置算出部7は、上記求めた現在画像の各実特徴点と、対応付けたマッピングデータの各画像の各特徴点と、の対応をとり位置合わせを行うことで、距離画像センサ21の位置を算出し、自己位置を推定する。自己位置算出部7は、例えば、現在画像の実特徴点のセンサ座標系位置を、対応付けたマッピングデータの画像の特徴点のグローバル座標系位置に、合わせるための変換パラメータを算出する。そして、自己位置算出部7は、算出した変換パラメータを用いて、距離画像センサ21のグローバル座標系基準における位置を算出する。   The self-position calculating unit 7 performs the alignment by associating each actual feature point of the obtained current image with each feature point of each image of the associated mapping data, thereby performing position adjustment. Is calculated, and the self-position is estimated. The self-position calculating unit 7 calculates, for example, a conversion parameter for adjusting the sensor coordinate system position of the actual feature point of the current image to the global coordinate system position of the feature point of the image of the associated mapping data. Then, the self-position calculation unit 7 calculates the position of the range image sensor 21 on the global coordinate system basis using the calculated conversion parameters.

自己位置算出部7は、例えば、RANSAC(Random sample consensus)を用いて、あるいは、ICP(Iterative Closest Point)アルゴリズムなどを用いて、上記変換パラメータを算出する。自己位置算出部7は、例えば、移動体の目的や制約条件(移動体に搭載されるセンサなど)に応じて、下記のような方法で、上記変換パラメータを算出してもよい。上記自己位置の算出方法は一例であり、これに限定されず、任意の幾何学的位置関係による算出方法を用いることができる。   The self-position calculating unit 7 calculates the conversion parameters using, for example, RANSAC (Random Sample Consensus) or an ICP (Iterative Closest Point) algorithm. The self-position calculating unit 7 may calculate the conversion parameters by the following method, for example, according to the purpose of the moving object and the constraint conditions (such as a sensor mounted on the moving object). The method of calculating the self-position is an example, and the present invention is not limited to this, and a calculation method based on an arbitrary geometric positional relationship can be used.

次に、上述した自己位置推定装置のマッピング処理フロー及び自己位置推定処理フローについて、説明する。図10は、本実施形態に係る自己位置推定装置のマッピング処理フローを示すフローチャートである。   Next, the mapping processing flow and the self-position estimation processing flow of the above-described self-position estimation device will be described. FIG. 10 is a flowchart illustrating a mapping processing flow of the self-position estimation device according to the present embodiment.

画像取得部2は、距離画像センサ21を用いて、複数の視点で環境内における輝度画像及び距離画像を取得する(ステップS101)。
特徴点抽出部3は、画像取得部2により取得された輝度画像から特徴点を抽出する(ステップS102)。なお、ここで、特徴点除去部5は、特徴点抽出部3により抽出された特徴点群の中から、動的特徴点を除去してもよい。
The image acquisition unit 2 acquires a luminance image and a distance image in the environment from a plurality of viewpoints using the distance image sensor 21 (Step S101).
The feature point extraction unit 3 extracts a feature point from the luminance image acquired by the image acquisition unit 2 (Step S102). Here, the feature point removing unit 5 may remove the dynamic feature points from the feature point group extracted by the feature point extracting unit 3.

対応付け部4は、特徴点抽出部3により抽出された各特徴点の特徴点インデックスiと、その各特徴点が抽出された各画像の画像インデックスjと、その各特徴点の三次元グローバル位置Pij=(xij、yij、zij)と、を対応付けた特徴点の三次元位置データをメモリ8に記憶させる(ステップS103)。
最後に、対応付け部4は、上記特徴点の三次元位置データと共に、特徴点を抽出した画像群をマッピングデータとしてメモリ8に記憶させる(ステップS104)。
The associating unit 4 includes a feature point index i of each feature point extracted by the feature point extraction unit 3, an image index j of each image from which each feature point is extracted, and a three-dimensional global position of each feature point. The memory 8 stores the three-dimensional position data of the feature point in which P ij = (x ij , y ij , z ij ) is associated (step S103).
Finally, the associating unit 4 causes the memory 8 to store, as mapping data, the image group from which the feature points have been extracted, together with the three-dimensional position data of the feature points (step S104).

図11は、本実施形態に係る自己位置推定装置の自己位置推定処理フローを示すフローチャートである。
マッチング部6は、メモリ8からマッピングデータを読み込む(ステップS201)。
画像取得部2は、距離画像センサ21を用いて、環境内における輝度画像及び距離画像を取得する(ステップS202)。
FIG. 11 is a flowchart illustrating a self-position estimation processing flow of the self-position estimation device according to the present embodiment.
The matching unit 6 reads the mapping data from the memory 8 (Step S201).
The image acquisition unit 2 acquires a luminance image and a distance image in the environment using the distance image sensor 21 (Step S202).

特徴点抽出部3は、画像取得部2により取得された輝度画像から実特徴点を抽出する(ステップS203)。
特徴点除去部5は、特徴点抽出部3により抽出された実特徴点群の中から、動的特徴点を除去する(ステップS204)。
The feature point extraction unit 3 extracts actual feature points from the luminance image acquired by the image acquisition unit 2 (Step S203).
The feature point removing unit 5 removes dynamic feature points from the actual feature point group extracted by the feature point extracting unit 3 (Step S204).

マッチング部6は、特徴点除去部5により動的特徴点を除去した現在画像の実特徴点と、メモリ8に記憶されたマッピングデータの画像群の特徴点と、のマッチングを行う(ステップS205)
マッチング部6は、マッピングデータの画像毎に、マッチング特徴点数を算出する(ステップS206)。
The matching unit 6 performs matching between the actual feature points of the current image from which the dynamic feature points have been removed by the feature point removing unit 5 and the feature points of the image group of the mapping data stored in the memory 8 (step S205).
The matching unit 6 calculates the number of matching feature points for each image of the mapping data (step S206).

マッチング部6は、各画像の画像インデックスを、マッチング特徴点数が多い順にソートする(ステップS207)。
マッチング部6は、上記ソートした順で、画像インデックス毎に、現在画像の各実特徴点とマッピングデータの各画像の各特徴点との一致を判定し、一致したものを対応付ける(ステップS208)。
The matching unit 6 sorts the image indexes of the images in descending order of the number of matching feature points (step S207).
The matching unit 6 determines, for each image index, a match between each actual feature point of the current image and each feature point of each image of the mapping data in the sorted order, and associates the matched one (step S208).

自己位置算出部7は、上記求めた現在画像の各実特徴点の位置と、対応するマッピングデータの各画像の各特徴点の三次元グローバル位置と、の幾何学位置関係から、移動体の自己位置を算出する(ステップS209)。   The self-position calculating unit 7 calculates the self-position of the moving object from the geometrical positional relationship between the position of each real feature point of the current image obtained above and the three-dimensional global position of each feature point of each image of the corresponding mapping data. The position is calculated (step S209).

以上、本実施形態に係る自己位置推定装置において、メモリ8には、環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶されている。そして、マッチング部8は、画像取得部6により取得された画像と類似度の高いメモリ8の画像に含まれる特徴点を、メモリ8の他の画像に含まれる特徴点よりも優先して、画像取得部6により取得された画像から抽出された実特徴点と、マッチングし、メモリ8の特徴点と実特徴点とを対応付ける。そして、自己位置算出部7は、実特徴点の位置と、メモリ8に記憶された実特徴点に対応する特徴点の位置と、の幾何学的位置関係に基づいて、移動体の自己位置を算出する。
これにより、マッチング部6は、自己位置推定処理時における距離画像センサ21の視点に近い順で、メモリ8に記憶された画像群の中から画像を選択し、その画像の特徴点と、現在画像から抽出された実特徴点と、のマッチングを行うことができる。したがって、上述したマッピング処理時と自己位置推定処理時とにおける距離画像センサ21の視点の相違によって生じる自己位置推定精度の誤差を抑制し、自己位置推定精度を向上させることができる。
As described above, in the self-position estimating apparatus according to the present embodiment, the memory 8 associates a plurality of images photographed in the environment, each feature point of each image, and position information of each feature point with each other. It is remembered. Then, the matching unit 8 gives priority to the feature points included in the image of the memory 8 having a high degree of similarity to the image acquired by the image acquisition unit 6 over the feature points included in other images of the memory 8, The actual feature points extracted from the image acquired by the acquisition unit 6 are matched with each other, and the feature points in the memory 8 are associated with the actual feature points. Then, the self-position calculating unit 7 calculates the self-position of the moving object based on the geometrical positional relationship between the position of the real feature point and the position of the feature point corresponding to the real feature point stored in the memory 8. calculate.
As a result, the matching unit 6 selects an image from the image group stored in the memory 8 in the order close to the viewpoint of the range image sensor 21 at the time of the self-position estimation processing, and selects the feature points of the image and the current image. Can be matched with the actual feature points extracted from. Therefore, it is possible to suppress the error of the self-position estimation accuracy caused by the difference in the viewpoint of the range image sensor 21 between the above-described mapping processing and the self-position estimation processing, and to improve the self-position estimation accuracy.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態において、自己位置推定装置1は、移動体に搭載される構成であるが、これに限定されない。例えば、画像取得部2のみが移動体に設けられ、特徴点抽出部3、対応付け部4、特徴点除去部5、マッチング部6、および自己位置算出部7は、移動体外に設けれる構成であってもよい。
It should be noted that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist.
In the above embodiment, the self-position estimation device 1 is configured to be mounted on a moving body, but is not limited to this. For example, only the image acquisition unit 2 is provided on the moving object, and the feature point extracting unit 3, the associating unit 4, the feature point removing unit 5, the matching unit 6, and the self-position calculating unit 7 are provided outside the moving object. There may be.

また、本発明は、例えば、図10又は図11に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
Further, the present invention can be realized, for example, by causing the CPU to execute a computer program for the processing shown in FIG. 10 or FIG.
The program may be stored using various types of non-transitory computer readable media and provided to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media are magnetic recording media (eg, flexible disk, magnetic tape, hard disk drive), magneto-optical recording media (eg, magneto-optical disk), CD-ROM (Read Only Memory), CD-R, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)).

また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Also, the program may be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer readable media can provide the program to a computer via a wired communication line such as an electric wire and an optical fiber, or a wireless communication line.

1 自己位置推定装置、2 画像取得部、3 特徴点抽出部、4 対応付け部、5 特徴点除去部、6 マッチング部、7 自己位置算出部、21 距離画像センサ   REFERENCE SIGNS LIST 1 self-position estimation device, 2 image acquisition unit, 3 feature point extraction unit, 4 correspondence unit, 5 feature point removal unit, 6 matching unit, 7 self-location calculation unit, 21 distance image sensor

Claims (4)

環境内を撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶する記憶手段と、
前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得する画像取得手段と、
前記画像取得手段により取得された画像から実特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された実特徴点の中から、動的物体の動的特徴点を除去する特徴点除去手段と、
前記記憶手段に記憶された各画像の特徴点と、前記特徴点除去手段により除去された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶手段の特徴点と前記特徴点除去手段により除去された実特徴点とを対応付けるマッチング手段と、
前記実特徴点の位置と、前記記憶手段に記憶された該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する自己位置算出手段と、
を備え、
前記マッチング手段は、前記画像取得手段により取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記画像取得手段により取得された画像から抽出された実特徴点と、マッチングし、
前記記憶手段には、前記環境内を複数の視点から撮影した画像が記憶されており
前記マッチング手段は、前記類似度の高い順で、前記記憶手段に記憶された複数視点の画像群の中から画像を連続的に選択し、該画像の特徴点と、前記実特徴点と、のマッチングを行い、前記記憶手段の特徴点と実特徴点とを複数組対応付け、
前記自己位置算出手段は、前記複数組の、実特徴点の位置と、前記記憶手段に記憶された実特徴点に対応する特徴点の位置と、に基づいて、前記移動体の自己位置を算出する、
ことを特徴とする、自己位置推定装置。
Storage means for storing a plurality of images taken of the environment, each feature point of each image, and position information of each feature point in association with each other,
Image acquisition means provided in a moving body moving in the environment, to acquire an image around the moving body,
Feature point extraction means for extracting actual feature points from the image acquired by the image acquisition means,
A feature point removing unit that removes a dynamic feature point of a dynamic object from among the actual feature points extracted by the feature point extracting unit;
Matching is performed to determine whether a feature point of each image stored in the storage unit matches an actual feature point of the image removed by the feature point removal unit, and the feature point of the storage unit and the feature point removal are performed. Matching means for associating the actual feature points removed by the means,
A self-position for calculating a self-position of the moving object based on a geometrical positional relationship between the position of the real feature point and the position of the feature point corresponding to the real feature point stored in the storage unit; Calculating means;
With
The matching unit is configured to prioritize feature points included in an image having a high degree of similarity to the image acquired by the image acquisition unit over feature points included in other images, and obtain an image acquired by the image acquisition unit. Matching with the actual feature points extracted from
In the storage means, images captured from a plurality of viewpoints in the environment is stored ,
The matching means continuously selects images from a group of images of a plurality of viewpoints stored in the storage means in descending order of the degree of similarity, and selects a feature point of the image and an actual feature point. Performing matching, associating a plurality of sets of feature points and actual feature points of the storage unit,
The self-position calculating means calculates the self-position of the moving body based on the positions of the plurality of sets of real feature points and the positions of the feature points corresponding to the real feature points stored in the storage means. Do
A self-position estimating device, characterized in that:
請求項記載の自己位置推定装置であって、
前記マッチング手段は、
前記画像取得手段により取得された画像から抽出された各実特徴点と、前記記憶手段に記憶された画像群の各特徴点と、のマッチングを行って、前記記憶手段の画像毎に、一致した特徴点の数を算出し、
該一致した特徴点数が多い順に前記記憶手段の各画像をソートし、
該ソートした順で、前記記憶手段に記憶された画像群の中から画像を選択し、該選択した画像に含まれる特徴点と、前記画像取得手段により取得された画像から抽出された実特徴点と、のマッチングを行う、
ことを特徴とする自己位置推定装置。
The self-position estimating device according to claim 1 ,
The matching means,
Matching was performed between each actual feature point extracted from the image acquired by the image acquisition unit and each feature point of the image group stored in the storage unit, and a match was obtained for each image in the storage unit. Calculate the number of feature points,
Sorting each image of the storage means in descending order of the number of matching feature points,
In the sorted order, an image is selected from the image group stored in the storage unit, and the feature points included in the selected image and the actual feature points extracted from the image acquired by the image acquisition unit And matching,
A self-position estimating device characterized by the above-mentioned.
環境内を複数の視点から撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶するステップと、
前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得するステップと、
前記取得された画像から実特徴点を抽出するステップと、
前記抽出された実特徴点の中から、動的物体の動的特徴点を除去するステップと、
前記記憶された各画像の特徴点と、前記除去された画像の実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記除去された実特徴点とを対応付けるステップと、
前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出するステップと、
を含み、
前記取得された画像と類似度の高い画像に含まれる特徴点を、他の画像に含まれる特徴点よりも優先して、前記取得された画像から抽出された実特徴点と、マッチングし、
前記類似度の高い順で、前記記憶された複数視点の画像群の中から画像を連続的に選択し、該画像の特徴点と、前記実特徴点と、のマッチングを行い、前記特徴点と実特徴点とを複数組対応付け、
前記複数組の、実特徴点の位置と、前記記憶された実特徴点に対応する特徴点の位置と、に基づいて、前記移動体の自己位置を算出する、
ことを特徴とする自己位置推定方法。
Storing a plurality of images captured in the environment from a plurality of viewpoints , each feature point of each image, and position information of each feature point, in association with each other;
A step of obtaining an image around the moving body, the moving body being provided in the moving body;
Extracting real feature points from the obtained image;
Removing the dynamic feature points of the dynamic object from the extracted actual feature points;
A step of associating feature points of each image the storage, the actual feature point of the removed image, of for matching determining match, the actual feature point said stored feature points and the removal ,
Calculating the self-position of the moving object based on a geometrical positional relationship between the position of the actual feature point and the position of the feature point corresponding to the actual feature point;
Including
The feature points included in the image having a high degree of similarity to the obtained image are given priority over the feature points included in other images, and are matched with the actual feature points extracted from the obtained image ,
In the descending order of the degree of similarity, images are continuously selected from the stored image group of the plurality of viewpoints, and the feature points of the image and the actual feature points are matched, and the feature points and Associating multiple pairs with actual feature points,
Based on the plurality of sets of positions of actual feature points and the positions of feature points corresponding to the stored actual feature points, calculate a self-position of the moving body,
A self-position estimation method characterized by the above-mentioned.
環境内を複数の視点から撮影した複数の画像と、該各画像の各特徴点と、該各特徴点の位置情報と、を対応付けて記憶する処理と、
前記環境内を移動する移動体に設けられ、該移動体周囲の画像を取得する処理と、
前記取得された画像から実特徴点を抽出する処理と、
前記抽出された実特徴点の中から、動的物体の動的特徴点を除去する処理と、
前記取得された画像と類似度の高い前記記憶された画像に含まれる特徴点を、前記記憶された他の画像に含まれる特徴点よりも優先して、前記除去された実特徴点と、の一致を判定するマッチングを行い、前記記憶された特徴点と前記除去された実特徴点とを対応付ける処理と、
前記実特徴点の位置と、該実特徴点に対応する前記特徴点の位置と、の幾何学的位置関係に基づいて、前記移動体の自己位置を算出する処理と、
をコンピュータに実行させ
前記類似度の高い順で、前記記憶された複数視点の画像群の中から画像を連続的に選択し、該画像の特徴点と、前記実特徴点と、のマッチングを行い、前記特徴点と実特徴点とを複数組対応付け、
前記複数組の、実特徴点の位置と、前記記憶された実特徴点に対応する特徴点の位置と、に基づいて、前記移動体の自己位置を算出する、
ことを特徴とするプログラム。
A process of storing a plurality of images captured in the environment from a plurality of viewpoints , each feature point of each image, and position information of each feature point, in association with each other;
A process for obtaining an image around the moving body, the processing being provided on the moving body moving in the environment;
A process of extracting actual feature points from the obtained image;
A process of removing a dynamic feature point of a dynamic object from the extracted actual feature points;
Feature points included in the acquired image similar high degree of the stored image, the stored been another priority than feature points included in the image, and the actual feature point said removal, the Performing matching to determine a match, and associating the stored feature points with the removed actual feature points;
A process of calculating a self-position of the moving body based on a geometric positional relationship between the position of the actual feature point and the position of the feature point corresponding to the actual feature point;
To the computer ,
In the descending order of the degree of similarity, images are continuously selected from the stored image group of the plurality of viewpoints, and the feature points of the image and the actual feature points are matched, and the feature points and Associating multiple pairs with actual feature points,
Based on the positions of the plurality of sets and the actual feature points and the positions of the feature points corresponding to the stored actual feature points, calculate the self-position of the moving body,
A program characterized by that:
JP2015136294A 2015-07-07 2015-07-07 Self-position estimation device, self-position estimation method and program Active JP6645051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015136294A JP6645051B2 (en) 2015-07-07 2015-07-07 Self-position estimation device, self-position estimation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015136294A JP6645051B2 (en) 2015-07-07 2015-07-07 Self-position estimation device, self-position estimation method and program

Publications (2)

Publication Number Publication Date
JP2017021427A JP2017021427A (en) 2017-01-26
JP6645051B2 true JP6645051B2 (en) 2020-02-12

Family

ID=57888109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015136294A Active JP6645051B2 (en) 2015-07-07 2015-07-07 Self-position estimation device, self-position estimation method and program

Country Status (1)

Country Link
JP (1) JP6645051B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242822B2 (en) * 2017-06-29 2023-03-20 株式会社東芝 Estimation system and car
JP7074438B2 (en) 2017-09-05 2022-05-24 トヨタ自動車株式会社 Vehicle position estimation device
JP6950521B2 (en) * 2017-12-26 2021-10-13 トヨタ自動車株式会社 Collection system
US11822341B2 (en) 2017-12-28 2023-11-21 Sony Corporation Control device, control method, and mobile object to estimate the mobile object's self-position
CN110097045A (en) * 2018-01-31 2019-08-06 株式会社理光 A kind of localization method, positioning device and readable storage medium storing program for executing
JP7131994B2 (en) 2018-07-04 2022-09-06 株式会社東芝 Self-position estimation device, self-position estimation method, self-position estimation program, learning device, learning method and learning program
JP2020030568A (en) * 2018-08-22 2020-02-27 株式会社ダイヘン Moving vehicle
JP2020113134A (en) * 2019-01-15 2020-07-27 株式会社アトラックラボ Unmanned moving object, unmanned moving object control method and unmanned moving program
JP7176421B2 (en) 2019-01-25 2022-11-22 トヨタ自動車株式会社 parking assist device
JP7147728B2 (en) 2019-10-11 2022-10-05 トヨタ自動車株式会社 parking assist device

Also Published As

Publication number Publication date
JP2017021427A (en) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6645051B2 (en) Self-position estimation device, self-position estimation method and program
CN108986161B (en) Three-dimensional space coordinate estimation method, device, terminal and storage medium
US9681150B2 (en) Optical flow determination using pyramidal block matching
KR101791590B1 (en) Object pose recognition apparatus and method using the same
CN107735797B (en) Method for determining a movement between a first coordinate system and a second coordinate system
KR100855657B1 (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
KR102483641B1 (en) Method and apparatus for processing binocular image
JP2016517084A (en) Computer-based method of dynamic category object recognition Computer-based method and system
CN110458772B (en) Point cloud filtering method and device based on image processing and storage medium
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
CN111047634B (en) Scene depth determination method, device, equipment and storage medium
KR101280392B1 (en) Apparatus for managing map of mobile robot based on slam and method thereof
CN109255801B (en) Method, device and equipment for tracking edges of three-dimensional object in video and storage medium
JP2014170368A (en) Image processing device, method and program and movable body
JP6240706B2 (en) Line tracking using automatic model initialization with graph matching and cycle detection
WO2021108626A1 (en) System and method for correspondence map determination
JPWO2014073204A1 (en) Feature amount extraction device and location estimation device
CN111539352A (en) Method and system for judging human body joint motion direction
JP6429466B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
KR20150097251A (en) Camera alignment method using correspondences between multi-images
CN110956131B (en) Single-target tracking method, device and system
JP5310402B2 (en) Image conversion parameter calculation apparatus, image conversion parameter calculation method, and program
JP6080424B2 (en) Corresponding point search device, program thereof, and camera parameter estimation device
KR20170001448A (en) Apparatus for measuring position of camera using stereo camera and method using the same
KR101178015B1 (en) Generating method for disparity map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R151 Written notification of patent or utility model registration

Ref document number: 6645051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151