JP2018185239A - Position attitude estimation device and program - Google Patents

Position attitude estimation device and program Download PDF

Info

Publication number
JP2018185239A
JP2018185239A JP2017087698A JP2017087698A JP2018185239A JP 2018185239 A JP2018185239 A JP 2018185239A JP 2017087698 A JP2017087698 A JP 2017087698A JP 2017087698 A JP2017087698 A JP 2017087698A JP 2018185239 A JP2018185239 A JP 2018185239A
Authority
JP
Japan
Prior art keywords
time
unit
image information
landmarks
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017087698A
Other languages
Japanese (ja)
Inventor
洪二郎 武山
Kojiro Takeyama
洪二郎 武山
貴史 町田
Takashi Machida
貴史 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017087698A priority Critical patent/JP2018185239A/en
Publication of JP2018185239A publication Critical patent/JP2018185239A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To highly accurately estimate a position and attitude of a moving body even when using a single camera with an angle of view narrow.SOLUTION: A position attitude estimation device 10A comprises: a characteristic point extraction unit 14 that extracts a characteristic point from each of image information at each time acquired by an image information acquisition unit 12; a three-dimensional position identification unit 20 that collates the characteristic point of the image information on each time with respective characteristic points of a plurality of collation-purpose landmarks acquired from a map DB 16 to identify a three-dimensional position in an actual space of the characteristic point of the landmark included in respective images at each time; a relative position attitude calculation unit 24 that calculates a relative position and attitude with respect to a reference point of a moving body at each time; and a state estimation unit 28 that estimates a three-dimensional position and an attitude in an actual space of the moving body on the basis of the three-dimensional position in the actual space of the characteristic point of the landmark to be included in each of the image information at each time, and time series information representing the relative position and attitude of the moving body at each time.SELECTED DRAWING: Figure 1

Description

本発明は、位置姿勢推定装置及びプログラムに関する。   The present invention relates to a position / orientation estimation apparatus and program.

従来、地図データベースに予め格納された複数の照合用ランドマークの画像の各々と、移動体に搭載されたカメラで撮影されたランドマークの画像とを照合することで、移動体の位置を推定する技術がある。この種の技術では、照合対象となるランドマークの数が多く、かつ、3次元空間内の広い範囲にランドマークが分布しているほど、移動体の位置を推定する精度が向上する傾向がある。このため、一般には、画角が狭い単一カメラよりも画角が広い全方位カメラを利用したほうが、高い精度で移動体の位置を推定できると考えられる。   Conventionally, the position of a moving object is estimated by comparing each of a plurality of verification landmark images stored in advance in a map database with a landmark image photographed by a camera mounted on the moving object. There is technology. In this type of technology, the accuracy of estimating the position of a moving object tends to improve as the number of landmarks to be collated is increased and the landmarks are distributed over a wide range in a three-dimensional space. . For this reason, it is generally considered that the position of the moving object can be estimated with higher accuracy by using an omnidirectional camera having a wider angle of view than a single camera having a narrow angle of view.

しかし、全方位カメラは、単一カメラよりも高価であるため、単一カメラを利用した場合であっても、高い精度で移動体の位置を推定できることが望ましい。   However, since an omnidirectional camera is more expensive than a single camera, it is desirable that the position of a moving object can be estimated with high accuracy even when a single camera is used.

例えば、特許文献1には、複数のセンサを用いて、移動体の周辺に位置するランドマークに関する情報を取得し、取得した情報を選択的に組み合わせて、移動体の存在確率が最も高い位置を、移動体の位置として推定する技術が記載されている。   For example, Patent Document 1 uses a plurality of sensors to acquire information about landmarks located around a moving object, and selectively combines the acquired information to determine the position where the existence probability of the moving object is the highest. A technique for estimating the position of a moving object is described.

特開2016−014647号公報Japanese Patent Laid-Open No. 2006-014647

しかし、上記特許文献1に記載の技術では、センサの計測誤差や、移動体の周辺に観測可能なランドマークが少ない場合には、移動体の存在確率が広範囲に渡ってなだらかに分布してしまう。このため、存在確率が最も高い位置を一意に特定することが難しく、移動体の位置を高い精度で推定することが困難となる場合がある。   However, in the technique described in Patent Document 1, when there are few sensor measurement errors or landmarks that can be observed around the moving body, the existence probability of the moving body is distributed gently over a wide range. . For this reason, it is difficult to uniquely identify the position having the highest existence probability, and it may be difficult to estimate the position of the moving object with high accuracy.

本発明は、上記の問題点を解決するためになされたもので、画角が狭い単一カメラを利用した場合でも、高い精度で移動体の位置及び姿勢を推定することができる位置姿勢推定装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and a position and orientation estimation apparatus capable of estimating the position and orientation of a moving body with high accuracy even when a single camera with a narrow angle of view is used. And to provide a program.

上記目的を達成するために、請求項1に記載の位置姿勢推定装置は、移動体に搭載された撮影装置により前記移動体の周辺を時系列で撮影した各時刻の画像情報を取得する画像情報取得部と、前記画像情報取得部により取得された各時刻の画像情報の各々から特徴点を抽出する抽出部と、予め得られた複数の照合用ランドマークの各々の実空間における3次元位置及び前記複数の照合用ランドマークの各々の特徴点を対応付けて記憶した地図データベースと、前記抽出部により抽出された各時刻の画像情報の特徴点と、前記地図データベースから取得された前記複数の照合用ランドマークの各々の特徴点とを照合することにより、各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置を特定する特定部と、前記移動体の基準点に対する相対的な位置及び姿勢を各時刻について算出する算出部と、前記特定部により特定された各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置と、前記算出部により算出された各時刻の移動体の基準点に対する相対的な位置及び姿勢と、を表す時系列情報に基づいて、前記移動体の実空間における3次元位置及び姿勢を推定する推定部と、を備えたものである。   In order to achieve the above object, the position and orientation estimation apparatus according to claim 1 acquires image information at each time when the periphery of the moving body is imaged in time series by an imaging device mounted on the moving body. An acquisition unit, an extraction unit for extracting feature points from each of the image information at each time acquired by the image information acquisition unit, a three-dimensional position of each of the plurality of reference landmarks obtained in advance in real space, and A map database in which each feature point of the plurality of matching landmarks is stored in association with each other, a feature point of image information at each time extracted by the extraction unit, and the plurality of matching obtained from the map database A specifying unit for specifying the three-dimensional position in the real space of the landmark feature point included in each of the image information at each time by collating with the feature point of each landmark, A calculation unit for calculating the relative position and orientation of the moving body with respect to the reference point for each time, and a three-dimensional real space of the landmark feature points included in each of the image information at each time specified by the specifying unit Estimating the three-dimensional position and orientation of the moving object in real space based on time-series information representing the position and the relative position and orientation of the moving object relative to the reference point at each time calculated by the calculation unit And an estimating unit.

また、請求項2に記載の位置姿勢推定装置は、請求項1に記載の発明において、前記移動体に搭載されたセンサにより検出された各時刻の速度及び角速度を含むセンサ情報を取得するセンサ情報取得部を更に備え、前記算出部が、前記センサ情報取得部により取得されたセンサ情報に基づいて、前記移動体の基準点に対する相対的な位置及び姿勢を各時刻について算出するものである。   According to a second aspect of the present invention, there is provided the position / orientation estimation apparatus according to the first aspect of the invention, wherein the sensor information includes sensor information including speeds and angular velocities detected by the sensors mounted on the moving body. An acquisition unit is further provided, and the calculation unit calculates a relative position and orientation with respect to a reference point of the moving body for each time based on the sensor information acquired by the sensor information acquisition unit.

また、請求項3に記載の位置姿勢推定装置は、請求項1又は2に記載の発明において、前記時系列情報から、前記画像情報取得部により取得された各時刻の画像情報に含まれるランドマークの数に基づいて、前記推定部に提供する時系列情報の範囲を選択する選択部を更に備えたものである。   The position and orientation estimation apparatus according to claim 3 is the landmark included in the image information at each time acquired by the image information acquisition unit from the time-series information in the invention according to claim 1 or 2. And a selection unit that selects a range of time-series information to be provided to the estimation unit based on the number.

また、請求項4に記載の位置姿勢推定装置は、請求項3に記載の発明において、前記ランドマークの数が、前記ランドマークの延べ数又は前記ランドマークの種類数とされたものである。   According to a fourth aspect of the present invention, in the invention according to the third aspect, the number of landmarks is the total number of landmarks or the number of types of landmarks.

更に、上記目的を達成するために、請求項5に記載のプログラムは、コンピュータを、移動体に搭載された撮影装置により前記移動体の周辺を時系列で撮影した各時刻の画像情報を取得する画像情報取得部、前記画像情報取得部により取得された各時刻の画像情報の各々から特徴点を抽出する抽出部、前記抽出部により抽出された各時刻の画像情報の特徴点と、予め得られた複数の照合用ランドマークの各々の実空間における3次元位置及び前記複数の照合用ランドマークの各々の特徴点を対応付けて記憶した地図データベースから取得された前記複数の照合用ランドマークの各々の特徴点とを照合することにより、各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置を特定する特定部、前記移動体の基準点に対する相対的な位置及び姿勢を各時刻について算出する算出部、及び、前記特定部により特定された各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置と、前記算出部により算出された各時刻の移動体の基準点に対する相対的な位置及び姿勢と、を表す時系列情報に基づいて、前記移動体の実空間における3次元位置及び姿勢を推定する推定部、として機能させるものである。   Furthermore, in order to achieve the above object, the program according to claim 5 obtains image information at each time when the computer is photographed around the moving body in time series by the photographing device mounted on the moving body. An image information acquisition unit, an extraction unit for extracting feature points from each piece of image information at each time acquired by the image information acquisition unit, and feature points of the image information at each time extracted by the extraction unit; Each of the plurality of verification landmarks acquired from the map database storing the three-dimensional position of each of the plurality of verification landmarks in real space and the feature points of each of the plurality of verification landmarks in association with each other. A specifying unit for specifying a three-dimensional position in the real space of the landmark feature point included in each piece of image information at each time by comparing the feature point with the reference point of the moving object A calculation unit that calculates a relative position and orientation with respect to each time, a three-dimensional position in a real space of a landmark feature point included in each of the image information at each time specified by the specifying unit, and An estimation unit for estimating a three-dimensional position and orientation in the real space of the mobile body based on time-series information representing the relative position and orientation of the mobile body relative to a reference point at each time calculated by the calculation unit; It is to function as.

以上説明したように、本発明によれば、画角が狭い単一カメラを利用した場合でも、高い精度で移動体の位置及び姿勢を推定することができる。   As described above, according to the present invention, even when a single camera with a narrow angle of view is used, the position and orientation of the moving object can be estimated with high accuracy.

第1の実施形態に係る位置姿勢推定装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the position and orientation estimation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る位置姿勢推定装置として機能するコンピュータの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the computer which functions as a position and orientation estimation apparatus according to the first embodiment. 実施形態に係る車両と複数のランドマークとの関係の一例を説明するための図である。It is a figure for demonstrating an example of the relationship between the vehicle which concerns on embodiment, and several landmarks. 第1の実施形態に係る位置姿勢推定処理プログラムの処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process of the position and orientation estimation process program which concerns on 1st Embodiment. 第2の実施形態に係る位置姿勢推定装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the position and orientation estimation apparatus which concerns on 2nd Embodiment.

以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。   Hereinafter, an example of an embodiment for carrying out the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態に係る位置姿勢推定装置10Aの構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る位置姿勢推定装置10Aは、画像情報取得部12、特徴点抽出部14、地図データベース(以下、地図DBという。)16、地図情報取得部18、3次元位置特定部20、センサ情報取得部22、相対位置姿勢算出部24、時系列情報蓄積部26、及び状態推定部28を備えている。
[First embodiment]
FIG. 1 is a block diagram illustrating an example of a configuration of a position / orientation estimation apparatus 10A according to the first embodiment.
As shown in FIG. 1, the position / orientation estimation apparatus 10 </ b> A according to the present embodiment includes an image information acquisition unit 12, a feature point extraction unit 14, a map database (hereinafter referred to as a map DB) 16, map information acquisition units 18, 3. A dimension position specifying unit 20, a sensor information acquisition unit 22, a relative position and orientation calculation unit 24, a time series information storage unit 26, and a state estimation unit 28 are provided.

図2は、第1の実施形態に係る位置姿勢推定装置10Aとして機能するコンピュータの構成の一例を示すブロック図である。
図2に示すように、本実施形態に係る位置姿勢推定装置10Aは、CPU(Central Processing Unit)50及び内部メモリ52を含む汎用的なコンピュータとして構成される。
FIG. 2 is a block diagram illustrating an example of a configuration of a computer that functions as the position / orientation estimation apparatus 10A according to the first embodiment.
As shown in FIG. 2, the position / orientation estimation apparatus 10 </ b> A according to the present embodiment is configured as a general-purpose computer including a CPU (Central Processing Unit) 50 and an internal memory 52.

内部メモリ52には、本実施形態に係る位置姿勢推定処理プログラムが格納されている。この位置姿勢推定処理プログラムは、例えば、位置姿勢推定装置10Aに予めインストールされていてもよい。また、位置姿勢推定処理プログラムは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布し、位置姿勢推定装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD(Hard Disk Drive)、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。また、内部メモリ52は、図1に示す地図DB16及び時系列情報蓄積部26としても機能する。   The internal memory 52 stores a position / orientation estimation processing program according to the present embodiment. This position and orientation estimation processing program may be installed in advance in the position and orientation estimation apparatus 10A, for example. Further, the position / orientation estimation processing program may be realized by being stored in a non-volatile storage medium or distributed via a network and appropriately installed in the position / orientation estimation apparatus 10A. Examples of nonvolatile storage media include CD-ROM (Compact Disc Read Only Memory), magneto-optical disk, HDD (Hard Disk Drive), DVD-ROM (Digital Versatile Disc Read Only Memory), flash memory, memory Cards are assumed. The internal memory 52 also functions as the map DB 16 and the time series information storage unit 26 shown in FIG.

CPU50は、図1に示す画像情報取得部12、特徴点抽出部14、地図情報取得部18、3次元位置特定部20、センサ情報取得部22、相対位置姿勢算出部24、及び状態推定部28として機能する。CPU50は、内部メモリ52から位置姿勢推定処理プログラムを読み出して実行することで、これら各部として機能する。また、CPU50は、移動体の一例である車両60に搭載されたカメラ40及びセンサ42の各々と接続されている。   The CPU 50 includes the image information acquisition unit 12, the feature point extraction unit 14, the map information acquisition unit 18, the three-dimensional position specification unit 20, the sensor information acquisition unit 22, the relative position and orientation calculation unit 24, and the state estimation unit 28 illustrated in FIG. Function as. The CPU 50 functions as these units by reading and executing the position / orientation estimation processing program from the internal memory 52. Further, the CPU 50 is connected to each of the camera 40 and the sensor 42 mounted on the vehicle 60 that is an example of the moving body.

以下、本実施形態では、位置姿勢推定装置10Aが車両60に搭載されている場合について説明するが、位置姿勢推定装置10Aは車両60の外部に設置されていてもよく、この場合、カメラ40及びセンサ42の各々と無線通信を介して接続される。   Hereinafter, in the present embodiment, the case where the position / orientation estimation apparatus 10A is mounted on the vehicle 60 will be described. However, the position / orientation estimation apparatus 10A may be installed outside the vehicle 60. Each of the sensors 42 is connected via wireless communication.

カメラ40は、撮影装置の一例であり、各時刻の車両60の周辺を撮影する。なお、カメラ40は、1台でもよいし、複数台でもよい。また、カメラ40の撮影範囲は、車両60の進行方向(前方)を向いていてもよいし、後ろ向き又は全方位でもよい。   The camera 40 is an example of a photographing device, and photographs the vicinity of the vehicle 60 at each time. One camera 40 or a plurality of cameras 40 may be used. Further, the shooting range of the camera 40 may face the traveling direction (front) of the vehicle 60, or may be backward or omnidirectional.

センサ42は、例えば、各時刻の車両60の速度を検出する速度センサと、各時刻の車両60の角速度を検出する角速度センサと、を含む。速度センサは、一例として、車両60の車輪のオドメーターで計測される車輪速を検出する。角速度センサには、例えば、ジャイロセンサが用いられ、一例として、ヨーレートを角速度として検出する。なお、3軸センサであれば、ヨーレートと併せて、ピッチ角速度、ロール角速度を検出してもよい。   The sensor 42 includes, for example, a speed sensor that detects the speed of the vehicle 60 at each time and an angular speed sensor that detects the angular speed of the vehicle 60 at each time. As an example, the speed sensor detects a wheel speed measured by an odometer of a wheel of the vehicle 60. For example, a gyro sensor is used as the angular velocity sensor, and as an example, the yaw rate is detected as the angular velocity. In the case of a three-axis sensor, the pitch angular velocity and the roll angular velocity may be detected together with the yaw rate.

画像情報取得部12は、カメラ40により各時刻に撮影された車両60の周辺の画像情報(以下、単に画像という。)を取得する。   The image information acquisition unit 12 acquires image information around the vehicle 60 (hereinafter simply referred to as an image) taken by the camera 40 at each time.

特徴点抽出部14は、抽出部の一例である。特徴点抽出部14は、画像情報取得部12により取得された各時刻の画像の各々から特徴点を抽出する。   The feature point extraction unit 14 is an example of an extraction unit. The feature point extraction unit 14 extracts feature points from each of the images at each time acquired by the image information acquisition unit 12.

特徴点の選び方としては多様な手法が提案されている。ロバスト性の高いSIFT法、実装が容易なHarris法、計算負荷が低いFAST法等、所望の手法を用いればよい。また、点特徴以外にも、線や面等の特徴量を用いてもよい。また、特徴点の追跡方法としては、Lucas-Kanade法等の一般的な手法でもよいし、その他の手法でもよい。   Various methods have been proposed for selecting feature points. A desired method such as a SIFT method with high robustness, a Harris method that is easy to implement, or a FAST method with low calculation load may be used. In addition to point features, feature quantities such as lines and surfaces may be used. In addition, as a method for tracking feature points, a general method such as the Lucas-Kanade method may be used, or another method may be used.

一方、地図DB16には、予め広域で得られた複数の照合用ランドマークの各々の実空間における3次元位置、及び、予め撮影した画像から得られた複数の照合用ランドマークの各々を表す画像における照合用ランドマークの特徴点が対応付けられて記憶されている。なお、ここでいう照合用ランドマークとは、実空間において目印となり得る建物や、標識、看板等の物体であり、特徴点とは、照合用ランドマークを表す特徴的な画素パターンであり、特徴量と共に記憶される。各照合用ランドマークの実空間における3次元位置は、例えば、レーザー光を対象物に照射して測距を行うLIDAR(Light Detection and Ranging)と呼ばれる技術を用いて予め取得される。なお、照合用ランドマークの特徴点の特徴量としては、上記と同様に、点特徴をはじめ、線や面等の特徴量が用いられる。また、照合用ランドマークの特徴点としては、各照合用ランドマークについて、観測される所定の角度(例えば、10°)毎に当該角度から撮影された画像から抽出された特徴点が記憶されている。   On the other hand, in the map DB 16, an image representing each of a plurality of verification landmarks obtained from a three-dimensional position of each of a plurality of verification landmarks obtained in advance in a real space and a pre-captured image. Are stored in association with the feature points of the landmarks for comparison. Note that the collation landmarks here are buildings, signs, signboards, and other objects that can serve as landmarks in real space, and the feature points are characteristic pixel patterns that represent collation landmarks. Stored with quantity. The three-dimensional position of each verification landmark in the real space is acquired in advance using, for example, a technique called LIDAR (Light Detection and Ranging) that performs distance measurement by irradiating a target with laser light. In addition, as the feature amount of the feature point of the matching landmark, a feature amount such as a line or a surface including a point feature is used as described above. In addition, as the feature points of the matching landmarks, feature points extracted from images taken from the angles are stored for each of the matching landmarks that are observed at predetermined angles (for example, 10 °). Yes.

地図情報取得部18は、地図DB16から、車両60の周辺に位置する照合用ランドマークの3次元位置及び特徴点を読み出す。例えば、車両60の簡易的な位置を、図示しないGPS(Global Positioning System)機能を用いて取得し、取得した車両60の位置から一定範囲内に位置する複数の照合用ランドマークの各々の3次元位置及び特徴点を地図DB16から読み出し、内部メモリ52に一時的に記憶させる。   The map information acquisition unit 18 reads the three-dimensional position and feature points of the landmarks for comparison located around the vehicle 60 from the map DB 16. For example, a simple position of the vehicle 60 is acquired using a GPS (Global Positioning System) function (not shown), and each of the three-dimensional reference landmarks located within a certain range from the acquired position of the vehicle 60 is displayed. The position and feature points are read from the map DB 16 and temporarily stored in the internal memory 52.

3次元位置特定部20は、特定部の一例である。3次元位置特定部20は、特徴点抽出部14により抽出された各時刻の画像の特徴点と、地図DB16から取得された複数の照合用ランドマークの各々の特徴点とを照合することにより、各時刻の画像の各々に含まれるランドマークの特徴点の実空間における3次元位置を特定する。   The three-dimensional position specifying unit 20 is an example of a specifying unit. The three-dimensional position specifying unit 20 collates the feature points of the image at each time extracted by the feature point extracting unit 14 with the feature points of the plurality of matching landmarks acquired from the map DB 16. The three-dimensional position in the real space of the landmark feature point included in each image at each time is specified.

より具体的には、3次元位置特定部20は、車両60と、内部メモリ52に一時的に記憶させた各照合用ランドマークとの位置関係から、車両60から各照合用ランドマークへの視線方向を算出し、照合用ランドマーク毎に、算出した視線方向に対応する角度を持つ特徴点を取得する。そして、特徴点抽出部14により抽出された各時刻の画像の特徴点と一致又は類似する特徴点を有する照合用ランドマークを特定し、特定した照合用ランドマークの実空間における3次元位置を、上記各時刻の画像の各々に含まれるランドマークの特徴点の実空間における3次元位置として付与する。   More specifically, the three-dimensional position specifying unit 20 determines the line of sight from the vehicle 60 to each matching landmark based on the positional relationship between the vehicle 60 and each matching landmark temporarily stored in the internal memory 52. A direction is calculated, and a feature point having an angle corresponding to the calculated line-of-sight direction is acquired for each verification landmark. Then, a matching landmark having a feature point that matches or is similar to the feature point of the image at each time extracted by the feature point extraction unit 14 is identified, and the three-dimensional position of the identified matching landmark in the real space is It is given as a three-dimensional position in the real space of the landmark feature point included in each image at each time.

なお、3次元位置特定部20は、特徴点抽出部14により抽出された各時刻の画像の特徴点の当該画像における2次元位置も特定する。3次元位置特定部20は、各時刻の画像の各々に含まれるランドマークについて、画像中の2次元位置及び実空間中の3次元位置の組を出力する。   The three-dimensional position specifying unit 20 also specifies the two-dimensional position in the image of the feature point of the image at each time extracted by the feature point extracting unit 14. The three-dimensional position specifying unit 20 outputs a set of a two-dimensional position in the image and a three-dimensional position in the real space for the landmark included in each image at each time.

一方、センサ情報取得部22は、車両60に搭載されたセンサ42により検出された各時刻の速度及び角速度を含むセンサ情報を取得する。このセンサ情報は、センサ42の各センサから直接取得してもよいし、Bluetooth(登録商標)等の無線通信を介して取得してもよい。   On the other hand, the sensor information acquisition unit 22 acquires sensor information including the speed and angular velocity at each time detected by the sensor 42 mounted on the vehicle 60. This sensor information may be acquired directly from each sensor of the sensor 42 or may be acquired via wireless communication such as Bluetooth (registered trademark).

相対位置姿勢算出部24は、算出部の一例である。相対位置姿勢算出部24は、センサ情報取得部22により取得されたセンサ情報(速度及び角速度)に基づいて、車両60の基準点に対する相対的な位置及び姿勢を各時刻について算出する。なお、本実施形態では、基準点として、例えば、車両60の相対的な位置及び姿勢の算出を開始した地点が適用されるが、その他の任意の地点を適用してもよい。   The relative position and orientation calculation unit 24 is an example of a calculation unit. The relative position / orientation calculation unit 24 calculates the relative position and orientation of the vehicle 60 with respect to the reference point for each time based on the sensor information (speed and angular velocity) acquired by the sensor information acquisition unit 22. In the present embodiment, for example, a point where calculation of the relative position and orientation of the vehicle 60 is started is applied as the reference point, but any other point may be applied.

時系列情報蓄積部26は、時系列情報を蓄積する。この時系列情報とは、3次元位置特定部20により特定された各時刻の画像の各々に含まれるランドマークの特徴点の実空間における3次元位置と、相対位置姿勢算出部24により算出された各時刻の車両60の基準点に対する相対的な位置及び姿勢と、を表す情報である。具体的には、時刻tが更新されるたびに、ランドマークの特徴点の実空間における3次元位置と、車両60の基準点に対する相対的な位置及び姿勢と、を時系列で蓄積する。なお、時系列情報蓄積部26は、時刻tが更新されるたびに、各時刻の画像の各々に含まれるランドマークの当該画像における2次元位置についても蓄積する。また、時系列情報蓄積部26は、3次元位置特定部20で位置が特定された新たなランドマークの特徴点が得られた場合には、当該新たなランドマークの特徴点の実空間における3次元位置を蓄積する。   The time series information storage unit 26 stores time series information. The time series information is calculated by the three-dimensional position in the real space of the landmark feature point included in each of the images at each time specified by the three-dimensional position specifying unit 20 and the relative position and orientation calculation unit 24. It is the information showing the relative position and attitude | position with respect to the reference point of the vehicle 60 of each time. Specifically, each time the time t is updated, the three-dimensional position of the landmark feature point in the real space and the relative position and orientation of the vehicle 60 with respect to the reference point are accumulated in time series. Note that the time-series information accumulation unit 26 accumulates the two-dimensional positions of the landmarks included in each of the images at each time each time the time t is updated. In addition, when a new landmark feature point whose position is specified by the three-dimensional position specifying unit 20 is obtained, the time-series information storage unit 26 3 of the feature point of the new landmark in the real space. Accumulate dimension positions.

状態推定部28は、推定部の一例である。状態推定部28は、時系列情報蓄積部26に蓄積された時系列情報に基づいて、車両60の実空間における3次元位置及び姿勢を推定する。本実施形態では、以下に示す位置姿勢推定手法を適用する。   The state estimation unit 28 is an example of an estimation unit. The state estimation unit 28 estimates the three-dimensional position and orientation of the vehicle 60 in the real space based on the time series information accumulated in the time series information accumulation unit 26. In the present embodiment, the following position / orientation estimation method is applied.

画像中におけるランドマークの特徴点の2次元位置、車両60の位置、車両60の姿勢、及び実空間中におけるランドマークの特徴点の3次元位置の関係式(観測方程式)は、下記式(1)のように表される。   The relational expression (observation equation) of the two-dimensional position of the landmark feature point in the image, the position of the vehicle 60, the attitude of the vehicle 60, and the three-dimensional position of the landmark feature point in the real space is expressed by the following formula (1 ).

(1) (1)

ここで、X′t,mは、画像中におけるランドマークの特徴点の2次元位置を示す。Kは、カメラ40のキャリブレーション行列を示す。Rは、車両60の姿勢(ピッチ、ヨー、ロール)を要素とした3次元回転行列を示す。xは、車両60の実空間における3次元位置を示す。Xは、実空間中におけるランドマークの特徴点の3次元位置を示す。Iは、単位行列を示す。添え字のtは時刻インデックスを示し、添え字のmはランドマークのインデックスを示す。また、x及びRは未知数であり、それ以外は既知である。さらに、未知数x及びRは、以下の式(2)、(3)のように表すことができる。 Here, X ′ t, m represents the two-dimensional position of the landmark feature point in the image. K represents a calibration matrix of the camera 40. R t represents a three-dimensional rotation matrix having the posture (pitch, yaw, roll) of the vehicle 60 as an element. x t represents a three-dimensional position of the vehicle 60 in the real space. Xm represents the three-dimensional position of the landmark feature point in the real space. I indicates a unit matrix. The subscript t indicates a time index, and the subscript m indicates a landmark index. Moreover, xt and Rt are unknown numbers, and others are known. Furthermore, unknowns x t and R t, the following equation (2), can be expressed as (3).

(2)
(3)
(2)
(3)

ここで、Δxは、相対座標系における基準点からの車両60の相対位置を示す。xは、絶対座標系(実空間の座標系)における相対座標系基準点での車両60の位置を示す。ΔRは、相対座標系における基準点からの車両60の相対姿勢を示す。Rは、絶対座標系における相対座標系基準点での車両60の姿勢を示す。 Here, Δx t indicates the relative position of the vehicle 60 from the reference point in the relative coordinate system. x 0 indicates the position of the vehicle 60 at the relative coordinate system reference point in the absolute coordinate system (the coordinate system of the real space). ΔR t indicates the relative posture of the vehicle 60 from the reference point in the relative coordinate system. R 0 indicates the attitude of the vehicle 60 at the relative coordinate system reference point in the absolute coordinate system.

上記式(2)、式(3)を、上記式(1)に代入した結果を式(4)に示す。   The result of substituting the above equations (2) and (3) into the above equation (1) is shown in equation (4).

(4) (4)

次に、式(4)における未知数x及びRを、最小二乗法を用いて解く。式(5)にコスト関数を示す。上記式(2)は、非線形であるため、例えば、Levenberg-Marquardt法等の収束演算を用いて解くことができる。 Then, the unknowns x 0 and R 0 in the formula (4), solved using the least squares method. Equation (5) shows the cost function. Since the above equation (2) is non-linear, it can be solved by using a convergence operation such as the Levenberg-Marquardt method.

(5) (5)

但し、Mは推定に用いるランドマークの数を示し、Nは時系列情報の数を示す。   Here, M indicates the number of landmarks used for estimation, and N indicates the number of time series information.

上記式(5)を最小にするx及びRを推定した後に、上記式(2)に、xを代入し、上記式(3)に、Rを代入することで、最新時刻における車両60の実空間における3次元位置x及び姿勢Rを得ることができる。 After estimating the x 0 and R 0 to the equation (5) to a minimum, in the above formula (2), by substituting x 0, the above equation (3), by substituting R 0, in the latest time The three-dimensional position x t and the posture R t in the real space of the vehicle 60 can be obtained.

図3は、本実施形態に係る車両60と複数のランドマークLM1〜LM10との関係の一例を説明するための図である。   FIG. 3 is a diagram for explaining an example of the relationship between the vehicle 60 and the plurality of landmarks LM1 to LM10 according to the present embodiment.

図3に示すように、車両60が矢印で示す進行方向に向けて移動しながら、車両60の前方に搭載されたカメラ40により複数のランドマークが撮影される。ここでは、10個のランドマークLM1〜LM10を例示しているが、ランドマークの数はこれに限定されない。   As shown in FIG. 3, a plurality of landmarks are photographed by a camera 40 mounted in front of the vehicle 60 while the vehicle 60 moves in the traveling direction indicated by the arrow. Here, ten landmarks LM1 to LM10 are illustrated, but the number of landmarks is not limited to this.

時刻T1において、ランドマークLM1〜LM4の4個のランドマークを含む画像が取得される。時刻T1では、上述したように、画像から抽出された特徴点が、地図DB16に格納されている複数の照合用ランドマークの各々の特徴点と照合され、画像に含まれる4個のランドマークLM1〜LM4の各々の特徴点の実空間における3次元位置(X)が特定される。 At time T1, an image including four landmarks LM1 to LM4 is acquired. At time T1, as described above, the feature points extracted from the image are collated with the feature points of the plurality of collation landmarks stored in the map DB 16, and the four landmarks LM1 included in the image are collated. A three-dimensional position (X m ) of each feature point of LM4 in the real space is specified.

時刻T2において、ランドマークLM5〜LM8の4個のランドマークを含む画像が取得される。時刻T2では、上記と同様に、画像から抽出された特徴点が、地図DB16に格納されている複数の照合用ランドマークの各々の特徴点と照合され、画像に含まれる4個のランドマークLM5〜LM8の各々の特徴点の実空間における3次元位置(X)が特定される。 At time T2, an image including four landmarks LM5 to LM8 is acquired. At time T2, as described above, the feature points extracted from the image are checked against the feature points of the plurality of matching landmarks stored in the map DB 16, and the four landmarks LM5 included in the image are checked. A three-dimensional position (X m ) in the real space of each feature point of LM8 is specified.

時刻T3において、ランドマークLM7〜LM10の4個のランドマークを含む画像が取得される。時刻T3では、上記と同様に、画像から抽出された特徴点が、地図DB16に格納されている複数の照合用ランドマークの各々の特徴点と照合され、画像に含まれる4個のランドマークLM7〜LM10の各々の特徴点の実空間における3次元位置(X)が特定される。本実施形態では、時刻T1〜T3の時間帯に含まれるランドマークの全てが照合対象とされる。 At time T3, an image including four landmarks LM7 to LM10 is acquired. At time T3, as described above, the feature points extracted from the image are collated with the respective feature points of the plurality of collation landmarks stored in the map DB 16, and the four landmarks LM7 included in the image are collated. A three-dimensional position (X m ) in the real space of each feature point of LM10 is specified. In the present embodiment, all landmarks included in the time period from time T1 to T3 are subject to collation.

本実施形態によれば、各時刻における車両60の基準点に対する相対的な位置及び姿勢を算出し、各時刻にカメラ40により撮影された画像に含まれるランドマークの全てを照合対象として用いて、車両60の位置及び姿勢の推定を行う。これにより、画角の狭い単一カメラを利用した場合でも、全方位カメラを利用した場合と同様に、推定に用いるランドマークの数が増加し、分布範囲も広くなるため、車両60の位置及び姿勢を高い精度で推定することができる。   According to the present embodiment, the relative position and orientation with respect to the reference point of the vehicle 60 at each time are calculated, and all the landmarks included in the image photographed by the camera 40 at each time are used as collation targets. The position and orientation of the vehicle 60 are estimated. As a result, even when a single camera with a narrow angle of view is used, the number of landmarks used for estimation increases and the distribution range increases, as in the case of using an omnidirectional camera. The posture can be estimated with high accuracy.

次に、図4を参照して、第1の実施形態に係る位置姿勢推定装置10Aの作用を説明する。なお、図4は、第1の実施形態に係る位置姿勢推定処理プログラムの処理の流れの一例を示すフローチャートである。   Next, the operation of the position / orientation estimation apparatus 10A according to the first embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing an example of the processing flow of the position / orientation estimation processing program according to the first embodiment.

まず、図4のステップ100では、画像情報取得部12が、車両60に搭載されたカメラ40により各時刻に車両60の周辺を撮影した画像を取得する。   First, in step 100 of FIG. 4, the image information acquisition unit 12 acquires an image of the periphery of the vehicle 60 captured at each time by the camera 40 mounted on the vehicle 60.

ステップ102では、特徴点抽出部14が、画像情報取得部12により取得された各時刻の画像から特徴点を抽出する。   In step 102, the feature point extraction unit 14 extracts feature points from the images at each time acquired by the image information acquisition unit 12.

ステップ104では、3次元位置特定部20が、特徴点抽出部14により抽出された各時刻の画像の特徴点の当該画像における2次元位置を特定する。そして、3次元位置特定部20は、特徴点抽出部14により抽出された各時刻の画像の特徴点と、地図DB16から取得された複数の照合用ランドマークの各々の特徴点とを照合することにより、各時刻の画像に含まれるランドマークの特徴点の実空間における3次元位置を特定する。   In step 104, the three-dimensional position specifying unit 20 specifies the two-dimensional position in the image of the feature point of the image at each time extracted by the feature point extracting unit 14. Then, the three-dimensional position specifying unit 20 collates the feature points of the images at each time extracted by the feature point extraction unit 14 with the feature points of the plurality of matching landmarks acquired from the map DB 16. Thus, the three-dimensional position in the real space of the landmark feature point included in the image at each time is specified.

ステップ106では、相対位置姿勢算出部24が、センサ情報取得部22により取得されたセンサ情報に基づいて、車両60の基準点に対する相対的な位置及び姿勢を各時刻について算出する。   In step 106, the relative position and orientation calculation unit 24 calculates the relative position and orientation of the vehicle 60 with respect to the reference point for each time based on the sensor information acquired by the sensor information acquisition unit 22.

ステップ108では、時系列情報蓄積部26が、3次元位置特定部20により特定された、各時刻の画像の特徴点の当該画像における2次元位置と、各時刻の画像に含まれるランドマークの特徴点の実空間における3次元位置と、相対位置姿勢算出部24により算出された各時刻の車両60の基準点に対する相対的な位置及び姿勢と、を表す時系列情報を蓄積する。   In step 108, the time-series information storage unit 26 specifies the two-dimensional position in the image of the feature point of the image at each time specified by the three-dimensional position specifying unit 20 and the feature of the landmark included in the image at each time. Time series information representing the three-dimensional position of the point in the real space and the relative position and orientation of the vehicle 60 relative to the reference point at each time calculated by the relative position and orientation calculation unit 24 is accumulated.

ステップ110では、状態推定部28が、時系列情報蓄積部26により蓄積された時系列情報に基づいて、上述の式(1)〜式(5)を用いて、車両60の実空間における3次元位置及び姿勢を推定する。   In step 110, the state estimation unit 28 uses the above-described equations (1) to (5) based on the time-series information accumulated by the time-series information accumulation unit 26 to perform a three-dimensional operation in the real space of the vehicle 60. Estimate position and orientation.

[第2の実施形態]
図5は、第2の実施形態に係る位置姿勢推定装置10Bの構成の一例を示すブロック図である。
図5に示すように、本実施形態に係る位置姿勢推定装置10Bは、第1の実施形態における時系列情報蓄積部26と状態推定部28との間に時系列情報選択部30を備えている。これ以外の構成については、第1の実施形態の構成と同様であるので、同様な部分には同一の符号を付して繰り返しの説明を省略する。
[Second Embodiment]
FIG. 5 is a block diagram showing an example of the configuration of the position / orientation estimation apparatus 10B according to the second embodiment.
As shown in FIG. 5, the position / orientation estimation apparatus 10B according to the present embodiment includes a time-series information selection unit 30 between the time-series information storage unit 26 and the state estimation unit 28 in the first embodiment. . Since the configuration other than this is the same as the configuration of the first embodiment, the same parts are denoted by the same reference numerals, and the repeated description is omitted.

時系列情報選択部30は、選択部の一例である。時系列情報選択部30は、時系列情報蓄積部26に蓄積された時系列情報から、画像情報取得部12により取得された各時刻の画像に含まれるランドマークの数に基づいて、状態推定部28に提供する時系列情報の範囲を選択する。ここでいうランドマークの数とは、一例として、ランドマークの延べ数である。なお、ランドマークの数として、ランドマークの種類数を用いてもよい。図3に示す例の場合、時刻T1〜T3の間において、ランドマークの延べ数では、12個(ランドマーク4個/画像×3画像分)となり、ランドマークの種類数では、10個となる。また、時系列情報の範囲とは、現時点から、過去のある時刻までの範囲である。   The time series information selection unit 30 is an example of a selection unit. The time series information selection unit 30 is based on the number of landmarks included in the image at each time acquired by the image information acquisition unit 12 from the time series information stored in the time series information storage unit 26. A range of time-series information to be provided to 28 is selected. The number of landmarks here is, for example, the total number of landmarks. Note that the number of types of landmarks may be used as the number of landmarks. In the case of the example shown in FIG. 3, the total number of landmarks is 12 (4 landmarks / images × 3 images) and the number of types of landmarks is 10 between times T1 and T3. The range of time series information is a range from the present time to a certain past time.

一般的に、センサを用いて算出した移動体の相対的な位置及び姿勢は、移動体の現在地点までに移動した距離が長く(つまり、時間が長く)なるほど、センサの計測誤差が蓄積していく傾向にある。このため、時系列情報の範囲を短くした方が、センサの計測誤差の影響を受け難くなる。一方、移動体の現在地点までに移動した距離が長いほど、推定に用いるランドマークの数が増加する。このため、時系列情報の範囲を長くした方が、推定の精度が向上する。このため、本実施形態では、車両60の現在地点を基準とした距離範囲と、推定に用いるランドマークの数とを考慮の上、適切な時系列情報の範囲を選択する。例えば、ランドマークの数が一定数以上となる距離範囲の中で最小の距離範囲に対応する時系列情報の範囲を選択する方法や、センサ42の計測誤差が一定値以内に収まると推定される距離範囲の中でランドマークの数が最大となる距離範囲に対応する時系列情報の範囲を選択する方法等が考えられる。   In general, the relative position and orientation of a moving object calculated using a sensor increases the measurement error of the sensor as the distance traveled to the current position of the moving object increases (that is, the time increases). It tends to go. For this reason, shortening the range of the time-series information is less susceptible to the measurement error of the sensor. On the other hand, the longer the distance traveled to the current point of the moving body, the greater the number of landmarks used for estimation. For this reason, the accuracy of estimation improves when the range of the time-series information is lengthened. Therefore, in the present embodiment, an appropriate time-series information range is selected in consideration of the distance range based on the current location of the vehicle 60 and the number of landmarks used for estimation. For example, it is estimated that the time series information range corresponding to the minimum distance range among the distance ranges in which the number of landmarks is a certain number or more, or that the measurement error of the sensor 42 falls within a certain value. A method of selecting a time-series information range corresponding to a distance range in which the number of landmarks is the largest in the distance range can be considered.

本実施形態によれば、センサ42の計測誤差の影響を受け難くくし、一定数以上のランドマークの数が得られるように、最適な時系列情報の範囲を選択することができるため、車両60の位置及び姿勢をより高い精度で推定することができる。   According to the present embodiment, it is difficult to be affected by the measurement error of the sensor 42, and an optimal time-series information range can be selected so that a certain number of landmarks or more can be obtained. Can be estimated with higher accuracy.

以上、実施形態として位置姿勢推定装置を例示して説明した。実施形態は、コンピュータを、位置姿勢推定装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。   As described above, the position / orientation estimation apparatus has been described as an embodiment. The embodiment may be in the form of a program for causing a computer to function as each unit included in the position and orientation estimation apparatus. The embodiment may be in the form of a computer-readable storage medium storing this program.

その他、上記実施形態で説明した位置姿勢推定装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。   In addition, the configuration of the position / orientation estimation apparatus described in the above embodiment is merely an example, and may be changed according to the situation without departing from the spirit of the present invention.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。   Further, the processing flow of the program described in the above embodiment is an example, and unnecessary steps may be deleted, new steps may be added, or the processing order may be changed within a range not departing from the gist. Good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。   Moreover, although the said embodiment demonstrated the case where the process which concerns on embodiment was implement | achieved by a software structure using a computer by running a program, it is not restricted to this. The embodiment may be realized by, for example, a hardware configuration or a combination of a hardware configuration and a software configuration.

10A、10B位置姿勢推定装置
12 画像情報取得部
14 特徴点抽出部
16 地図DB
18 地図情報取得部
20 3次元位置特定部
22 センサ情報取得部
24 相対位置姿勢算出部
26 時系列情報蓄積部
28 状態推定部
30 時系列情報選択部
40 カメラ
42 センサ
50 CPU
52 内部メモリ
60 車両
10A, 10B position and orientation estimation device 12 image information acquisition unit 14 feature point extraction unit 16 map DB
18 Map information acquisition unit 20 3D position specifying unit 22 Sensor information acquisition unit 24 Relative position and orientation calculation unit 26 Time series information storage unit 28 State estimation unit 30 Time series information selection unit 40 Camera 42 Sensor 50 CPU
52 Internal memory 60 Vehicle

Claims (5)

移動体に搭載された撮影装置により前記移動体の周辺を時系列で撮影した各時刻の画像情報を取得する画像情報取得部と、
前記画像情報取得部により取得された各時刻の画像情報の各々から特徴点を抽出する抽出部と、
予め得られた複数の照合用ランドマークの各々の実空間における3次元位置及び前記複数の照合用ランドマークの各々の特徴点を対応付けて記憶した地図データベースと、
前記抽出部により抽出された各時刻の画像情報の特徴点と、前記地図データベースから取得された前記複数の照合用ランドマークの各々の特徴点とを照合することにより、各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置を特定する特定部と、
前記移動体の基準点に対する相対的な位置及び姿勢を各時刻について算出する算出部と、
前記特定部により特定された各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置と、前記算出部により算出された各時刻の移動体の基準点に対する相対的な位置及び姿勢と、を表す時系列情報に基づいて、前記移動体の実空間における3次元位置及び姿勢を推定する推定部と、
を備えた位置姿勢推定装置。
An image information acquisition unit that acquires image information at each time when the periphery of the moving body is imaged in time series by an imaging device mounted on the moving body;
An extraction unit for extracting feature points from each piece of image information at each time acquired by the image information acquisition unit;
A map database that stores a three-dimensional position of each of the plurality of matching landmarks obtained in advance in real space and a feature point of each of the plurality of matching landmarks;
By comparing the feature points of the image information at each time extracted by the extraction unit with the feature points of the plurality of reference landmarks acquired from the map database, each of the image information at each time A specifying unit for specifying a three-dimensional position in the real space of the landmark feature points included in
A calculation unit that calculates a relative position and orientation of the moving body with respect to a reference point for each time;
The three-dimensional position in the real space of the landmark feature point included in each of the image information at each time specified by the specifying unit and the relative point with respect to the reference point of the moving object at each time calculated by the calculating unit An estimation unit that estimates a three-dimensional position and orientation of the mobile body in real space based on time-series information representing the position and orientation;
A position and orientation estimation apparatus.
前記移動体に搭載されたセンサにより検出された各時刻の速度及び角速度を含むセンサ情報を取得するセンサ情報取得部を更に備え、
前記算出部は、前記センサ情報取得部により取得されたセンサ情報に基づいて、前記移動体の基準点に対する相対的な位置及び姿勢を各時刻について算出する請求項1に記載の位置姿勢推定装置。
A sensor information acquisition unit for acquiring sensor information including the speed and angular velocity at each time detected by the sensor mounted on the moving body;
The position and orientation estimation apparatus according to claim 1, wherein the calculation unit calculates a relative position and orientation with respect to a reference point of the moving body for each time based on the sensor information acquired by the sensor information acquisition unit.
前記時系列情報から、前記画像情報取得部により取得された各時刻の画像情報に含まれるランドマークの数に基づいて、前記推定部に提供する時系列情報の範囲を選択する選択部を更に備えた請求項1又は2に位置姿勢推定装置。   A selection unit that selects a range of time-series information to be provided to the estimation unit based on the number of landmarks included in the image information at each time acquired by the image information acquisition unit from the time-series information. The position and orientation estimation apparatus according to claim 1 or 2. 前記ランドマークの数は、前記ランドマークの延べ数又は前記ランドマークの種類数である請求項3に記載の位置姿勢推定装置。   The position and orientation estimation apparatus according to claim 3, wherein the number of landmarks is the total number of landmarks or the number of types of landmarks. コンピュータを、
移動体に搭載された撮影装置により前記移動体の周辺を時系列で撮影した各時刻の画像情報を取得する画像情報取得部、
前記画像情報取得部により取得された各時刻の画像情報の各々から特徴点を抽出する抽出部、
前記抽出部により抽出された各時刻の画像情報の特徴点と、予め得られた複数の照合用ランドマークの各々の実空間における3次元位置及び前記複数の照合用ランドマークの各々の特徴点を対応付けて記憶した地図データベースから取得された前記複数の照合用ランドマークの各々の特徴点とを照合することにより、各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置を特定する特定部、
前記移動体の基準点に対する相対的な位置及び姿勢を各時刻について算出する算出部、及び、
前記特定部により特定された各時刻の画像情報の各々に含まれるランドマークの特徴点の実空間における3次元位置と、前記算出部により算出された各時刻の移動体の基準点に対する相対的な位置及び姿勢と、を表す時系列情報に基づいて、前記移動体の実空間における3次元位置及び姿勢を推定する推定部、
として機能させるためのプログラム。
Computer
An image information acquisition unit that acquires image information at each time when the periphery of the moving body is imaged in time series by an imaging device mounted on the moving body;
An extraction unit for extracting feature points from each piece of image information at each time acquired by the image information acquisition unit;
The feature point of the image information at each time extracted by the extraction unit, the three-dimensional position of each of the plurality of verification landmarks obtained in advance in the real space, and the feature point of each of the plurality of verification landmarks 3 in the real space of the landmark feature points included in each of the image information at each time by collating with the feature points of each of the plurality of landmarks for collation acquired from the map database stored in association with each other. A specific part for specifying the dimension position,
A calculation unit that calculates a relative position and orientation of the mobile body with respect to a reference point for each time; and
The three-dimensional position in the real space of the landmark feature point included in each of the image information at each time specified by the specifying unit and the relative point with respect to the reference point of the moving object at each time calculated by the calculating unit An estimation unit that estimates a three-dimensional position and orientation of the moving object in real space based on time-series information representing the position and orientation;
Program to function as.
JP2017087698A 2017-04-26 2017-04-26 Position attitude estimation device and program Pending JP2018185239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087698A JP2018185239A (en) 2017-04-26 2017-04-26 Position attitude estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087698A JP2018185239A (en) 2017-04-26 2017-04-26 Position attitude estimation device and program

Publications (1)

Publication Number Publication Date
JP2018185239A true JP2018185239A (en) 2018-11-22

Family

ID=64356498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087698A Pending JP2018185239A (en) 2017-04-26 2017-04-26 Position attitude estimation device and program

Country Status (1)

Country Link
JP (1) JP2018185239A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020144860A1 (en) * 2019-01-11 2020-07-16 三菱電機株式会社 Moving body management device and moving body system
JP2021042978A (en) * 2019-09-06 2021-03-18 日本電気株式会社 Measuring device and measuring method
JP2021047024A (en) * 2019-09-17 2021-03-25 株式会社東芝 Estimation device, estimation method, and program
JP2021524026A (en) * 2018-06-19 2021-09-09 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド Posture judgment system and method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021524026A (en) * 2018-06-19 2021-09-09 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド Posture judgment system and method
WO2020144860A1 (en) * 2019-01-11 2020-07-16 三菱電機株式会社 Moving body management device and moving body system
JPWO2020144860A1 (en) * 2019-01-11 2021-10-07 三菱電機株式会社 Mobile management device and mobile system
JP7036232B2 (en) 2019-01-11 2022-03-15 三菱電機株式会社 Mobile management device and mobile system
JP2021042978A (en) * 2019-09-06 2021-03-18 日本電気株式会社 Measuring device and measuring method
JP7363225B2 (en) 2019-09-06 2023-10-18 日本電気株式会社 Measuring device, measuring system, measuring method and program
JP2021047024A (en) * 2019-09-17 2021-03-25 株式会社東芝 Estimation device, estimation method, and program
JP7337617B2 (en) 2019-09-17 2023-09-04 株式会社東芝 Estimation device, estimation method and program

Similar Documents

Publication Publication Date Title
JP6760114B2 (en) Information processing equipment, data management equipment, data management systems, methods, and programs
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
JP6225889B2 (en) Vehicle position estimation apparatus and program
JP6656886B2 (en) Information processing apparatus, control method, program, and storage medium
KR102627453B1 (en) Method and device to estimate position
CN103175524B (en) A kind of position of aircraft without view-based access control model under marking environment and attitude determination method
US20180150974A1 (en) Image processing apparatus, method, and program
JP2018185239A (en) Position attitude estimation device and program
JP5762131B2 (en) CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
JP6479296B2 (en) Position / orientation estimation apparatus and position / orientation estimation method
JP6759175B2 (en) Information processing equipment and information processing system
JP6751280B2 (en) Position estimating device, position detecting method and program
JP5489885B2 (en) Vehicle position calculation system, vehicle position calculation method, and program thereof
JP7343054B2 (en) Location estimation method, location estimation device, and location estimation program
JP2017129508A5 (en)
JP6589410B2 (en) Map generating apparatus and program
JP6135972B2 (en) Orientation method, orientation program, and orientation device
JP5716273B2 (en) Search target position specifying device, search target position specifying method and program
JP6698430B2 (en) Measuring device, measuring method and program
JPWO2020175438A5 (en)
CN114371484A (en) Vehicle positioning method and device, computer equipment and storage medium
KR102174729B1 (en) Method and system for recognizing lane using landmark
TW201621273A (en) Mobile positioning apparatus and positioning method thereof
WO2016157802A1 (en) Information processing apparatus, information processing system, information processing method, and storage medium
CN115790616A (en) Determination of an absolute initial position of a vehicle