JP6860620B2 - Information processing equipment, information processing methods, and programs - Google Patents
Information processing equipment, information processing methods, and programs Download PDFInfo
- Publication number
- JP6860620B2 JP6860620B2 JP2019114936A JP2019114936A JP6860620B2 JP 6860620 B2 JP6860620 B2 JP 6860620B2 JP 2019114936 A JP2019114936 A JP 2019114936A JP 2019114936 A JP2019114936 A JP 2019114936A JP 6860620 B2 JP6860620 B2 JP 6860620B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- feature point
- information indicating
- orientation
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
画像に基づく撮像装置の位置姿勢の計測は様々な目的に利用されている。目的の一例としては、複合現実感(Mixed Reality、MR)技術/拡張現実感(Augmented Reality、AR)技術における現実空間と仮想物体との位置合わせが挙げられる。目的の別の例としては、ロボットの自律移動又は自動車の自動運転のための、自己位置推定も挙げられる。 The measurement of the position and orientation of an image pickup device based on an image is used for various purposes. An example of a purpose is the alignment of a real space with a virtual object in mixed reality (MR) technology / augmented reality (AR) technology. Another example of purpose is self-position estimation for autonomous movement of robots or autonomous driving of automobiles.
非特許文献1は、画像から検出される特徴点を用いて撮像装置の位置姿勢を計測する方法を開示している。この方法では、事前にStructure from motion技術により、シーン中の特徴点の三次元座標が高精度に計測され、この情報が三次元マップとして保存される。ランタイム時には、三次元マップ中の特徴点に対応する撮像画像上の特徴点が探索され、特徴点の画像座標と三次元座標との対応に基づいて撮像装置の位置姿勢が算出される。 Non-Patent Document 1 discloses a method of measuring the position and orientation of an image pickup apparatus using feature points detected from an image. In this method, the 3D coordinates of the feature points in the scene are measured with high accuracy by the Structure from motion technology in advance, and this information is saved as a 3D map. At runtime, the feature points on the captured image corresponding to the feature points in the three-dimensional map are searched, and the position and orientation of the image pickup device are calculated based on the correspondence between the image coordinates of the feature points and the three-dimensional coordinates.
非特許文献1で開示される方法では、ランタイム時において、事前に作成した三次元マップにより位置姿勢の計測が可能な範囲から撮像装置が外れると、高精度な位置姿勢の計測ができなくなるという課題が存在した。 The method disclosed in Non-Patent Document 1 has a problem that high-precision position / orientation measurement cannot be performed when the imaging device is out of the range in which position / orientation can be measured by a three-dimensional map created in advance at runtime. Existed.
本発明は、撮像画像に基づく撮像装置の位置姿勢計測において、位置姿勢の計測精度を維持しながら、撮像装置の位置姿勢が計測可能な範囲を拡張することを目的とする。 An object of the present invention is to extend the measurable range of the position and orientation of the imaging device while maintaining the measurement accuracy of the position and orientation in the position and orientation measurement of the imaging device based on the captured image.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
位置が可変の撮像装置から被写体の撮像画像を取得する取得手段と、
予め定められた領域内の被写体の撮像画像から得られる第1の特徴点の、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された三次元マップを保持する保持手段と、
前記取得手段により取得された撮像画像及び前記保持手段に保持されている三次元マップを用いて、前記撮像装置の位置を導出する導出手段と、
前記保持手段が保持する三次元マップにおける前記予め定められた領域の外の領域の被写体を撮像した前記撮像画像に基づいて得た、第2の特徴点の三次元位置を示す情報と、前記第1の特徴点の三次元位置を示す情報と、の前記基準座標系における特徴点の真の三次元位置に対する信頼性を示す情報であって、前記第2の特徴点の三次元位置を示す情報より前記第1の特徴点の三次元位置を示す情報の信頼性が高く設定された信頼性を示す情報を用いて、前記三次元マップを補正する補正手段と、
を備える。
In order to achieve the object of the present invention, for example, the image processing apparatus of the present invention has the following configurations. That is,
Obtaining means position to acquire a captured image of an object from a variable of the imaging device,
A three-dimensional map containing information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a first feature point obtained from a captured image of the subject in a predetermined area. A holding means for holding a three-dimensional map created from a set of captured images captured in an area, and
A derivation means for deriving the position of the image pickup apparatus by using the captured image acquired by the acquisition means and the three-dimensional map held by the holding means.
And information indicating the obtained based on subject region outside the predetermined region in the captured image captured, the three-dimensional position of the second feature points in the three-dimensional map in which the holding means for holding said first Information indicating the three-dimensional position of the feature point 1 and information indicating the reliability of the feature point with respect to the true three-dimensional position in the reference coordinate system , and information indicating the three-dimensional position of the second feature point. A correction means for correcting the three-dimensional map by using the information indicating the reliability set with high reliability of the information indicating the three-dimensional position of the first feature point.
To be equipped.
撮像画像に基づく撮像装置の位置姿勢計測において、位置姿勢の計測精度を維持しながら、撮像装置の位置姿勢が計測可能な範囲を拡張することができる。 In the position / orientation measurement of the imaging device based on the captured image, the range in which the position / orientation of the imaging device can be measured can be expanded while maintaining the measurement accuracy of the position / orientation.
本発明に係る各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置を実現可能なハードウェア構成について、図1を用いて説明する。図1は、一実施形態に係る情報処理装置のハードウェア構成図である。図1において、CPU10は、バス60を介して、バス60に接続された各部を制御する。入力I/F40は、外部装置(表示装置又は操作装置など)から、情報処理装置1が処理可能な形式の入力信号を取得する。また、出力I/F50は、外部装置(表示装置など)へと、外部装置が処理可能な形式の出力信号を出力する。
Prior to explaining each embodiment of the present invention, a hardware configuration capable of realizing the information processing apparatus shown in each embodiment will be described with reference to FIG. FIG. 1 is a hardware configuration diagram of an information processing device according to an embodiment. In FIG. 1, the
各実施形態の機能を実現するためのプログラムは、読み出し専用メモリ(ROM)20のような記憶媒体に格納することができる。また、ROM20は、オペレーティングシステム(OS)及びデバイスドライバを記憶することもできる。ランダムアクセスメモリ(RAM)30のようなメモリは、これらのプログラムを一時記憶することができる。そして、CPU10がRAM30に記憶されたプログラムを実行することにより、後述する各フローチャートに従った処理を実行し、各実施形態の機能を実現できる。もっとも、CPU10を用いたソフトウェア処理の代わりに、各機能部の処理に対応する演算部又は回路を有するハードウェアを用いて、各実施形態の機能を実現することもできる。
The program for realizing the functions of each embodiment can be stored in a storage medium such as a read-only memory (ROM) 20. The
以下に例示する実施形態において、情報処理装置は撮像装置から画像を取得して処理を行う。これらの実施形態において、撮像装置は単眼カメラであるものとする。また、撮像装置は濃淡画像を撮像するものとする。もっとも、撮像装置の種類はこれに限られない。撮像装置は位置姿勢が可変であり、被写体の撮像画像を取得することができる。以下では、撮像装置の光学中心を原点、光軸方向をZ軸、画像の水平方向をX軸、画像の垂直方向をY軸とする三次元の座標系を、撮像装置座標系又は撮像座標系と規定する。また、撮像装置の位置姿勢とは、撮像を行う空間(シーン)中に規定された基準座標系(以下、世界座標系)に対する、撮像座標系の位置及び姿勢(例えば、原点の位置及びZ軸の方向)を表す。撮像装置の位置姿勢は6つの自由度(位置3自由度及び姿勢3自由度)を持つ。また、以下の説明において、シーン中に存在する物体のことを被写体と呼ぶ。被写体の種類は特に限定されず、例えば建物又は部屋等でありうる。
In the embodiment illustrated below, the information processing apparatus acquires an image from the imaging apparatus and performs processing. In these embodiments, the imaging device is a monocular camera. In addition, the image pickup device shall capture a shade image. However, the type of imaging device is not limited to this. The position and orientation of the image pickup device are variable, and it is possible to acquire a captured image of the subject. In the following, a three-dimensional coordinate system in which the optical center of the image pickup device is the origin, the optical axis direction is the Z axis, the horizontal direction of the image is the X axis, and the vertical direction of the image is the Y axis, is the image pickup device coordinate system or the image pickup coordinate system. It is stipulated as. The position and orientation of the imaging device is the position and orientation of the imaging coordinate system (for example, the position of the origin and the Z axis) with respect to the reference coordinate system (hereinafter referred to as the world coordinate system) defined in the space (scene) for imaging. Direction). The position and orientation of the image pickup device have six degrees of freedom (
[実施形態1]
実施形態1では、シーンの三次元マップのうち事前に作成した部分の信頼度を高く、ランタイム時に拡張された部分の信頼度を低くして三次元マップの補正を行う。
[Embodiment 1]
In the first embodiment, the reliability of the pre-created portion of the three-dimensional map of the scene is increased, and the reliability of the extended portion at runtime is decreased to correct the three-dimensional map.
図2は、本実施形態における情報処理装置1の構成を示す。情報処理装置1は、保持部110、入力部120、導出部130、作成部140、設定部150、及び補正部160を備える。入力部120は、撮像装置170と接続されている。
FIG. 2 shows the configuration of the information processing device 1 according to the present embodiment. The information processing device 1 includes a
保持部110は、導出部130が撮像装置170の位置姿勢の導出に使用するシーンの三次元マップを保持する。本実施形態において、三次元マップは、被写体が有する特徴の三次元位置を示す情報を含む。また、一実施形態において、この三次元マップは、複数の視点のそれぞれにおける被写体の観測結果を示す情報を含んでいる。保持部110は、事前に作成した三次元マップを保持することができ、さらに、ランタイム時に作成され、補正された三次元マップを順次保持することができる。
The
図3は、三次元マップの一例を説明する図である。図3に示すシーンの三次元マップは、キーフレーム(keyframe)の集合を含んでいる。キーフレームとは、シーン中の様々な場所において撮像装置によって撮像された撮像画像のことを指す。このキーフレームは、様々な視点における被写体の観測結果を示す情報を有している。例えば、キーフレームからは、特徴抽出処理により特徴の位置を得ることができ、また特定の画像位置における色情報を得ることができる。 FIG. 3 is a diagram illustrating an example of a three-dimensional map. The three-dimensional map of the scene shown in FIG. 3 contains a set of keyframes. Keyframes refer to captured images captured by an imaging device at various locations in the scene. This key frame has information indicating the observation result of the subject from various viewpoints. For example, from the key frame, the position of the feature can be obtained by the feature extraction process, and the color information at a specific image position can be obtained.
また、図3の三次元マップは、キーフレーム撮像時の撮像装置(すなわち視点)の世界座標系における位置姿勢(以下、「キーフレームの位置姿勢」と呼ぶ)を含んでいる。さらに、三次元マップは、キーフレーム上における特徴(本実施形態では特徴点)の画像座標(u,v)及びキーフレームの位置姿勢を基準とした奥行きd(キーフレームの撮像座標系におけるz座標)を含んでいる。これらの情報は、被写体が有する特徴の三次元位置を示す情報を表している。本実施形態においては、公知の方法(例えば、C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO: fast semi-direct monocular visual odometry,” Proc. 2014 IEEE International Conference on Robotics and Automation (ICRA), pp. 15-22, 2014.)により、特徴点の画像座標(u,v)及び奥行きdから、撮像座標系における特徴点の三次元座標が算出される。そして、こうして算出された特徴点の三次元座標が、後述する撮像装置170の位置姿勢計測に利用される。
Further, the three-dimensional map of FIG. 3 includes a position and orientation (hereinafter, referred to as "keyframe position and orientation") in the world coordinate system of the imaging device (that is, a viewpoint) at the time of keyframe imaging. Further, the three-dimensional map has image coordinates (u, v) of features (feature points in this embodiment) on keyframes and depth d (z coordinates in the keyframe imaging coordinate system) based on the position and orientation of keyframes. ) Is included. These pieces of information represent information indicating the three-dimensional position of the feature of the subject. In this embodiment, known methods (eg, C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO: fast semi-direct monocular visual odometry,” Proc. 2014 IEEE International Conference on Robotics and Automation (ICRA)) , Pp. 15-22, 2014.), the three-dimensional coordinates of the feature points in the imaging coordinate system are calculated from the image coordinates (u, v) and the depth d of the feature points. Then, the three-dimensional coordinates of the feature points calculated in this way are used for the position / orientation measurement of the
本実施形態において、保持部110は、三次元マップとして、キーフレームに加えて、キーフレームの位置姿勢、及びキーフレーム上における幾何特徴の三次元情報を保持する。このような三次元マップは、公知技術を用いて生成することができる。本実施形態では、シーンの三次元マップは事前に作成されている。保持部110は、記憶部(不図示)に保存されている、事前に作成された三次元マップを取得することができる。以下では、三次元マップのうち事前に作成した部分を「事前マップ」と呼ぶ。すなわち、事前マップには、特徴(第1の特徴と呼ぶことがある)の三次元位置を示す予め作成された情報が含まれている。一方、三次元マップには、特徴(第2の特徴と呼ぶことがある)の三次元位置を示す情報も、後述する作成部140によって追加される。
In the present embodiment, the holding
本実施形態の場合、事前マップには、事前に作成された複数のキーフレーム、それぞれのキーフレームの位置姿勢、並びにそれぞれのキーフレームにおける特徴点の情報が含まれている。ここで、特徴点の情報には、キーフレーム上での特徴点の画像座標(u,v)及び特徴点の奥行きdが含まれる。一方、本実施形態においては、ランタイム時(情報処理装置1による撮像装置170の位置計測時)に三次元マップが拡張される。例えば、撮像装置の位置姿勢に応じた所定の条件に応じて、例えば事前マップを用いた位置姿勢の計測が可能な範囲から撮像装置が外れる可能性が生じた場合に、三次元マップが拡張される。すなわち、三次元マップに、新たなキーフレーム、このキーフレームの位置姿勢、並びにこのキーフレームにおける特徴点の情報が追加される。このような方法により、撮像装置170の位置姿勢の計測を継続することができる。例えば、事前マップ作成の対象となった領域内に障害物があり、撮像装置170がこの障害物を避けたときに、撮像装置170は位置姿勢の計測が可能な範囲から外れるかもしれない。また、撮像装置170が事前マップを用いた位置姿勢の計測が可能な範囲の外に移動したときに、撮像装置170は位置姿勢の計測が可能な範囲から外れるかもしれない。
In the case of the present embodiment, the pre-map includes information on a plurality of pre-created keyframes, the position and orientation of each keyframe, and feature points in each keyframe. Here, the feature point information includes the image coordinates (u, v) of the feature point on the key frame and the depth d of the feature point. On the other hand, in the present embodiment, the three-dimensional map is expanded at the time of runtime (when the position of the
入力部120は、撮像装置170が撮像した撮像画像(以下、入力画像)を取得する。入力部120は、撮像装置170から動画像を取得することができ、例えば毎秒30フレームの時系列画像を取得することができる。なお、情報処理装置1の格納部(不図示)は、撮像装置170の内部パラメータ(焦点距離、画像中心位置、及びレンズ歪みパラメータ等)を保持している。撮像装置170の内部パラメータは、公知の方法(例えば、Z. Zhang, “A flexible new technique for camera calibration,” IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330-1334, 2000.)を用いて事前に校正することができる。
The
導出部130は、入力画像及び三次元マップを用いて、撮像装置170の位置姿勢を導出する。導出部130は、入力部120から時系列に入力される各画像について画像撮像時の撮像装置170の位置姿勢を導出する。
The
作成部140は、入力画像及び撮像装置170の位置姿勢に基づいて得た、被写体が有するさらなる特徴の三次元位置を示す情報を、三次元マップに追加する。このようにして、三次元マップが拡張される。本実施形態において、作成部140は、キーフレームと、キーフレームに含まれるさらなる特徴の三次元位置を示す情報(キーフレームの位置姿勢及び特徴点の情報)を追加することにより、三次元マップを拡張する。作成部140は、例えば、既存の三次元マップにより位置姿勢の計測が可能な範囲から、撮像装置170の位置が外れる可能性がある場合に、キーフレームを追加することができる。
The creating
設定部150は、特徴の三次元位置を示す情報に信頼度(信頼性を示す情報)を設定する。本実施形態においては、事前マップに含まれる、特徴(第1の特徴)の三次元位置を示す情報には、作成部140によって追加された、特徴(第2の特徴)の三次元位置を示す情報よりも、高い信頼度が与えられる。本実施形態において、設定部150は、三次元マップに含まれるキーフレームの信頼度を設定する。すなわち、設定部150は、事前マップに含まれるキーフレームの信頼度を高く、ランタイム時に作成部140によって追加されたキーフレームの信頼度を低く設定することができる。
The
補正部160は、三次元マップに含まれる特徴の三次元位置を示す情報をこの情報の信頼度に基づいて補正する。例えば、補正部160は、三次元マップに含まれる特徴の三次元位置を示す情報を情報の信頼度に応じて更新することができる。このような処理によれば、補正部160は三次元マップの整合性を向上させることができる。このような処理は、三次元マップ(又はポーズグラフ)の最適化として知られている。本実施形態において、補正部160は、三次元マップ全体の整合性が取れるように、キーフレームの位置姿勢を補正することにより、特徴の三次元位置を示す情報を更新する。補正部160は、設定部150が設定したキーフレームの信頼度に基づいて、補正を行うことができる。本実施形態において補正部160は、信頼度の高いキーフレームの位置姿勢を固定する。例えば、補正部160は、事前マップに含まれるキーフレームの位置姿勢を固定する。このため、精度を維持しながら、撮像装置170の位置姿勢の計測が可能な範囲を広げることができる。
The
次に、本実施形態に係る処理について、図4のフローチャートを参照して説明する。ステップS1010で、保持部110は、事前マップを外部記憶装置(不図示)から読み込む。事前マップの作成方法については特に限定されない。例えば、複数の撮像画像(キーフレーム)と、撮像画像の視点の位置姿勢(キーフレームの位置姿勢)を用いて、事前マップを作成することができる。特徴点の画像座標(u,v)及び奥行きdは、撮像画像からの特徴抽出及び撮像画像間でのマッチングを行うことにより決定することができる。事前マップの作成方法の例としては、SLAM(Simultaneous Localization and Mapping)技術が挙げられる。本実施形態において、事前マップは、J. Engel, T. Schoeps, and. D. Cremers, “LSD-SLAM: Large-scale direct monocular SLAM,” Proc. 14th European Conference on Computer Vision (ECCV), pp.834-849, 2014.に記載の方法を用いて作成することができる。
Next, the process according to the present embodiment will be described with reference to the flowchart of FIG. In step S1010, the holding
また、保持部110は、事前マップに含まれる各キーフレームの信頼度Bi(i=1、・・・、Np)をHIGHに設定する。ここで、Npは事前マップに含まれるキーフレームの数である。
The holding
本実施形態において、キーフレームの信頼度とは、キーフレームの位置姿勢が信頼可能であるか否かを表す指標である。キーフレームの信頼度が高い場合、補正部160はこのキーフレームの位置姿勢を補正しない。信頼度が高いキーフレームの位置姿勢は、信頼度が低いキーフレームの位置姿勢を補正するための制約条件として利用される。事前マップは、事前に時間をかけて準備することができる。例えば、人又は自動車などの動く物体が視野に入り込まない静的な状態で、事前マップを作成することができる。また、実時間で実施するには時間が長すぎる最適化処理を行って、事前マップを作成することもできる。このように、高精度な事前マップを作成することが可能である。したがって、本実施形態においては、事前マップに含まれるキーフレームの信頼度が高く(HIGHに)設定される。
In the present embodiment, the reliability of the key frame is an index indicating whether or not the position and orientation of the key frame are reliable. When the reliability of the key frame is high, the
ステップS1020で入力部120は、撮像装置170が撮像した入力画像を取得する。入力部120は、1フレームの入力画像を取得することができる。
In step S1020, the
ステップS1030で導出部130は、保持部110が保持する三次元マップと入力画像とを用いて、入力画像を撮像した際の撮像装置170の位置姿勢を導出する。導出方法としては公知の様々な方法を用いることができる。例えば、特徴点の三次元位置と導出される位置姿勢とに基づいて算出した入力画像上の特徴点の画像位置と、入力画像上での特徴点の画像位置と、の差が小さくなるように繰り返し位置姿勢を補正することができる。こうして、撮像装置170の位置姿勢を導出することが可能である。また、キーフレームの特徴点と、特徴点の三次元位置に従って判定できる特徴点に対応する入力画像上の対応点と、の間の色差(例えば輝度差)が小さくなるように、キーフレームと撮像装置170との間の相対位置姿勢を導出することもできる。この相対位置姿勢と、キーフレームの位置姿勢とから、撮像装置170との位置姿勢を得ることができる。ここで、特徴点の三次元位置は、キーフレームの位置姿勢及び特徴点の情報(画像座標(u,v)及び奥行きd)から決定することができる。本実施形態においては、前述のEngelらが開示している位置姿勢の導出方法を利用する。
In step S1030, the
ステップS1040で作成部140は、ステップS1030で導出した撮像装置170の位置姿勢を用いて、三次元マップを作成(拡張)する。作成部140は、三次元マップにキーフレームを追加することにより、三次元マップを拡張することができる。また、作成部140は、所定の条件が満たされたことに応じて、三次元マップを拡張することができる。本ステップの詳細については後述する。本ステップでキーフレームが追加された後の三次元マップ中のキーフレーム数をNkとする。
In step S1040, the
ステップS1050で設定部150は、ステップS1040で三次元マップに追加されたキーフレームの信頼度Bj(j=Nk)を低く(LOWに)設定する。ここで、キーフレームの信頼度とは、キーフレームに関連して三次元マップに格納されている情報(キーフレームの位置姿勢、又はキーフレームにおける特徴点の情報)の信頼度のことを指す。ランタイム時には、シーンの状況を制御して静的な状態を保つこと(例えば動く物体が視野に入らないようにすること)が困難であるため、キーフレームの信頼度は制限される。このため、本実施形態においては、ランタイム時に追加されたキーフレームの信頼度が低く設定される。
In step S1050, the
ステップS1060で補正部160は、三次元マップの補正を行う。例えば、補正部160は、三次元マップ全体が整合するように、三次元マップに含まれるキーフレームの位置姿勢を補正することができる。補正方法としては公知の様々な方法を用いることができるが、本実施形態では、前述のEngelらの手法に従う補正が行われる。
In step S1060, the
一方で、本実施形態においては、第1の信頼度(例えばHIGH)を有する第1の特徴の三次元位置を示す情報を更新せずに、第1の信頼度より低い第2の信頼度(例えばLOW)を有する第2の特徴の三次元位置を示す情報が更新される。例えば、信頼度Bi(i=1、・・・、Nk)がLOWに設定されているキーフレームの位置姿勢が補正の対象となり、信頼度BiがHIGHに設定されているキーフレームの位置姿勢は補正の対象とされない。このように、補正部160は、予め作成され作成部140により作成されていない特徴の三次元位置を示す情報を固定しながら、特徴の三次元位置を示す情報の更新を行うことにより、三次元マップの整合性を向上させることができる。このため、高精度に作成されている事前マップを変更することなく、位置姿勢の計測可能範囲を拡張することができる。本ステップの詳細については後述する。
On the other hand, in the present embodiment, the second reliability (for example, HIGH) lower than the first reliability (for example, HIGH) is lower than the first reliability without updating the information indicating the three-dimensional position of the first feature. For example, the information indicating the three-dimensional position of the second feature having LOW) is updated. For example, the reliability B i (i = 1, ··· , N k) position and orientation of the key frame is set to LOW is subject to correction, keyframes reliability B i is set to HIGH Position and orientation are not subject to correction. In this way, the
ステップS1070で導出部130は、位置姿勢計測の終了判定を行う。例えば、マウス又はキーボード等の入力装置から入力I/F40を介してユーザによる終了指示が入力された場合、位置姿勢の計測は終了する。計測を終了しない場合、処理はステップS1020に戻り、位置姿勢の計測が継続される。
In step S1070, the out-
(ステップS1040の詳細)
ステップS1040で作成部140は、まず、三次元マップを拡張するか否か、すなわち三次元マップに新たなキーフレームを追加するか否かを判定する。ここで、作成部140は、ステップS1030で導出した撮像装置170の位置姿勢に基づいて、以下のように判定を行うことができる。
(Details of step S1040)
In step S1040, the
まず、作成部140は、導出した撮像装置170の位置姿勢に基づいて、三次元マップ中のキーフレーム(以下、最近傍キーフレーム又は単に近傍キーフレーム)を選択する。例えば、作成部140は、導出した撮像装置170の位置及び視線方向(世界座標系における撮像座標系のZ軸方向)と、キーフレームの位置及び視線方向に基づいて、所定の条件に従って近傍キーフレームを選択することができる。作成部140は、撮像装置170に近い位置及び視線方向を有しているキーフレームを近傍キーフレームとして選択することができる。一例として、作成部140は、撮像装置170の視軸方向に基づいて、三次元マップからキーフレーム群を選択できる。ここで、世界座標系における、撮像装置170の視軸方向と、選択されるキーフレーム群の視軸方向と、の角度差は閾値Tv以内である。次に、作成部140は、キーフレーム群から近傍キーフレームを選択する。ここで、近傍キーフレームは、キーフレーム群に含まれるキーフレームのうち位置が撮像装置170の位置に最も近い。
First, the creating
次に、ステップS1020で取得した入力画像に含まれる、近傍キーフレームの特徴点の数に基づいて、新たなキーフレームを追加するか否かが判定される。例えば、作成部140は、ステップS1020で取得した入力画像上における、近傍キーフレームの各特徴点の画像座標を算出する。例えば、作成部140は、画像座標を算出するために、まず前述した方法により近傍キーフレームの撮像座標系における特徴点の三次元座標XKeyを算出する。次に、作成部140は、近傍キーフレームの位置姿勢、及び撮像装置170の位置姿勢を用いて、三次元座標XKeyを、入力画像撮像時の撮像装置170の撮像座標系における三次元座標XCamに変換する。最後に、作成部140は、撮像装置170の内部パラメータを用いて三次元座標XCamを入力画像の画像座標(u,v)に変換する。このようにして、作成部140は、算出された画像座標が入力画像内に含まれる特徴点の割合Rincを求めることができる。Rincが小さい場合、最近傍キーフレームと入力画像とのオーバーラップが少ないことから、撮像装置が位置姿勢計測範囲から外れる可能性がある。このため、Rincが閾値Tinc未満の場合、作成部140は、新たにキーフレームを追加すると判定する。
Next, it is determined whether or not to add a new keyframe based on the number of feature points of the neighboring keyframes included in the input image acquired in step S1020. For example, the
新たにキーフレームを追加すると判定した場合、作成部140は、前述のEngelらの方法を用いて入力画像を新たなキーフレームとして追加する。Engelらの方法を用いる場合、直前のキーフレーム上の(又は近傍キーフレーム上の)特徴点の情報を、入力画像上に投影し伝播させることで、新たなキーフレームの特徴点の情報を作成することができる。例えば、近傍キーフレームの特徴点の情報から、特徴点の三次元座標を得て、これを入力画像に投影することにより、新たなキーフレームの特徴点の画像座標(u,v)及び奥行きdを決定することができる。
When it is determined that a new keyframe is to be added, the
一方、新たにキーフレームを追加すると判定しなかった場合、作成部140は、直前に作成されたキーフレームについての特徴点の情報(画像座標(u,v)及び奥行きd)を更新することができる。例えば、作成部140は、撮像画像からの特徴抽出及び撮像画像間でのマッチングを行うことにより、新たな特徴点の情報を追加したり、奥行きdの情報を更新したりすることができる。この処理は、例えば、前述のEngelらの方法を用いて行うことができる。
On the other hand, if it is not determined that a new keyframe is to be added, the
(ステップS1060の詳細)
図5は、ステップS1060における三次元マップ補正の処理手順を示すフローチャートである。最適化処理では、概して、特徴が三次元位置にある場合に視点(キーフレームの位置姿勢)において観測される観測結果と、視点において実際に観測された観測結果と、の誤差が小さくなるように、特徴の三次元位置を示す情報が更新される。本実施形態においては、特徴の色情報と、視点において三次元位置について観測された色情報と、との誤差が小さくなるように、特徴の三次元位置を示す情報が更新される。具体的には、特徴点の色情報及び三次元位置情報が既存キーフレームから取得される。また、特徴点の三次元位置に従って判定できる、新規キーフレーム上の対応点において、観測された特徴点の色情報も取得される。そして、既存キーフレーム及び新規キーフレームでの特徴点の色差(例えば輝度差)が近くなるように、既存キーフレームと新規キーフレームとの相対的な位置姿勢が算出される。ステップS1210〜S1220でこのような処理を行った後で、ステップS1230では、この相対的な位置姿勢に適合するように、新規キーフレーム(及び場合によっては既存キーフレーム)の位置姿勢情報が更新される。以下、ステップS1060の処理について具体的に説明する。
(Details of step S1060)
FIG. 5 is a flowchart showing a processing procedure of the three-dimensional map correction in step S1060. In the optimization process, in general, the error between the observation result observed at the viewpoint (position and orientation of the key frame) when the feature is in the three-dimensional position and the observation result actually observed at the viewpoint is reduced. , The information indicating the three-dimensional position of the feature is updated. In the present embodiment, the information indicating the three-dimensional position of the feature is updated so that the error between the color information of the feature and the color information observed for the three-dimensional position at the viewpoint becomes small. Specifically, the color information and the three-dimensional position information of the feature points are acquired from the existing keyframes. In addition, the color information of the observed feature points at the corresponding points on the new key frame, which can be determined according to the three-dimensional position of the feature points, is also acquired. Then, the relative position / orientation between the existing key frame and the new key frame is calculated so that the color difference (for example, the luminance difference) of the feature points between the existing key frame and the new key frame becomes close. After performing such processing in steps S121-10 to S1220, in step S1230, the position / orientation information of the new keyframe (and in some cases the existing keyframe) is updated to match this relative position / orientation. To. Hereinafter, the process of step S1060 will be specifically described.
ステップS1210で補正部160は、ステップS1040で新たに追加されたキーフレーム(以下、新規キーフレーム)に対して、位置姿勢が近い既存キーフレームを探索する。例えば、補正部160は、新規キーフレームに対して、世界座標系における視軸方向(撮像座標系のZ軸)の角度差が閾値TAngle以内であり、かつ位置の差が閾値TDist以内であるキーフレームをすべて選択できる。次に、補正部160は、キーフレーム間の相対的な位置姿勢を導出する。具体的には、補正部160は、選択されたキーフレームと、新規キーフレームとの間の、相対的な位置姿勢をステップS1030と同様の方法で算出する。得られた相対的な位置姿勢は、保持部110にキーフレーム対応情報として保存できる。
In step S1210, the
ステップS1220で補正部160は、新規キーフレームに対して、画像の類似度が高い既存のキーフレームを探索する。例えば、補正部160は、既存キーフレームのうち、新規キーフレームと輝度値とのSSD(Sum of Squared Distance)が最小であり、かつ閾値TSSD以下となる既存キーフレームを選択する。そして、補正部160は、ステップS1210と同様に、選択されたキーフレームと、新規キーフレームとの間の、相対的な位置姿勢を算出する。得られた相対的な位置姿勢は、保持部110にキーフレーム対応情報として保存できる。
In step S1220, the
ステップS1230で補正部160は、ステップS1210,S1220で得られたキーフレーム対応情報を用いて、キーフレームの位置姿勢を補正する。こうして、補正部160は三次元マップを補正する。本ステップでは、信頼度がLOWに設定されているキーフレームの位置姿勢のみが補正され、信頼度がHIGHに設定されているキーフレームの位置姿勢は補正されない。
In step S1230, the
位置姿勢の補正には、キーフレームが属性として有している世界座標系における位置姿勢から算出されるキーフレーム間の相対的な位置姿勢と、ステップS1210,S1220で算出されたキーフレーム間の相対的な位置姿勢と、の誤差を用いることができる。この場合、これらの相対的な位置姿勢の誤差の総和を、評価関数として用いることができる。このように、キーフレームの特徴点の情報に基づいてステップS1210,S1220で算出された相対的な位置姿勢を反映するように、三次元マップに含まれるキーフレームの位置姿勢が更新される。 To correct the position / orientation, the relative position / orientation between the keyframes calculated from the position / orientation in the world coordinate system that the keyframe has as an attribute and the relative position / orientation between the keyframes calculated in steps S1210 and S1220. Position and orientation, and the error of can be used. In this case, the sum of these relative position and orientation errors can be used as the evaluation function. In this way, the position / orientation of the keyframe included in the three-dimensional map is updated so as to reflect the relative position / orientation calculated in steps S1210 and S1220 based on the information of the feature points of the keyframe.
ここでは、キーフレームi及びキーフレームjの世界座標系における位置姿勢を表す4×4行列をそれぞれM(i)及びM(j)とする。また、キーフレームiとキーフレームjとの間の相対的な位置姿勢を表す4×4行列をMrel(i,j)とする。行列M(i)及びM(j)は、世界座標系における三次元位置を撮像座標系における三次元位置に変換する行列である。また行列Mrel(i,j)は、キーフレームjの撮像座標系における三次元位置をキーフレームiの撮像座標系における三次元位置に変換する行列である。行列M(i)、M(j)、及びMrel(i,j)は、次式に示すように、左上の3×3行列が回転行列R、一番右の列が平行移動成分tを表す行列である。
補正部160は、行列Mrel(i,j)を既知として、下記の式(1)が最小となるようにM(i)、M(j)を補正する。式(1)において、||行列||Fはフロベニウスのノルム(行列の各要素の二乗和)を表す。また、式(1)は、三次元マップに含まれるすべてのキーフレームのうち、信頼度がLOWに設定されているキーフレームについての総和である。信頼度がHIGHに設定されているキーフレームの情報は、信頼度がLOWに設定されているキーフレームの位置姿勢を補正するために必要な、キーフレーム間の相対的な位置姿勢の算出に利用される。
M(i)及びM(j)は非線形の変換であるため、式(1)の最小化には、例えば反復計算を行うGauss−Newton法を用いることができる。新規キーフレームについてのM(i)及びM(j)の初期値としては、ステップS1030で導出された位置姿勢を用いることができる。補正されたM(i)及びM(j)は、再び三次元マップ中のキーフレームの属性として保存され、次に三次元マップの補正を行う際の初期値として利用される。 Since M (i) and M (j) are non-linear transformations, the Gauss-Newton method for performing iterative calculations can be used to minimize the equation (1), for example. As the initial values of M (i) and M (j) for the new key frame, the position / orientation derived in step S1030 can be used. The corrected M (i) and M (j) are saved again as keyframe attributes in the 3D map, and are used as initial values when the next 3D map is corrected.
図9は、3次元マップの補正に関する概念図である。図9(a)は、従来技術を説明している。図9(a)の左に示すように、事前マップが作成されているとする。事前マップを用いた位置姿勢の計測が可能な範囲から撮像装置が外れると、図9(a)の中央に示すように、マップデータが追加される。ここでは整合性を取る処理が行われていない。次に、図9(a)の右に示すように、事前マップと拡張されたマップ(拡張領域)の全体に基づいて特徴の位置調整が行われる。事前マップ内の特徴も位置が調整されるため、事前マップの精度が低下する。本実施形態では、図9(b)に示すように、事前に作成したマップにおいては特徴の位置の信頼度が高いため、特徴の固定度合いが高くされる。一方で、ランタイム時に追加されたマップにおいては特徴の位置の信頼度が低いため、特徴の固定度合いが低くされる。即ち、精度を維持しつつ整合性を取ることができる。 FIG. 9 is a conceptual diagram relating to the correction of the three-dimensional map. FIG. 9A illustrates the prior art. As shown on the left side of FIG. 9A, it is assumed that a pre-map has been created. When the image pickup device is out of the range in which the position and orientation can be measured using the pre-map, map data is added as shown in the center of FIG. 9A. No processing for consistency is performed here. Next, as shown on the right side of FIG. 9A, the position adjustment of the feature is performed based on the entire pre-map and the expanded map (extended area). Since the positions of the features in the pre-map are also adjusted, the accuracy of the pre-map is reduced. In the present embodiment, as shown in FIG. 9B, since the reliability of the position of the feature is high in the map created in advance, the degree of fixation of the feature is high. On the other hand, in the map added at runtime, the reliability of the feature position is low, so the degree of feature fixation is low. That is, consistency can be obtained while maintaining accuracy.
以上述べたように実施形態1では、三次元マップのうち事前に作成した部分の信頼度を高くして三次元マップの補正が行われる。このため、三次元マップのうち事前に作成した部分の精度を維持したまま、撮像装置の位置姿勢計測可能範囲を広げることができる。 As described above, in the first embodiment, the three-dimensional map is corrected by increasing the reliability of the portion of the three-dimensional map created in advance. Therefore, the position and orientation measurable range of the image pickup apparatus can be expanded while maintaining the accuracy of the portion of the three-dimensional map created in advance.
(実施形態1の変形例)
実施形態1では、三次元マップはキーフレームの集合であった。また、特徴の三次元位置を示す情報としては、被写体が位置する空間に設定された基準座標系における視点の位置姿勢情報(キーフレームの位置姿勢)と、この視点を基準とする座標系における特徴の位置情報(画像座標(u,v)及び奥行きd)が用いられた。そして、各キーフレームについて、特徴点の画像座標(u,v)とキーフレームを基準とした奥行きdとが撮像座標系における三次元座標に変換され、特徴点の三次元座標が位置及び姿勢の計測に利用された。さらに、補正部160は、基準座標系における視点の位置姿勢情報(キーフレームの位置姿勢)を更新することにより、三次元マップを最適化した。しかしながら、三次元マップの形式はこれに限られない。例えば、画像上の特徴を用いて撮像装置の位置姿勢の計測が可能な任意の形式の三次元マップを用いることができる。
(Modified Example of Embodiment 1)
In Embodiment 1, the 3D map was a set of keyframes. The information indicating the three-dimensional position of the feature includes the position / orientation information (keyframe position / orientation) of the viewpoint in the reference coordinate system set in the space where the subject is located and the feature in the coordinate system based on this viewpoint. Position information (image coordinates (u, v) and depth d) was used. Then, for each keyframe, the image coordinates (u, v) of the feature points and the depth d with respect to the keyframes are converted into three-dimensional coordinates in the imaging coordinate system, and the three-dimensional coordinates of the feature points are the positions and orientations. It was used for measurement. Further, the
一例として、三次元マップには、特徴の三次元位置を示す情報として、被写体が位置する空間に設定された基準座標系における特徴の三次元位置(例えば特徴点の三次元座標)を示す情報が含まれていてもよい。このような三次元マップを用いても、撮像装置170の位置姿勢を入力画像を用いて導出することができる。例えば、三次元マップには、特徴点の三次元座標と、各キーフレームについての画像及び位置姿勢が記録されていてもよい。この場合、ステップS1030において導出部130は、例えば入力画像から検出した特徴の位置と、三次元マップに登録された特徴点の入力画像への逆投影位置と、の誤差が小さくなるように、入力画像の位置姿勢を決定することができる。また、ステップS1040において作成部140は、キーフレームとして登録される入力画像及び別の撮像画像(例えば別のキーフレーム)から対応する特徴を検出し、この特徴を表す特徴点の三次元座標を決定して、三次元マップに登録することができる。また、作成部140は、キーフレームとして登録される入力画像の位置姿勢も、三次元マップに登録することができる。
As an example, in the three-dimensional map, as information indicating the three-dimensional position of the feature, information indicating the three-dimensional position of the feature (for example, the three-dimensional coordinate of the feature point) in the reference coordinate system set in the space where the subject is located is displayed. It may be included. Even if such a three-dimensional map is used, the position and orientation of the
この場合、ステップS1060で補正部160は、基準座標系における特徴の三次元位置(例えば特徴点の三次元座標)を示す情報を更新することができる。例えば、補正部160は、視点(キーフレームの位置姿勢)から特徴の三次元位置への方向と、視点において観測された特徴へと向かう方向(画像座標)と、の誤差が小さくなるように、特徴の三次元位置を示す情報(キーフレームの位置姿勢)を更新する。具体例として、補正部160は、入力画像から検出した特徴の位置と、特徴点の各キーフレームへの逆投影位置と、の誤差が小さくなるように、特徴点の三次元座標を補正することができる(一般にバンドル調整として知られている)。この場合、ステップS1050において設定部150は、ステップS1040で新たに登録された特徴点の三次元座標に対して信頼度LOWを設定することができる。一方、事前マップに登録されている特徴点に対しては、信頼度HIGHを設定することができる。補正部160は、信頼度がLOWに設定されている特徴点の三次元座標のみを補正し、信頼度がHIGHに設定されている特徴点の三次元座標は補正しない。
In this case, in step S1060, the
また、補正部160は、特徴点の三次元座標に加えて、又は特徴点の三次元座標の代わりに、キーフレームの位置姿勢を補正してもよい。この場合、ステップS1050において設定部150は、ステップS1040で新たに登録されたキーフレームに対して信頼度LOWを設定することができる。一方、事前マップに登録されているキーフレームに対しては、信頼度HIGHを設定することができる。補正部160は、信頼度がLOWに設定されているキーフレームの位置姿勢のみを補正し、信頼度がHIGHに設定されているキーフレームの位置姿勢は補正しない。
Further, the
上記のような、三次元マップに特徴点の三次元座標を登録する方法としては、例えば、KleinらのPTAM法(G. Klein and D. Murray, "Parallel Tracking and Mapping for Small AR Workspaces," Proc. 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, pp.225-234, 2007.)が挙げられる。この例において、三次元マップには特徴点が登録されおり、三次元マップはそれぞれの特徴点についての世界座標系における三次元座標を保持している。Kleinらは、特徴点の世界座標系における三次元座標をバンドル調整により補正することで三次元マップを全体的に整合させている。Kleinらの方法を適用して本実施形態に係る処理を行う場合、このバンドル調整においては、事前マップに含まれる特徴点の三次元座標は固定され、ランタイム時に追加された特徴点の三次元座標のみが補正される。このような方法によれば、事前マップの精度を維持したまま、撮像装置の位置姿勢の計測範囲を広げることができる。 As a method of registering the 3D coordinates of the feature points in the 3D map as described above, for example, Klein et al.'S PTAM method (G. Klein and D. Murray, "Parallel Tracking and Mapping for Small AR Workspaces," Proc . 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, pp.225-234, 2007.). In this example, feature points are registered in the 3D map, and the 3D map holds the 3D coordinates in the world coordinate system for each feature point. Klein et al. Align the 3D map as a whole by correcting the 3D coordinates of the feature points in the world coordinate system by bundle adjustment. When the process according to the present embodiment is performed by applying the method of Klein et al., In this bundle adjustment, the three-dimensional coordinates of the feature points included in the pre-map are fixed, and the three-dimensional coordinates of the feature points added at runtime are fixed. Only corrected. According to such a method, the measurement range of the position and orientation of the image pickup apparatus can be expanded while maintaining the accuracy of the pre-map.
(実施形態1のバリエーション)
実施形態1では、事前マップはSLAM技術により作成された。しかしながら、事前マップの作成方法はSLAM技術に限られない。ランタイム時に位置姿勢の導出に利用可能な事前マップを作成するための任意の方法を使用することができる。例えば、複数の視点位置から撮像された画像群をもとに、オフラインで行われるStructure from motion技術(例えば、I. Skrypnyk and D. G. Lowe, “Scene modelling, recognition and tracking with invariant image features,” Proc. 3rd IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pp.110-119, 2004.)を用いて、事前マップを作成してもよい。
(Variation of Embodiment 1)
In Embodiment 1, the pre-map was created by SLAM technology. However, the method of creating the pre-map is not limited to SLAM technology. Any method can be used to create a pre-map that can be used to derive the position orientation at runtime. For example, Structure from motion technology (eg, I. Skrypnyk and DG Lowe, “Scene modeling, recognition and tracking with invariant image features,” Proc. 3rd IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pp.110-119, 2004.) may be used to create a pre-map.
実施形態1では、Engelの方法を用いて三次元マップの作成及び撮像装置の位置姿勢の導出が行われた。しかしながら、三次元マップの作成方法、及び撮像装置の位置姿勢の導出方法としては、任意の方法を用いることができる。例えば、三次元マップが保持する特徴点を、撮像装置の位置姿勢の導出に利用する方法として、前述のSkrypnykらの方法のように画像から明示的に検出した特徴点を用いる方法を利用してもよい。また、用いられる特徴の種類は特に限定されない。例えば、特徴として、画像から検出されたエッジ、直線、又は曲線等のような幾何特徴を利用してもよい。さらには、特徴点として、キーフレームの濃淡画像上の輝度値の勾配が大きい点を用いてもよい。三次元マップは、これらの特徴点又は幾何特徴を構成する点について、特徴の位置情報(画像座標(u,v)及び奥行きd)を含んでいてもよい。さらには、三次元マップは、キーフレームの全ての画素について、特徴の位置情報(画像座標(u,v)及び奥行きd)を含んでいてもよい。このように、任意の画素を特徴点として扱うことができる。 In the first embodiment, the three-dimensional map was created and the position and orientation of the image pickup apparatus were derived using the Angel method. However, any method can be used as a method for creating a three-dimensional map and a method for deriving the position and orientation of the imaging device. For example, as a method of using the feature points held by the three-dimensional map for deriving the position and orientation of the image pickup apparatus, a method of using the feature points explicitly detected from the image as in the method of Skrypnyk et al. described above is used. May be good. Moreover, the type of features used is not particularly limited. For example, as a feature, a geometric feature such as an edge, a straight line, or a curve detected from an image may be used. Further, as a feature point, a point having a large gradient of the luminance value on the shade image of the key frame may be used. The three-dimensional map may include the position information (image coordinates (u, v) and depth d) of the features with respect to the points constituting these feature points or geometric features. Furthermore, the three-dimensional map may include feature position information (image coordinates (u, v) and depth d) for all pixels of the keyframe. In this way, any pixel can be treated as a feature point.
[実施形態2]
実施形態1では、シーンの三次元マップのうち事前に作成された部分の信頼度を高くすることで、三次元マップの精度を維持しつつ位置姿勢の計測可能範囲が拡大された。実施形態2では、被写体が位置する空間(シーン)には、撮像画像に基づいて撮像装置170の位置姿勢を計測するための補助的な指標(以下、補助指標)が配置されている。この補助指標は、シーン中に元来存在する特徴とは別のものである。そして、特徴の三次元位置を示す情報には、補助指標の情報に基づく信頼度が与えられる。例えば、特徴の三次元位置を示す情報には、特徴の補助指標からの距離に応じた信頼度が与えられる。具体例として、補助指標に近い特徴には、補助指標から離れた特徴よりも高い信頼度を与えることができる。このようにして、三次元マップのうち補助指標周辺部分の信頼度を高くすることができる。このような方法により、三次元マップの精度を維持しながら位置姿勢の計測可能範囲が広げられる。
[Embodiment 2]
In the first embodiment, by increasing the reliability of the pre-created portion of the three-dimensional map of the scene, the measurable range of the position and orientation is expanded while maintaining the accuracy of the three-dimensional map. In the second embodiment, an auxiliary index (hereinafter referred to as an auxiliary index) for measuring the position and orientation of the
本実施形態に係る情報処理装置の構成及び処理について、図1及び図2を参照して説明する。本実施形態に係る情報処理装置の構成及び処理は、実施形態1と類似しており、以下では異なる部分について説明する。 The configuration and processing of the information processing apparatus according to the present embodiment will be described with reference to FIGS. 1 and 2. The configuration and processing of the information processing apparatus according to the present embodiment are similar to those of the first embodiment, and different parts will be described below.
本実施形態では、事前に作成されたシーンの三次元マップは用いられない。代わりに、図7に示すように、補助指標(マーカ)がシーン中に配置される。本実施形態では、画像解析により読み取り可能な識別子が記された所定形状の補助指標が用いられる。図7の例では、内部に個別の識別子を持つ白黒の正方形の指標が補助指標として配置されている。補助指標の配置情報、すなわち補助指標の世界座標系における位置姿勢は、事前に校正することができる。校正方法としては、例えば特許第4532982号又は米国特許第7529387号に開示される方法が挙げられる。設定部150は、シーン中に配置された補助指標についての、事前に校正された配置情報を保持している。
In this embodiment, the three-dimensional map of the scene created in advance is not used. Instead, as shown in FIG. 7, auxiliary indicators (markers) are placed in the scene. In the present embodiment, an auxiliary index having a predetermined shape in which an identifier that can be read by image analysis is written is used. In the example of FIG. 7, a black-and-white square index having an individual identifier is arranged as an auxiliary index inside. The placement information of the auxiliary index, that is, the position and orientation of the auxiliary index in the world coordinate system can be calibrated in advance. Calibration methods include, for example, the methods disclosed in Japanese Patent No. 4532982 or US Pat. No. 7529387. The
導出部130は、実施形態1と同様に撮像装置170の位置姿勢を導出する。しかしながら、本実施形態において、情報処理装置1の起動時には、三次元マップにキーフレームが含まれていないため、導出部130は補助指標を用いて撮像装置170の位置姿勢を導出する。例えば、導出部130は、入力画像から検出した補助指標の位置と、補助指標の配置情報と、に従って撮像装置の位置姿勢を導出できる。本実施形態では、一例としてKatoらの方法(H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, and K. Tachibana, “Virtual object manipulation on a table-top AR environment,” Proc. IEEE and ACM International Symposium on Augmented Reality 2000, pp. 111-119, 2000.)が用いられる。
The lead-out
設定部150は、実施形態1と同様に、特徴の三次元位置を示す情報に信頼度を設定する。本実施形態において、設定部150は、作成部140によって入力画像に基づいて作成された特徴の三次元位置を示す情報に対して、撮像画像中(入力画像中)の補助指標の数に基づく信頼度を設定する。例えば、補助指標の数が多いほど、撮像装置170の位置姿勢の判定精度が高まるため、特徴の三次元位置を示す情報(キーフレームの位置姿勢及び特徴点の情報により表すことができる)の信頼度も高まる。したがって、入力画像中の補助指標の数が閾値以上である場合に、少ない場合と比較して、特徴の三次元位置を示す情報に対してより高い信頼度を設定することができる。本実施形態の場合、設定部150は、キーフレームから検出された補助指標についての配置情報を保持している場合(すなわち補助指標が検出された場合)、このキーフレームの信頼度を高く設定する。一方、設定部150は、キーフレームから、配置情報を保持している補助指標を検出できない場合(例えば補助指標が検出されない場合)、このキーフレームの信頼度を低くする。
Similar to the first embodiment, the
補正部160は、実施形態1と同様に、設定部150が設定したキーフレームの信頼度をもとに、三次元マップ全体の整合性が取れるようにキーフレームの位置姿勢を補正する。信頼度の高いキーフレームの位置姿勢は、前述のKatoらの方法を用いて補助指標をもとに算出され、補正部160による補正時には固定される。
Similar to the first embodiment, the
本実施形態において、ステップS1020〜S1040及びS1070の処理は実施形態1と同様である。以下では、ステップS1010及びS1050〜S1060の処理について説明する。 In the present embodiment, the processes of steps S1020 to S1040 and S1070 are the same as those in the first embodiment. Hereinafter, the processes of steps S1010 and S1050 to S1060 will be described.
ステップS1010において設定部150は、事前に校正された補助指標の配置情報を外部記憶装置(不図示)から取得する。
In step S1010, the
ステップS1050において設定部150は、ステップS1040で三次元マップに追加されたキーフレームの信頼度を設定する。まず、設定部150は、追加されたキーフレームから補助指標を検出する。補助指標の検出は、例えば次のように行うことができる。まず、設定部150は、キーフレームを二値化し、二値化された画像から四角形領域を検出する。次に、設定部150は、四角形領域の各頂点の画像座標に基づいて、四角形領域から正方形領域への射影変換を算出し、四角形領域を正方形領域に変換する。さらに、設定部150は、正方形領域の所定位置における画像の輝度値を読み出すことにより、補助指標の識別子を特定する。特定した識別子が、配置情報が保持されている補助指標の識別子である場合、設定部150はキーフレーム上で補助指標が識別されたと判断する。
In step S1050, the
キーフレーム上で補助指標が識別されなかった場合、設定部150はこのキーフレームの信頼度をLOWに設定する。また、キーフレーム上で補助指標が識別された場合、設定部150はこのキーフレームの信頼度をHIGHに設定することができる。一方、本実施形態において設定部150は、補助指標の識別状況を判定し、この判定結果を示す指標に応じてキーフレームの信頼度を設定することができる。例えば、設定部150は、補助指標が精度良く識別された場合、例えば補助指標のキーフレーム上での配置の分散度が閾値以上である場合にキーフレームの信頼度をHIGHに設定し、閾値未満である場合にキーフレームの信頼度をLOWに設定することができる。
If the auxiliary index is not identified on the keyframe, the
このような方法の一例として、補助指標が識別されたと判断された場合、設定部150は、さらに画像上での補助指標の頂点の分布を算出することができる。例えば、設定部150は、補助指標の頂点の分布の評価値として、全ての識別された補助指標の各頂点の画像座標の共分散行列の最小固有値λminを算出することができる。λminは、補助指標の頂点が画像上に広く分布している場合には大きく、狭く分布している場合には小さくなる。λminが小さい場合、識別された補助指標から算出されるキーフレームの位置姿勢は、補助指標の検出誤差の影響を受けやすいため、精度が低い可能性がある。そのため、λminが閾値Tλより小さい場合、設定部150はキーフレームの信頼度BをLOWに設定する。一方、λminが大きい場合、識別された補助指標から算出されるキーフレームの位置姿勢は補助指標の検出誤差の影響を受けにくいため、精度が高いと考えられる。そこで、λminが閾値Tλ以上の場合には、設定部150はキーフレームの信頼度BをHIGHに設定する。
As an example of such a method, when it is determined that the auxiliary index has been identified, the
ステップS1060で補正部160は、実施形態1と同様に、三次元マップ全体が整合するようにキーフレームの位置姿勢を補正することにより、三次元マップの補正を行う。すなわち、補正部160は、信頼度がLOWに設定されているキーフレームの位置姿勢のみを補正し、信頼度がHIGHに設定されているキーフレームの位置姿勢は補正しない。このように、補正部160は、撮像画像に基づいて撮像装置の位置姿勢を計測するための、被写体が位置する空間に配置された補助指標に基づいて生成された特徴の三次元位置を示す情報を固定する。このような固定を行いながら、特徴の三次元位置を示す情報の更新を行うことにより、三次元マップの整合性を向上させる。
In step S1060, the
以上述べたように実施形態2では、補助指標が検出されたキーフレームの信頼度を高くすることで、精度を維持しながら位置姿勢の計測可能範囲が広げられる。すなわち、補助指標を用いて判定されたキーフレームの位置姿勢は精度が高いと考えられるため、三次元マップの補正においてこの位置姿勢を補正しないことにより、精度の維持が可能となる。 As described above, in the second embodiment, by increasing the reliability of the key frame in which the auxiliary index is detected, the measurable range of the position and orientation can be expanded while maintaining the accuracy. That is, since the position / orientation of the key frame determined by using the auxiliary index is considered to have high accuracy, the accuracy can be maintained by not correcting this position / orientation in the correction of the three-dimensional map.
(実施形態2の変形例)
実施形態1の変形例と同様に、三次元マップには特徴点が登録され、各特徴点の世界座標系における三次元座標が三次元マップに保持されていてもよい。この場合、設定部150は、補助指標に近接する特徴点の三次元座標の信頼度をHIGHに設定し、それ以外の三次元座標の信頼度をLOWに設定してもよい。例えば、補助指標に近接する特徴点の三次元座標を、補助指標に基づいて推定された撮像装置の位置姿勢に基づいて算出しておき、バンドル調整を行う際に、補助指標に近接する特徴点の三次元座標を固定してそれ以外の特徴点の三次元座標のみを補正してもよい。また、上記のように、補助指標が検出されたキーフレームの信頼度をHIGHに設定し、それ以外のキーフレームの信頼度をLOWに設定してもよい。すなわち、バンドル調整を行う際に、補助指標が検出されたキーフレームの位置姿勢を固定してそれ以外のキーフレームの位置姿勢のみを補正してもよい。このような方法によっても、補助指標を用いて得られた精度の高い情報を活用しつつ、撮像装置の位置姿勢の計測範囲を広げることができる。
(Modified Example of Embodiment 2)
Similar to the modification of the first embodiment, the feature points may be registered in the three-dimensional map, and the three-dimensional coordinates of each feature point in the world coordinate system may be held in the three-dimensional map. In this case, the
(実施形態2のバリエーション)
補助指標の形状は正方形(四角形)には限られない。例えば、三角形、六角形、円形、又は楕円形の補助指標を用いてもよい。画像から安定的に検出可能な形状を適宜選択することができる。また、補助指標の識別子を画像から特定することは必須ではない。例えば、円形の補助指標を用いる場合、導出部130が導出しようとする撮像装置の位置姿勢に基づいて補助指標の画像上の位置を算出し、この位置の近傍で検出された補助指標と対応付けることで、補助指標を識別することができる。また、識別子つきの補助指標と識別子のない補助指標とを併用してもよい。この場合、識別子つきの補助指標から算出される撮像装置の位置姿勢をもとに、識別子のない補助指標の画像上の位置を算出し、近傍で検出された補助指標と対応付けてもよい。
(Variation of Embodiment 2)
The shape of the auxiliary index is not limited to a square (quadrangle). For example, triangular, hexagonal, circular, or elliptical auxiliary indicators may be used. A shape that can be stably detected from the image can be appropriately selected. Further, it is not essential to specify the identifier of the auxiliary index from the image. For example, when a circular auxiliary index is used, the position of the auxiliary index on the image is calculated based on the position and orientation of the imaging device to be derived by the out-
補助指標の配置情報の校正は、必ずしも事前に行わなくてもよい。例えば、撮像装置170によって撮像される画像を用いて、シーンの三次元マップ作成と並行して配置情報が校正されてもよい。この場合、最初は三次元マップの補正を行わず、補助指標の配置情報の信頼度が閾値以上となった後に、補助指標を用いた三次元マップの補正を行うことにより、三次元マップの精度が低下しないようにすることができる。補助指標の配置情報の信頼度は、例えば校正に用いた画像群において各補助指標が検出された回数の平均値又は最小値に基づいて決定することができる。検出回数の平均値又は最小値が大きいほど、配置情報の信頼度は高い。一例として、補助指標の配置情報が示す三次元位置に対応する入力画像上の位置から補助指標が検出された場合に、補助指標が検出されたものと判定することができる。
The calibration of the arrangement information of the auxiliary index does not necessarily have to be performed in advance. For example, the arrangement information may be calibrated in parallel with the creation of the three-dimensional map of the scene by using the image captured by the
補助指標の識別状況を示す指標は、補助指標の頂点の分布の評価値又は補助指標の頂点の画像座標の共分散行列の最小固有値には限られない。例えば、画像上で検出される補助指標の個数を用いてもよい。この場合、検出された補助指標の個数が多いほど、評価値を低くすることができる。また、検出された補助指標の個数と、補助指標の頂点の分布と、の双方に基づく指標を用いてもよい。 The index indicating the identification status of the auxiliary index is not limited to the evaluation value of the distribution of the vertices of the auxiliary index or the minimum eigenvalue of the covariance matrix of the image coordinates of the vertices of the auxiliary index. For example, the number of auxiliary indexes detected on the image may be used. In this case, the larger the number of detected auxiliary indexes, the lower the evaluation value can be. Further, an index based on both the number of detected auxiliary indexes and the distribution of the vertices of the auxiliary indexes may be used.
また、信頼度の決定方法としては様々な方法を用いることができる。例えば、補助指標が画像上から検出されているか否かに基づいて信頼度を決定する方法の他に、モーションブラーが起こっているか否か、又は画像全体若しくは一部が明る過ぎる若しくは暗過ぎるか否か、に基づいて信頼度を決定してもよい。例えば、モーションブラーが起こっている場合、又は画像が明るすぎる若しくは暗すぎる場合に、キーフレームの信頼度を低くすることができる。本実施形態においては、事前に作成された三次元マップの信頼度と、補助指標に基づく信頼度と、を併用することができる。例えば、事前マップに含まれるキーフレームの信頼度と、十分に補助指標が検出されているキーフレームの信頼度と、をHIGHに設定することができ、信頼度がHIGHに設定されているキーフレームを補正の対象から外すことができる。 Further, various methods can be used as a method for determining the reliability. For example, in addition to the method of determining the reliability based on whether the auxiliary index is detected on the image, whether motion blur is occurring, or whether the whole or part of the image is too bright or too dark. Or, the reliability may be determined based on. For example, keyframe reliability can be reduced if motion blur is occurring, or if the image is too bright or too dark. In the present embodiment, the reliability of the three-dimensional map created in advance and the reliability based on the auxiliary index can be used together. For example, the reliability of keyframes included in the pre-map and the reliability of keyframes for which auxiliary indicators are sufficiently detected can be set to HIGH, and the reliability is set to HIGH. Can be excluded from the correction target.
(実施形態1,2に共通のバリエーション)
実施形態1,2では、キーフレーム又は特徴点の信頼度はHIGH又はLOWの二値であった。また、三次元マップを補正する際には、信頼度はキーフレームの位置姿勢又は特徴点の三次元位置を固定するか否かを決定するために用いられた。すなわち、信頼度がHIGHのキーフレームの位置姿勢又は特徴点の三次元位置は固定され、信頼度がLOWのキーフレームの位置姿勢又は特徴点の三次元位置のみ補正された。しかしながら、特徴の三次元位置を示す情報(例えばキーフレーム又は特徴点)の信頼度は二値に限られず、多値又は実数値でありうる。
(Variations common to Embodiments 1 and 2)
In embodiments 1 and 2, the reliability of keyframes or feature points was binary of HIGH or LOW. In addition, when correcting the 3D map, the reliability was used to determine whether to fix the position / orientation of the keyframe or the 3D position of the feature point. That is, the position / orientation of the key frame having a reliability of HIGH or the three-dimensional position of the feature point was fixed, and only the position / orientation of the key frame having a reliability of LOW or the three-dimensional position of the feature point was corrected. However, the reliability of information indicating the three-dimensional position of a feature (for example, a keyframe or a feature point) is not limited to a binary value, and can be a multi-valued value or a real value.
このような例において、補正部160は、特徴の三次元位置を示す情報の信頼度に応じた更新量で、特徴の三次元位置を示す情報を更新することができる。例えば、補正部160は、信頼度を重みとして用いることにより、信頼度の高さに応じて補正量が小さくなるように、キーフレームの位置姿勢又は特徴点の三次元位置を補正してもよい。
In such an example, the
実施形態1,2では、三次元マップを補正した後に、次の入力画像を取得して撮像装置170の位置姿勢の導出が行われた。しかしながら、三次元マップの補正のタイミングは特に限定されない。例えば、前述のEngelの方法やKleinの方法のように、入力画像の取得及び撮像装置170の位置姿勢の導出と並行して、三次元マップの補正を行う並列処理を用いてもよい。一実施形態において、撮像装置170の位置姿勢の導出(ステップS1020〜S1030)、キーフレームの作成(ステップS1040〜S1050)、及び三次元マップの補正(ステップS1060)は独立に任意のタイミングで行うことができる。
In the first and second embodiments, after correcting the three-dimensional map, the next input image is acquired and the position and orientation of the
[実施形態3]
実施形態1,2では、撮像装置が位置姿勢の計測可能範囲から外れそうになると、新しいキーフレームが三次元マップに追加され、また三次元マップ全体の整合が取れるように補正が行われた。実施形態3では、撮像装置が位置姿勢の計測可能範囲から外れそうになると、事前マップとは別に、撮像装置による撮像画像に基づいて一時的なマップ(以下、一時マップ)が作成され、撮像装置の位置姿勢の計測が継続される。本実施形態では、一時マップを用いて位置姿勢の計測は、デッドレコニングにより行われる。
[Embodiment 3]
In the first and second embodiments, when the image pickup device is about to go out of the measurable range of the position and orientation, a new key frame is added to the 3D map, and correction is performed so that the entire 3D map can be matched. In the third embodiment, when the image pickup device is about to deviate from the measurable range of the position and orientation, a temporary map (hereinafter, temporary map) is created based on the image captured by the image pickup device in addition to the prior map, and the image pickup device is created. Position and orientation measurement is continued. In the present embodiment, the position and orientation are measured by using the temporary map by dead reckoning.
本実施形態に係る情報処理装置の構成及び処理について、図8及び図2を参照して説明する。本実施形態に係る情報処理装置の構成及び処理は、実施形態1と類似しており、以下では異なる部分について説明する。図8は、実施形態3に係る情報処理装置3の機能構成を示す。情報処理装置3は、実施形態1と同様に、保持部110、入力部120、導出部130、及び作成部140を備える。また、入力部120は撮像装置170と接続されている。情報処理装置3は、さらに、選択部390を備えている。本実施形態に係る情報処理装置の構成及び処理は、実施形態1と類似しており、以下では異なる部分について説明する。
The configuration and processing of the information processing apparatus according to the present embodiment will be described with reference to FIGS. 8 and 2. The configuration and processing of the information processing apparatus according to the present embodiment are similar to those of the first embodiment, and different parts will be described below. FIG. 8 shows the functional configuration of the
保持部110は、実施形態1と同様に事前マップを保持するとともに、ランタイム時に作成される一時マップを保持する。選択部390は、撮像装置170の位置姿勢の予測値に基づいて、撮像装置170の位置姿勢の導出のために、事前マップ又は一時マップを三次元マップとして選択する。導出部130は、入力画像と、選択部390が選択した三次元マップとを用いて、撮像装置170の位置姿勢を導出する。作成部140は、撮像装置170の位置姿勢及び入力画像に基づいて、一時マップを作成する。
The holding
本実施形態において、ステップS1010〜S1020及びS1070の処理は実施形態1と同様である。また、ステップS1050〜S1060の処理は行われない。以下では、ステップS1030〜S1040の処理について説明する。 In this embodiment, the processing of steps S101 to S1020 and S1070 is the same as that of the first embodiment. Further, the processes of steps S1050 to S1060 are not performed. Hereinafter, the processing of steps S103 to S1040 will be described.
ステップS1030において、導出部130は、入力画像と、事前マップ又は一時マップを用いて、撮像装置170の位置姿勢を導出する。ステップS1030の処理は次のように行うことができる。まず、選択部390は、撮像装置170の位置姿勢の予測値に基づいて、撮像装置170の位置姿勢の導出に用いる三次元マップを選択する。本実施形態において、選択部390は、保持部110に保持される事前マップと一時マップのいずれを利用するかを選択する。この処理の詳細については後述する。
In step S1030, the
次に、導出部130は、選択部390により選択された三次元マップと入力画像とをもとに、画像を撮像した時の撮像装置170の位置姿勢を導出する。処理方法は特に限定されず、実施形態1と同様に行うことができる。本実施形態では、前述のEngelらが開示しているような、キーフレーム又は前フレームの撮像装置170の位置姿勢と、現フレームの撮像装置170との位置姿勢と、の間の相対位置姿勢を用いた、位置姿勢の導出方法が利用される。また、一時マップを利用する場合は、デッドレコニングが行われる。すなわち、導出部130は、前フレームからの撮像装置170の相対的な位置姿勢変化を算出し、前フレームの世界座標系における位置姿勢と統合することにより、現フレームの世界座標系における撮像装置170の位置姿勢を導出する。
Next, the
ステップS1040において作成部140は、ステップS1030で導出された撮像装置170の位置姿勢及び入力画像に基づいて、被写体が有する特徴の三次元位置を示す情報を含む一時マップを作成する。本ステップの詳細については後述する。
In step S1040, the
(ステップS1030における三次元マップ選択の詳細)
選択部390はまず、撮像装置170の位置姿勢の予測値に基づいて、事前マップにおける近傍キーフレームを選択する。撮像装置170の位置姿勢の予測値としては、例えば、前回のステップS1030で導出された位置姿勢を利用することができる。近傍キーフレームの選択は、実施形態1のステップS1040と同様の方法を用いて行うことができる。さらに、選択部390は、撮像装置170が位置姿勢計測範囲から外れているか否かを判断する。この判断は、実施形態1のステップS1040と同様に、入力画像内に含まれる近傍キーフレームの特徴点の割合Rincに基づいて行うことができる。Rincが閾値Tinc未満の場合に、選択部390は、撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定する。
(Details of 3D map selection in step S1030)
First, the
撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定した場合、選択部390は、位置姿勢の導出に用いるための三次元マップとして一時マップを選択する。撮像装置170が事前マップによる位置姿勢の計測範囲を外れていないと判定した場合、選択部390は、位置姿勢の導出に用いるための三次元マップとして事前マップを選択する。
When the
(ステップ1040の詳細)
本実施形態においては、作成部140は、被写体が有する特徴の三次元位置を示す情報を有する一時マップを作成する。一時マップの作成は次のように行うことができる。まず、作成部140は、一時マップを作成するために、入力画像Icurrentとステレオペアになる画像Ipairを選択する。ステップS1030において事前マップが選択された場合、選択された近傍キーフレームがIpairとして選択される。一方、ステップS1030において一時マップが選択された場合、過去の入力画像がIpairとして選択される。ここで、Ipairは、過去の入力画像のうち、Icurrentの撮像位置との差が閾値Tp以上であり、かつ撮像時刻がIcurrentと最も近い入力画像である。
(Details of step 1040)
In the present embodiment, the
次に、作成部140は、Ipair上の各特徴点に対応するIcurrent上の特徴点を探索する。この探索には、Icurrent及びIpairの撮像時の位置姿勢から算出されるエピポーラ線を考慮することができる。例えば作成部140は、Ipair上の特徴点に対応するIcurrent上のエピポーラ線上において、IpairとIcurrentとの間でN×N画素のウィンドウ内の輝度値の差が最も小さくなる位置を探索する。作成部140は、こうして探索された位置を、Ipair上の特徴点の画像座標に対応するIcurrent上の画像座標と判定する。
Next, the
次に作成部140は、得られた画像座標のペアを用いて、三角測量によってIcurrentの撮像座標系における各特徴点の奥行きを算出する。そして作成部140は、このようにして得た、Icurrent上の特徴点群の画像座標(u,v)及び奥行きdを一時マップに保持する。さらに、作成部140は、一時マップにはIcurrent撮像時の世界座標系における位置姿勢を属性として保持する。
Next, the creating
導出部130は、このように作成された一時マップを用いて、Icurrentの撮像座標系に対する、撮像装置170の新たな位置姿勢を導出することができる。そして、導出部130は、Icurrent撮像時の世界座標系における位置姿勢を用いて、Icurrentの撮像座標系に対する撮像装置170の新たな位置姿勢を、世界座標系における位置姿勢に変換することができる。
The
以上のように実施形態3では、撮像装置が位置姿勢の計測可能範囲から外れた場合には一時マップを用いることにより、位置姿勢の計測が継続される。このように、事前マップのみを用いる場合よりも計測可能範囲を広げることができる。一方で、事前マップの補正は行われないため、事前マップの精度を保つことができる。 As described above, in the third embodiment, when the imaging device deviates from the measurable range of the position / orientation, the measurement of the position / orientation is continued by using the temporary map. In this way, the measurable range can be expanded as compared with the case where only the pre-map is used. On the other hand, since the pre-map is not corrected, the accuracy of the pre-map can be maintained.
(実施形態3のバリエーション)
実施形態3では、撮像装置170が計測可能範囲か外れそうか否かに関係なく、入力画像を取得する毎に一時マップが作成された。しかしながら、一時マップを作成するタイミングはこれに限られない。例えば、ステップS1040では、直前のステップS1030で導出された位置姿勢に基づいて、ステップS1030と同様の方法を用いて撮像装置170が事前マップによる位置姿勢の計測範囲を外れそうであることを示す所定の範囲にいる否かを判定できる。そして、撮像装置170が事前マップによる位置姿勢の計測範囲を外れそうと判定された場合に、作成部140は一時マップを作成してもよい。
(Variation of Embodiment 3)
In the third embodiment, a temporary map is created every time the input image is acquired, regardless of whether the
また、ステップS1040では、直前のステップS1030で導出された位置姿勢に基づいて、ステップS1030と同様の方法を用いて撮像装置170が事前マップによる位置姿勢の計測範囲を外れているか否かを判定できる。そして、撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定された場合に、作成部140は一時マップを作成することができる。この場合、選択部390は、ステップS1030ではなくステップS1040において、次のフレームにおける撮像画像の位置姿勢を導出するために用いる三次元マップの選択を行ってもよい。
Further, in step S1040, based on the position / orientation derived in the immediately preceding step S1030, it is possible to determine whether or not the
実施形態3では、一時マップは1フレームにおける撮像装置170の位置姿勢の導出にのみ用いられた。しかしながら、一時マップを複数のフレームにおける撮像装置170の位置姿勢の導出に用いてもよい。例えば、保持部110は、複数の一時マップを三次元マップとして保持することができる。そして、撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定された場合、選択部390は、位置姿勢の導出のために、複数の一時マップから近傍の一時マップを選択することができる。ここで、近傍の一時マップは、例えば、一時マップの作成に用いた画像の撮像位置に基づいて選択することができる。一例として、入力画像との撮像位置の差が閾値以内であり、かつ撮像時刻が最も近い近い画像を用いて作製された一時マップを選択することができる。さらに、複数の一時マップ間の整合が取れるように、実施形態1,2で説明した三次元マップの補正手法を用いることにより、一時マップの補正を行ってもよい。
In the third embodiment, the temporary map was used only for deriving the position and orientation of the
実施形態3では、現フレームにおける撮像装置170の位置姿勢の予測値として、前フレームで導出された撮像装置170の位置姿勢が用いられた。しかしながら、位置姿勢の予測値の導出方法はこれに限られない。例えば、動きモデルを用いて撮像装置170の位置姿勢を予測することができる。動きモデルとしては、例えば、等速度運動、等加速度運動、又は等角速度運動を表す動きモデルを用いることができる。過去の位置姿勢の導出結果に基づいて動きモデルを表すパラメータを推定することにより、動きモデルを用いて現フレームにおける位置姿勢を予測することができる。別の方法として、撮像装置170に固定されたセンサの計測値を用いて、現フレームにおける撮像装置170の位置姿勢を予測してもよい。センサとしては、例えば、位置、速度、加速度、姿勢、又は角速度を計測するセンサを用いることができる。
In the third embodiment, the position / orientation of the
[実施形態4]
実施形態1,2では、高い信頼度が与えられた特徴の三次元位置を示す情報を固定し、低い信頼度が与えられた特徴の三次元位置を示す情報を更新することで精度を維持しながら位置姿勢の計測可能範囲を拡大した。一方で、特徴の三次元位置を示す情報(例えばキーフレーム又は特徴点)の信頼度の高さに応じて補正量が大きくなるように、キーフレームの位置姿勢又は特徴点の三次元位置を補正してもよい。
[Embodiment 4]
In the first and second embodiments, the information indicating the three-dimensional position of the feature given the high reliability is fixed, and the information indicating the three-dimensional position of the feature given the low reliability is updated to maintain the accuracy. However, the measurable range of position and orientation has been expanded. On the other hand, the position / orientation of the key frame or the three-dimensional position of the feature point is corrected so that the correction amount increases according to the high reliability of the information indicating the three-dimensional position of the feature (for example, the key frame or the feature point). You may.
実施形態4では、高い信頼度が与えられた特徴の三次元位置を示す情報が更新され、低い信頼度が与えられた特徴の三次元位置を示す情報は更新対象から除外される。本実施形態では、三次元空間において位置が変化する被写体上の特徴の三次元位置を示す情報の信頼度が低く設定され、位置が変化しない被写体上の特徴の三次元位置を示す情報の信頼度は高く設定される。例えば、三次元空間において位置が変化する被写体上の特徴の三次元位置を示すキーフレーム、又は三次元空間において位置が変化する被写体上の特徴点の信頼度を低く設定することができ、その他のキーフレーム又は特徴点の信頼度を高く設定することができる。このような構成によれば、位置が変化する特徴が存在することにより、三次元マップの精度が低下することを抑制できる。 In the fourth embodiment, the information indicating the three-dimensional position of the feature given the high reliability is updated, and the information indicating the three-dimensional position of the feature given the low reliability is excluded from the update target. In the present embodiment, the reliability of the information indicating the three-dimensional position of the feature on the subject whose position changes in the three-dimensional space is set low, and the reliability of the information indicating the three-dimensional position of the feature on the subject whose position does not change is set low. Is set high. For example, the reliability of the key frame indicating the three-dimensional position of the feature on the subject whose position changes in the three-dimensional space, or the feature point on the subject whose position changes in the three-dimensional space can be set low, and other The reliability of keyframes or feature points can be set high. According to such a configuration, it is possible to suppress a decrease in the accuracy of the three-dimensional map due to the existence of a feature whose position changes.
実施形態4に係る情報処理装置のハードウェア構成は、実施形態1と同様であってもよい。また、実施形態4における処理は実施形態1と類似しており、以下では主に異なる点について説明する。 The hardware configuration of the information processing apparatus according to the fourth embodiment may be the same as that of the first embodiment. Further, the processing in the fourth embodiment is similar to that in the first embodiment, and mainly different points will be described below.
本実施形態では、SLAM技術を用いてマップの作成及び撮像装置の位置姿勢計測が同時に行われる。SLAM技術としては、実施形態1で述べたEngelらの方法を用いるものとする。また、新しいキーフレームがマップに追加される時に、このキーフレームの信頼度はHIGHに設定される。信頼度がHIGHに設定されたキーフレームは、実施形態1と同様に三次元マップを最適化する際に、位置姿勢を更新する対象となる。 In this embodiment, the SLAM technology is used to create a map and measure the position and orientation of the image pickup apparatus at the same time. As the SLAM technique, the method of Engel et al. Described in the first embodiment shall be used. Also, when a new keyframe is added to the map, the reliability of this keyframe is set to HIGH. The key frame whose reliability is set to HIGH is the target for updating the position and orientation when optimizing the three-dimensional map as in the first embodiment.
上記のとおり、本実施形態においては、三次元空間において被写体上の特徴の位置が変化するかどうかが判定され、位置が変化すると判定された特徴の三次元位置を示す情報の信頼度が低く設定される。一例として、以下の方法を用いることができる。Engelらの方法においては、位置姿勢計測を行う際に、過去に追加したキーフレームについての位置姿勢計測が行われる。この際に、キーフレームに含まれる特徴が、位置が変化する被写体上にあるか否かの判定を行うことができる。具体例として、まずキーフレームの特徴点とその特徴点に対応する入力画像上の対応点との輝度差を求め、次に輝度差が閾値Tout以上である特徴点数の、キーフレーム全体の特徴点数に対する割合Routが求められる。Routが一定値以上である場合、キーフレームに写っている被写体の位置が変化したと判定され、このキーフレームの信頼度がLOWに変更される。信頼度がLOWに設定されたキーフレームは、本実施形態においては三次元マップの最適化の更新対象から除外される。このため、被写体の位置の変化による三次元マップの精度低下を避けることができる。 As described above, in the present embodiment, it is determined whether or not the position of the feature on the subject changes in the three-dimensional space, and the reliability of the information indicating the three-dimensional position of the feature determined to change is set to be low. Will be done. As an example, the following method can be used. In the method of Engel et al., When the position and orientation are measured, the position and orientation of the keyframes added in the past are measured. At this time, it is possible to determine whether or not the feature included in the key frame is on the subject whose position changes. As a specific example, first, the luminance difference between the feature points of the key frame and the corresponding points on the input image corresponding to the feature points is obtained, and then the feature points of the entire key frame having the luminance difference of the threshold value Tout or more are obtained. The ratio of Rout to Rout is calculated. When Rout is equal to or higher than a certain value, it is determined that the position of the subject in the key frame has changed, and the reliability of this key frame is changed to LOW. The key frame whose reliability is set to LOW is excluded from the update target of the optimization of the three-dimensional map in this embodiment. Therefore, it is possible to avoid a decrease in the accuracy of the three-dimensional map due to a change in the position of the subject.
(実施形態4のバリエーション)
キーフレームに写っている被写体の位置が変化したかどうかの判定方法は、前述の方法には限られない。例えば、導出した撮像装置の位置姿勢に基づいて算出されるキーフレームの特徴点の入力画像上での画像座標と、入力画像上で検出された対応する特徴点の画像座標との差に基づいて、この判定を行ってもよい。また、キーフレームの特徴点に対応する特徴点の三次元位置をキーフレーム追加以後に撮影された画像をもとに算出し、算出された三次元位置とキーフレームに登録された三次元位置との差に基づいて、この判定を行ってもよい。
(Variation of Embodiment 4)
The method for determining whether or not the position of the subject in the key frame has changed is not limited to the above-mentioned method. For example, based on the difference between the image coordinates of the feature points of the keyframes calculated based on the position and orientation of the derived imaging device on the input image and the image coordinates of the corresponding feature points detected on the input image. , This determination may be made. In addition, the three-dimensional position of the feature point corresponding to the feature point of the key frame is calculated based on the image taken after the key frame is added, and the calculated three-dimensional position and the three-dimensional position registered in the key frame are used. This determination may be made based on the difference between.
本実施形態では、位置が変化する特徴の信頼度が低く設定された。しかしながら、信頼度の設定は必ずしも位置の変化に基づかなくてもよい。例えば、照明の変化に基づいて信頼度の設定を行ってもよい。この場合、位置又は光軸の向きが入力画像に近いキーフレームと入力画像との間で平均輝度値を比較し、その差が大きい場合にキーフレームの信頼度をLOWにすることができる。このような構成によれば、照明変化によるマップ精度の低下を防止できる。 In this embodiment, the reliability of the feature whose position changes is set low. However, the reliability setting does not necessarily have to be based on the change in position. For example, the reliability may be set based on the change in lighting. In this case, the average luminance value can be compared between the key frame whose position or the direction of the optical axis is close to the input image and the input image, and when the difference is large, the reliability of the key frame can be set to LOW. With such a configuration, it is possible to prevent a decrease in map accuracy due to a change in lighting.
[各実施形態のユーザインタフェース例]
図6は、実施形態1に従って作成した三次元マップをユーザに提示するGUI(ウィンドウ)の例を表す。このウィンドウには、シーンの三次元マップが表示されている。図6の例では、所定の仮想視点からみた時の、三次元マップの特徴点が表示されている。この視点は、例えばユーザ指示等に従って、任意に選択することができる。また、このウィンドウには、キーフレームを表すオブジェクトと、現在の撮像装置を表すオブジェクトとが描画されている。本実施形態において、特徴点は丸い点で表され、キーフレーム及び撮像装置の位置姿勢は、カメラを模した錐体型のオブジェクトにより表現されている。
[Example of user interface of each embodiment]
FIG. 6 shows an example of a GUI (window) that presents a three-dimensional map created according to the first embodiment to a user. This window shows a three-dimensional map of the scene. In the example of FIG. 6, the feature points of the three-dimensional map when viewed from a predetermined virtual viewpoint are displayed. This viewpoint can be arbitrarily selected according to, for example, a user instruction. In addition, an object representing a key frame and an object representing the current imaging device are drawn in this window. In the present embodiment, the feature points are represented by round dots, and the position and orientation of the key frame and the image pickup device are represented by a cone-shaped object imitating a camera.
本実施形態において、ユーザは、マウス又はトラックボールなどの入力デバイスを利用して、仮想視点の位置、姿勢、又は内部パラメータを変更することができる。こうしてユーザは、三次元マップ及び現在の撮像装置の位置姿勢を、様々な視点から観察して確認することができる。 In this embodiment, the user can use an input device such as a mouse or a trackball to change the position, orientation, or internal parameters of the virtual viewpoint. In this way, the user can observe and confirm the three-dimensional map and the current position and orientation of the imaging device from various viewpoints.
本実施形態において、キーフレーム又は特徴点は、信頼度に応じて異なる外観で表示される。例えば、このGUIにおいて、事前マップに含まれるキーフレームと、ランタイム時に追加されたキーフレームとを、異なる外観を有するオブジェクトにより表現することができる。このように、これらのキーフレームの描画方法を変えることにより、事前マップを用いた位置姿勢の計測が可能な範囲に撮像装置がいるかどうかを確認することが容易となる。図6では、事前マップに含まれるキーフレームは実線の錐体で、ランタイム時に追加されたキーフレームは破線の錐体で表されている。同様に、事前マップに含まれる特徴点と、ランタイム時に追加された特徴点とを、異なる外観を有するオブジェクトにより表現することもできる。 In this embodiment, the keyframes or feature points are displayed with different appearances depending on the reliability. For example, in this GUI, the keyframes included in the pre-map and the keyframes added at runtime can be represented by objects having different appearances. By changing the drawing method of these keyframes in this way, it becomes easy to confirm whether or not the image pickup device is within the range in which the position and orientation can be measured using the pre-map. In FIG. 6, the keyframes included in the pre-map are represented by solid cones, and the keyframes added at runtime are represented by dashed cones. Similarly, the feature points included in the pre-map and the feature points added at runtime can be represented by objects having different appearances.
[各実施形態の変形例]
実施形態1,2では、シーンの三次元マップのうち事前に作成された部分、又は補助指標周辺部分の信頼度が高く設定され、それ以外の部分を補正することにより、位置姿勢計測の精度を維持しながら位置姿勢の計測可能範囲が広げられた。しかしながら、位置姿勢計測の精度を維持しながら位置姿勢の計測可能範囲を広げる方法は、これに限られない。例えば、シーンの三次元マップのうち事前に作成された部分(例えばキーフレーム又は幾何特徴)の三次元情報を固定し、それ以外の部分を補正してもよい。また、補助指標が画像上から検出されるキーフレームの位置姿勢を補助指標をもとに導出して固定し、三次元マップ補正時にはそれ以外のキーフレームの位置姿勢を補正してもよい。同様に、補助指標をもとに三次元座標が算出された特徴点の三次元座標を固定し、三次元マップ補正時にはそれ以外の特徴点の三次元座標を導出してもよい。
[Variation example of each embodiment]
In the first and second embodiments, the reliability of the pre-created portion of the three-dimensional map of the scene or the peripheral portion of the auxiliary index is set to be high, and the other portion is corrected to improve the accuracy of the position / orientation measurement. The measurable range of position and posture was expanded while maintaining it. However, the method of expanding the measurable range of the position / orientation while maintaining the accuracy of the position / orientation measurement is not limited to this. For example, the 3D information of a pre-created part (for example, a keyframe or a geometric feature) of the 3D map of the scene may be fixed, and the other parts may be corrected. Further, the position / orientation of the key frame detected from the image by the auxiliary index may be derived and fixed based on the auxiliary index, and the position / orientation of other key frames may be corrected at the time of the three-dimensional map correction. Similarly, the three-dimensional coordinates of the feature points whose three-dimensional coordinates are calculated based on the auxiliary index may be fixed, and the three-dimensional coordinates of the other feature points may be derived at the time of the three-dimensional map correction.
上記の各実施形態では、入力部120は、撮像装置170が撮像した画像を取得した。しかしながら、入力部120が取得する画像はこれに限られない。例えば入力部120は、あらかじめ撮像され記憶装置(不図示)に保存されている、シーンの画像を取得してもよい。また、一実施形態に係る情報処理装置は、Structure from motion技術を用いて、リアルタイムではなくオフラインでシーンの三次元マップを作成してもよい。この場合、補正部160は、事前に作成した三次元マップである事前マップを読み込み、事前マップに含まれる幾何特徴の三次元座標を固定しながらバンドル調整を行ってもよい。また、実施形態2と同様に、補正部160は、補助指標が画像上から検出される場合にはこの画像についての位置姿勢を補助指標をもとに導出し、補助指標をもとに導出された位置姿勢を固定しながらバンドル調整を行ってもよい。
In each of the above embodiments, the
上記の各実施形態では、撮像装置170は単眼カメラであるものとして説明した。しかしながら、撮像装置170の種類はこれに限られない。撮像装置170としては、撮像した画像に基づき位置姿勢を計測できる任意の撮像装置を用いることができる。例えば、撮像装置170は、複数のカメラで構成されたステレオカメラ、多眼カメラ、デプスカメラ、又はそれらの組み合わせでありうる。また、入力画像も濃淡画像には限られない。例えば、入力画像は、カラー画像、デプス画像、グレー画像とデプス画像の組み合わせ、又はカラー画像とデプス画像の組み合わせ(RGBD画像)であってもよい。また、撮像装置170はLIDARなどの方式を用いて被写体の三次元像を得る三次元計測装置であってもよく、入力部120は計測された三次元点群情報を取得してもよい。
In each of the above embodiments, the
いくつかの実施形態について、新規キーフレームを追加するか否かを判定する基準を説明した。例えば、近傍キーフレームにおける特徴点のうち、画像座標が入力画像内にある特徴点の割合に基づいて、撮像装置170が計測可能範囲から外れているか否か又は外れそうか否かが判定され、この判定に基づいてキーフレームを追加するか否かが判定された。しかしながら、判定方法はこれに限られない。例えば、近傍キーフレームの位置と、現フレームにおける撮像装置170の位置との差が、予め定めた閾値より大きい場合に、撮像装置170が計測可能範囲から外れていると判定されてもよい。また、近傍キーフレームの光軸方向と、現フレームにおける撮像装置170の光軸方向との角度差が、予め定めた閾値より大きい場合に、撮像装置170が計測可能範囲から外れていると判定されてもよい。
For some embodiments, the criteria for determining whether to add a new keyframe have been described. For example, it is determined whether or not the
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It is also possible to realize the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
110 保持部;120 入力部;130 導出部;140 作成部;150 設定部;160 補正部;170 撮像部 110 Holding unit; 120 Input unit; 130 Derivation unit; 140 Creation unit; 150 Setting unit; 160 Correction unit; 170 Imaging unit
Claims (15)
予め定められた領域内の被写体の撮像画像から得られる第1の特徴点の、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された三次元マップを保持する保持手段と、
前記取得手段により取得された撮像画像及び前記保持手段に保持されている三次元マップを用いて、前記撮像装置の位置を導出する導出手段と、
前記保持手段が保持する三次元マップにおける前記予め定められた領域の外の領域の被写体を撮像した前記撮像画像に基づいて得た、第2の特徴点の三次元位置を示す情報と、前記第1の特徴点の三次元位置を示す情報と、の前記基準座標系における特徴点の真の三次元位置に対する信頼性を示す情報であって、前記第2の特徴点の三次元位置を示す情報より前記第1の特徴点の三次元位置を示す情報の信頼性が高く設定された信頼性を示す情報を用いて、前記三次元マップを補正する補正手段と、
を備えることを特徴とする情報処理装置。 Obtaining means position to acquire a captured image of an object from a variable of the imaging device,
A three-dimensional map containing information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a first feature point obtained from a captured image of the subject in a predetermined area. A holding means for holding a three-dimensional map created from a set of captured images captured in an area, and
A derivation means for deriving the position of the image pickup apparatus by using the captured image acquired by the acquisition means and the three-dimensional map held by the holding means.
And information indicating the obtained based on subject region outside the predetermined region in the captured image captured, the three-dimensional position of the second feature points in the three-dimensional map in which the holding means for holding said first Information indicating the three-dimensional position of the feature point 1 and information indicating the reliability of the feature point with respect to the true three-dimensional position in the reference coordinate system , and information indicating the three-dimensional position of the second feature point. A correction means for correcting the three-dimensional map by using the information indicating the reliability set with high reliability of the information indicating the three-dimensional position of the first feature point.
An information processing device characterized by being equipped with.
前記設定手段は、前記特徴点の三次元位置を示す情報に、前記補助指標の情報に基づく信頼度を設定することを特徴とする、請求項2に記載の情報処理装置。 The space where the Utsushitai is positioned, the auxiliary indicators for measuring the position of the imaging device based on the captured image is arranged,
The information processing apparatus according to claim 2, wherein the setting means sets reliability based on the information of the auxiliary index in the information indicating the three-dimensional position of the feature point.
前記補正手段は、前記基準座標系における前記視点の位置姿勢情報を更新することを特徴とする、請求項1から7のいずれか1項に記載の情報処理装置。 Wherein the information indicating the three-dimensional position of the first feature points and the second feature point, and the position and orientation information of the viewpoint before Kimoto quasi coordinate system, the first feature in the coordinate system based on the viewpoint It is represented by a combination of a point and the position information of the second feature point .
The information processing apparatus according to any one of claims 1 to 7, wherein the correction means updates the position / orientation information of the viewpoint in the reference coordinate system.
前記補正手段は、前記第1の特徴点と前記第2の特徴点が前記三次元位置にある場合に前記視点において観測される観測結果と、前記視点において実際に観測された観測結果と、の誤差が小さくなるように、前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報を更新することを特徴とする、請求項1から9のいずれか1項に記載の情報処理装置。 The three-dimensional map, which includes information indicating the Utsushitai observations that put each of the plurality of viewpoints,
The correction means includes observation results observed at the viewpoint when the first feature point and the second feature point are at the three-dimensional position, and observation results actually observed at the viewpoint. The information according to any one of claims 1 to 9, wherein the information indicating the three-dimensional positions of the first feature point and the second feature point is updated so that the error becomes small. Processing equipment.
予め定められた領域内の被写体の撮像画像から得られる特徴点の、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された三次元マップを保持する保持手段と、
前記取得手段により取得された撮像画像及び前記保持手段に保持されている三次元マップを用いて、前記撮像装置の位置を導出する導出手段と、
撮像画像に基づいて前記撮像装置の位置を計測するための、被写体が位置する空間に配置された補助指標に基づいて作成された前記特徴点の三次元位置を示す情報を固定しながら、前記三次元マップを補正する補正手段と、
を備えることを特徴とする情報処理装置。 An acquisition means for acquiring a captured image of a subject from an imaging device, and
A three-dimensional map containing information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a feature point obtained from a captured image of the subject in a predetermined area. A holding means for holding a three-dimensional map created from a set of captured images, and
Using a three-dimensional map stored in the captured image and the holding means which is acquired by the acquisition unit, a deriving means for deriving a position of the imaging device,
Wherein for measuring the position of the image pickup device, to secure the information indicating the three-dimensional position of the feature point that was created on the basis of the auxiliary indicator which is disposed in a space under Utsushitai it is positioned on the basis of an imaging image However, the correction means for correcting the three-dimensional map and
An information processing device characterized by being equipped with.
位置が可変の撮像装置から被写体の撮像画像を取得する工程と、
予め定められた領域内の被写体の撮像画像から得られる第1の特徴点の、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された、保持手段に保持されている三次元マップと、前記撮像装置により取得された撮像画像とを用いて、前記撮像装置の位置を導出する工程と、
前記保持手段が保持する三次元マップにおける前記予め定められた領域の外の領域の被写体を撮像した前記撮像画像に基づいて得た、第2の特徴点の三次元位置を示す情報と、前記第1の特徴点の三次元位置を示す情報と、の前記基準座標系における特徴点の真の三次元位置に対する信頼性を示す情報であって、前記第2の特徴点の三次元位置を示す情報より前記第1の特徴点の三次元位置を示す情報の信頼性が高く設定された信頼性を示す情報を用いて、前記三次元マップを補正する工程と、
を有することを特徴とする情報処理方法。 It is an information processing method performed by an information processing device.
A step of acquiring a captured image of an object position from a variable of the imaging device,
A three-dimensional map including information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a first feature point obtained from a captured image of the subject in a predetermined area. A step of deriving the position of the imaging device by using a three-dimensional map held by the holding means created from a set of the captured images captured in the region and the captured image acquired by the imaging device. When,
And information indicating the obtained based on subject region outside the predetermined region in the captured image captured, the three-dimensional position of the second feature points in the three-dimensional map in which the holding means for holding said first Information indicating the three-dimensional position of the feature point 1 and information indicating the reliability of the feature point with respect to the true three-dimensional position in the reference coordinate system , and information indicating the three-dimensional position of the second feature point. The step of correcting the three-dimensional map by using the information indicating the reliability set with high reliability of the information indicating the three-dimensional position of the first feature point, and the step of correcting the three-dimensional map.
An information processing method characterized by having.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/451,361 US11003939B2 (en) | 2018-07-06 | 2019-06-25 | Information processing apparatus, information processing method, and storage medium |
JP2021055837A JP7479324B2 (en) | 2018-07-06 | 2021-03-29 | Information processing device, information processing method, and program |
US17/228,824 US11830216B2 (en) | 2018-07-06 | 2021-04-13 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129457 | 2018-07-06 | ||
JP2018129457 | 2018-07-06 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021055837A Division JP7479324B2 (en) | 2018-07-06 | 2021-03-29 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020013560A JP2020013560A (en) | 2020-01-23 |
JP6860620B2 true JP6860620B2 (en) | 2021-04-14 |
Family
ID=69170729
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019114936A Active JP6860620B2 (en) | 2018-07-06 | 2019-06-20 | Information processing equipment, information processing methods, and programs |
JP2021055837A Active JP7479324B2 (en) | 2018-07-06 | 2021-03-29 | Information processing device, information processing method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021055837A Active JP7479324B2 (en) | 2018-07-06 | 2021-03-29 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6860620B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102407522B1 (en) * | 2020-04-13 | 2022-06-13 | 주식회사 덱셀리온 | Real-time three dimension model construction method and system |
WO2021251171A1 (en) * | 2020-06-12 | 2021-12-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
CN113158938B (en) * | 2021-04-29 | 2023-08-22 | 西安外事学院 | Rapid anti-rotation scene matching method based on covariance matrix minimum eigenvalue |
JP2024007754A (en) * | 2022-07-06 | 2024-01-19 | キヤノン株式会社 | Information processing system, information processing device, terminal device and control method of information processing system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5439343B2 (en) * | 2010-11-10 | 2014-03-12 | 日本電信電話株式会社 | 3D information acquisition apparatus and 3D information acquisition program |
JP2017129567A (en) * | 2016-01-20 | 2017-07-27 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP6775969B2 (en) * | 2016-02-29 | 2020-10-28 | キヤノン株式会社 | Information processing equipment, information processing methods, and programs |
JP6817742B2 (en) * | 2016-08-01 | 2021-01-20 | キヤノン株式会社 | Information processing device and its control method |
JP2018055167A (en) * | 2016-09-26 | 2018-04-05 | カシオ計算機株式会社 | Autonomous mobile device, autonomous mobile method and program |
-
2019
- 2019-06-20 JP JP2019114936A patent/JP6860620B2/en active Active
-
2021
- 2021-03-29 JP JP2021055837A patent/JP7479324B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021106025A (en) | 2021-07-26 |
JP7479324B2 (en) | 2024-05-08 |
JP2020013560A (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830216B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
JP6860620B2 (en) | Information processing equipment, information processing methods, and programs | |
JP5618569B2 (en) | Position and orientation estimation apparatus and method | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
JP5832341B2 (en) | Movie processing apparatus, movie processing method, and movie processing program | |
US10643347B2 (en) | Device for measuring position and orientation of imaging apparatus and method therefor | |
JP6736257B2 (en) | Information processing device, information processing method, and program | |
US8520931B2 (en) | Position and orientation measurement apparatus and method thereof | |
US6865289B1 (en) | Detection and removal of image occlusion errors | |
CN111462207A (en) | RGB-D simultaneous positioning and map creation method integrating direct method and feature method | |
JP5290865B2 (en) | Position and orientation estimation method and apparatus | |
JP6762913B2 (en) | Information processing device, information processing method | |
JP6894707B2 (en) | Information processing device and its control method, program | |
CN113052907B (en) | Positioning method of mobile robot in dynamic environment | |
JP6817742B2 (en) | Information processing device and its control method | |
JP5976089B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
CN105339981B (en) | Method for using one group of primitive registration data | |
CN116147618B (en) | Real-time state sensing method and system suitable for dynamic environment | |
JP7029501B2 (en) | Information processing equipment, information processing method | |
JP2024501191A (en) | System and method for estimating pose of a localization device using reflective landmarks and other features | |
JP2024500688A (en) | Positioning system and method for determining the three-dimensional position of a movable object | |
JP2022112168A (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201130 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210326 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6860620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |