JP6860620B2 - Information processing equipment, information processing methods, and programs - Google Patents

Information processing equipment, information processing methods, and programs Download PDF

Info

Publication number
JP6860620B2
JP6860620B2 JP2019114936A JP2019114936A JP6860620B2 JP 6860620 B2 JP6860620 B2 JP 6860620B2 JP 2019114936 A JP2019114936 A JP 2019114936A JP 2019114936 A JP2019114936 A JP 2019114936A JP 6860620 B2 JP6860620 B2 JP 6860620B2
Authority
JP
Japan
Prior art keywords
dimensional
feature point
information indicating
orientation
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019114936A
Other languages
Japanese (ja)
Other versions
JP2020013560A (en
Inventor
小竹 大輔
大輔 小竹
片山 昭宏
昭宏 片山
誠 冨岡
誠 冨岡
望 糟谷
望 糟谷
山田 貴之
貴之 山田
鈴木 雅博
雅博 鈴木
藤木 真和
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/451,361 priority Critical patent/US11003939B2/en
Publication of JP2020013560A publication Critical patent/JP2020013560A/en
Priority to JP2021055837A priority patent/JP7479324B2/en
Priority to US17/228,824 priority patent/US11830216B2/en
Application granted granted Critical
Publication of JP6860620B2 publication Critical patent/JP6860620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

画像に基づく撮像装置の位置姿勢の計測は様々な目的に利用されている。目的の一例としては、複合現実感(Mixed Reality、MR)技術/拡張現実感(Augmented Reality、AR)技術における現実空間と仮想物体との位置合わせが挙げられる。目的の別の例としては、ロボットの自律移動又は自動車の自動運転のための、自己位置推定も挙げられる。 The measurement of the position and orientation of an image pickup device based on an image is used for various purposes. An example of a purpose is the alignment of a real space with a virtual object in mixed reality (MR) technology / augmented reality (AR) technology. Another example of purpose is self-position estimation for autonomous movement of robots or autonomous driving of automobiles.

非特許文献1は、画像から検出される特徴点を用いて撮像装置の位置姿勢を計測する方法を開示している。この方法では、事前にStructure from motion技術により、シーン中の特徴点の三次元座標が高精度に計測され、この情報が三次元マップとして保存される。ランタイム時には、三次元マップ中の特徴点に対応する撮像画像上の特徴点が探索され、特徴点の画像座標と三次元座標との対応に基づいて撮像装置の位置姿勢が算出される。 Non-Patent Document 1 discloses a method of measuring the position and orientation of an image pickup apparatus using feature points detected from an image. In this method, the 3D coordinates of the feature points in the scene are measured with high accuracy by the Structure from motion technology in advance, and this information is saved as a 3D map. At runtime, the feature points on the captured image corresponding to the feature points in the three-dimensional map are searched, and the position and orientation of the image pickup device are calculated based on the correspondence between the image coordinates of the feature points and the three-dimensional coordinates.

Z. Dong, G. Zhang, J. Jia, and H. Bao, “Keyframe-based real-time camera tracking,” Proc. 2009 IEEE 12th International Conference on Computer Vision (ICCV), pp. 1538-1545, 2009.Z. Dong, G. Zhang, J. Jia, and H. Bao, “Keyframe-based real-time camera tracking,” Proc. 2009 IEEE 12th International Conference on Computer Vision (ICCV), pp. 1538-1545, 2009.

非特許文献1で開示される方法では、ランタイム時において、事前に作成した三次元マップにより位置姿勢の計測が可能な範囲から撮像装置が外れると、高精度な位置姿勢の計測ができなくなるという課題が存在した。 The method disclosed in Non-Patent Document 1 has a problem that high-precision position / orientation measurement cannot be performed when the imaging device is out of the range in which position / orientation can be measured by a three-dimensional map created in advance at runtime. Existed.

本発明は、撮像画像に基づく撮像装置の位置姿勢計測において、位置姿勢の計測精度を維持しながら、撮像装置の位置姿勢が計測可能な範囲を拡張することを目的とする。 An object of the present invention is to extend the measurable range of the position and orientation of the imaging device while maintaining the measurement accuracy of the position and orientation in the position and orientation measurement of the imaging device based on the captured image.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。すなわち、
置が可変の撮像装置から被写体の撮像画像を取得する取得手段と、
予め定められた領域内の被写体の撮像画像から得られる第1の特徴、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された三次元マップを保持する保持手段と、
前記取得手段により取得された撮像画像及び前記保持手段に保持されている三次元マップを用いて、前記撮像装置の位置を導出する導出手段と、
前記保持手段が保持する三次元マップにおける前記予め定められた領域の外の領域の被写体を撮像した前記撮像画像に基づいて得た、第2の特徴点の三次元位置を示す情報と、前記第1の特徴点の三次元位置を示す情報と、の前記基準座標系における特徴点の真の三次元位置に対する信頼性を示す情報であって、前記第2の特徴点の三次元位置を示す情報より前記第1の特徴点の三次元位置を示す情報の信頼性が高く設定された信頼性を示す情報を用いて、前記三次元マップを補正する補正手段と、
を備える。
In order to achieve the object of the present invention, for example, the image processing apparatus of the present invention has the following configurations. That is,
Obtaining means position to acquire a captured image of an object from a variable of the imaging device,
A three-dimensional map containing information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a first feature point obtained from a captured image of the subject in a predetermined area. A holding means for holding a three-dimensional map created from a set of captured images captured in an area, and
A derivation means for deriving the position of the image pickup apparatus by using the captured image acquired by the acquisition means and the three-dimensional map held by the holding means.
And information indicating the obtained based on subject region outside the predetermined region in the captured image captured, the three-dimensional position of the second feature points in the three-dimensional map in which the holding means for holding said first Information indicating the three-dimensional position of the feature point 1 and information indicating the reliability of the feature point with respect to the true three-dimensional position in the reference coordinate system , and information indicating the three-dimensional position of the second feature point. A correction means for correcting the three-dimensional map by using the information indicating the reliability set with high reliability of the information indicating the three-dimensional position of the first feature point.
To be equipped.

撮像画像に基づく撮像装置の位置姿勢計測において、位置姿勢の計測精度を維持しながら、撮像装置の位置姿勢が計測可能な範囲を拡張することができる。 In the position / orientation measurement of the imaging device based on the captured image, the range in which the position / orientation of the imaging device can be measured can be expanded while maintaining the measurement accuracy of the position / orientation.

一実施形態に係る情報処理装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware configuration of the information processing apparatus which concerns on one Embodiment. 実施形態1に係る情報処理装置1の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus 1 which concerns on Embodiment 1. FIG. 三次元マップを説明する図。The figure explaining the 3D map. 実施形態1に係る情報処理方法のフローチャートの一例。An example of a flowchart of the information processing method according to the first embodiment. 三次元マップ補正処理のフローチャートの一例。An example of a flowchart of 3D map correction processing. 一実施形態に係るグラフィカルユーザインタフェースの一例を示す図。The figure which shows an example of the graphical user interface which concerns on one Embodiment. 補助指標を説明する図。The figure explaining the auxiliary index. 実施形態3に係る情報処理装置3の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus 3 which concerns on Embodiment 3. 実施形態の概念図。The conceptual diagram of the embodiment.

本発明に係る各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置を実現可能なハードウェア構成について、図1を用いて説明する。図1は、一実施形態に係る情報処理装置のハードウェア構成図である。図1において、CPU10は、バス60を介して、バス60に接続された各部を制御する。入力I/F40は、外部装置(表示装置又は操作装置など)から、情報処理装置1が処理可能な形式の入力信号を取得する。また、出力I/F50は、外部装置(表示装置など)へと、外部装置が処理可能な形式の出力信号を出力する。 Prior to explaining each embodiment of the present invention, a hardware configuration capable of realizing the information processing apparatus shown in each embodiment will be described with reference to FIG. FIG. 1 is a hardware configuration diagram of an information processing device according to an embodiment. In FIG. 1, the CPU 10 controls each unit connected to the bus 60 via the bus 60. The input I / F40 acquires an input signal in a format that can be processed by the information processing device 1 from an external device (display device, operating device, or the like). Further, the output I / F50 outputs an output signal in a format that can be processed by the external device to an external device (display device or the like).

各実施形態の機能を実現するためのプログラムは、読み出し専用メモリ(ROM)20のような記憶媒体に格納することができる。また、ROM20は、オペレーティングシステム(OS)及びデバイスドライバを記憶することもできる。ランダムアクセスメモリ(RAM)30のようなメモリは、これらのプログラムを一時記憶することができる。そして、CPU10がRAM30に記憶されたプログラムを実行することにより、後述する各フローチャートに従った処理を実行し、各実施形態の機能を実現できる。もっとも、CPU10を用いたソフトウェア処理の代わりに、各機能部の処理に対応する演算部又は回路を有するハードウェアを用いて、各実施形態の機能を実現することもできる。 The program for realizing the functions of each embodiment can be stored in a storage medium such as a read-only memory (ROM) 20. The ROM 20 can also store an operating system (OS) and device drivers. A memory such as the random access memory (RAM) 30 can temporarily store these programs. Then, by executing the program stored in the RAM 30 by the CPU 10, the processing according to each flowchart described later can be executed, and the function of each embodiment can be realized. However, instead of the software processing using the CPU 10, the functions of each embodiment can be realized by using hardware having a calculation unit or a circuit corresponding to the processing of each functional unit.

以下に例示する実施形態において、情報処理装置は撮像装置から画像を取得して処理を行う。これらの実施形態において、撮像装置は単眼カメラであるものとする。また、撮像装置は濃淡画像を撮像するものとする。もっとも、撮像装置の種類はこれに限られない。撮像装置は位置姿勢が可変であり、被写体の撮像画像を取得することができる。以下では、撮像装置の光学中心を原点、光軸方向をZ軸、画像の水平方向をX軸、画像の垂直方向をY軸とする三次元の座標系を、撮像装置座標系又は撮像座標系と規定する。また、撮像装置の位置姿勢とは、撮像を行う空間(シーン)中に規定された基準座標系(以下、世界座標系)に対する、撮像座標系の位置及び姿勢(例えば、原点の位置及びZ軸の方向)を表す。撮像装置の位置姿勢は6つの自由度(位置3自由度及び姿勢3自由度)を持つ。また、以下の説明において、シーン中に存在する物体のことを被写体と呼ぶ。被写体の種類は特に限定されず、例えば建物又は部屋等でありうる。 In the embodiment illustrated below, the information processing apparatus acquires an image from the imaging apparatus and performs processing. In these embodiments, the imaging device is a monocular camera. In addition, the image pickup device shall capture a shade image. However, the type of imaging device is not limited to this. The position and orientation of the image pickup device are variable, and it is possible to acquire a captured image of the subject. In the following, a three-dimensional coordinate system in which the optical center of the image pickup device is the origin, the optical axis direction is the Z axis, the horizontal direction of the image is the X axis, and the vertical direction of the image is the Y axis, is the image pickup device coordinate system or the image pickup coordinate system. It is stipulated as. The position and orientation of the imaging device is the position and orientation of the imaging coordinate system (for example, the position of the origin and the Z axis) with respect to the reference coordinate system (hereinafter referred to as the world coordinate system) defined in the space (scene) for imaging. Direction). The position and orientation of the image pickup device have six degrees of freedom (position 3 degrees of freedom and posture 3 degrees of freedom). Further, in the following description, an object existing in the scene is referred to as a subject. The type of subject is not particularly limited and may be, for example, a building or a room.

[実施形態1]
実施形態1では、シーンの三次元マップのうち事前に作成した部分の信頼度を高く、ランタイム時に拡張された部分の信頼度を低くして三次元マップの補正を行う。
[Embodiment 1]
In the first embodiment, the reliability of the pre-created portion of the three-dimensional map of the scene is increased, and the reliability of the extended portion at runtime is decreased to correct the three-dimensional map.

図2は、本実施形態における情報処理装置1の構成を示す。情報処理装置1は、保持部110、入力部120、導出部130、作成部140、設定部150、及び補正部160を備える。入力部120は、撮像装置170と接続されている。 FIG. 2 shows the configuration of the information processing device 1 according to the present embodiment. The information processing device 1 includes a holding unit 110, an input unit 120, a derivation unit 130, a creating unit 140, a setting unit 150, and a correction unit 160. The input unit 120 is connected to the image pickup apparatus 170.

保持部110は、導出部130が撮像装置170の位置姿勢の導出に使用するシーンの三次元マップを保持する。本実施形態において、三次元マップは、被写体が有する特徴の三次元位置を示す情報を含む。また、一実施形態において、この三次元マップは、複数の視点のそれぞれにおける被写体の観測結果を示す情報を含んでいる。保持部110は、事前に作成した三次元マップを保持することができ、さらに、ランタイム時に作成され、補正された三次元マップを順次保持することができる。 The holding unit 110 holds a three-dimensional map of the scene used by the lead-out unit 130 to derive the position and orientation of the image pickup apparatus 170. In the present embodiment, the three-dimensional map includes information indicating the three-dimensional position of the feature of the subject. Further, in one embodiment, the three-dimensional map includes information indicating the observation result of the subject at each of the plurality of viewpoints. The holding unit 110 can hold a three-dimensional map created in advance, and can sequentially hold the corrected three-dimensional map created at runtime.

図3は、三次元マップの一例を説明する図である。図3に示すシーンの三次元マップは、キーフレーム(keyframe)の集合を含んでいる。キーフレームとは、シーン中の様々な場所において撮像装置によって撮像された撮像画像のことを指す。このキーフレームは、様々な視点における被写体の観測結果を示す情報を有している。例えば、キーフレームからは、特徴抽出処理により特徴の位置を得ることができ、また特定の画像位置における色情報を得ることができる。 FIG. 3 is a diagram illustrating an example of a three-dimensional map. The three-dimensional map of the scene shown in FIG. 3 contains a set of keyframes. Keyframes refer to captured images captured by an imaging device at various locations in the scene. This key frame has information indicating the observation result of the subject from various viewpoints. For example, from the key frame, the position of the feature can be obtained by the feature extraction process, and the color information at a specific image position can be obtained.

また、図3の三次元マップは、キーフレーム撮像時の撮像装置(すなわち視点)の世界座標系における位置姿勢(以下、「キーフレームの位置姿勢」と呼ぶ)を含んでいる。さらに、三次元マップは、キーフレーム上における特徴(本実施形態では特徴点)の画像座標(u,v)及びキーフレームの位置姿勢を基準とした奥行きd(キーフレームの撮像座標系におけるz座標)を含んでいる。これらの情報は、被写体が有する特徴の三次元位置を示す情報を表している。本実施形態においては、公知の方法(例えば、C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO: fast semi-direct monocular visual odometry,” Proc. 2014 IEEE International Conference on Robotics and Automation (ICRA), pp. 15-22, 2014.)により、特徴点の画像座標(u,v)及び奥行きdから、撮像座標系における特徴点の三次元座標が算出される。そして、こうして算出された特徴点の三次元座標が、後述する撮像装置170の位置姿勢計測に利用される。 Further, the three-dimensional map of FIG. 3 includes a position and orientation (hereinafter, referred to as "keyframe position and orientation") in the world coordinate system of the imaging device (that is, a viewpoint) at the time of keyframe imaging. Further, the three-dimensional map has image coordinates (u, v) of features (feature points in this embodiment) on keyframes and depth d (z coordinates in the keyframe imaging coordinate system) based on the position and orientation of keyframes. ) Is included. These pieces of information represent information indicating the three-dimensional position of the feature of the subject. In this embodiment, known methods (eg, C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO: fast semi-direct monocular visual odometry,” Proc. 2014 IEEE International Conference on Robotics and Automation (ICRA)) , Pp. 15-22, 2014.), the three-dimensional coordinates of the feature points in the imaging coordinate system are calculated from the image coordinates (u, v) and the depth d of the feature points. Then, the three-dimensional coordinates of the feature points calculated in this way are used for the position / orientation measurement of the image pickup apparatus 170, which will be described later.

本実施形態において、保持部110は、三次元マップとして、キーフレームに加えて、キーフレームの位置姿勢、及びキーフレーム上における幾何特徴の三次元情報を保持する。このような三次元マップは、公知技術を用いて生成することができる。本実施形態では、シーンの三次元マップは事前に作成されている。保持部110は、記憶部(不図示)に保存されている、事前に作成された三次元マップを取得することができる。以下では、三次元マップのうち事前に作成した部分を「事前マップ」と呼ぶ。すなわち、事前マップには、特徴(第1の特徴と呼ぶことがある)の三次元位置を示す予め作成された情報が含まれている。一方、三次元マップには、特徴(第2の特徴と呼ぶことがある)の三次元位置を示す情報も、後述する作成部140によって追加される。 In the present embodiment, the holding unit 110 holds, as a three-dimensional map, three-dimensional information of the position and orientation of the key frame and the geometric feature on the key frame in addition to the key frame. Such a three-dimensional map can be generated by using a known technique. In this embodiment, a three-dimensional map of the scene is created in advance. The holding unit 110 can acquire a pre-created three-dimensional map stored in a storage unit (not shown). In the following, the pre-created part of the 3D map will be referred to as the "pre-map". That is, the pre-map contains pre-made information indicating the three-dimensional position of the feature (sometimes referred to as the first feature). On the other hand, information indicating the three-dimensional position of the feature (sometimes referred to as the second feature) is also added to the three-dimensional map by the creation unit 140 described later.

本実施形態の場合、事前マップには、事前に作成された複数のキーフレーム、それぞれのキーフレームの位置姿勢、並びにそれぞれのキーフレームにおける特徴点の情報が含まれている。ここで、特徴点の情報には、キーフレーム上での特徴点の画像座標(u,v)及び特徴点の奥行きdが含まれる。一方、本実施形態においては、ランタイム時(情報処理装置1による撮像装置170の位置計測時)に三次元マップが拡張される。例えば、撮像装置の位置姿勢に応じた所定の条件に応じて、例えば事前マップを用いた位置姿勢の計測が可能な範囲から撮像装置が外れる可能性が生じた場合に、三次元マップが拡張される。すなわち、三次元マップに、新たなキーフレーム、このキーフレームの位置姿勢、並びにこのキーフレームにおける特徴点の情報が追加される。このような方法により、撮像装置170の位置姿勢の計測を継続することができる。例えば、事前マップ作成の対象となった領域内に障害物があり、撮像装置170がこの障害物を避けたときに、撮像装置170は位置姿勢の計測が可能な範囲から外れるかもしれない。また、撮像装置170が事前マップを用いた位置姿勢の計測が可能な範囲の外に移動したときに、撮像装置170は位置姿勢の計測が可能な範囲から外れるかもしれない。 In the case of the present embodiment, the pre-map includes information on a plurality of pre-created keyframes, the position and orientation of each keyframe, and feature points in each keyframe. Here, the feature point information includes the image coordinates (u, v) of the feature point on the key frame and the depth d of the feature point. On the other hand, in the present embodiment, the three-dimensional map is expanded at the time of runtime (when the position of the image pickup apparatus 170 is measured by the information processing apparatus 1). For example, the three-dimensional map is expanded when there is a possibility that the image pickup device is out of the range in which the position / orientation measurement using the pre-map is possible according to a predetermined condition according to the position / orientation of the image pickup device. Ru. That is, information on a new key frame, the position / orientation of this key frame, and the feature points in this key frame is added to the three-dimensional map. By such a method, the measurement of the position and orientation of the image pickup apparatus 170 can be continued. For example, when there is an obstacle in the area targeted for pre-mapping and the image pickup apparatus 170 avoids the obstacle, the image pickup apparatus 170 may be out of the range in which the position and orientation can be measured. Further, when the image pickup device 170 moves out of the range in which the position / orientation can be measured using the pre-map, the image pickup device 170 may move out of the range in which the position / orientation can be measured.

入力部120は、撮像装置170が撮像した撮像画像(以下、入力画像)を取得する。入力部120は、撮像装置170から動画像を取得することができ、例えば毎秒30フレームの時系列画像を取得することができる。なお、情報処理装置1の格納部(不図示)は、撮像装置170の内部パラメータ(焦点距離、画像中心位置、及びレンズ歪みパラメータ等)を保持している。撮像装置170の内部パラメータは、公知の方法(例えば、Z. Zhang, “A flexible new technique for camera calibration,” IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330-1334, 2000.)を用いて事前に校正することができる。 The input unit 120 acquires an image captured by the imaging device 170 (hereinafter referred to as an input image). The input unit 120 can acquire a moving image from the image pickup apparatus 170, and can acquire, for example, a time-series image of 30 frames per second. The storage unit (not shown) of the information processing device 1 holds internal parameters (focal length, image center position, lens distortion parameter, etc.) of the image pickup device 170. The internal parameters of the imaging device 170 are described by known methods (eg, Z. Zhang, “A flexible new technique for camera calibration,” IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330- It can be pre-calibrated using 1334, 2000.).

導出部130は、入力画像及び三次元マップを用いて、撮像装置170の位置姿勢を導出する。導出部130は、入力部120から時系列に入力される各画像について画像撮像時の撮像装置170の位置姿勢を導出する。 The derivation unit 130 derives the position and orientation of the image pickup apparatus 170 by using the input image and the three-dimensional map. The derivation unit 130 derives the position and orientation of the image pickup device 170 at the time of image capturing for each image input in time series from the input unit 120.

作成部140は、入力画像及び撮像装置170の位置姿勢に基づいて得た、被写体が有するさらなる特徴の三次元位置を示す情報を、三次元マップに追加する。このようにして、三次元マップが拡張される。本実施形態において、作成部140は、キーフレームと、キーフレームに含まれるさらなる特徴の三次元位置を示す情報(キーフレームの位置姿勢及び特徴点の情報)を追加することにより、三次元マップを拡張する。作成部140は、例えば、既存の三次元マップにより位置姿勢の計測が可能な範囲から、撮像装置170の位置が外れる可能性がある場合に、キーフレームを追加することができる。 The creating unit 140 adds information indicating the three-dimensional position of the further feature of the subject, which is obtained based on the input image and the position / orientation of the imaging device 170, to the three-dimensional map. In this way, the 3D map is expanded. In the present embodiment, the creation unit 140 creates a three-dimensional map by adding keyframes and information indicating the three-dimensional positions of further features included in the keyframes (information on the position and orientation of the keyframes and feature points). Expand. The creation unit 140 can add keyframes, for example, when the position of the image pickup apparatus 170 may deviate from the range in which the position / orientation can be measured by the existing three-dimensional map.

設定部150は、特徴の三次元位置を示す情報に信頼度(信頼性を示す情報)を設定する。本実施形態においては、事前マップに含まれる、特徴(第1の特徴)の三次元位置を示す情報には、作成部140によって追加された、特徴(第2の特徴)の三次元位置を示す情報よりも、高い信頼度が与えられる。本実施形態において、設定部150は、三次元マップに含まれるキーフレームの信頼度を設定する。すなわち、設定部150は、事前マップに含まれるキーフレームの信頼度を高く、ランタイム時に作成部140によって追加されたキーフレームの信頼度を低く設定することができる。 The setting unit 150 sets the reliability (information indicating reliability) in the information indicating the three-dimensional position of the feature. In the present embodiment, the information indicating the three-dimensional position of the feature (first feature) included in the pre-map indicates the three-dimensional position of the feature (second feature) added by the creation unit 140. Higher reliability than information is given. In the present embodiment, the setting unit 150 sets the reliability of the keyframe included in the three-dimensional map. That is, the setting unit 150 can set the reliability of the keyframes included in the pre-map to be high and the reliability of the keyframes added by the creation unit 140 at runtime to be low.

補正部160は、三次元マップに含まれる特徴の三次元位置を示す情報をこの情報の信頼度に基づいて補正する。例えば、補正部160は、三次元マップに含まれる特徴の三次元位置を示す情報を情報の信頼度に応じて更新することができる。このような処理によれば、補正部160は三次元マップの整合性を向上させることができる。このような処理は、三次元マップ(又はポーズグラフ)の最適化として知られている。本実施形態において、補正部160は、三次元マップ全体の整合性が取れるように、キーフレームの位置姿勢を補正することにより、特徴の三次元位置を示す情報を更新する。補正部160は、設定部150が設定したキーフレームの信頼度に基づいて、補正を行うことができる。本実施形態において補正部160は、信頼度の高いキーフレームの位置姿勢を固定する。例えば、補正部160は、事前マップに含まれるキーフレームの位置姿勢を固定する。このため、精度を維持しながら、撮像装置170の位置姿勢の計測が可能な範囲を広げることができる。 The correction unit 160 corrects the information indicating the three-dimensional position of the feature included in the three-dimensional map based on the reliability of this information. For example, the correction unit 160 can update the information indicating the three-dimensional position of the feature included in the three-dimensional map according to the reliability of the information. According to such processing, the correction unit 160 can improve the consistency of the three-dimensional map. Such processing is known as optimization of a three-dimensional map (or pose graph). In the present embodiment, the correction unit 160 updates the information indicating the three-dimensional position of the feature by correcting the position and orientation of the key frame so that the entire three-dimensional map is consistent. The correction unit 160 can perform correction based on the reliability of the key frame set by the setting unit 150. In the present embodiment, the correction unit 160 fixes the position and orientation of the key frame with high reliability. For example, the correction unit 160 fixes the position and orientation of the keyframes included in the pre-map. Therefore, it is possible to expand the range in which the position and orientation of the image pickup apparatus 170 can be measured while maintaining the accuracy.

次に、本実施形態に係る処理について、図4のフローチャートを参照して説明する。ステップS1010で、保持部110は、事前マップを外部記憶装置(不図示)から読み込む。事前マップの作成方法については特に限定されない。例えば、複数の撮像画像(キーフレーム)と、撮像画像の視点の位置姿勢(キーフレームの位置姿勢)を用いて、事前マップを作成することができる。特徴点の画像座標(u,v)及び奥行きdは、撮像画像からの特徴抽出及び撮像画像間でのマッチングを行うことにより決定することができる。事前マップの作成方法の例としては、SLAM(Simultaneous Localization and Mapping)技術が挙げられる。本実施形態において、事前マップは、J. Engel, T. Schoeps, and. D. Cremers, “LSD-SLAM: Large-scale direct monocular SLAM,” Proc. 14th European Conference on Computer Vision (ECCV), pp.834-849, 2014.に記載の方法を用いて作成することができる。 Next, the process according to the present embodiment will be described with reference to the flowchart of FIG. In step S1010, the holding unit 110 reads the pre-map from an external storage device (not shown). The method of creating the pre-map is not particularly limited. For example, a pre-map can be created by using a plurality of captured images (keyframes) and the position / orientation of the viewpoint of the captured image (position / orientation of the keyframe). The image coordinates (u, v) and depth d of the feature points can be determined by extracting the features from the captured image and matching the captured images. An example of a method for creating a pre-map is SLAM (Simultaneous Localization and Mapping) technology. In this embodiment, the premap is J. Engel, T. Schoeps, and. D. Cremers, “LSD-SLAM: Large-scale direct monocular SLAM,” Proc. 14th European Conference on Computer Vision (ECCV), pp. It can be created using the method described in 834-849, 2014.

また、保持部110は、事前マップに含まれる各キーフレームの信頼度B(i=1、・・・、Np)をHIGHに設定する。ここで、Npは事前マップに含まれるキーフレームの数である。 The holding unit 110 sets the reliability B i of each key frame included in advance map (i = 1, ···, Np ) to to HIGH. Here, Np is the number of keyframes included in the pre-map.

本実施形態において、キーフレームの信頼度とは、キーフレームの位置姿勢が信頼可能であるか否かを表す指標である。キーフレームの信頼度が高い場合、補正部160はこのキーフレームの位置姿勢を補正しない。信頼度が高いキーフレームの位置姿勢は、信頼度が低いキーフレームの位置姿勢を補正するための制約条件として利用される。事前マップは、事前に時間をかけて準備することができる。例えば、人又は自動車などの動く物体が視野に入り込まない静的な状態で、事前マップを作成することができる。また、実時間で実施するには時間が長すぎる最適化処理を行って、事前マップを作成することもできる。このように、高精度な事前マップを作成することが可能である。したがって、本実施形態においては、事前マップに含まれるキーフレームの信頼度が高く(HIGHに)設定される。 In the present embodiment, the reliability of the key frame is an index indicating whether or not the position and orientation of the key frame are reliable. When the reliability of the key frame is high, the correction unit 160 does not correct the position and orientation of the key frame. The position and orientation of the keyframe with high reliability is used as a constraint condition for correcting the position and orientation of the keyframe with low reliability. Pre-maps can be prepared in advance over time. For example, a pre-map can be created in a static state where moving objects such as people or automobiles do not enter the field of view. It is also possible to create a pre-map by performing an optimization process that takes too long to be performed in real time. In this way, it is possible to create a highly accurate pre-map. Therefore, in the present embodiment, the reliability of the keyframe included in the pre-map is set high (high).

ステップS1020で入力部120は、撮像装置170が撮像した入力画像を取得する。入力部120は、1フレームの入力画像を取得することができる。 In step S1020, the input unit 120 acquires the input image captured by the image pickup apparatus 170. The input unit 120 can acquire an input image of one frame.

ステップS1030で導出部130は、保持部110が保持する三次元マップと入力画像とを用いて、入力画像を撮像した際の撮像装置170の位置姿勢を導出する。導出方法としては公知の様々な方法を用いることができる。例えば、特徴点の三次元位置と導出される位置姿勢とに基づいて算出した入力画像上の特徴点の画像位置と、入力画像上での特徴点の画像位置と、の差が小さくなるように繰り返し位置姿勢を補正することができる。こうして、撮像装置170の位置姿勢を導出することが可能である。また、キーフレームの特徴点と、特徴点の三次元位置に従って判定できる特徴点に対応する入力画像上の対応点と、の間の色差(例えば輝度差)が小さくなるように、キーフレームと撮像装置170との間の相対位置姿勢を導出することもできる。この相対位置姿勢と、キーフレームの位置姿勢とから、撮像装置170との位置姿勢を得ることができる。ここで、特徴点の三次元位置は、キーフレームの位置姿勢及び特徴点の情報(画像座標(u,v)及び奥行きd)から決定することができる。本実施形態においては、前述のEngelらが開示している位置姿勢の導出方法を利用する。 In step S1030, the derivation unit 130 derives the position and orientation of the image pickup device 170 when the input image is captured by using the three-dimensional map held by the holding unit 110 and the input image. As the derivation method, various known methods can be used. For example, the difference between the image position of the feature point on the input image calculated based on the three-dimensional position of the feature point and the derived position / orientation and the image position of the feature point on the input image is reduced. The repeated position and orientation can be corrected. In this way, it is possible to derive the position and orientation of the image pickup apparatus 170. In addition, the keyframe and the imaging are performed so that the color difference (for example, the luminance difference) between the feature point of the keyframe and the corresponding point on the input image corresponding to the feature point that can be determined according to the three-dimensional position of the feature point becomes small. It is also possible to derive the relative position / orientation with the device 170. From this relative position / orientation and the position / orientation of the key frame, the position / orientation with the image pickup apparatus 170 can be obtained. Here, the three-dimensional position of the feature point can be determined from the position and orientation of the key frame and the information of the feature point (image coordinates (u, v) and depth d). In this embodiment, the method for deriving the position and orientation disclosed by Angel et al. As described above is used.

ステップS1040で作成部140は、ステップS1030で導出した撮像装置170の位置姿勢を用いて、三次元マップを作成(拡張)する。作成部140は、三次元マップにキーフレームを追加することにより、三次元マップを拡張することができる。また、作成部140は、所定の条件が満たされたことに応じて、三次元マップを拡張することができる。本ステップの詳細については後述する。本ステップでキーフレームが追加された後の三次元マップ中のキーフレーム数をNとする。 In step S1040, the creation unit 140 creates (extends) a three-dimensional map using the position and orientation of the image pickup apparatus 170 derived in step S1030. The creation unit 140 can extend the three-dimensional map by adding keyframes to the three-dimensional map. In addition, the creation unit 140 can expand the three-dimensional map depending on the condition that a predetermined condition is satisfied. Details of this step will be described later. Let N k be the number of keyframes in the 3D map after the keyframes have been added in this step.

ステップS1050で設定部150は、ステップS1040で三次元マップに追加されたキーフレームの信頼度B(j=N)を低く(LOWに)設定する。ここで、キーフレームの信頼度とは、キーフレームに関連して三次元マップに格納されている情報(キーフレームの位置姿勢、又はキーフレームにおける特徴点の情報)の信頼度のことを指す。ランタイム時には、シーンの状況を制御して静的な状態を保つこと(例えば動く物体が視野に入らないようにすること)が困難であるため、キーフレームの信頼度は制限される。このため、本実施形態においては、ランタイム時に追加されたキーフレームの信頼度が低く設定される。 In step S1050, the setting unit 150 sets the reliability B j (j = N k ) of the keyframe added to the three-dimensional map in step S1040 to be low (LOW). Here, the reliability of the key frame refers to the reliability of the information (the position and orientation of the key frame or the information of the feature point in the key frame) stored in the three-dimensional map in relation to the key frame. At runtime, the reliability of keyframes is limited because it is difficult to control the situation in the scene to keep it static (for example, to keep moving objects out of the field of view). Therefore, in the present embodiment, the reliability of the keyframe added at runtime is set low.

ステップS1060で補正部160は、三次元マップの補正を行う。例えば、補正部160は、三次元マップ全体が整合するように、三次元マップに含まれるキーフレームの位置姿勢を補正することができる。補正方法としては公知の様々な方法を用いることができるが、本実施形態では、前述のEngelらの手法に従う補正が行われる。 In step S1060, the correction unit 160 corrects the three-dimensional map. For example, the correction unit 160 can correct the position and orientation of the keyframes included in the three-dimensional map so that the entire three-dimensional map is aligned. Various known methods can be used as the correction method, but in the present embodiment, the correction is performed according to the method of Engel et al. described above.

一方で、本実施形態においては、第1の信頼度(例えばHIGH)を有する第1の特徴の三次元位置を示す情報を更新せずに、第1の信頼度より低い第2の信頼度(例えばLOW)を有する第2の特徴の三次元位置を示す情報が更新される。例えば、信頼度B(i=1、・・・、N)がLOWに設定されているキーフレームの位置姿勢が補正の対象となり、信頼度BがHIGHに設定されているキーフレームの位置姿勢は補正の対象とされない。このように、補正部160は、予め作成され作成部140により作成されていない特徴の三次元位置を示す情報を固定しながら、特徴の三次元位置を示す情報の更新を行うことにより、三次元マップの整合性を向上させることができる。このため、高精度に作成されている事前マップを変更することなく、位置姿勢の計測可能範囲を拡張することができる。本ステップの詳細については後述する。 On the other hand, in the present embodiment, the second reliability (for example, HIGH) lower than the first reliability (for example, HIGH) is lower than the first reliability without updating the information indicating the three-dimensional position of the first feature. For example, the information indicating the three-dimensional position of the second feature having LOW) is updated. For example, the reliability B i (i = 1, ··· , N k) position and orientation of the key frame is set to LOW is subject to correction, keyframes reliability B i is set to HIGH Position and orientation are not subject to correction. In this way, the correction unit 160 updates the information indicating the three-dimensional position of the feature while fixing the information indicating the three-dimensional position of the feature that has been created in advance and has not been created by the creation unit 140. The integrity of the map can be improved. Therefore, the measurable range of the position and orientation can be expanded without changing the pre-map created with high accuracy. Details of this step will be described later.

ステップS1070で導出部130は、位置姿勢計測の終了判定を行う。例えば、マウス又はキーボード等の入力装置から入力I/F40を介してユーザによる終了指示が入力された場合、位置姿勢の計測は終了する。計測を終了しない場合、処理はステップS1020に戻り、位置姿勢の計測が継続される。 In step S1070, the out-licensing unit 130 determines the end of the position / posture measurement. For example, when an end instruction is input by the user from an input device such as a mouse or a keyboard via the input I / F40, the position / posture measurement ends. If the measurement is not completed, the process returns to step S1020, and the position / orientation measurement is continued.

(ステップS1040の詳細)
ステップS1040で作成部140は、まず、三次元マップを拡張するか否か、すなわち三次元マップに新たなキーフレームを追加するか否かを判定する。ここで、作成部140は、ステップS1030で導出した撮像装置170の位置姿勢に基づいて、以下のように判定を行うことができる。
(Details of step S1040)
In step S1040, the creation unit 140 first determines whether or not to extend the three-dimensional map, that is, whether or not to add a new keyframe to the three-dimensional map. Here, the creating unit 140 can make the determination as follows based on the position and orientation of the image pickup apparatus 170 derived in step S1030.

まず、作成部140は、導出した撮像装置170の位置姿勢に基づいて、三次元マップ中のキーフレーム(以下、最近傍キーフレーム又は単に近傍キーフレーム)を選択する。例えば、作成部140は、導出した撮像装置170の位置及び視線方向(世界座標系における撮像座標系のZ軸方向)と、キーフレームの位置及び視線方向に基づいて、所定の条件に従って近傍キーフレームを選択することができる。作成部140は、撮像装置170に近い位置及び視線方向を有しているキーフレームを近傍キーフレームとして選択することができる。一例として、作成部140は、撮像装置170の視軸方向に基づいて、三次元マップからキーフレーム群を選択できる。ここで、世界座標系における、撮像装置170の視軸方向と、選択されるキーフレーム群の視軸方向と、の角度差は閾値Tv以内である。次に、作成部140は、キーフレーム群から近傍キーフレームを選択する。ここで、近傍キーフレームは、キーフレーム群に含まれるキーフレームのうち位置が撮像装置170の位置に最も近い。 First, the creating unit 140 selects a key frame (hereinafter, a nearest neighbor key frame or simply a neighborhood key frame) in the three-dimensional map based on the position and orientation of the derived imaging device 170. For example, the creating unit 140 is based on the position and line-of-sight direction of the derived image pickup device 170 (Z-axis direction of the image pickup coordinate system in the world coordinate system) and the position and line-of-sight direction of the key frame, and the neighborhood key frame is determined according to a predetermined condition. Can be selected. The creation unit 140 can select a key frame having a position close to the image pickup apparatus 170 and a line-of-sight direction as a nearby key frame. As an example, the creation unit 140 can select a keyframe group from the three-dimensional map based on the visual axis direction of the image pickup apparatus 170. Here, the angle difference between the visual axis direction of the image pickup apparatus 170 and the visual axis direction of the selected keyframe group in the world coordinate system is within the threshold value Tv. Next, the creation unit 140 selects a neighboring keyframe from the keyframe group. Here, the position of the neighboring keyframe is closest to the position of the image pickup apparatus 170 among the keyframes included in the keyframe group.

次に、ステップS1020で取得した入力画像に含まれる、近傍キーフレームの特徴点の数に基づいて、新たなキーフレームを追加するか否かが判定される。例えば、作成部140は、ステップS1020で取得した入力画像上における、近傍キーフレームの各特徴点の画像座標を算出する。例えば、作成部140は、画像座標を算出するために、まず前述した方法により近傍キーフレームの撮像座標系における特徴点の三次元座標XKeyを算出する。次に、作成部140は、近傍キーフレームの位置姿勢、及び撮像装置170の位置姿勢を用いて、三次元座標XKeyを、入力画像撮像時の撮像装置170の撮像座標系における三次元座標XCamに変換する。最後に、作成部140は、撮像装置170の内部パラメータを用いて三次元座標XCamを入力画像の画像座標(u,v)に変換する。このようにして、作成部140は、算出された画像座標が入力画像内に含まれる特徴点の割合Rincを求めることができる。Rincが小さい場合、最近傍キーフレームと入力画像とのオーバーラップが少ないことから、撮像装置が位置姿勢計測範囲から外れる可能性がある。このため、Rincが閾値Tinc未満の場合、作成部140は、新たにキーフレームを追加すると判定する。 Next, it is determined whether or not to add a new keyframe based on the number of feature points of the neighboring keyframes included in the input image acquired in step S1020. For example, the creation unit 140 calculates the image coordinates of each feature point of the neighboring keyframe on the input image acquired in step S1020. For example, in order to calculate the image coordinates, the creating unit 140 first calculates the three-dimensional coordinates X Key of the feature points in the imaging coordinate system of the neighboring keyframes by the method described above. Next, the creating unit 140 uses the position and orientation of the neighboring keyframes and the position and orientation of the image pickup device 170 to set the three-dimensional coordinate X Key to the three-dimensional coordinate X in the image pickup coordinate system of the image pickup device 170 at the time of input image acquisition. Convert to Cam. Finally, the creating unit 140 converts the three-dimensional coordinates X Cam into the image coordinates (u, v) of the input image using the internal parameters of the image pickup apparatus 170. In this way, the creating unit 140 can obtain the ratio R inc of the feature points whose calculated image coordinates are included in the input image. When the R inc is small, there is little overlap between the nearest neighbor key frame and the input image, so that the image pickup apparatus may deviate from the position / orientation measurement range. Therefore, when R inc is less than the threshold value T inc , the creation unit 140 determines that a new key frame is to be added.

新たにキーフレームを追加すると判定した場合、作成部140は、前述のEngelらの方法を用いて入力画像を新たなキーフレームとして追加する。Engelらの方法を用いる場合、直前のキーフレーム上の(又は近傍キーフレーム上の)特徴点の情報を、入力画像上に投影し伝播させることで、新たなキーフレームの特徴点の情報を作成することができる。例えば、近傍キーフレームの特徴点の情報から、特徴点の三次元座標を得て、これを入力画像に投影することにより、新たなキーフレームの特徴点の画像座標(u,v)及び奥行きdを決定することができる。 When it is determined that a new keyframe is to be added, the creation unit 140 adds the input image as a new keyframe by using the method of Angel et al. described above. When the method of Angel et al. Is used, the information of the feature points on the immediately preceding keyframe (or on the neighboring keyframes) is projected onto the input image and propagated to create the information of the feature points of the new keyframe. can do. For example, by obtaining the three-dimensional coordinates of the feature points from the information of the feature points of the neighboring keyframes and projecting them on the input image, the image coordinates (u, v) and the depth d of the feature points of the new keyframes are obtained. Can be determined.

一方、新たにキーフレームを追加すると判定しなかった場合、作成部140は、直前に作成されたキーフレームについての特徴点の情報(画像座標(u,v)及び奥行きd)を更新することができる。例えば、作成部140は、撮像画像からの特徴抽出及び撮像画像間でのマッチングを行うことにより、新たな特徴点の情報を追加したり、奥行きdの情報を更新したりすることができる。この処理は、例えば、前述のEngelらの方法を用いて行うことができる。 On the other hand, if it is not determined that a new keyframe is to be added, the creation unit 140 may update the feature point information (image coordinates (u, v) and depth d) of the keyframe created immediately before. it can. For example, the creation unit 140 can add new feature point information or update depth d information by extracting features from captured images and matching between captured images. This process can be performed, for example, by using the method of Angel et al. described above.

(ステップS1060の詳細)
図5は、ステップS1060における三次元マップ補正の処理手順を示すフローチャートである。最適化処理では、概して、特徴が三次元位置にある場合に視点(キーフレームの位置姿勢)において観測される観測結果と、視点において実際に観測された観測結果と、の誤差が小さくなるように、特徴の三次元位置を示す情報が更新される。本実施形態においては、特徴の色情報と、視点において三次元位置について観測された色情報と、との誤差が小さくなるように、特徴の三次元位置を示す情報が更新される。具体的には、特徴点の色情報及び三次元位置情報が既存キーフレームから取得される。また、特徴点の三次元位置に従って判定できる、新規キーフレーム上の対応点において、観測された特徴点の色情報も取得される。そして、既存キーフレーム及び新規キーフレームでの特徴点の色差(例えば輝度差)が近くなるように、既存キーフレームと新規キーフレームとの相対的な位置姿勢が算出される。ステップS1210〜S1220でこのような処理を行った後で、ステップS1230では、この相対的な位置姿勢に適合するように、新規キーフレーム(及び場合によっては既存キーフレーム)の位置姿勢情報が更新される。以下、ステップS1060の処理について具体的に説明する。
(Details of step S1060)
FIG. 5 is a flowchart showing a processing procedure of the three-dimensional map correction in step S1060. In the optimization process, in general, the error between the observation result observed at the viewpoint (position and orientation of the key frame) when the feature is in the three-dimensional position and the observation result actually observed at the viewpoint is reduced. , The information indicating the three-dimensional position of the feature is updated. In the present embodiment, the information indicating the three-dimensional position of the feature is updated so that the error between the color information of the feature and the color information observed for the three-dimensional position at the viewpoint becomes small. Specifically, the color information and the three-dimensional position information of the feature points are acquired from the existing keyframes. In addition, the color information of the observed feature points at the corresponding points on the new key frame, which can be determined according to the three-dimensional position of the feature points, is also acquired. Then, the relative position / orientation between the existing key frame and the new key frame is calculated so that the color difference (for example, the luminance difference) of the feature points between the existing key frame and the new key frame becomes close. After performing such processing in steps S121-10 to S1220, in step S1230, the position / orientation information of the new keyframe (and in some cases the existing keyframe) is updated to match this relative position / orientation. To. Hereinafter, the process of step S1060 will be specifically described.

ステップS1210で補正部160は、ステップS1040で新たに追加されたキーフレーム(以下、新規キーフレーム)に対して、位置姿勢が近い既存キーフレームを探索する。例えば、補正部160は、新規キーフレームに対して、世界座標系における視軸方向(撮像座標系のZ軸)の角度差が閾値TAngle以内であり、かつ位置の差が閾値TDist以内であるキーフレームをすべて選択できる。次に、補正部160は、キーフレーム間の相対的な位置姿勢を導出する。具体的には、補正部160は、選択されたキーフレームと、新規キーフレームとの間の、相対的な位置姿勢をステップS1030と同様の方法で算出する。得られた相対的な位置姿勢は、保持部110にキーフレーム対応情報として保存できる。 In step S1210, the correction unit 160 searches for an existing keyframe whose position and orientation are close to those newly added keyframes (hereinafter, new keyframes) in step S1040. For example, the correction unit 160 has an angle difference of the visual axis direction (Z axis of the imaging coordinate system) in the world coordinate system within the threshold value T Angle and a position difference within the threshold value T Dist with respect to the new key frame. You can select all the keyframes. Next, the correction unit 160 derives the relative position / orientation between the keyframes. Specifically, the correction unit 160 calculates the relative position / orientation between the selected key frame and the new key frame in the same manner as in step S1030. The obtained relative position / orientation can be stored in the holding unit 110 as keyframe correspondence information.

ステップS1220で補正部160は、新規キーフレームに対して、画像の類似度が高い既存のキーフレームを探索する。例えば、補正部160は、既存キーフレームのうち、新規キーフレームと輝度値とのSSD(Sum of Squared Distance)が最小であり、かつ閾値TSSD以下となる既存キーフレームを選択する。そして、補正部160は、ステップS1210と同様に、選択されたキーフレームと、新規キーフレームとの間の、相対的な位置姿勢を算出する。得られた相対的な位置姿勢は、保持部110にキーフレーム対応情報として保存できる。 In step S1220, the correction unit 160 searches for an existing keyframe having a high degree of image similarity with respect to the new keyframe. For example, the correction unit 160 selects an existing keyframe having the minimum SSD (Sum of Squared Distance) between the new keyframe and the brightness value and having a threshold value T SSD or less among the existing keyframes. Then, the correction unit 160 calculates the relative position / orientation between the selected key frame and the new key frame, as in step S1210. The obtained relative position / orientation can be stored in the holding unit 110 as keyframe correspondence information.

ステップS1230で補正部160は、ステップS1210,S1220で得られたキーフレーム対応情報を用いて、キーフレームの位置姿勢を補正する。こうして、補正部160は三次元マップを補正する。本ステップでは、信頼度がLOWに設定されているキーフレームの位置姿勢のみが補正され、信頼度がHIGHに設定されているキーフレームの位置姿勢は補正されない。 In step S1230, the correction unit 160 corrects the position and orientation of the keyframe by using the keyframe correspondence information obtained in steps S1210 and S1220. In this way, the correction unit 160 corrects the three-dimensional map. In this step, only the position / orientation of the key frame whose reliability is set to LOW is corrected, and the position / orientation of the key frame whose reliability is set to HIGH is not corrected.

位置姿勢の補正には、キーフレームが属性として有している世界座標系における位置姿勢から算出されるキーフレーム間の相対的な位置姿勢と、ステップS1210,S1220で算出されたキーフレーム間の相対的な位置姿勢と、の誤差を用いることができる。この場合、これらの相対的な位置姿勢の誤差の総和を、評価関数として用いることができる。このように、キーフレームの特徴点の情報に基づいてステップS1210,S1220で算出された相対的な位置姿勢を反映するように、三次元マップに含まれるキーフレームの位置姿勢が更新される。 To correct the position / orientation, the relative position / orientation between the keyframes calculated from the position / orientation in the world coordinate system that the keyframe has as an attribute and the relative position / orientation between the keyframes calculated in steps S1210 and S1220. Position and orientation, and the error of can be used. In this case, the sum of these relative position and orientation errors can be used as the evaluation function. In this way, the position / orientation of the keyframe included in the three-dimensional map is updated so as to reflect the relative position / orientation calculated in steps S1210 and S1220 based on the information of the feature points of the keyframe.

ここでは、キーフレームi及びキーフレームjの世界座標系における位置姿勢を表す4×4行列をそれぞれM(i)及びM(j)とする。また、キーフレームiとキーフレームjとの間の相対的な位置姿勢を表す4×4行列をMrel(i,j)とする。行列M(i)及びM(j)は、世界座標系における三次元位置を撮像座標系における三次元位置に変換する行列である。また行列Mrel(i,j)は、キーフレームjの撮像座標系における三次元位置をキーフレームiの撮像座標系における三次元位置に変換する行列である。行列M(i)、M(j)、及びMrel(i,j)は、次式に示すように、左上の3×3行列が回転行列R、一番右の列が平行移動成分tを表す行列である。

Figure 0006860620
Here, the 4 × 4 matrices representing the positions and orientations of the keyframes i and j in the world coordinate system are referred to as M (i) and M (j), respectively. Further, a 4 × 4 matrix representing the relative position and orientation between the key frame i and the key frame j is defined as Meter (i, j). The matrices M (i) and M (j) are matrices that convert a three-dimensional position in the world coordinate system into a three-dimensional position in the imaging coordinate system. The matrix M rel (i, j) is a matrix that converts the three-dimensional position of the keyframe j in the imaging coordinate system into the three-dimensional position of the keyframe i in the imaging coordinate system. In the matrices M (i), M (j), and M rel (i, j), as shown in the following equation, the upper left 3 × 3 matrix is the rotation matrix R, and the rightmost column is the translation component t. It is a matrix to represent.
Figure 0006860620

補正部160は、行列Mrel(i,j)を既知として、下記の式(1)が最小となるようにM(i)、M(j)を補正する。式(1)において、||行列||はフロベニウスのノルム(行列の各要素の二乗和)を表す。また、式(1)は、三次元マップに含まれるすべてのキーフレームのうち、信頼度がLOWに設定されているキーフレームについての総和である。信頼度がHIGHに設定されているキーフレームの情報は、信頼度がLOWに設定されているキーフレームの位置姿勢を補正するために必要な、キーフレーム間の相対的な位置姿勢の算出に利用される。

Figure 0006860620
The correction unit 160 corrects M (i) and M (j) so that the following equation (1) is minimized, assuming that the matrix M rel (i, j) is known. In equation (1), || matrix || F represents the Frobenius norm (sum of squares of each element of the matrix). Further, the equation (1) is the sum of all the keyframes included in the three-dimensional map for the keyframes whose reliability is set to LOW. The information of the keyframe whose reliability is set to HIGH is used to calculate the relative position and orientation between the keyframes, which is necessary to correct the position and orientation of the keyframe whose reliability is set to LOW. Will be done.
Figure 0006860620

M(i)及びM(j)は非線形の変換であるため、式(1)の最小化には、例えば反復計算を行うGauss−Newton法を用いることができる。新規キーフレームについてのM(i)及びM(j)の初期値としては、ステップS1030で導出された位置姿勢を用いることができる。補正されたM(i)及びM(j)は、再び三次元マップ中のキーフレームの属性として保存され、次に三次元マップの補正を行う際の初期値として利用される。 Since M (i) and M (j) are non-linear transformations, the Gauss-Newton method for performing iterative calculations can be used to minimize the equation (1), for example. As the initial values of M (i) and M (j) for the new key frame, the position / orientation derived in step S1030 can be used. The corrected M (i) and M (j) are saved again as keyframe attributes in the 3D map, and are used as initial values when the next 3D map is corrected.

図9は、3次元マップの補正に関する概念図である。図9(a)は、従来技術を説明している。図9(a)の左に示すように、事前マップが作成されているとする。事前マップを用いた位置姿勢の計測が可能な範囲から撮像装置が外れると、図9(a)の中央に示すように、マップデータが追加される。ここでは整合性を取る処理が行われていない。次に、図9(a)の右に示すように、事前マップと拡張されたマップ(拡張領域)の全体に基づいて特徴の位置調整が行われる。事前マップ内の特徴も位置が調整されるため、事前マップの精度が低下する。本実施形態では、図9(b)に示すように、事前に作成したマップにおいては特徴の位置の信頼度が高いため、特徴の固定度合いが高くされる。一方で、ランタイム時に追加されたマップにおいては特徴の位置の信頼度が低いため、特徴の固定度合いが低くされる。即ち、精度を維持しつつ整合性を取ることができる。 FIG. 9 is a conceptual diagram relating to the correction of the three-dimensional map. FIG. 9A illustrates the prior art. As shown on the left side of FIG. 9A, it is assumed that a pre-map has been created. When the image pickup device is out of the range in which the position and orientation can be measured using the pre-map, map data is added as shown in the center of FIG. 9A. No processing for consistency is performed here. Next, as shown on the right side of FIG. 9A, the position adjustment of the feature is performed based on the entire pre-map and the expanded map (extended area). Since the positions of the features in the pre-map are also adjusted, the accuracy of the pre-map is reduced. In the present embodiment, as shown in FIG. 9B, since the reliability of the position of the feature is high in the map created in advance, the degree of fixation of the feature is high. On the other hand, in the map added at runtime, the reliability of the feature position is low, so the degree of feature fixation is low. That is, consistency can be obtained while maintaining accuracy.

以上述べたように実施形態1では、三次元マップのうち事前に作成した部分の信頼度を高くして三次元マップの補正が行われる。このため、三次元マップのうち事前に作成した部分の精度を維持したまま、撮像装置の位置姿勢計測可能範囲を広げることができる。 As described above, in the first embodiment, the three-dimensional map is corrected by increasing the reliability of the portion of the three-dimensional map created in advance. Therefore, the position and orientation measurable range of the image pickup apparatus can be expanded while maintaining the accuracy of the portion of the three-dimensional map created in advance.

(実施形態1の変形例)
実施形態1では、三次元マップはキーフレームの集合であった。また、特徴の三次元位置を示す情報としては、被写体が位置する空間に設定された基準座標系における視点の位置姿勢情報(キーフレームの位置姿勢)と、この視点を基準とする座標系における特徴の位置情報(画像座標(u,v)及び奥行きd)が用いられた。そして、各キーフレームについて、特徴点の画像座標(u,v)とキーフレームを基準とした奥行きdとが撮像座標系における三次元座標に変換され、特徴点の三次元座標が位置及び姿勢の計測に利用された。さらに、補正部160は、基準座標系における視点の位置姿勢情報(キーフレームの位置姿勢)を更新することにより、三次元マップを最適化した。しかしながら、三次元マップの形式はこれに限られない。例えば、画像上の特徴を用いて撮像装置の位置姿勢の計測が可能な任意の形式の三次元マップを用いることができる。
(Modified Example of Embodiment 1)
In Embodiment 1, the 3D map was a set of keyframes. The information indicating the three-dimensional position of the feature includes the position / orientation information (keyframe position / orientation) of the viewpoint in the reference coordinate system set in the space where the subject is located and the feature in the coordinate system based on this viewpoint. Position information (image coordinates (u, v) and depth d) was used. Then, for each keyframe, the image coordinates (u, v) of the feature points and the depth d with respect to the keyframes are converted into three-dimensional coordinates in the imaging coordinate system, and the three-dimensional coordinates of the feature points are the positions and orientations. It was used for measurement. Further, the correction unit 160 optimizes the three-dimensional map by updating the position / orientation information (position / orientation of the key frame) of the viewpoint in the reference coordinate system. However, the format of the three-dimensional map is not limited to this. For example, an arbitrary type of three-dimensional map capable of measuring the position and orientation of the imaging device using the features on the image can be used.

一例として、三次元マップには、特徴の三次元位置を示す情報として、被写体が位置する空間に設定された基準座標系における特徴の三次元位置(例えば特徴点の三次元座標)を示す情報が含まれていてもよい。このような三次元マップを用いても、撮像装置170の位置姿勢を入力画像を用いて導出することができる。例えば、三次元マップには、特徴点の三次元座標と、各キーフレームについての画像及び位置姿勢が記録されていてもよい。この場合、ステップS1030において導出部130は、例えば入力画像から検出した特徴の位置と、三次元マップに登録された特徴点の入力画像への逆投影位置と、の誤差が小さくなるように、入力画像の位置姿勢を決定することができる。また、ステップS1040において作成部140は、キーフレームとして登録される入力画像及び別の撮像画像(例えば別のキーフレーム)から対応する特徴を検出し、この特徴を表す特徴点の三次元座標を決定して、三次元マップに登録することができる。また、作成部140は、キーフレームとして登録される入力画像の位置姿勢も、三次元マップに登録することができる。 As an example, in the three-dimensional map, as information indicating the three-dimensional position of the feature, information indicating the three-dimensional position of the feature (for example, the three-dimensional coordinate of the feature point) in the reference coordinate system set in the space where the subject is located is displayed. It may be included. Even if such a three-dimensional map is used, the position and orientation of the image pickup apparatus 170 can be derived using the input image. For example, the three-dimensional map may record the three-dimensional coordinates of the feature points, and the image and the position / orientation for each key frame. In this case, in step S1030, the derivation unit 130 inputs so that the error between, for example, the position of the feature detected from the input image and the back projection position of the feature point registered in the three-dimensional map on the input image becomes small. The position and orientation of the image can be determined. Further, in step S1040, the creation unit 140 detects the corresponding feature from the input image registered as the key frame and another captured image (for example, another key frame), and determines the three-dimensional coordinates of the feature point representing this feature. Then, it can be registered in the three-dimensional map. In addition, the creation unit 140 can also register the position and orientation of the input image registered as a key frame in the three-dimensional map.

この場合、ステップS1060で補正部160は、基準座標系における特徴の三次元位置(例えば特徴点の三次元座標)を示す情報を更新することができる。例えば、補正部160は、視点(キーフレームの位置姿勢)から特徴の三次元位置への方向と、視点において観測された特徴へと向かう方向(画像座標)と、の誤差が小さくなるように、特徴の三次元位置を示す情報(キーフレームの位置姿勢)を更新する。具体例として、補正部160は、入力画像から検出した特徴の位置と、特徴点の各キーフレームへの逆投影位置と、の誤差が小さくなるように、特徴点の三次元座標を補正することができる(一般にバンドル調整として知られている)。この場合、ステップS1050において設定部150は、ステップS1040で新たに登録された特徴点の三次元座標に対して信頼度LOWを設定することができる。一方、事前マップに登録されている特徴点に対しては、信頼度HIGHを設定することができる。補正部160は、信頼度がLOWに設定されている特徴点の三次元座標のみを補正し、信頼度がHIGHに設定されている特徴点の三次元座標は補正しない。 In this case, in step S1060, the correction unit 160 can update the information indicating the three-dimensional position of the feature (for example, the three-dimensional coordinate of the feature point) in the reference coordinate system. For example, the correction unit 160 reduces the error between the direction from the viewpoint (position and orientation of the key frame) to the three-dimensional position of the feature and the direction toward the feature observed at the viewpoint (image coordinates). Update the information (keyframe position / orientation) indicating the three-dimensional position of the feature. As a specific example, the correction unit 160 corrects the three-dimensional coordinates of the feature points so that the error between the position of the feature detected from the input image and the back projection position of the feature point on each key frame becomes small. Can be (commonly known as bundle adjustment). In this case, in step S1050, the setting unit 150 can set the reliability LOW with respect to the three-dimensional coordinates of the feature points newly registered in step S1040. On the other hand, the reliability HIGH can be set for the feature points registered in the pre-map. The correction unit 160 corrects only the three-dimensional coordinates of the feature points whose reliability is set to LOW, and does not correct the three-dimensional coordinates of the feature points whose reliability is set to HIGH.

また、補正部160は、特徴点の三次元座標に加えて、又は特徴点の三次元座標の代わりに、キーフレームの位置姿勢を補正してもよい。この場合、ステップS1050において設定部150は、ステップS1040で新たに登録されたキーフレームに対して信頼度LOWを設定することができる。一方、事前マップに登録されているキーフレームに対しては、信頼度HIGHを設定することができる。補正部160は、信頼度がLOWに設定されているキーフレームの位置姿勢のみを補正し、信頼度がHIGHに設定されているキーフレームの位置姿勢は補正しない。 Further, the correction unit 160 may correct the position and orientation of the key frame in addition to the three-dimensional coordinates of the feature point or instead of the three-dimensional coordinates of the feature point. In this case, in step S1050, the setting unit 150 can set the reliability LOW for the key frame newly registered in step S1040. On the other hand, the reliability HIGH can be set for the keyframes registered in the pre-map. The correction unit 160 corrects only the position / orientation of the key frame whose reliability is set to LOW, and does not correct the position / orientation of the key frame whose reliability is set to HIGH.

上記のような、三次元マップに特徴点の三次元座標を登録する方法としては、例えば、KleinらのPTAM法(G. Klein and D. Murray, "Parallel Tracking and Mapping for Small AR Workspaces," Proc. 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, pp.225-234, 2007.)が挙げられる。この例において、三次元マップには特徴点が登録されおり、三次元マップはそれぞれの特徴点についての世界座標系における三次元座標を保持している。Kleinらは、特徴点の世界座標系における三次元座標をバンドル調整により補正することで三次元マップを全体的に整合させている。Kleinらの方法を適用して本実施形態に係る処理を行う場合、このバンドル調整においては、事前マップに含まれる特徴点の三次元座標は固定され、ランタイム時に追加された特徴点の三次元座標のみが補正される。このような方法によれば、事前マップの精度を維持したまま、撮像装置の位置姿勢の計測範囲を広げることができる。 As a method of registering the 3D coordinates of the feature points in the 3D map as described above, for example, Klein et al.'S PTAM method (G. Klein and D. Murray, "Parallel Tracking and Mapping for Small AR Workspaces," Proc . 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, pp.225-234, 2007.). In this example, feature points are registered in the 3D map, and the 3D map holds the 3D coordinates in the world coordinate system for each feature point. Klein et al. Align the 3D map as a whole by correcting the 3D coordinates of the feature points in the world coordinate system by bundle adjustment. When the process according to the present embodiment is performed by applying the method of Klein et al., In this bundle adjustment, the three-dimensional coordinates of the feature points included in the pre-map are fixed, and the three-dimensional coordinates of the feature points added at runtime are fixed. Only corrected. According to such a method, the measurement range of the position and orientation of the image pickup apparatus can be expanded while maintaining the accuracy of the pre-map.

(実施形態1のバリエーション)
実施形態1では、事前マップはSLAM技術により作成された。しかしながら、事前マップの作成方法はSLAM技術に限られない。ランタイム時に位置姿勢の導出に利用可能な事前マップを作成するための任意の方法を使用することができる。例えば、複数の視点位置から撮像された画像群をもとに、オフラインで行われるStructure from motion技術(例えば、I. Skrypnyk and D. G. Lowe, “Scene modelling, recognition and tracking with invariant image features,” Proc. 3rd IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pp.110-119, 2004.)を用いて、事前マップを作成してもよい。
(Variation of Embodiment 1)
In Embodiment 1, the pre-map was created by SLAM technology. However, the method of creating the pre-map is not limited to SLAM technology. Any method can be used to create a pre-map that can be used to derive the position orientation at runtime. For example, Structure from motion technology (eg, I. Skrypnyk and DG Lowe, “Scene modeling, recognition and tracking with invariant image features,” Proc. 3rd IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pp.110-119, 2004.) may be used to create a pre-map.

実施形態1では、Engelの方法を用いて三次元マップの作成及び撮像装置の位置姿勢の導出が行われた。しかしながら、三次元マップの作成方法、及び撮像装置の位置姿勢の導出方法としては、任意の方法を用いることができる。例えば、三次元マップが保持する特徴点を、撮像装置の位置姿勢の導出に利用する方法として、前述のSkrypnykらの方法のように画像から明示的に検出した特徴点を用いる方法を利用してもよい。また、用いられる特徴の種類は特に限定されない。例えば、特徴として、画像から検出されたエッジ、直線、又は曲線等のような幾何特徴を利用してもよい。さらには、特徴点として、キーフレームの濃淡画像上の輝度値の勾配が大きい点を用いてもよい。三次元マップは、これらの特徴点又は幾何特徴を構成する点について、特徴の位置情報(画像座標(u,v)及び奥行きd)を含んでいてもよい。さらには、三次元マップは、キーフレームの全ての画素について、特徴の位置情報(画像座標(u,v)及び奥行きd)を含んでいてもよい。このように、任意の画素を特徴点として扱うことができる。 In the first embodiment, the three-dimensional map was created and the position and orientation of the image pickup apparatus were derived using the Angel method. However, any method can be used as a method for creating a three-dimensional map and a method for deriving the position and orientation of the imaging device. For example, as a method of using the feature points held by the three-dimensional map for deriving the position and orientation of the image pickup apparatus, a method of using the feature points explicitly detected from the image as in the method of Skrypnyk et al. described above is used. May be good. Moreover, the type of features used is not particularly limited. For example, as a feature, a geometric feature such as an edge, a straight line, or a curve detected from an image may be used. Further, as a feature point, a point having a large gradient of the luminance value on the shade image of the key frame may be used. The three-dimensional map may include the position information (image coordinates (u, v) and depth d) of the features with respect to the points constituting these feature points or geometric features. Furthermore, the three-dimensional map may include feature position information (image coordinates (u, v) and depth d) for all pixels of the keyframe. In this way, any pixel can be treated as a feature point.

[実施形態2]
実施形態1では、シーンの三次元マップのうち事前に作成された部分の信頼度を高くすることで、三次元マップの精度を維持しつつ位置姿勢の計測可能範囲が拡大された。実施形態2では、被写体が位置する空間(シーン)には、撮像画像に基づいて撮像装置170の位置姿勢を計測するための補助的な指標(以下、補助指標)が配置されている。この補助指標は、シーン中に元来存在する特徴とは別のものである。そして、特徴の三次元位置を示す情報には、補助指標の情報に基づく信頼度が与えられる。例えば、特徴の三次元位置を示す情報には、特徴の補助指標からの距離に応じた信頼度が与えられる。具体例として、補助指標に近い特徴には、補助指標から離れた特徴よりも高い信頼度を与えることができる。このようにして、三次元マップのうち補助指標周辺部分の信頼度を高くすることができる。このような方法により、三次元マップの精度を維持しながら位置姿勢の計測可能範囲が広げられる。
[Embodiment 2]
In the first embodiment, by increasing the reliability of the pre-created portion of the three-dimensional map of the scene, the measurable range of the position and orientation is expanded while maintaining the accuracy of the three-dimensional map. In the second embodiment, an auxiliary index (hereinafter referred to as an auxiliary index) for measuring the position and orientation of the image pickup apparatus 170 based on the captured image is arranged in the space (scene) where the subject is located. This auxiliary index is different from the features that originally exist in the scene. Then, the information indicating the three-dimensional position of the feature is given a reliability based on the information of the auxiliary index. For example, the information indicating the three-dimensional position of the feature is given a reliability according to the distance from the auxiliary index of the feature. As a specific example, a feature close to the auxiliary index can be given higher reliability than a feature away from the auxiliary index. In this way, the reliability of the peripheral portion of the auxiliary index in the three-dimensional map can be increased. By such a method, the measurable range of the position and orientation can be expanded while maintaining the accuracy of the three-dimensional map.

本実施形態に係る情報処理装置の構成及び処理について、図1及び図2を参照して説明する。本実施形態に係る情報処理装置の構成及び処理は、実施形態1と類似しており、以下では異なる部分について説明する。 The configuration and processing of the information processing apparatus according to the present embodiment will be described with reference to FIGS. 1 and 2. The configuration and processing of the information processing apparatus according to the present embodiment are similar to those of the first embodiment, and different parts will be described below.

本実施形態では、事前に作成されたシーンの三次元マップは用いられない。代わりに、図7に示すように、補助指標(マーカ)がシーン中に配置される。本実施形態では、画像解析により読み取り可能な識別子が記された所定形状の補助指標が用いられる。図7の例では、内部に個別の識別子を持つ白黒の正方形の指標が補助指標として配置されている。補助指標の配置情報、すなわち補助指標の世界座標系における位置姿勢は、事前に校正することができる。校正方法としては、例えば特許第4532982号又は米国特許第7529387号に開示される方法が挙げられる。設定部150は、シーン中に配置された補助指標についての、事前に校正された配置情報を保持している。 In this embodiment, the three-dimensional map of the scene created in advance is not used. Instead, as shown in FIG. 7, auxiliary indicators (markers) are placed in the scene. In the present embodiment, an auxiliary index having a predetermined shape in which an identifier that can be read by image analysis is written is used. In the example of FIG. 7, a black-and-white square index having an individual identifier is arranged as an auxiliary index inside. The placement information of the auxiliary index, that is, the position and orientation of the auxiliary index in the world coordinate system can be calibrated in advance. Calibration methods include, for example, the methods disclosed in Japanese Patent No. 4532982 or US Pat. No. 7529387. The setting unit 150 holds pre-calibrated placement information about auxiliary indexes placed in the scene.

導出部130は、実施形態1と同様に撮像装置170の位置姿勢を導出する。しかしながら、本実施形態において、情報処理装置1の起動時には、三次元マップにキーフレームが含まれていないため、導出部130は補助指標を用いて撮像装置170の位置姿勢を導出する。例えば、導出部130は、入力画像から検出した補助指標の位置と、補助指標の配置情報と、に従って撮像装置の位置姿勢を導出できる。本実施形態では、一例としてKatoらの方法(H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, and K. Tachibana, “Virtual object manipulation on a table-top AR environment,” Proc. IEEE and ACM International Symposium on Augmented Reality 2000, pp. 111-119, 2000.)が用いられる。 The lead-out unit 130 derives the position and orientation of the image pickup apparatus 170 as in the first embodiment. However, in the present embodiment, when the information processing device 1 is activated, the three-dimensional map does not include keyframes, so the derivation unit 130 derives the position and orientation of the image pickup device 170 using the auxiliary index. For example, the derivation unit 130 can derive the position and orientation of the imaging device according to the position of the auxiliary index detected from the input image and the arrangement information of the auxiliary index. In this embodiment, as an example, the method of Kato et al. (H. Kato, M. Billinghurst, I. Poupyrev, K. Imamoto, and K. Tachibana, “Virtual object manipulation on a table-top AR environment,” Proc. IEEE and ACM International Symposium on Augmented Reality 2000, pp. 111-119, 2000.) Is used.

設定部150は、実施形態1と同様に、特徴の三次元位置を示す情報に信頼度を設定する。本実施形態において、設定部150は、作成部140によって入力画像に基づいて作成された特徴の三次元位置を示す情報に対して、撮像画像中(入力画像中)の補助指標の数に基づく信頼度を設定する。例えば、補助指標の数が多いほど、撮像装置170の位置姿勢の判定精度が高まるため、特徴の三次元位置を示す情報(キーフレームの位置姿勢及び特徴点の情報により表すことができる)の信頼度も高まる。したがって、入力画像中の補助指標の数が閾値以上である場合に、少ない場合と比較して、特徴の三次元位置を示す情報に対してより高い信頼度を設定することができる。本実施形態の場合、設定部150は、キーフレームから検出された補助指標についての配置情報を保持している場合(すなわち補助指標が検出された場合)、このキーフレームの信頼度を高く設定する。一方、設定部150は、キーフレームから、配置情報を保持している補助指標を検出できない場合(例えば補助指標が検出されない場合)、このキーフレームの信頼度を低くする。 Similar to the first embodiment, the setting unit 150 sets the reliability of the information indicating the three-dimensional position of the feature. In the present embodiment, the setting unit 150 trusts the information indicating the three-dimensional position of the feature created by the creating unit 140 based on the input image based on the number of auxiliary indexes in the captured image (in the input image). Set the degree. For example, as the number of auxiliary indexes increases, the accuracy of determining the position and orientation of the image pickup apparatus 170 increases, so that the reliability of the information indicating the three-dimensional position of the feature (which can be expressed by the information of the position and orientation of the key frame and the feature point) The degree also increases. Therefore, when the number of auxiliary indexes in the input image is equal to or greater than the threshold value, higher reliability can be set for the information indicating the three-dimensional position of the feature as compared with the case where the number is small. In the case of the present embodiment, when the setting unit 150 holds the arrangement information about the auxiliary index detected from the key frame (that is, when the auxiliary index is detected), the reliability of this key frame is set high. .. On the other hand, when the setting unit 150 cannot detect the auxiliary index holding the arrangement information from the key frame (for example, when the auxiliary index is not detected), the setting unit 150 lowers the reliability of this key frame.

補正部160は、実施形態1と同様に、設定部150が設定したキーフレームの信頼度をもとに、三次元マップ全体の整合性が取れるようにキーフレームの位置姿勢を補正する。信頼度の高いキーフレームの位置姿勢は、前述のKatoらの方法を用いて補助指標をもとに算出され、補正部160による補正時には固定される。 Similar to the first embodiment, the correction unit 160 corrects the position and orientation of the key frame based on the reliability of the key frame set by the setting unit 150 so that the entire three-dimensional map can be consistent. The position and orientation of the key frame with high reliability is calculated based on the auxiliary index by using the method of Kato et al. described above, and is fixed at the time of correction by the correction unit 160.

本実施形態において、ステップS1020〜S1040及びS1070の処理は実施形態1と同様である。以下では、ステップS1010及びS1050〜S1060の処理について説明する。 In the present embodiment, the processes of steps S1020 to S1040 and S1070 are the same as those in the first embodiment. Hereinafter, the processes of steps S1010 and S1050 to S1060 will be described.

ステップS1010において設定部150は、事前に校正された補助指標の配置情報を外部記憶装置(不図示)から取得する。 In step S1010, the setting unit 150 acquires the arrangement information of the auxiliary index calibrated in advance from the external storage device (not shown).

ステップS1050において設定部150は、ステップS1040で三次元マップに追加されたキーフレームの信頼度を設定する。まず、設定部150は、追加されたキーフレームから補助指標を検出する。補助指標の検出は、例えば次のように行うことができる。まず、設定部150は、キーフレームを二値化し、二値化された画像から四角形領域を検出する。次に、設定部150は、四角形領域の各頂点の画像座標に基づいて、四角形領域から正方形領域への射影変換を算出し、四角形領域を正方形領域に変換する。さらに、設定部150は、正方形領域の所定位置における画像の輝度値を読み出すことにより、補助指標の識別子を特定する。特定した識別子が、配置情報が保持されている補助指標の識別子である場合、設定部150はキーフレーム上で補助指標が識別されたと判断する。 In step S1050, the setting unit 150 sets the reliability of the keyframe added to the three-dimensional map in step S1040. First, the setting unit 150 detects the auxiliary index from the added key frame. The detection of the auxiliary index can be performed, for example, as follows. First, the setting unit 150 binarizes the key frame and detects a quadrangular region from the binarized image. Next, the setting unit 150 calculates the projective transformation from the quadrilateral region to the square region based on the image coordinates of each vertex of the quadrilateral region, and converts the quadrilateral region into the square region. Further, the setting unit 150 identifies the identifier of the auxiliary index by reading out the brightness value of the image at a predetermined position in the square area. When the identified identifier is the identifier of the auxiliary index in which the arrangement information is held, the setting unit 150 determines that the auxiliary index has been identified on the key frame.

キーフレーム上で補助指標が識別されなかった場合、設定部150はこのキーフレームの信頼度をLOWに設定する。また、キーフレーム上で補助指標が識別された場合、設定部150はこのキーフレームの信頼度をHIGHに設定することができる。一方、本実施形態において設定部150は、補助指標の識別状況を判定し、この判定結果を示す指標に応じてキーフレームの信頼度を設定することができる。例えば、設定部150は、補助指標が精度良く識別された場合、例えば補助指標のキーフレーム上での配置の分散度が閾値以上である場合にキーフレームの信頼度をHIGHに設定し、閾値未満である場合にキーフレームの信頼度をLOWに設定することができる。 If the auxiliary index is not identified on the keyframe, the setting unit 150 sets the reliability of this keyframe to LOW. Further, when the auxiliary index is identified on the key frame, the setting unit 150 can set the reliability of the key frame to HIGH. On the other hand, in the present embodiment, the setting unit 150 can determine the identification status of the auxiliary index and set the reliability of the key frame according to the index indicating the determination result. For example, the setting unit 150 sets the reliability of the key frame to HIGH when the auxiliary index is accurately identified, for example, when the dispersion degree of the arrangement of the auxiliary index on the key frame is equal to or more than the threshold value, and is less than the threshold value. If, the keyframe reliability can be set to LOW.

このような方法の一例として、補助指標が識別されたと判断された場合、設定部150は、さらに画像上での補助指標の頂点の分布を算出することができる。例えば、設定部150は、補助指標の頂点の分布の評価値として、全ての識別された補助指標の各頂点の画像座標の共分散行列の最小固有値λminを算出することができる。λminは、補助指標の頂点が画像上に広く分布している場合には大きく、狭く分布している場合には小さくなる。λminが小さい場合、識別された補助指標から算出されるキーフレームの位置姿勢は、補助指標の検出誤差の影響を受けやすいため、精度が低い可能性がある。そのため、λminが閾値Tλより小さい場合、設定部150はキーフレームの信頼度BをLOWに設定する。一方、λminが大きい場合、識別された補助指標から算出されるキーフレームの位置姿勢は補助指標の検出誤差の影響を受けにくいため、精度が高いと考えられる。そこで、λminが閾値Tλ以上の場合には、設定部150はキーフレームの信頼度BをHIGHに設定する。 As an example of such a method, when it is determined that the auxiliary index has been identified, the setting unit 150 can further calculate the distribution of the vertices of the auxiliary index on the image. For example, the setting unit 150 can calculate the minimum eigenvalue λ min of the covariance matrix of the image coordinates of each vertex of all the identified auxiliary indexes as the evaluation value of the distribution of the vertices of the auxiliary indexes. λ min is large when the vertices of the auxiliary index are widely distributed on the image and small when the vertices of the auxiliary index are narrowly distributed. When λ min is small, the position and orientation of the key frame calculated from the identified auxiliary index may be less accurate because it is easily affected by the detection error of the auxiliary index. Therefore, when λ min is smaller than the threshold value T λ , the setting unit 150 sets the keyframe reliability B to LOW. On the other hand, when λ min is large, the position and orientation of the key frame calculated from the identified auxiliary index is not easily affected by the detection error of the auxiliary index, so that the accuracy is considered to be high. Therefore, when λ min is equal to or greater than the threshold value T λ , the setting unit 150 sets the keyframe reliability B to HIGH.

ステップS1060で補正部160は、実施形態1と同様に、三次元マップ全体が整合するようにキーフレームの位置姿勢を補正することにより、三次元マップの補正を行う。すなわち、補正部160は、信頼度がLOWに設定されているキーフレームの位置姿勢のみを補正し、信頼度がHIGHに設定されているキーフレームの位置姿勢は補正しない。このように、補正部160は、撮像画像に基づいて撮像装置の位置姿勢を計測するための、被写体が位置する空間に配置された補助指標に基づいて生成された特徴の三次元位置を示す情報を固定する。このような固定を行いながら、特徴の三次元位置を示す情報の更新を行うことにより、三次元マップの整合性を向上させる。 In step S1060, the correction unit 160 corrects the three-dimensional map by correcting the position and orientation of the keyframes so that the entire three-dimensional map is aligned, as in the first embodiment. That is, the correction unit 160 corrects only the position / orientation of the key frame whose reliability is set to LOW, and does not correct the position / orientation of the key frame whose reliability is set to HIGH. As described above, the correction unit 160 provides information indicating the three-dimensional position of the feature generated based on the auxiliary index arranged in the space where the subject is located for measuring the position and orientation of the image pickup device based on the captured image. To fix. By updating the information indicating the three-dimensional position of the feature while performing such fixing, the consistency of the three-dimensional map is improved.

以上述べたように実施形態2では、補助指標が検出されたキーフレームの信頼度を高くすることで、精度を維持しながら位置姿勢の計測可能範囲が広げられる。すなわち、補助指標を用いて判定されたキーフレームの位置姿勢は精度が高いと考えられるため、三次元マップの補正においてこの位置姿勢を補正しないことにより、精度の維持が可能となる。 As described above, in the second embodiment, by increasing the reliability of the key frame in which the auxiliary index is detected, the measurable range of the position and orientation can be expanded while maintaining the accuracy. That is, since the position / orientation of the key frame determined by using the auxiliary index is considered to have high accuracy, the accuracy can be maintained by not correcting this position / orientation in the correction of the three-dimensional map.

(実施形態2の変形例)
実施形態1の変形例と同様に、三次元マップには特徴点が登録され、各特徴点の世界座標系における三次元座標が三次元マップに保持されていてもよい。この場合、設定部150は、補助指標に近接する特徴点の三次元座標の信頼度をHIGHに設定し、それ以外の三次元座標の信頼度をLOWに設定してもよい。例えば、補助指標に近接する特徴点の三次元座標を、補助指標に基づいて推定された撮像装置の位置姿勢に基づいて算出しておき、バンドル調整を行う際に、補助指標に近接する特徴点の三次元座標を固定してそれ以外の特徴点の三次元座標のみを補正してもよい。また、上記のように、補助指標が検出されたキーフレームの信頼度をHIGHに設定し、それ以外のキーフレームの信頼度をLOWに設定してもよい。すなわち、バンドル調整を行う際に、補助指標が検出されたキーフレームの位置姿勢を固定してそれ以外のキーフレームの位置姿勢のみを補正してもよい。このような方法によっても、補助指標を用いて得られた精度の高い情報を活用しつつ、撮像装置の位置姿勢の計測範囲を広げることができる。
(Modified Example of Embodiment 2)
Similar to the modification of the first embodiment, the feature points may be registered in the three-dimensional map, and the three-dimensional coordinates of each feature point in the world coordinate system may be held in the three-dimensional map. In this case, the setting unit 150 may set the reliability of the three-dimensional coordinates of the feature points close to the auxiliary index to HIGH and the reliability of the other three-dimensional coordinates to LOW. For example, the three-dimensional coordinates of the feature points close to the auxiliary index are calculated based on the position and orientation of the image pickup device estimated based on the auxiliary index, and when the bundle adjustment is performed, the feature points close to the auxiliary index are calculated. The three-dimensional coordinates of the above may be fixed and only the three-dimensional coordinates of other feature points may be corrected. Further, as described above, the reliability of the keyframe in which the auxiliary index is detected may be set to HIGH, and the reliability of other keyframes may be set to LOW. That is, when the bundle adjustment is performed, the position / orientation of the keyframe in which the auxiliary index is detected may be fixed and only the position / orientation of the other keyframes may be corrected. Also by such a method, it is possible to expand the measurement range of the position and orientation of the image pickup apparatus while utilizing the highly accurate information obtained by using the auxiliary index.

(実施形態2のバリエーション)
補助指標の形状は正方形(四角形)には限られない。例えば、三角形、六角形、円形、又は楕円形の補助指標を用いてもよい。画像から安定的に検出可能な形状を適宜選択することができる。また、補助指標の識別子を画像から特定することは必須ではない。例えば、円形の補助指標を用いる場合、導出部130が導出しようとする撮像装置の位置姿勢に基づいて補助指標の画像上の位置を算出し、この位置の近傍で検出された補助指標と対応付けることで、補助指標を識別することができる。また、識別子つきの補助指標と識別子のない補助指標とを併用してもよい。この場合、識別子つきの補助指標から算出される撮像装置の位置姿勢をもとに、識別子のない補助指標の画像上の位置を算出し、近傍で検出された補助指標と対応付けてもよい。
(Variation of Embodiment 2)
The shape of the auxiliary index is not limited to a square (quadrangle). For example, triangular, hexagonal, circular, or elliptical auxiliary indicators may be used. A shape that can be stably detected from the image can be appropriately selected. Further, it is not essential to specify the identifier of the auxiliary index from the image. For example, when a circular auxiliary index is used, the position of the auxiliary index on the image is calculated based on the position and orientation of the imaging device to be derived by the out-licensing unit 130, and the auxiliary index is associated with the auxiliary index detected in the vicinity of this position. Can identify auxiliary indicators. Further, the auxiliary index with an identifier and the auxiliary index without an identifier may be used together. In this case, the position of the auxiliary index without the identifier on the image may be calculated based on the position and orientation of the imaging device calculated from the auxiliary index with the identifier, and may be associated with the auxiliary index detected in the vicinity.

補助指標の配置情報の校正は、必ずしも事前に行わなくてもよい。例えば、撮像装置170によって撮像される画像を用いて、シーンの三次元マップ作成と並行して配置情報が校正されてもよい。この場合、最初は三次元マップの補正を行わず、補助指標の配置情報の信頼度が閾値以上となった後に、補助指標を用いた三次元マップの補正を行うことにより、三次元マップの精度が低下しないようにすることができる。補助指標の配置情報の信頼度は、例えば校正に用いた画像群において各補助指標が検出された回数の平均値又は最小値に基づいて決定することができる。検出回数の平均値又は最小値が大きいほど、配置情報の信頼度は高い。一例として、補助指標の配置情報が示す三次元位置に対応する入力画像上の位置から補助指標が検出された場合に、補助指標が検出されたものと判定することができる。 The calibration of the arrangement information of the auxiliary index does not necessarily have to be performed in advance. For example, the arrangement information may be calibrated in parallel with the creation of the three-dimensional map of the scene by using the image captured by the image pickup apparatus 170. In this case, the accuracy of the 3D map is corrected by correcting the 3D map using the auxiliary index after the reliability of the arrangement information of the auxiliary index exceeds the threshold value without correcting the 3D map at first. Can be prevented from decreasing. The reliability of the arrangement information of the auxiliary indexes can be determined based on, for example, the average value or the minimum value of the number of times each auxiliary index is detected in the image group used for calibration. The larger the average value or the minimum value of the number of detections, the higher the reliability of the placement information. As an example, when the auxiliary index is detected from the position on the input image corresponding to the three-dimensional position indicated by the arrangement information of the auxiliary index, it can be determined that the auxiliary index is detected.

補助指標の識別状況を示す指標は、補助指標の頂点の分布の評価値又は補助指標の頂点の画像座標の共分散行列の最小固有値には限られない。例えば、画像上で検出される補助指標の個数を用いてもよい。この場合、検出された補助指標の個数が多いほど、評価値を低くすることができる。また、検出された補助指標の個数と、補助指標の頂点の分布と、の双方に基づく指標を用いてもよい。 The index indicating the identification status of the auxiliary index is not limited to the evaluation value of the distribution of the vertices of the auxiliary index or the minimum eigenvalue of the covariance matrix of the image coordinates of the vertices of the auxiliary index. For example, the number of auxiliary indexes detected on the image may be used. In this case, the larger the number of detected auxiliary indexes, the lower the evaluation value can be. Further, an index based on both the number of detected auxiliary indexes and the distribution of the vertices of the auxiliary indexes may be used.

また、信頼度の決定方法としては様々な方法を用いることができる。例えば、補助指標が画像上から検出されているか否かに基づいて信頼度を決定する方法の他に、モーションブラーが起こっているか否か、又は画像全体若しくは一部が明る過ぎる若しくは暗過ぎるか否か、に基づいて信頼度を決定してもよい。例えば、モーションブラーが起こっている場合、又は画像が明るすぎる若しくは暗すぎる場合に、キーフレームの信頼度を低くすることができる。本実施形態においては、事前に作成された三次元マップの信頼度と、補助指標に基づく信頼度と、を併用することができる。例えば、事前マップに含まれるキーフレームの信頼度と、十分に補助指標が検出されているキーフレームの信頼度と、をHIGHに設定することができ、信頼度がHIGHに設定されているキーフレームを補正の対象から外すことができる。 Further, various methods can be used as a method for determining the reliability. For example, in addition to the method of determining the reliability based on whether the auxiliary index is detected on the image, whether motion blur is occurring, or whether the whole or part of the image is too bright or too dark. Or, the reliability may be determined based on. For example, keyframe reliability can be reduced if motion blur is occurring, or if the image is too bright or too dark. In the present embodiment, the reliability of the three-dimensional map created in advance and the reliability based on the auxiliary index can be used together. For example, the reliability of keyframes included in the pre-map and the reliability of keyframes for which auxiliary indicators are sufficiently detected can be set to HIGH, and the reliability is set to HIGH. Can be excluded from the correction target.

(実施形態1,2に共通のバリエーション)
実施形態1,2では、キーフレーム又は特徴点の信頼度はHIGH又はLOWの二値であった。また、三次元マップを補正する際には、信頼度はキーフレームの位置姿勢又は特徴点の三次元位置を固定するか否かを決定するために用いられた。すなわち、信頼度がHIGHのキーフレームの位置姿勢又は特徴点の三次元位置は固定され、信頼度がLOWのキーフレームの位置姿勢又は特徴点の三次元位置のみ補正された。しかしながら、特徴の三次元位置を示す情報(例えばキーフレーム又は特徴点)の信頼度は二値に限られず、多値又は実数値でありうる。
(Variations common to Embodiments 1 and 2)
In embodiments 1 and 2, the reliability of keyframes or feature points was binary of HIGH or LOW. In addition, when correcting the 3D map, the reliability was used to determine whether to fix the position / orientation of the keyframe or the 3D position of the feature point. That is, the position / orientation of the key frame having a reliability of HIGH or the three-dimensional position of the feature point was fixed, and only the position / orientation of the key frame having a reliability of LOW or the three-dimensional position of the feature point was corrected. However, the reliability of information indicating the three-dimensional position of a feature (for example, a keyframe or a feature point) is not limited to a binary value, and can be a multi-valued value or a real value.

このような例において、補正部160は、特徴の三次元位置を示す情報の信頼度に応じた更新量で、特徴の三次元位置を示す情報を更新することができる。例えば、補正部160は、信頼度を重みとして用いることにより、信頼度の高さに応じて補正量が小さくなるように、キーフレームの位置姿勢又は特徴点の三次元位置を補正してもよい。 In such an example, the correction unit 160 can update the information indicating the three-dimensional position of the feature with an update amount according to the reliability of the information indicating the three-dimensional position of the feature. For example, the correction unit 160 may correct the position / orientation of the key frame or the three-dimensional position of the feature point so that the correction amount becomes smaller according to the higher reliability by using the reliability as a weight. ..

実施形態1,2では、三次元マップを補正した後に、次の入力画像を取得して撮像装置170の位置姿勢の導出が行われた。しかしながら、三次元マップの補正のタイミングは特に限定されない。例えば、前述のEngelの方法やKleinの方法のように、入力画像の取得及び撮像装置170の位置姿勢の導出と並行して、三次元マップの補正を行う並列処理を用いてもよい。一実施形態において、撮像装置170の位置姿勢の導出(ステップS1020〜S1030)、キーフレームの作成(ステップS1040〜S1050)、及び三次元マップの補正(ステップS1060)は独立に任意のタイミングで行うことができる。 In the first and second embodiments, after correcting the three-dimensional map, the next input image is acquired and the position and orientation of the image pickup apparatus 170 are derived. However, the timing of correction of the three-dimensional map is not particularly limited. For example, as in the Angel method and Klein method described above, parallel processing that corrects the three-dimensional map may be used in parallel with the acquisition of the input image and the derivation of the position and orientation of the image pickup apparatus 170. In one embodiment, the derivation of the position and orientation of the image pickup apparatus 170 (steps S1020 to S1030), the creation of keyframes (steps S104 to S1050), and the correction of the three-dimensional map (step S1060) are independently performed at arbitrary timings. Can be done.

[実施形態3]
実施形態1,2では、撮像装置が位置姿勢の計測可能範囲から外れそうになると、新しいキーフレームが三次元マップに追加され、また三次元マップ全体の整合が取れるように補正が行われた。実施形態3では、撮像装置が位置姿勢の計測可能範囲から外れそうになると、事前マップとは別に、撮像装置による撮像画像に基づいて一時的なマップ(以下、一時マップ)が作成され、撮像装置の位置姿勢の計測が継続される。本実施形態では、一時マップを用いて位置姿勢の計測は、デッドレコニングにより行われる。
[Embodiment 3]
In the first and second embodiments, when the image pickup device is about to go out of the measurable range of the position and orientation, a new key frame is added to the 3D map, and correction is performed so that the entire 3D map can be matched. In the third embodiment, when the image pickup device is about to deviate from the measurable range of the position and orientation, a temporary map (hereinafter, temporary map) is created based on the image captured by the image pickup device in addition to the prior map, and the image pickup device is created. Position and orientation measurement is continued. In the present embodiment, the position and orientation are measured by using the temporary map by dead reckoning.

本実施形態に係る情報処理装置の構成及び処理について、図8及び図2を参照して説明する。本実施形態に係る情報処理装置の構成及び処理は、実施形態1と類似しており、以下では異なる部分について説明する。図8は、実施形態3に係る情報処理装置3の機能構成を示す。情報処理装置3は、実施形態1と同様に、保持部110、入力部120、導出部130、及び作成部140を備える。また、入力部120は撮像装置170と接続されている。情報処理装置3は、さらに、選択部390を備えている。本実施形態に係る情報処理装置の構成及び処理は、実施形態1と類似しており、以下では異なる部分について説明する。 The configuration and processing of the information processing apparatus according to the present embodiment will be described with reference to FIGS. 8 and 2. The configuration and processing of the information processing apparatus according to the present embodiment are similar to those of the first embodiment, and different parts will be described below. FIG. 8 shows the functional configuration of the information processing apparatus 3 according to the third embodiment. The information processing device 3 includes a holding unit 110, an input unit 120, a derivation unit 130, and a creating unit 140, as in the first embodiment. Further, the input unit 120 is connected to the image pickup apparatus 170. The information processing device 3 further includes a selection unit 390. The configuration and processing of the information processing apparatus according to the present embodiment are similar to those of the first embodiment, and different parts will be described below.

保持部110は、実施形態1と同様に事前マップを保持するとともに、ランタイム時に作成される一時マップを保持する。選択部390は、撮像装置170の位置姿勢の予測値に基づいて、撮像装置170の位置姿勢の導出のために、事前マップ又は一時マップを三次元マップとして選択する。導出部130は、入力画像と、選択部390が選択した三次元マップとを用いて、撮像装置170の位置姿勢を導出する。作成部140は、撮像装置170の位置姿勢及び入力画像に基づいて、一時マップを作成する。 The holding unit 110 holds the pre-map as in the first embodiment, and also holds the temporary map created at runtime. The selection unit 390 selects a pre-map or a temporary map as a three-dimensional map for deriving the position and orientation of the image pickup device 170 based on the predicted value of the position and orientation of the image pickup device 170. The derivation unit 130 derives the position and orientation of the image pickup apparatus 170 by using the input image and the three-dimensional map selected by the selection unit 390. The creation unit 140 creates a temporary map based on the position / orientation of the image pickup apparatus 170 and the input image.

本実施形態において、ステップS1010〜S1020及びS1070の処理は実施形態1と同様である。また、ステップS1050〜S1060の処理は行われない。以下では、ステップS1030〜S1040の処理について説明する。 In this embodiment, the processing of steps S101 to S1020 and S1070 is the same as that of the first embodiment. Further, the processes of steps S1050 to S1060 are not performed. Hereinafter, the processing of steps S103 to S1040 will be described.

ステップS1030において、導出部130は、入力画像と、事前マップ又は一時マップを用いて、撮像装置170の位置姿勢を導出する。ステップS1030の処理は次のように行うことができる。まず、選択部390は、撮像装置170の位置姿勢の予測値に基づいて、撮像装置170の位置姿勢の導出に用いる三次元マップを選択する。本実施形態において、選択部390は、保持部110に保持される事前マップと一時マップのいずれを利用するかを選択する。この処理の詳細については後述する。 In step S1030, the derivation unit 130 derives the position and orientation of the image pickup apparatus 170 by using the input image and the pre-map or the temporary map. The process of step S1030 can be performed as follows. First, the selection unit 390 selects a three-dimensional map to be used for deriving the position / orientation of the image pickup device 170 based on the predicted value of the position / orientation of the image pickup device 170. In the present embodiment, the selection unit 390 selects whether to use the pre-map or the temporary map held by the holding unit 110. The details of this process will be described later.

次に、導出部130は、選択部390により選択された三次元マップと入力画像とをもとに、画像を撮像した時の撮像装置170の位置姿勢を導出する。処理方法は特に限定されず、実施形態1と同様に行うことができる。本実施形態では、前述のEngelらが開示しているような、キーフレーム又は前フレームの撮像装置170の位置姿勢と、現フレームの撮像装置170との位置姿勢と、の間の相対位置姿勢を用いた、位置姿勢の導出方法が利用される。また、一時マップを利用する場合は、デッドレコニングが行われる。すなわち、導出部130は、前フレームからの撮像装置170の相対的な位置姿勢変化を算出し、前フレームの世界座標系における位置姿勢と統合することにより、現フレームの世界座標系における撮像装置170の位置姿勢を導出する。 Next, the derivation unit 130 derives the position and orientation of the image pickup device 170 when the image is taken, based on the three-dimensional map selected by the selection unit 390 and the input image. The treatment method is not particularly limited, and can be carried out in the same manner as in the first embodiment. In the present embodiment, the relative position / orientation between the position / orientation of the image pickup device 170 of the key frame or the front frame and the position / orientation of the image pickup device 170 of the current frame as disclosed by Angel et al. The method of deriving the position and orientation used is used. In addition, when using a temporary map, dead reckoning is performed. That is, the derivation unit 130 calculates the relative position / orientation change of the image pickup device 170 from the previous frame and integrates it with the position / orientation in the world coordinate system of the previous frame, so that the image pickup device 170 in the world coordinate system of the current frame Derivation of the position and orientation of.

ステップS1040において作成部140は、ステップS1030で導出された撮像装置170の位置姿勢及び入力画像に基づいて、被写体が有する特徴の三次元位置を示す情報を含む一時マップを作成する。本ステップの詳細については後述する。 In step S1040, the creation unit 140 creates a temporary map including information indicating the three-dimensional position of the feature of the subject based on the position / orientation of the image pickup apparatus 170 derived in step S1030 and the input image. Details of this step will be described later.

(ステップS1030における三次元マップ選択の詳細)
選択部390はまず、撮像装置170の位置姿勢の予測値に基づいて、事前マップにおける近傍キーフレームを選択する。撮像装置170の位置姿勢の予測値としては、例えば、前回のステップS1030で導出された位置姿勢を利用することができる。近傍キーフレームの選択は、実施形態1のステップS1040と同様の方法を用いて行うことができる。さらに、選択部390は、撮像装置170が位置姿勢計測範囲から外れているか否かを判断する。この判断は、実施形態1のステップS1040と同様に、入力画像内に含まれる近傍キーフレームの特徴点の割合Rincに基づいて行うことができる。Rincが閾値Tinc未満の場合に、選択部390は、撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定する。
(Details of 3D map selection in step S1030)
First, the selection unit 390 selects a neighborhood keyframe in the pre-map based on the predicted value of the position and orientation of the image pickup apparatus 170. As the predicted value of the position / orientation of the image pickup apparatus 170, for example, the position / orientation derived in the previous step S1030 can be used. The selection of the neighborhood keyframe can be performed by using the same method as in step S1040 of the first embodiment. Further, the selection unit 390 determines whether or not the image pickup apparatus 170 is out of the position / orientation measurement range. This determination can be made based on the ratio R inc of the feature points of the neighboring keyframes included in the input image, as in step S1040 of the first embodiment. When the R inc is less than the threshold value T inc , the selection unit 390 determines that the image pickup apparatus 170 is out of the measurement range of the position / orientation according to the pre-map.

撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定した場合、選択部390は、位置姿勢の導出に用いるための三次元マップとして一時マップを選択する。撮像装置170が事前マップによる位置姿勢の計測範囲を外れていないと判定した場合、選択部390は、位置姿勢の導出に用いるための三次元マップとして事前マップを選択する。 When the image pickup apparatus 170 determines that the position / orientation measurement range is out of the pre-map, the selection unit 390 selects a temporary map as a three-dimensional map to be used for deriving the position / orientation. When the image pickup apparatus 170 determines that the measurement range of the position / orientation based on the pre-map is not deviated, the selection unit 390 selects the pre-map as a three-dimensional map to be used for deriving the position / orientation.

(ステップ1040の詳細)
本実施形態においては、作成部140は、被写体が有する特徴の三次元位置を示す情報を有する一時マップを作成する。一時マップの作成は次のように行うことができる。まず、作成部140は、一時マップを作成するために、入力画像Icurrentとステレオペアになる画像Ipairを選択する。ステップS1030において事前マップが選択された場合、選択された近傍キーフレームがIpairとして選択される。一方、ステップS1030において一時マップが選択された場合、過去の入力画像がIpairとして選択される。ここで、Ipairは、過去の入力画像のうち、Icurrentの撮像位置との差が閾値T以上であり、かつ撮像時刻がIcurrentと最も近い入力画像である。
(Details of step 1040)
In the present embodiment, the creation unit 140 creates a temporary map having information indicating the three-dimensional position of the feature of the subject. The temporary map can be created as follows. First, the creation unit 140 selects an image I pair that is a stereo pair with the input image Current in order to create a temporary map. If the premap is selected in step S1030, the selected neighborhood keyframe is selected as the Ipair. On the other hand, when the temporary map is selected in step S1030, the past input image is selected as Ipair. Here, I pair, of the past input image, the difference between the imaging position of the I current is not less threshold T p above, and the imaging time is closest to the input image and I current.

次に、作成部140は、Ipair上の各特徴点に対応するIcurrent上の特徴点を探索する。この探索には、Icurrent及びIpairの撮像時の位置姿勢から算出されるエピポーラ線を考慮することができる。例えば作成部140は、Ipair上の特徴点に対応するIcurrent上のエピポーラ線上において、IpairとIcurrentとの間でN×N画素のウィンドウ内の輝度値の差が最も小さくなる位置を探索する。作成部140は、こうして探索された位置を、Ipair上の特徴点の画像座標に対応するIcurrent上の画像座標と判定する。 Next, the creation unit 140 searches for the feature points on the I current corresponding to each feature point on the I pair. For this search, epipolar lines calculated from the positions and orientations of I current and I pair at the time of imaging can be taken into consideration. For example creating unit 140, the epipolar line on the I current corresponding to the feature points on the I pair, a difference is smallest position of the luminance values in a window of N × N pixels between I pair and I current Explore. The creation unit 140 determines that the position thus searched is the image coordinates on the I current corresponding to the image coordinates of the feature points on the I pair .

次に作成部140は、得られた画像座標のペアを用いて、三角測量によってIcurrentの撮像座標系における各特徴点の奥行きを算出する。そして作成部140は、このようにして得た、Icurrent上の特徴点群の画像座標(u,v)及び奥行きdを一時マップに保持する。さらに、作成部140は、一時マップにはIcurrent撮像時の世界座標系における位置姿勢を属性として保持する。 Next, the creating unit 140 calculates the depth of each feature point in the imaging coordinate system of Icurlent by triangulation using the obtained pair of image coordinates. Then, the creating unit 140 holds the image coordinates (u, v) and the depth d of the feature point cloud on the ICurent obtained in this way in the temporary map. Further, the creation unit 140 holds the position / orientation in the world coordinate system at the time of Icurent imaging as an attribute in the temporary map.

導出部130は、このように作成された一時マップを用いて、Icurrentの撮像座標系に対する、撮像装置170の新たな位置姿勢を導出することができる。そして、導出部130は、Icurrent撮像時の世界座標系における位置姿勢を用いて、Icurrentの撮像座標系に対する撮像装置170の新たな位置姿勢を、世界座標系における位置姿勢に変換することができる。 The derivation unit 130 can derive a new position and orientation of the image pickup apparatus 170 with respect to the image pickup coordinate system of the Ilcurent by using the temporary map created in this way. Then, the derivation unit 130 can convert the new position / orientation of the image pickup apparatus 170 with respect to the image pickup coordinate system of the ICurent into the position / orientation in the world coordinate system by using the position / orientation in the world coordinate system at the time of Icurent imaging. it can.

以上のように実施形態3では、撮像装置が位置姿勢の計測可能範囲から外れた場合には一時マップを用いることにより、位置姿勢の計測が継続される。このように、事前マップのみを用いる場合よりも計測可能範囲を広げることができる。一方で、事前マップの補正は行われないため、事前マップの精度を保つことができる。 As described above, in the third embodiment, when the imaging device deviates from the measurable range of the position / orientation, the measurement of the position / orientation is continued by using the temporary map. In this way, the measurable range can be expanded as compared with the case where only the pre-map is used. On the other hand, since the pre-map is not corrected, the accuracy of the pre-map can be maintained.

(実施形態3のバリエーション)
実施形態3では、撮像装置170が計測可能範囲か外れそうか否かに関係なく、入力画像を取得する毎に一時マップが作成された。しかしながら、一時マップを作成するタイミングはこれに限られない。例えば、ステップS1040では、直前のステップS1030で導出された位置姿勢に基づいて、ステップS1030と同様の方法を用いて撮像装置170が事前マップによる位置姿勢の計測範囲を外れそうであることを示す所定の範囲にいる否かを判定できる。そして、撮像装置170が事前マップによる位置姿勢の計測範囲を外れそうと判定された場合に、作成部140は一時マップを作成してもよい。
(Variation of Embodiment 3)
In the third embodiment, a temporary map is created every time the input image is acquired, regardless of whether the image pickup apparatus 170 is within the measurable range or is likely to be out of the measurable range. However, the timing of creating a temporary map is not limited to this. For example, in step S1040, based on the position / orientation derived in the immediately preceding step S1030, the imaging device 170 is likely to deviate from the measurement range of the position / orientation based on the pre-map by using the same method as in step S1030. It can be determined whether or not it is within the range of. Then, when it is determined that the image pickup apparatus 170 is about to deviate from the measurement range of the position / orientation based on the prior map, the creation unit 140 may create a temporary map.

また、ステップS1040では、直前のステップS1030で導出された位置姿勢に基づいて、ステップS1030と同様の方法を用いて撮像装置170が事前マップによる位置姿勢の計測範囲を外れているか否かを判定できる。そして、撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定された場合に、作成部140は一時マップを作成することができる。この場合、選択部390は、ステップS1030ではなくステップS1040において、次のフレームにおける撮像画像の位置姿勢を導出するために用いる三次元マップの選択を行ってもよい。 Further, in step S1040, based on the position / orientation derived in the immediately preceding step S1030, it is possible to determine whether or not the image pickup apparatus 170 is out of the measurement range of the position / orientation based on the prior map by using the same method as in step S1030. .. Then, when it is determined that the image pickup apparatus 170 is out of the measurement range of the position / orientation by the prior map, the creation unit 140 can create a temporary map. In this case, the selection unit 390 may select the three-dimensional map to be used for deriving the position and orientation of the captured image in the next frame in step S1040 instead of step S1030.

実施形態3では、一時マップは1フレームにおける撮像装置170の位置姿勢の導出にのみ用いられた。しかしながら、一時マップを複数のフレームにおける撮像装置170の位置姿勢の導出に用いてもよい。例えば、保持部110は、複数の一時マップを三次元マップとして保持することができる。そして、撮像装置170が事前マップによる位置姿勢の計測範囲を外れていると判定された場合、選択部390は、位置姿勢の導出のために、複数の一時マップから近傍の一時マップを選択することができる。ここで、近傍の一時マップは、例えば、一時マップの作成に用いた画像の撮像位置に基づいて選択することができる。一例として、入力画像との撮像位置の差が閾値以内であり、かつ撮像時刻が最も近い近い画像を用いて作製された一時マップを選択することができる。さらに、複数の一時マップ間の整合が取れるように、実施形態1,2で説明した三次元マップの補正手法を用いることにより、一時マップの補正を行ってもよい。 In the third embodiment, the temporary map was used only for deriving the position and orientation of the image pickup apparatus 170 in one frame. However, the temporary map may be used to derive the position and orientation of the image pickup apparatus 170 in a plurality of frames. For example, the holding unit 110 can hold a plurality of temporary maps as a three-dimensional map. Then, when it is determined that the image pickup apparatus 170 is out of the measurement range of the position / orientation based on the prior map, the selection unit 390 selects a temporary map in the vicinity from a plurality of temporary maps in order to derive the position / orientation. Can be done. Here, the temporary map in the vicinity can be selected, for example, based on the imaging position of the image used to create the temporary map. As an example, it is possible to select a temporary map created by using an image in which the difference in the imaging position from the input image is within the threshold value and the imaging time is the closest. Further, the temporary map may be corrected by using the three-dimensional map correction method described in the first and second embodiments so that the plurality of temporary maps can be matched.

実施形態3では、現フレームにおける撮像装置170の位置姿勢の予測値として、前フレームで導出された撮像装置170の位置姿勢が用いられた。しかしながら、位置姿勢の予測値の導出方法はこれに限られない。例えば、動きモデルを用いて撮像装置170の位置姿勢を予測することができる。動きモデルとしては、例えば、等速度運動、等加速度運動、又は等角速度運動を表す動きモデルを用いることができる。過去の位置姿勢の導出結果に基づいて動きモデルを表すパラメータを推定することにより、動きモデルを用いて現フレームにおける位置姿勢を予測することができる。別の方法として、撮像装置170に固定されたセンサの計測値を用いて、現フレームにおける撮像装置170の位置姿勢を予測してもよい。センサとしては、例えば、位置、速度、加速度、姿勢、又は角速度を計測するセンサを用いることができる。 In the third embodiment, the position / orientation of the image pickup device 170 derived in the previous frame was used as the predicted value of the position / orientation of the image pickup device 170 in the current frame. However, the method for deriving the predicted value of the position and orientation is not limited to this. For example, the position and orientation of the image pickup apparatus 170 can be predicted using a motion model. As the motion model, for example, a motion model representing isokinetic motion, isoacceleration motion, or equiangular velocity motion can be used. By estimating the parameters representing the motion model based on the derivation result of the past position and orientation, the position and orientation in the current frame can be predicted using the motion model. Alternatively, the position and orientation of the image pickup device 170 in the current frame may be predicted using the measured values of the sensor fixed to the image pickup device 170. As the sensor, for example, a sensor that measures position, speed, acceleration, posture, or angular velocity can be used.

[実施形態4]
実施形態1,2では、高い信頼度が与えられた特徴の三次元位置を示す情報を固定し、低い信頼度が与えられた特徴の三次元位置を示す情報を更新することで精度を維持しながら位置姿勢の計測可能範囲を拡大した。一方で、特徴の三次元位置を示す情報(例えばキーフレーム又は特徴点)の信頼度の高さに応じて補正量が大きくなるように、キーフレームの位置姿勢又は特徴点の三次元位置を補正してもよい。
[Embodiment 4]
In the first and second embodiments, the information indicating the three-dimensional position of the feature given the high reliability is fixed, and the information indicating the three-dimensional position of the feature given the low reliability is updated to maintain the accuracy. However, the measurable range of position and orientation has been expanded. On the other hand, the position / orientation of the key frame or the three-dimensional position of the feature point is corrected so that the correction amount increases according to the high reliability of the information indicating the three-dimensional position of the feature (for example, the key frame or the feature point). You may.

実施形態4では、高い信頼度が与えられた特徴の三次元位置を示す情報が更新され、低い信頼度が与えられた特徴の三次元位置を示す情報は更新対象から除外される。本実施形態では、三次元空間において位置が変化する被写体上の特徴の三次元位置を示す情報の信頼度が低く設定され、位置が変化しない被写体上の特徴の三次元位置を示す情報の信頼度は高く設定される。例えば、三次元空間において位置が変化する被写体上の特徴の三次元位置を示すキーフレーム、又は三次元空間において位置が変化する被写体上の特徴点の信頼度を低く設定することができ、その他のキーフレーム又は特徴点の信頼度を高く設定することができる。このような構成によれば、位置が変化する特徴が存在することにより、三次元マップの精度が低下することを抑制できる。 In the fourth embodiment, the information indicating the three-dimensional position of the feature given the high reliability is updated, and the information indicating the three-dimensional position of the feature given the low reliability is excluded from the update target. In the present embodiment, the reliability of the information indicating the three-dimensional position of the feature on the subject whose position changes in the three-dimensional space is set low, and the reliability of the information indicating the three-dimensional position of the feature on the subject whose position does not change is set low. Is set high. For example, the reliability of the key frame indicating the three-dimensional position of the feature on the subject whose position changes in the three-dimensional space, or the feature point on the subject whose position changes in the three-dimensional space can be set low, and other The reliability of keyframes or feature points can be set high. According to such a configuration, it is possible to suppress a decrease in the accuracy of the three-dimensional map due to the existence of a feature whose position changes.

実施形態4に係る情報処理装置のハードウェア構成は、実施形態1と同様であってもよい。また、実施形態4における処理は実施形態1と類似しており、以下では主に異なる点について説明する。 The hardware configuration of the information processing apparatus according to the fourth embodiment may be the same as that of the first embodiment. Further, the processing in the fourth embodiment is similar to that in the first embodiment, and mainly different points will be described below.

本実施形態では、SLAM技術を用いてマップの作成及び撮像装置の位置姿勢計測が同時に行われる。SLAM技術としては、実施形態1で述べたEngelらの方法を用いるものとする。また、新しいキーフレームがマップに追加される時に、このキーフレームの信頼度はHIGHに設定される。信頼度がHIGHに設定されたキーフレームは、実施形態1と同様に三次元マップを最適化する際に、位置姿勢を更新する対象となる。 In this embodiment, the SLAM technology is used to create a map and measure the position and orientation of the image pickup apparatus at the same time. As the SLAM technique, the method of Engel et al. Described in the first embodiment shall be used. Also, when a new keyframe is added to the map, the reliability of this keyframe is set to HIGH. The key frame whose reliability is set to HIGH is the target for updating the position and orientation when optimizing the three-dimensional map as in the first embodiment.

上記のとおり、本実施形態においては、三次元空間において被写体上の特徴の位置が変化するかどうかが判定され、位置が変化すると判定された特徴の三次元位置を示す情報の信頼度が低く設定される。一例として、以下の方法を用いることができる。Engelらの方法においては、位置姿勢計測を行う際に、過去に追加したキーフレームについての位置姿勢計測が行われる。この際に、キーフレームに含まれる特徴が、位置が変化する被写体上にあるか否かの判定を行うことができる。具体例として、まずキーフレームの特徴点とその特徴点に対応する入力画像上の対応点との輝度差を求め、次に輝度差が閾値Tout以上である特徴点数の、キーフレーム全体の特徴点数に対する割合Routが求められる。Routが一定値以上である場合、キーフレームに写っている被写体の位置が変化したと判定され、このキーフレームの信頼度がLOWに変更される。信頼度がLOWに設定されたキーフレームは、本実施形態においては三次元マップの最適化の更新対象から除外される。このため、被写体の位置の変化による三次元マップの精度低下を避けることができる。 As described above, in the present embodiment, it is determined whether or not the position of the feature on the subject changes in the three-dimensional space, and the reliability of the information indicating the three-dimensional position of the feature determined to change is set to be low. Will be done. As an example, the following method can be used. In the method of Engel et al., When the position and orientation are measured, the position and orientation of the keyframes added in the past are measured. At this time, it is possible to determine whether or not the feature included in the key frame is on the subject whose position changes. As a specific example, first, the luminance difference between the feature points of the key frame and the corresponding points on the input image corresponding to the feature points is obtained, and then the feature points of the entire key frame having the luminance difference of the threshold value Tout or more are obtained. The ratio of Rout to Rout is calculated. When Rout is equal to or higher than a certain value, it is determined that the position of the subject in the key frame has changed, and the reliability of this key frame is changed to LOW. The key frame whose reliability is set to LOW is excluded from the update target of the optimization of the three-dimensional map in this embodiment. Therefore, it is possible to avoid a decrease in the accuracy of the three-dimensional map due to a change in the position of the subject.

(実施形態4のバリエーション)
キーフレームに写っている被写体の位置が変化したかどうかの判定方法は、前述の方法には限られない。例えば、導出した撮像装置の位置姿勢に基づいて算出されるキーフレームの特徴点の入力画像上での画像座標と、入力画像上で検出された対応する特徴点の画像座標との差に基づいて、この判定を行ってもよい。また、キーフレームの特徴点に対応する特徴点の三次元位置をキーフレーム追加以後に撮影された画像をもとに算出し、算出された三次元位置とキーフレームに登録された三次元位置との差に基づいて、この判定を行ってもよい。
(Variation of Embodiment 4)
The method for determining whether or not the position of the subject in the key frame has changed is not limited to the above-mentioned method. For example, based on the difference between the image coordinates of the feature points of the keyframes calculated based on the position and orientation of the derived imaging device on the input image and the image coordinates of the corresponding feature points detected on the input image. , This determination may be made. In addition, the three-dimensional position of the feature point corresponding to the feature point of the key frame is calculated based on the image taken after the key frame is added, and the calculated three-dimensional position and the three-dimensional position registered in the key frame are used. This determination may be made based on the difference between.

本実施形態では、位置が変化する特徴の信頼度が低く設定された。しかしながら、信頼度の設定は必ずしも位置の変化に基づかなくてもよい。例えば、照明の変化に基づいて信頼度の設定を行ってもよい。この場合、位置又は光軸の向きが入力画像に近いキーフレームと入力画像との間で平均輝度値を比較し、その差が大きい場合にキーフレームの信頼度をLOWにすることができる。このような構成によれば、照明変化によるマップ精度の低下を防止できる。 In this embodiment, the reliability of the feature whose position changes is set low. However, the reliability setting does not necessarily have to be based on the change in position. For example, the reliability may be set based on the change in lighting. In this case, the average luminance value can be compared between the key frame whose position or the direction of the optical axis is close to the input image and the input image, and when the difference is large, the reliability of the key frame can be set to LOW. With such a configuration, it is possible to prevent a decrease in map accuracy due to a change in lighting.

[各実施形態のユーザインタフェース例]
図6は、実施形態1に従って作成した三次元マップをユーザに提示するGUI(ウィンドウ)の例を表す。このウィンドウには、シーンの三次元マップが表示されている。図6の例では、所定の仮想視点からみた時の、三次元マップの特徴点が表示されている。この視点は、例えばユーザ指示等に従って、任意に選択することができる。また、このウィンドウには、キーフレームを表すオブジェクトと、現在の撮像装置を表すオブジェクトとが描画されている。本実施形態において、特徴点は丸い点で表され、キーフレーム及び撮像装置の位置姿勢は、カメラを模した錐体型のオブジェクトにより表現されている。
[Example of user interface of each embodiment]
FIG. 6 shows an example of a GUI (window) that presents a three-dimensional map created according to the first embodiment to a user. This window shows a three-dimensional map of the scene. In the example of FIG. 6, the feature points of the three-dimensional map when viewed from a predetermined virtual viewpoint are displayed. This viewpoint can be arbitrarily selected according to, for example, a user instruction. In addition, an object representing a key frame and an object representing the current imaging device are drawn in this window. In the present embodiment, the feature points are represented by round dots, and the position and orientation of the key frame and the image pickup device are represented by a cone-shaped object imitating a camera.

本実施形態において、ユーザは、マウス又はトラックボールなどの入力デバイスを利用して、仮想視点の位置、姿勢、又は内部パラメータを変更することができる。こうしてユーザは、三次元マップ及び現在の撮像装置の位置姿勢を、様々な視点から観察して確認することができる。 In this embodiment, the user can use an input device such as a mouse or a trackball to change the position, orientation, or internal parameters of the virtual viewpoint. In this way, the user can observe and confirm the three-dimensional map and the current position and orientation of the imaging device from various viewpoints.

本実施形態において、キーフレーム又は特徴点は、信頼度に応じて異なる外観で表示される。例えば、このGUIにおいて、事前マップに含まれるキーフレームと、ランタイム時に追加されたキーフレームとを、異なる外観を有するオブジェクトにより表現することができる。このように、これらのキーフレームの描画方法を変えることにより、事前マップを用いた位置姿勢の計測が可能な範囲に撮像装置がいるかどうかを確認することが容易となる。図6では、事前マップに含まれるキーフレームは実線の錐体で、ランタイム時に追加されたキーフレームは破線の錐体で表されている。同様に、事前マップに含まれる特徴点と、ランタイム時に追加された特徴点とを、異なる外観を有するオブジェクトにより表現することもできる。 In this embodiment, the keyframes or feature points are displayed with different appearances depending on the reliability. For example, in this GUI, the keyframes included in the pre-map and the keyframes added at runtime can be represented by objects having different appearances. By changing the drawing method of these keyframes in this way, it becomes easy to confirm whether or not the image pickup device is within the range in which the position and orientation can be measured using the pre-map. In FIG. 6, the keyframes included in the pre-map are represented by solid cones, and the keyframes added at runtime are represented by dashed cones. Similarly, the feature points included in the pre-map and the feature points added at runtime can be represented by objects having different appearances.

[各実施形態の変形例]
実施形態1,2では、シーンの三次元マップのうち事前に作成された部分、又は補助指標周辺部分の信頼度が高く設定され、それ以外の部分を補正することにより、位置姿勢計測の精度を維持しながら位置姿勢の計測可能範囲が広げられた。しかしながら、位置姿勢計測の精度を維持しながら位置姿勢の計測可能範囲を広げる方法は、これに限られない。例えば、シーンの三次元マップのうち事前に作成された部分(例えばキーフレーム又は幾何特徴)の三次元情報を固定し、それ以外の部分を補正してもよい。また、補助指標が画像上から検出されるキーフレームの位置姿勢を補助指標をもとに導出して固定し、三次元マップ補正時にはそれ以外のキーフレームの位置姿勢を補正してもよい。同様に、補助指標をもとに三次元座標が算出された特徴点の三次元座標を固定し、三次元マップ補正時にはそれ以外の特徴点の三次元座標を導出してもよい。
[Variation example of each embodiment]
In the first and second embodiments, the reliability of the pre-created portion of the three-dimensional map of the scene or the peripheral portion of the auxiliary index is set to be high, and the other portion is corrected to improve the accuracy of the position / orientation measurement. The measurable range of position and posture was expanded while maintaining it. However, the method of expanding the measurable range of the position / orientation while maintaining the accuracy of the position / orientation measurement is not limited to this. For example, the 3D information of a pre-created part (for example, a keyframe or a geometric feature) of the 3D map of the scene may be fixed, and the other parts may be corrected. Further, the position / orientation of the key frame detected from the image by the auxiliary index may be derived and fixed based on the auxiliary index, and the position / orientation of other key frames may be corrected at the time of the three-dimensional map correction. Similarly, the three-dimensional coordinates of the feature points whose three-dimensional coordinates are calculated based on the auxiliary index may be fixed, and the three-dimensional coordinates of the other feature points may be derived at the time of the three-dimensional map correction.

上記の各実施形態では、入力部120は、撮像装置170が撮像した画像を取得した。しかしながら、入力部120が取得する画像はこれに限られない。例えば入力部120は、あらかじめ撮像され記憶装置(不図示)に保存されている、シーンの画像を取得してもよい。また、一実施形態に係る情報処理装置は、Structure from motion技術を用いて、リアルタイムではなくオフラインでシーンの三次元マップを作成してもよい。この場合、補正部160は、事前に作成した三次元マップである事前マップを読み込み、事前マップに含まれる幾何特徴の三次元座標を固定しながらバンドル調整を行ってもよい。また、実施形態2と同様に、補正部160は、補助指標が画像上から検出される場合にはこの画像についての位置姿勢を補助指標をもとに導出し、補助指標をもとに導出された位置姿勢を固定しながらバンドル調整を行ってもよい。 In each of the above embodiments, the input unit 120 has acquired an image captured by the image pickup apparatus 170. However, the image acquired by the input unit 120 is not limited to this. For example, the input unit 120 may acquire an image of a scene that has been previously imaged and stored in a storage device (not shown). Further, the information processing apparatus according to the embodiment may use the Structure from motion technique to create a three-dimensional map of the scene offline instead of in real time. In this case, the correction unit 160 may read the pre-map, which is a pre-created three-dimensional map, and perform bundle adjustment while fixing the three-dimensional coordinates of the geometric features included in the pre-map. Further, as in the second embodiment, when the auxiliary index is detected on the image, the correction unit 160 derives the position and orientation of the image based on the auxiliary index, and derives the position and orientation based on the auxiliary index. Bundle adjustment may be performed while fixing the position and posture.

上記の各実施形態では、撮像装置170は単眼カメラであるものとして説明した。しかしながら、撮像装置170の種類はこれに限られない。撮像装置170としては、撮像した画像に基づき位置姿勢を計測できる任意の撮像装置を用いることができる。例えば、撮像装置170は、複数のカメラで構成されたステレオカメラ、多眼カメラ、デプスカメラ、又はそれらの組み合わせでありうる。また、入力画像も濃淡画像には限られない。例えば、入力画像は、カラー画像、デプス画像、グレー画像とデプス画像の組み合わせ、又はカラー画像とデプス画像の組み合わせ(RGBD画像)であってもよい。また、撮像装置170はLIDARなどの方式を用いて被写体の三次元像を得る三次元計測装置であってもよく、入力部120は計測された三次元点群情報を取得してもよい。 In each of the above embodiments, the imaging device 170 has been described as being a monocular camera. However, the type of the image pickup apparatus 170 is not limited to this. As the image pickup device 170, any image pickup device capable of measuring the position and orientation based on the captured image can be used. For example, the image pickup apparatus 170 may be a stereo camera composed of a plurality of cameras, a multi-lens camera, a depth camera, or a combination thereof. Also, the input image is not limited to the shade image. For example, the input image may be a color image, a depth image, a combination of a gray image and a depth image, or a combination of a color image and a depth image (RGBD image). Further, the imaging device 170 may be a three-dimensional measuring device that obtains a three-dimensional image of the subject by using a method such as LIDAR, and the input unit 120 may acquire the measured three-dimensional point cloud information.

いくつかの実施形態について、新規キーフレームを追加するか否かを判定する基準を説明した。例えば、近傍キーフレームにおける特徴点のうち、画像座標が入力画像内にある特徴点の割合に基づいて、撮像装置170が計測可能範囲から外れているか否か又は外れそうか否かが判定され、この判定に基づいてキーフレームを追加するか否かが判定された。しかしながら、判定方法はこれに限られない。例えば、近傍キーフレームの位置と、現フレームにおける撮像装置170の位置との差が、予め定めた閾値より大きい場合に、撮像装置170が計測可能範囲から外れていると判定されてもよい。また、近傍キーフレームの光軸方向と、現フレームにおける撮像装置170の光軸方向との角度差が、予め定めた閾値より大きい場合に、撮像装置170が計測可能範囲から外れていると判定されてもよい。 For some embodiments, the criteria for determining whether to add a new keyframe have been described. For example, it is determined whether or not the image pickup apparatus 170 is out of the measurable range or is likely to be out of the measurable range based on the ratio of the feature points whose image coordinates are in the input image among the feature points in the neighboring keyframes. Based on this determination, it was determined whether or not to add a keyframe. However, the determination method is not limited to this. For example, when the difference between the position of the nearby key frame and the position of the image pickup device 170 in the current frame is larger than a predetermined threshold value, it may be determined that the image pickup device 170 is out of the measurable range. Further, when the angle difference between the optical axis direction of the neighboring key frame and the optical axis direction of the image pickup device 170 in the current frame is larger than a predetermined threshold value, it is determined that the image pickup device 170 is out of the measurable range. You may.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It is also possible to realize the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

110 保持部;120 入力部;130 導出部;140 作成部;150 設定部;160 補正部;170 撮像部 110 Holding unit; 120 Input unit; 130 Derivation unit; 140 Creation unit; 150 Setting unit; 160 Correction unit; 170 Imaging unit

Claims (15)

置が可変の撮像装置から被写体の撮像画像を取得する取得手段と、
予め定められた領域内の被写体の撮像画像から得られる第1の特徴、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された三次元マップを保持する保持手段と、
前記取得手段により取得された撮像画像及び前記保持手段に保持されている三次元マップを用いて、前記撮像装置の位置を導出する導出手段と、
前記保持手段が保持する三次元マップにおける前記予め定められた領域の外の領域の被写体を撮像した前記撮像画像に基づいて得た、第2の特徴点の三次元位置を示す情報と、前記第1の特徴点の三次元位置を示す情報と、の前記基準座標系における特徴点の真の三次元位置に対する信頼性を示す情報であって、前記第2の特徴点の三次元位置を示す情報より前記第1の特徴点の三次元位置を示す情報の信頼性が高く設定された信頼性を示す情報を用いて、前記三次元マップを補正する補正手段と、
を備えることを特徴とする情報処理装置。
Obtaining means position to acquire a captured image of an object from a variable of the imaging device,
A three-dimensional map containing information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a first feature point obtained from a captured image of the subject in a predetermined area. A holding means for holding a three-dimensional map created from a set of captured images captured in an area, and
A derivation means for deriving the position of the image pickup apparatus by using the captured image acquired by the acquisition means and the three-dimensional map held by the holding means.
And information indicating the obtained based on subject region outside the predetermined region in the captured image captured, the three-dimensional position of the second feature points in the three-dimensional map in which the holding means for holding said first Information indicating the three-dimensional position of the feature point 1 and information indicating the reliability of the feature point with respect to the true three-dimensional position in the reference coordinate system , and information indicating the three-dimensional position of the second feature point. A correction means for correcting the three-dimensional map by using the information indicating the reliability set with high reliability of the information indicating the three-dimensional position of the first feature point.
An information processing device characterized by being equipped with.
前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報に、前記信頼性を示す情報として、信頼度を設定する設定手段をさらに備えることを特徴とする、請求項1に記載の情報処理装置。 The first aspect of the present invention is characterized in that the information indicating the three-dimensional positions of the first feature point and the second feature point is further provided with a setting means for setting the reliability as the information indicating the reliability. The information processing device described. 前記設定手段は、前記第1の特徴点の三次元位置を示す情報に、前記第2の特徴点の三次元位置を示す情報よりも高い信頼度を設定することを特徴とする、請求項2に記載の情報処理装置。 2. The setting means is characterized in that the information indicating the three-dimensional position of the first feature point is set with higher reliability than the information indicating the three-dimensional position of the second feature point. The information processing device described in. 写体が位置する空間には、前記撮像画像に基づいて前記撮像装置の位置を計測するための補助指標が配置されており、
前記設定手段は、前記特徴点の三次元位置を示す情報に、前記補助指標の情報に基づく信頼度を設定することを特徴とする、請求項2に記載の情報処理装置。
The space where the Utsushitai is positioned, the auxiliary indicators for measuring the position of the imaging device based on the captured image is arranged,
The information processing apparatus according to claim 2, wherein the setting means sets reliability based on the information of the auxiliary index in the information indicating the three-dimensional position of the feature point.
前記設定手段は、前記撮像画像に基づいて作成される特徴点の三次元位置を示す情報に対しては、前記撮像画像中の前記補助指標の数に基づく信頼度を設定することを特徴とする、請求項4に記載の情報処理装置。 The setting means is characterized in that the reliability based on the number of the auxiliary indexes in the captured image is set for the information indicating the three-dimensional position of the feature point created based on the captured image. , The information processing apparatus according to claim 4. 前記補正手段は、前記第1の特徴点の三次元位置を示す情報を更新せず、前記第1の特徴点より信頼性の低い前記第2の特徴点の三次元位置を示す情報を更新し、更新した前記第2の特徴点の三次元位置を示す情報を含む三次元マップを作成することを特徴とする、請求項1から5のいずれか1項に記載の情報処理装置。 Said correction means updates said first without updating the information indicative of the three-dimensional position of the feature point, information indicating the three-dimensional position of the first lower and the second feature points more reliable feature point The information processing apparatus according to any one of claims 1 to 5, wherein a three-dimensional map including information indicating the updated three-dimensional position of the second feature point is created. 前記補正手段は、前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報の信頼性が高いほど補正量を小さくして、前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報を更新することを特徴とする、請求項1から5のいずれか1項に記載の情報処理装置。 The correction means reduces the correction amount as the reliability of the information indicating the three-dimensional positions of the first feature point and the second feature point becomes higher, and the first feature point and the second feature The information processing apparatus according to any one of claims 1 to 5, wherein the information indicating the three-dimensional position of the point is updated. 前記補正手段は、前記基準座標系における前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報を更新することを特徴とする、請求項1から7のいずれか1項に記載の情報処理装置。 The correction means according to any one of claims 1 to 7, wherein the correction means updates information indicating three-dimensional positions of the first feature point and the second feature point in the reference coordinate system. The information processing device described. 前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報は、前記基準座標系における視点の位置姿勢情報と、前記視点を基準とする座標系における前記第1の特徴点と前記第2の特徴点の位置情報との組み合わせによって表され
前記補正手段は、前記基準座標系における前記視点の位置姿勢情報を更新することを特徴とする、請求項1から7のいずれか1項に記載の情報処理装置。
Wherein the information indicating the three-dimensional position of the first feature points and the second feature point, and the position and orientation information of the viewpoint before Kimoto quasi coordinate system, the first feature in the coordinate system based on the viewpoint It is represented by a combination of a point and the position information of the second feature point .
The information processing apparatus according to any one of claims 1 to 7, wherein the correction means updates the position / orientation information of the viewpoint in the reference coordinate system.
前記三次元マップは、複数の視点のそれぞれにおける被写体の観測結果を示す情報を含んでおり、
前記補正手段は、前記第1の特徴点と前記第2の特徴点が前記三次元位置にある場合に前記視点において観測される観測結果と、前記視点において実際に観測された観測結果と、の誤差が小さくなるように、前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報を更新することを特徴とする、請求項1から9のいずれか1項に記載の情報処理装置。
The three-dimensional map, which includes information indicating the Utsushitai observations that put each of the plurality of viewpoints,
The correction means includes observation results observed at the viewpoint when the first feature point and the second feature point are at the three-dimensional position, and observation results actually observed at the viewpoint. The information according to any one of claims 1 to 9, wherein the information indicating the three-dimensional positions of the first feature point and the second feature point is updated so that the error becomes small. Processing equipment.
前記補正手段は、前記第1の特徴点と前記第2の特徴点の色情報と、前記視点において前記三次元位置について観測された色情報と、の誤差が小さくなるように、前記第1の特徴点と前記第2の特徴点の三次元位置を示す情報を更新することを特徴とする、請求項10に記載の情報処理装置。 The correction means is such that the error between the color information of the first feature point and the second feature point and the color information observed for the three-dimensional position at the viewpoint is reduced . The information processing apparatus according to claim 10, wherein the information indicating the feature points and the three-dimensional positions of the second feature points is updated. 前記補正手段は、前記視点から前記三次元位置への方向と、前記視点において観測された前記視点から前記特徴点への方向と、の誤差が小さくなるように、前記特徴点の三次元位置を示す情報を更新することを特徴とする、請求項10に記載の情報処理装置。 Wherein the correction means includes a direction to the three-dimensional position of the viewpoint and the direction from the viewpoint, which is observed in the viewpoint to the feature point, like the error is small, the three-dimensional position of the feature point The information processing apparatus according to claim 10, wherein the information shown is updated. 撮像装置から被写体の撮像画像を取得する取得手段と、
予め定められた領域内の被写体の撮像画像から得られる特徴点、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された三次元マップを保持する保持手段と、
前記取得手段により取得された撮像画像及び前記保持手段に保持されている三次元マップを用いて、前記撮像装置の位置を導出する導出手段と、
像画像に基づいて前記撮像装置の位置を計測するための、被写体が位置する空間に配置された補助指標に基づいて作成された前記特徴点の三次元位置を示す情報を固定しながら、前記三次元マップを補正する補正手段と、
を備えることを特徴とする情報処理装置。
An acquisition means for acquiring a captured image of a subject from an imaging device, and
A three-dimensional map containing information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a feature point obtained from a captured image of the subject in a predetermined area. A holding means for holding a three-dimensional map created from a set of captured images, and
Using a three-dimensional map stored in the captured image and the holding means which is acquired by the acquisition unit, a deriving means for deriving a position of the imaging device,
Wherein for measuring the position of the image pickup device, to secure the information indicating the three-dimensional position of the feature point that was created on the basis of the auxiliary indicator which is disposed in a space under Utsushitai it is positioned on the basis of an imaging image However, the correction means for correcting the three-dimensional map and
An information processing device characterized by being equipped with.
情報処理装置が行う情報処理方法であって、
置が可変の撮像装置から被写体の撮像画像を取得する工程と、
予め定められた領域内の被写体の撮像画像から得られる第1の特徴、被写体が位置する空間に設定された基準座標系における三次元位置を示す情報を含む三次元マップであって、該領域内を撮像した前記撮像画像の集合から作成された、保持手段に保持されている三次元マップと、前記撮像装置により取得された撮像画像とを用いて、前記撮像装置の位置を導出する工程と、
前記保持手段が保持する三次元マップにおける前記予め定められた領域の外の領域の被写体を撮像した前記撮像画像に基づいて得た、第2の特徴の三次元位置を示す情報と、前記第1の特徴の三次元位置を示す情報と、の前記基準座標系における特徴点の真の三次元位置に対する信頼性を示す情報であって、前記第2の特徴点の三次元位置を示す情報より前記第1の特徴点の三次元位置を示す情報の信頼性が高く設定された信頼性を示す情報を用いて、前記三次元マップを補正する工程と、
を有することを特徴とする情報処理方法。
It is an information processing method performed by an information processing device.
A step of acquiring a captured image of an object position from a variable of the imaging device,
A three-dimensional map including information indicating a three-dimensional position in a reference coordinate system set in the space where the subject is located, which is a first feature point obtained from a captured image of the subject in a predetermined area. A step of deriving the position of the imaging device by using a three-dimensional map held by the holding means created from a set of the captured images captured in the region and the captured image acquired by the imaging device. When,
And information indicating the obtained based on subject region outside the predetermined region in the captured image captured, the three-dimensional position of the second feature points in the three-dimensional map in which the holding means for holding said first Information indicating the three-dimensional position of the feature point 1 and information indicating the reliability of the feature point with respect to the true three-dimensional position in the reference coordinate system , and information indicating the three-dimensional position of the second feature point. The step of correcting the three-dimensional map by using the information indicating the reliability set with high reliability of the information indicating the three-dimensional position of the first feature point, and the step of correcting the three-dimensional map.
An information processing method characterized by having.
コンピュータを、請求項1乃至1の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 Program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 1 3.
JP2019114936A 2018-07-06 2019-06-20 Information processing equipment, information processing methods, and programs Active JP6860620B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/451,361 US11003939B2 (en) 2018-07-06 2019-06-25 Information processing apparatus, information processing method, and storage medium
JP2021055837A JP7479324B2 (en) 2018-07-06 2021-03-29 Information processing device, information processing method, and program
US17/228,824 US11830216B2 (en) 2018-07-06 2021-04-13 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018129457 2018-07-06
JP2018129457 2018-07-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021055837A Division JP7479324B2 (en) 2018-07-06 2021-03-29 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020013560A JP2020013560A (en) 2020-01-23
JP6860620B2 true JP6860620B2 (en) 2021-04-14

Family

ID=69170729

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019114936A Active JP6860620B2 (en) 2018-07-06 2019-06-20 Information processing equipment, information processing methods, and programs
JP2021055837A Active JP7479324B2 (en) 2018-07-06 2021-03-29 Information processing device, information processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021055837A Active JP7479324B2 (en) 2018-07-06 2021-03-29 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (2) JP6860620B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102407522B1 (en) * 2020-04-13 2022-06-13 주식회사 덱셀리온 Real-time three dimension model construction method and system
WO2021251171A1 (en) * 2020-06-12 2021-12-16 ソニーグループ株式会社 Information processing device, information processing method, and program
CN113158938B (en) * 2021-04-29 2023-08-22 西安外事学院 Rapid anti-rotation scene matching method based on covariance matrix minimum eigenvalue
JP2024007754A (en) * 2022-07-06 2024-01-19 キヤノン株式会社 Information processing system, information processing device, terminal device and control method of information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5439343B2 (en) * 2010-11-10 2014-03-12 日本電信電話株式会社 3D information acquisition apparatus and 3D information acquisition program
JP2017129567A (en) * 2016-01-20 2017-07-27 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6775969B2 (en) * 2016-02-29 2020-10-28 キヤノン株式会社 Information processing equipment, information processing methods, and programs
JP6817742B2 (en) * 2016-08-01 2021-01-20 キヤノン株式会社 Information processing device and its control method
JP2018055167A (en) * 2016-09-26 2018-04-05 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program

Also Published As

Publication number Publication date
JP2021106025A (en) 2021-07-26
JP7479324B2 (en) 2024-05-08
JP2020013560A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6860620B2 (en) Information processing equipment, information processing methods, and programs
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP6573354B2 (en) Image processing apparatus, image processing method, and program
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
US10643347B2 (en) Device for measuring position and orientation of imaging apparatus and method therefor
JP6736257B2 (en) Information processing device, information processing method, and program
US8520931B2 (en) Position and orientation measurement apparatus and method thereof
US6865289B1 (en) Detection and removal of image occlusion errors
CN111462207A (en) RGB-D simultaneous positioning and map creation method integrating direct method and feature method
JP5290865B2 (en) Position and orientation estimation method and apparatus
JP6762913B2 (en) Information processing device, information processing method
JP6894707B2 (en) Information processing device and its control method, program
CN113052907B (en) Positioning method of mobile robot in dynamic environment
JP6817742B2 (en) Information processing device and its control method
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP6922348B2 (en) Information processing equipment, methods, and programs
CN105339981B (en) Method for using one group of primitive registration data
CN116147618B (en) Real-time state sensing method and system suitable for dynamic environment
JP7029501B2 (en) Information processing equipment, information processing method
JP2024501191A (en) System and method for estimating pose of a localization device using reflective landmarks and other features
JP2024500688A (en) Positioning system and method for determining the three-dimensional position of a movable object
JP2022112168A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201130

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210326

R151 Written notification of patent or utility model registration

Ref document number: 6860620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151