JP2017146952A - Information processing device, method for controlling information processing device, and program - Google Patents

Information processing device, method for controlling information processing device, and program Download PDF

Info

Publication number
JP2017146952A
JP2017146952A JP2016166011A JP2016166011A JP2017146952A JP 2017146952 A JP2017146952 A JP 2017146952A JP 2016166011 A JP2016166011 A JP 2016166011A JP 2016166011 A JP2016166011 A JP 2016166011A JP 2017146952 A JP2017146952 A JP 2017146952A
Authority
JP
Japan
Prior art keywords
orientation
image
information processing
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016166011A
Other languages
Japanese (ja)
Other versions
JP2017146952A5 (en
JP6823403B2 (en
Inventor
小林 俊広
Toshihiro Kobayashi
俊広 小林
小竹 大輔
Daisuke Kotake
大輔 小竹
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
藤木 真和
Masakazu Fujiki
真和 藤木
片山 昭宏
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/415,048 priority Critical patent/US10171730B2/en
Publication of JP2017146952A publication Critical patent/JP2017146952A/en
Publication of JP2017146952A5 publication Critical patent/JP2017146952A5/en
Application granted granted Critical
Publication of JP6823403B2 publication Critical patent/JP6823403B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a highly accurate three-dimensional map.SOLUTION: An information processing device comprises: an acquisition unit for acquiring a photographic image captured by an imaging unit at a plurality of position attitudes; a generation unit for generating a guidance instruction for acquiring a photographic image corresponding to almost the same position attitude as a photographic image in a normal state; an output unit for outputting the guidance instruction; a determination unit for determining whether or not one photographic image acquired by the acquisition unit after outputting the guidance instruction is imaged at almost the same position attitude as the photographic image in the normal state; and a map generation unit for, if it is determined that the photographic image is imaged at almost the same position attitude, generating a three-dimensional map from three-dimensional coordinates of features included in the photographic image or updating the same on the basis of a plurality of photographic images including one photographic image imaged at a plurality of position attitudes.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。   The present invention relates to an information processing apparatus, a control method for the information processing apparatus, and a program.

近年、撮影装置によって獲得された画像に写っている特徴に基づき、撮影装置の位置姿勢を算出する技術はSfM(Structure from Motion)あるいはSLAM(Simultaneous Localization And Mapping)と呼ばれ、実写画像に計算機で仮想的に生成された画像を重畳して提示するAR(Augmented Reality)やMR(Mixed Reality)などに広く用いられている。   2. Description of the Related Art In recent years, a technique for calculating the position and orientation of a photographing device based on characteristics captured in an image obtained by the photographing device is called SfM (Structure from Motion) or SLAM (Simultaneous Localization And Mapping). It is widely used for AR (Augmented Reality), MR (Mixed Reality), and the like that superimpose and present virtually generated images.

SfMやSLAMにおいては、撮影装置(あるいはそれを保持する装置の使用者)が広い空間を動き回るような場合には、撮影装置の移動距離が長くなるにつれて、検出される空間中の特徴点の三次元座標(三次元地図)および撮影装置の位置姿勢の推定値に次第にずれが生じることとなる。これを解決するために撮影装置を周回的に移動させて閉経路を構成し、経路の始点と終点の位置姿勢を一致させるように最適化を行うループクローズと呼ばれる手法が広く用いられている。特許文献1では、ループクローズを適用できるときに三次元地図を生成し、処理を終了することが開示されている。   In SfM and SLAM, when an imaging device (or a user of the device that holds the imaging device) moves around a wide space, the tertiary of feature points in the detected space increases as the moving distance of the imaging device increases. Deviations gradually occur in the original coordinates (three-dimensional map) and the estimated values of the position and orientation of the photographing apparatus. In order to solve this problem, a method called loop close is widely used in which a closed path is formed by moving the photographing apparatus in a circular manner and optimization is performed so that the position and orientation of the start point and end point of the path are matched. Patent Document 1 discloses that a three-dimensional map is generated when the loop close can be applied, and the process is terminated.

米国特許第8787614号明細書U.S. Pat. No. 8,787,614

しかしながら、特許文献1では、確実にループクローズを行うために、装置の使用者を経路の始点に誘導するための方法については何ら言及されていない。そのため、高精度な三次元地図を生成することは容易ではないという課題がある。   However, Patent Document 1 does not mention any method for guiding the user of the apparatus to the starting point of the route in order to reliably perform the loop closing. Therefore, there is a problem that it is not easy to generate a highly accurate three-dimensional map.

本発明は、上記の課題に鑑みてなされたものであり、高精度な三次元地図の生成を実現する技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique for realizing generation of a highly accurate three-dimensional map.

上記の目的を達成する本発明に係る情報処理装置は、
複数の位置姿勢で撮影部により撮影された撮影画像を取得する取得手段と、
規定状態の撮影画像と略同じ位置姿勢に対応する撮影画像を取得させるための誘導指示を生成する生成手段と、
前記誘導指示を出力する出力手段と、
前記誘導指示の出力後に前記取得手段により取得された1つの撮影画像が、前記規定状態の撮影画像と略同じ位置姿勢で撮影されたか否かを判定する判定手段と、
前記略同じ位置姿勢で撮影されたと判定された場合、前記複数の位置姿勢で撮影された前記1つの撮影画像を含む複数の撮影画像に基づいて、撮影画像に含まれる特徴の三次元座標から三次元地図を生成もしくは更新する地図生成手段と、
を備えることを特徴とする。
An information processing apparatus according to the present invention that achieves the above object is as follows.
Acquisition means for acquiring captured images captured by the imaging unit at a plurality of positions and orientations;
Generating means for generating a guidance instruction for acquiring a captured image corresponding to substantially the same position and orientation as the captured image in the prescribed state;
Output means for outputting the guidance instruction;
A determining unit that determines whether one captured image acquired by the acquiring unit after the output of the guidance instruction has been captured in substantially the same position and orientation as the captured image in the specified state;
When it is determined that the images are taken at the substantially same position and orientation, a third order is obtained from the three-dimensional coordinates of the features included in the photographed image based on the plurality of photographed images including the one photographed image photographed at the plurality of positions and orientations. Map generation means for generating or updating the original map;
It is characterized by providing.

本発明によれば、高精度な三次元地図の生成を実現することが可能となる。   According to the present invention, it is possible to generate a highly accurate three-dimensional map.

第1実施形態に係るシステム構成及び情報処理装置の構成を示す図である。1 is a diagram illustrating a system configuration and a configuration of an information processing apparatus according to a first embodiment. 第1実施形態に係る入力画像、初期位置姿勢画像およびその位置関係の例を示す図である。It is a figure which shows the example of the input image which concerns on 1st Embodiment, an initial position orientation image, and its positional relationship. 第1実施形態に係る出力画像の例を示す図である。It is a figure which shows the example of the output image which concerns on 1st Embodiment. 第1実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the information processing apparatus which concerns on 1st Embodiment implements. 第2実施形態に係るシステム構成及び情報処理装置の構成を示す図である。It is a figure which shows the system configuration | structure and information processing apparatus structure which concern on 2nd Embodiment. 第2実施形態に係る誘導指示画像および出力画像の例を示す図である。It is a figure which shows the example of the guidance instruction | indication image and output image which concern on 2nd Embodiment. 第2実施形態に係る誘導生成部が誘導方向を決定する方法を示す図である。It is a figure which shows the method the guidance production | generation part which concerns on 2nd Embodiment determines a guidance direction. 第2実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the information processing apparatus which concerns on 2nd Embodiment implements. 変形例10に係る判定部が行う追加の判定処理の概要を説明する図である。It is a figure explaining the outline | summary of the additional determination process which the determination part which concerns on the modification 10 performs. 第3実施形態に係る誘導生成部が誘導方向を決定する方法を示す図である。It is a figure which shows the method the guidance production | generation part which concerns on 3rd Embodiment determines a guidance direction. 第3実施形態において誘導指示画像および出力画像の例を示す図である。It is a figure which shows the example of a guidance instruction | indication image and an output image in 3rd Embodiment. 第4実施形態に係るシステム構成及び情報処理装置の構成を示す図である。It is a figure which shows the system configuration | structure and information processing apparatus structure which concern on 4th Embodiment. 第4実施形態において誘導指示画像、仮想画像および出力画像の例を示す図である。It is a figure which shows the example of a guidance instruction | indication image, a virtual image, and an output image in 4th Embodiment. 第4実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the information processing apparatus which concerns on 4th Embodiment implements.

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

(第1実施形態)
<概要>
本実施形態では、MR(またはAR)体験に先立ち、あらかじめ高精度な三次元地図を生成し用意しておく場合に適用できる情報処理装置に関して説明する。情報処理装置の使用者は、接続されたカメラを保持して移動しながら、三次元地図を生成するための画像列を撮影する。本発明の装置はループクローズが可能となるように使用者を誘導する。具体的には、使用者に経路の始点となる初期位置姿勢(規定位置姿勢)において撮影された画像を提示する。
(First embodiment)
<Overview>
In this embodiment, an information processing apparatus that can be applied to a case where a highly accurate three-dimensional map is generated and prepared in advance prior to the MR (or AR) experience will be described. A user of the information processing apparatus captures an image sequence for generating a three-dimensional map while holding and moving the connected camera. The device of the present invention guides the user to allow loop closure. Specifically, an image photographed at an initial position / posture (specified position / posture) serving as a starting point of the route is presented to the user.

使用者はこの画像を見ながら、カメラの位置姿勢が初期位置姿勢(規定位置姿勢)と概ね一致するようにカメラを移動する。情報処理装置はカメラがほぼ初期位置姿勢(規定位置姿勢)に至ったことを判定し、ループクローズ処理を行う。これによって、情報処理装置は経路の始点と終点との位置姿勢を一致させるように最適化を行い、高精度な三次元地図を生成する。   While viewing this image, the user moves the camera so that the position and orientation of the camera substantially coincide with the initial position and orientation (specified position and orientation). The information processing apparatus determines that the camera has almost reached the initial position / posture (specified position / posture), and performs a loop close process. As a result, the information processing apparatus performs optimization so that the position and orientation of the start point and end point of the route coincide with each other, and generates a highly accurate three-dimensional map.

<システム構成>
図1は、第1実施形態に係るシステム構成を示す図である。図1における長方形の各枠は本実施形態の各処理を行う機能モジュールを、矢印はデータの流れを示している。第1実施形態に係るシステムは、情報処理装置200と、それに接続する撮影部101および表示部102を備えている。図1の構成は一例であり図示されるものに限定されない。
<System configuration>
FIG. 1 is a diagram illustrating a system configuration according to the first embodiment. Each rectangular frame in FIG. 1 indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The system according to the first embodiment includes an information processing device 200, and a photographing unit 101 and a display unit 102 connected to the information processing device 200. The configuration of FIG. 1 is an example, and is not limited to that illustrated.

撮影部101は、情報処理装置200を用いて三次元地図を生成する対象となる空間内において、使用者がその位置姿勢を変更しながら一連の画像列を撮影する。撮影部101は、情報処理装置200に接続して用いられ、例えば30分の1秒などの短い時間周期で連続的に画像を撮影する。画像は撮影した都度、画像取得部201に入力される。具体的には、撮影部101はヘッドマウントディスプレイ(HMD)に備えられたカメラである。   The imaging unit 101 captures a series of image sequences while the user changes its position and orientation in a space that is a target for generating a three-dimensional map using the information processing apparatus 200. The imaging unit 101 is used by being connected to the information processing apparatus 200, and continuously captures images at a short time period such as 1/30 second. Each time an image is taken, the image is input to the image acquisition unit 201. Specifically, the photographing unit 101 is a camera provided in a head mounted display (HMD).

表示部102は、使用者に提示する画像を表示する。提示する画像は情報処理装置200(より具体的には誘導出力部205)から供給される。具体的には、表示部102は、モニターなどのディスプレイ装置や、HMDに備えられた液晶パネルである。   The display unit 102 displays an image to be presented to the user. The image to be presented is supplied from the information processing apparatus 200 (more specifically, the guidance output unit 205). Specifically, the display unit 102 is a display device such as a monitor, or a liquid crystal panel provided in the HMD.

<情報処理装置の構成>
情報処理装置200は、画像取得部201、画像記憶部202、判定部203、誘導生成部204、誘導出力部205、及び三次元地図生成部206を備えている。
<Configuration of information processing apparatus>
The information processing apparatus 200 includes an image acquisition unit 201, an image storage unit 202, a determination unit 203, a guidance generation unit 204, a guidance output unit 205, and a 3D map generation unit 206.

画像取得部201は、撮影部101が撮影した画像を情報処理装置200内部に取り込み、入力画像10として、画像記憶部202、判定部203、誘導生成部204、誘導出力部205へ送出する。   The image acquisition unit 201 captures an image photographed by the photographing unit 101 into the information processing apparatus 200 and sends it as an input image 10 to the image storage unit 202, the determination unit 203, the guidance generation unit 204, and the guidance output unit 205.

画像記憶部202は、画像取得部201が取得した各時刻における入力画像10を記憶し、保持する。また、画像記憶部202は三次元地図を生成するための撮影準備が整った状態で、あるいは使用者が指定した任意のタイミングで撮影された入力画像10を、初期位置姿勢画像20(規定位置姿勢に対応する撮影画像)として登録する。   The image storage unit 202 stores and holds the input image 10 at each time acquired by the image acquisition unit 201. In addition, the image storage unit 202 uses the initial position / posture image 20 (specified position / posture) when the input image 10 is taken in a state where preparation for photographing for generating a three-dimensional map is completed or at an arbitrary timing designated by the user. Registered as a captured image).

より具体的には、画像記憶部202は、初期位置姿勢画像とみなす入力画像10にラベルを付与して保持する。情報処理装置200は、高精度な三次元地図を生成するにあたり、撮影部101の移動履歴が閉経路を構成するように、初期位置姿勢に概略一致する位置姿勢の画像を撮影すべく、使用者に誘導指示を提示するものである。画像記憶部202は、使用者に対する誘導対象の状態を定義する初期位置姿勢画像20を保持する。   More specifically, the image storage unit 202 assigns and holds a label to the input image 10 that is regarded as the initial position and orientation image. When the information processing apparatus 200 generates a highly accurate three-dimensional map, the user is required to capture an image of a position and orientation that roughly matches the initial position and orientation so that the movement history of the imaging unit 101 forms a closed path. Is a guidance instruction. The image storage unit 202 holds an initial position / posture image 20 that defines the state of the guidance target for the user.

ここで、図2(a)及び図2(b)は、撮影部101の移動履歴と初期位置姿勢画像20の例を示している。図2(a)は、計測空間を上方から観測した俯瞰図であり、黒丸は撮影部101の位置を、三角は撮影部101の視野(三角形の頂点は視点位置、三角形の底辺は視野範囲)を表している。図2(a)において、撮影部101は、位置姿勢Aから位置姿勢B、位置姿勢Cへと矢印に沿って移動したことを表している。図2(b)に示した初期位置姿勢画像20は、図2(a)における位置姿勢Aで撮影した画像である。   Here, FIG. 2A and FIG. 2B show examples of the movement history of the photographing unit 101 and the initial position / posture image 20. FIG. 2A is an overhead view of the measurement space observed from above, where the black circle indicates the position of the photographing unit 101, the triangle indicates the field of view of the photographing unit 101 (the vertex of the triangle is the viewpoint position, and the base of the triangle is the field of view). Represents. 2A shows that the photographing unit 101 has moved from the position / posture A to the position / posture B and the position / posture C along the arrow. The initial position / orientation image 20 shown in FIG. 2 (b) is an image taken at the position / orientation A in FIG. 2 (a).

判定部203は、誘導生成部204および誘導出力部205による誘導の結果、撮影部101の位置姿勢が初期位置姿勢に到達し、初期位置姿勢登録時からの位置姿勢の軌跡が閉経路を構成したか否かを判定するための閉経路判定処理を行う。本実施形態において、判定部203は、起動モードと、閉経路判定モードとの少なくとも2つのモードを持つ。   As a result of guidance by the guidance generation unit 204 and the guidance output unit 205, the determination unit 203 reaches the initial position and orientation of the photographing unit 101, and the locus of the position and orientation from the initial position and orientation registration constitutes a closed path. A closed path determination process is performed to determine whether or not. In the present embodiment, the determination unit 203 has at least two modes: an activation mode and a closed path determination mode.

初期位置姿勢画像20を登録した直後は、撮影部101の位置姿勢がほとんど変化していないため、実質的には移動がほとんどなく閉経路を構成していないにも関わらず、閉経路であると誤判定されてしまうおそれがある。そのため、判定部203は起動モードであるときには閉経路検知判定処理を行わない。あるいは、起動モードであっても閉経路検知判定処理を行ってよいが、判定に成功しても閉経路を構成したと見なさないようにしてもよい。本実施形態において、判定部203は、初期位置姿勢登録時から規定の時間が経過したときに起動モードから閉経路判定モードに移行する。   Immediately after the initial position / orientation image 20 is registered, the position / orientation of the photographing unit 101 has hardly changed, so that it is substantially closed and the closed path is not formed although there is substantially no movement. There is a risk of misjudgment. Therefore, the determination unit 203 does not perform the closed path detection determination process when in the activation mode. Alternatively, the closed path detection determination process may be performed even in the activation mode, but the closed path may not be regarded as having been configured even if the determination is successful. In the present embodiment, the determination unit 203 shifts from the activation mode to the closed path determination mode when a predetermined time has elapsed since the initial position and orientation registration.

判定部203は、閉経路判定モードである場合に、画像取得部201から入力された現在の入力画像10と、画像記憶部202が保持している初期位置姿勢画像20とを比較することで、閉経路判定処理を行う。すなわち、判定部203は撮影部101の現在の位置姿勢が、初期位置姿勢画像20登録時の位置姿勢に概略一致したか否かを判定する。概略一致した場合には、情報処理装置200の使用者にその旨を通知し、撮影を終了するように促す。   In the closed path determination mode, the determination unit 203 compares the current input image 10 input from the image acquisition unit 201 with the initial position and orientation image 20 held by the image storage unit 202. A closed path determination process is performed. That is, the determination unit 203 determines whether or not the current position / orientation of the photographing unit 101 substantially matches the position / orientation at the time of registration of the initial position / orientation image 20. If they roughly match, the user of the information processing apparatus 200 is notified of this fact and prompted to end shooting.

具体的には、判定部203は、図3(b)に示すような、閉経路に到達したことを通知する表示形態30を生成し、誘導出力部205に送出する。さらに、判定部203は、この時点での入力画像10を閉経路到達画像として、ラベルを付与して画像記憶部202に記憶させる。そうでない場合には、後述の誘導生成部204の処理によって情報処理装置200の使用者に対して撮影部101の位置姿勢を初期位置姿勢に概略一致させるための誘導指示を行う。   Specifically, the determination unit 203 generates a display form 30 for notifying that the closed route has been reached, as shown in FIG. 3B, and sends it to the guidance output unit 205. Further, the determination unit 203 assigns a label to the image storage unit 202 and stores the input image 10 at this time as a closed path arrival image. Otherwise, a guidance instruction for roughly matching the position and orientation of the photographing unit 101 with the initial position and orientation is given to the user of the information processing apparatus 200 by processing of the guidance generation unit 204 described later.

次に、判定部203による閉経路判定処理の内容について説明する。閉経路と判定される条件(ループクローズが適用できる条件)とは、閉経路の始点における撮影画像と終点における撮影画像において、両者の撮影領域内に共通の特徴が検出される程度の重なりが存在し、二画像間の相対的な位置姿勢が算出可能であることである。二画像間で共通領域が多いということは、両者の位置姿勢が似通っており、連続したものと見なせることを意味するのであるから、本実施形態においては、Bag of Words(BoW)を適用して、閉経路の判定を行う。BoWは画像中に含まれる特徴の出現頻度によって複数の画像間での類似度を算出するものである。判定部203は、BoWの類似度が閾値を上回った場合、すなわち始点画像と終点画像との類似度が高い場合に、閉経路を検知したと判定する。   Next, the content of the closed path determination process by the determination unit 203 will be described. The condition that is determined to be a closed path (conditions that can be applied to loop close) is that there is an overlap that allows a common feature to be detected in the captured area of the captured image at the start point and the end point of the closed path. The relative position and orientation between the two images can be calculated. The fact that there are many common areas between the two images means that the positions and orientations of the two images are similar and can be regarded as being continuous. Therefore, in this embodiment, Bag of Words (BoW) is applied. The closed path is determined. BoW calculates similarity between a plurality of images based on the appearance frequency of features included in the images. The determination unit 203 determines that a closed path is detected when the BoW similarity exceeds a threshold, that is, when the similarity between the start point image and the end point image is high.

ここで、図2(c)は、図2(b)の初期位置姿勢画像20と同じ環境を図2(a)における位置姿勢Bから撮影した入力画像10の例を示している。図2(c)の入力画像10と図2(b)の初期位置姿勢画像20との各撮影領域には重複が極めて少ないため、判定部203は、図2(c)における入力画像10の位置姿勢は初期位置姿勢画像20に対して閉経路を構成しないと判定する。   Here, FIG. 2C shows an example of the input image 10 taken from the position and orientation B in FIG. 2A in the same environment as the initial position and orientation image 20 in FIG. Since there is very little overlap in each imaging region between the input image 10 in FIG. 2C and the initial position and orientation image 20 in FIG. 2B, the determination unit 203 determines the position of the input image 10 in FIG. The posture is determined not to constitute a closed path with respect to the initial position / posture image 20.

一方、図2(d)は、図2(b)の初期位置姿勢画像20と同じ環境を図2(a)における位置姿勢Cから撮影した入力画像10の例を示している。図2(d)の入力画像10と図2(b)初期位置姿勢画像20との各撮影領域には重複が多いため、判定部203は閉経路判定処理に成功する。そのため、図2(d)における入力画像10の位置姿勢は、初期位置姿勢画像20に対して閉経路を構成したと判定する。   On the other hand, FIG. 2D shows an example of the input image 10 obtained by photographing the same environment as the initial position and orientation image 20 in FIG. 2B from the position and orientation C in FIG. Since there are many overlaps in the imaging regions of the input image 10 in FIG. 2D and the initial position / posture image 20 in FIG. 2B, the determination unit 203 succeeds in the closed path determination process. Therefore, it is determined that the position / orientation of the input image 10 in FIG. 2D forms a closed path with respect to the initial position / orientation image 20.

誘導生成部204は、判定部203が起動モードから閉経路判定モードに遷移したときに図3(a)及び図3(b)に示すような誘導指示画像40を生成し、誘導出力部205に送出する。誘導指示画像40は、情報処理装置200の使用者に提示され、次に移動すべき位置姿勢を示す画像である。本実施形態において、誘導生成部204は、誘導指示画像40として画像記憶部202が保持する初期位置姿勢画像20を用いる。すなわち、本実施形態における誘導指示画像40は初期位置姿勢画像20と同一のものである。   The guidance generation unit 204 generates a guidance instruction image 40 as shown in FIGS. 3A and 3B when the determination unit 203 transitions from the startup mode to the closed route determination mode, and sends it to the guidance output unit 205. Send it out. The guidance instruction image 40 is an image that is presented to the user of the information processing apparatus 200 and indicates the position and orientation to be moved next. In the present embodiment, the guidance generation unit 204 uses the initial position and orientation image 20 held by the image storage unit 202 as the guidance instruction image 40. That is, the guidance instruction image 40 in the present embodiment is the same as the initial position / posture image 20.

誘導出力部205は、表示部102上に表示して使用者に提示するための画像を生成する。本実施形態においては、図3(a)及び図3(b)に示すように、入力画像10に対し、誘導指示画像40を重畳し、出力画像50を生成する。出力画像は情報処理装置200外部の表示部102に送出される。図3(a)及び図3(b)には本実施形態における出力画像50の例を示している。   The guidance output unit 205 generates an image to be displayed on the display unit 102 and presented to the user. In the present embodiment, as shown in FIGS. 3A and 3B, the guidance image 40 is superimposed on the input image 10 to generate an output image 50. The output image is sent to the display unit 102 outside the information processing apparatus 200. 3A and 3B show examples of the output image 50 in the present embodiment.

三次元地図生成部206は、装置の使用者からの操作によって撮影が終了した場合には、画像記憶部202からこれまでに保持した一連の入力画像10を参照して、SLAM処理によって三次元地図の生成を行う。また、このとき、初期位置姿勢画像20(始点)と閉経路到達画像(終点)の位置姿勢は連続しているものとして対応付け、ループクローズによる最適化処理を行う。   The 3D map generation unit 206 refers to the series of input images 10 stored so far from the image storage unit 202 when the shooting is finished by an operation from the user of the apparatus, and performs a 3D map by SLAM processing. Is generated. At this time, the initial position / posture image 20 (start point) and the closed path arrival image (end point) are associated with each other as being continuous, and optimization processing by loop close is performed.

<処理>
以上のような構成を備えた本実施形態に係る情報処理装置200の制御について、以下説明する。図4は、本実施形態に係る情報処理装置200が実施する処理の手順を示すフローチャートである。
<Processing>
Control of the information processing apparatus 200 according to this embodiment having the above configuration will be described below. FIG. 4 is a flowchart illustrating a procedure of processing performed by the information processing apparatus 200 according to the present embodiment.

まず、情報処理装置200が起動されると、ステップS1010において、初期化処理が行われる。ステップS1010の初期化処理には、各モジュールの起動に必要な処理や、判定部203を起動モードに設定する処理が含まれる。   First, when the information processing apparatus 200 is activated, an initialization process is performed in step S1010. The initialization process in step S1010 includes a process necessary for starting each module and a process for setting the determination unit 203 to the start mode.

ステップS1020において、撮影部101は現在の入力画像10を撮影する。入力画像10は画像取得部201を通じて情報処理装置200の内部に取り込まれる。ステップS1030において、誘導生成部204は、誘導指示画像40を生成し、誘導出力部205に送出する。先述のように、本実施形態では、誘導生成部204は、画像記憶部202が保持している初期位置姿勢画像20を誘導指示画像40として生成する。誘導出力部205は、入力画像10に誘導指示画像40を重畳し、出力画像50を生成する。   In step S1020, the imaging unit 101 captures the current input image 10. The input image 10 is taken into the information processing apparatus 200 through the image acquisition unit 201. In step S <b> 1030, the guidance generation unit 204 generates the guidance instruction image 40 and sends it to the guidance output unit 205. As described above, in the present embodiment, the guidance generation unit 204 generates the initial position and orientation image 20 held by the image storage unit 202 as the guidance instruction image 40. The guidance output unit 205 generates the output image 50 by superimposing the guidance instruction image 40 on the input image 10.

ステップS1040において、判定部203は、動作モードが閉経路判定モードである場合に、現在の入力画像10に対して閉経路判定処理を行う。判定部203が起動モードである場合には、画像記憶部202は初期位置姿勢画像20の登録を行い、所定の時間が経過した後に、判定部203の動作モードを起動モードから閉経路判定モードに移行する。   In step S1040, the determination unit 203 performs a closed path determination process on the current input image 10 when the operation mode is the closed path determination mode. When the determination unit 203 is in the activation mode, the image storage unit 202 registers the initial position / posture image 20, and after a predetermined time has elapsed, the operation mode of the determination unit 203 is changed from the activation mode to the closed path determination mode. Transition.

ステップS1050において、ステップS1040における閉経路判定処理に成功した(閉経路が構成された)場合には、判定部203は、画像記憶部202に入力画像10を閉経路到達画像として登録し、ステップS1060に進む。そうでない場合には、ステップS1020に戻る。   In step S1050, if the closed path determination process in step S1040 is successful (closed path is configured), the determination unit 203 registers the input image 10 as the closed path arrival image in the image storage unit 202, and step S1060. Proceed to Otherwise, the process returns to step S1020.

ステップS1060において、三次元地図生成部206は、これまでに記憶した入力画像10、初期位置姿勢画像20、閉経路到達画像を用いて、撮影画像に含まれる特徴の三次元座標から三次元地図を生成する処理とループクローズによる最適化処理とを行う。最適化された三次元地図が生成されたら、本実施形態の処理を終了する。   In step S1060, the 3D map generation unit 206 uses the input image 10, the initial position and orientation image 20, and the closed path arrival image stored so far to generate a 3D map from the 3D coordinates of the features included in the captured image. The process to generate and the optimization process by loop closing are performed. When the optimized three-dimensional map is generated, the process of the present embodiment is terminated.

以上述べたように、本実施形態によれば、装置の使用者に対して、ループクローズ処理を適用可能な閉経路を構成するように撮影部の動きを誘導することが可能となる。また、取得した画像列に対してループクローズ処理を適用することによって高精度な三次元地図を生成することが可能となる。   As described above, according to the present embodiment, it is possible to guide the movement of the imaging unit so as to configure a closed path to which the loop close process can be applied to the user of the apparatus. In addition, it is possible to generate a highly accurate three-dimensional map by applying a loop close process to the acquired image sequence.

[変形例1]
ステップS1030において、判定部203は、初期位置姿勢登録からの経過時間に加えて、さらにステップS1050の判定処理で規定の回数以上失敗したことを条件に加えて、起動モードから閉経路判定モードに移行するようにしてもよい。このようにすることで、情報処理装置200の使用者が初期位置姿勢を維持したまま一定時間以上静止した場合に、閉経路判定モードに移行してしまうことを防止することができる。
[Modification 1]
In step S1030, in addition to the elapsed time from the initial position and orientation registration, the determination unit 203 further transitions from the start mode to the closed path determination mode on the condition that the determination process in step S1050 has failed more than the specified number of times. You may make it do. By doing so, it is possible to prevent the user of the information processing apparatus 200 from entering the closed path determination mode when the user is stationary for a certain period of time while maintaining the initial position and orientation.

[変形例2]
ステップS1050において、判定部203は、BoWを用いるのではなく、初期位置姿勢画像20、現在の入力画像10の両方からSIFTなどを用いて特徴点の対応付けを行い、アフィン変換やホモグラフィー変換などの二画像間の変換を求めてもよい。この場合、一方の画像を他方の画像に変換し、これらの画像間の輝度差の総和の逆数を類似度として、これが閾値よりも大きいときに閉経路を検知したと判定してもよい。また、抽出された特徴点数と対応付けに成功した特徴点数との比を取り、これが閾値以上であれば閉経路を検知したと判定するようにしてもよい。
[Modification 2]
In step S1050, the determination unit 203 does not use BoW but associates feature points from both the initial position and orientation image 20 and the current input image 10 using SIFT or the like, and performs affine transformation, homography transformation, and the like. Conversion between the two images may be obtained. In this case, one image may be converted into the other image, and the reciprocal of the sum of luminance differences between these images may be used as a similarity, and it may be determined that a closed path has been detected when this is greater than a threshold value. Further, the ratio between the number of extracted feature points and the number of feature points successfully matched may be taken, and if this is equal to or greater than a threshold value, it may be determined that a closed route has been detected.

[変形例3]
情報処理装置200の使用者が初期位置姿勢に近づいた場合には、重畳される入力画像10ないし誘導指示画像40の表示を変更するようにしてもよい。表示の変更については、使用者が初期位置姿勢に近づいたことを認識できればいかなる方法を用いてもよい。また、初期位置姿勢に近づいたか否かの判定には、いかなる方法を用いてもよい。
[Modification 3]
When the user of the information processing apparatus 200 approaches the initial position and orientation, the display of the superimposed input image 10 or guidance instruction image 40 may be changed. For changing the display, any method may be used as long as the user can recognize that the user has approached the initial position and orientation. Further, any method may be used for determining whether or not the initial position and posture are approached.

変形例2において、初期位置姿勢画像20と現在の入力画像10との間で対応する特徴点数が増加した場合には、誘導生成部204ないし誘導出力部205は情報処理装置200の使用者が初期位置姿勢に近づいたとみなしてもよい。対応特徴点数が増加した場合、その割合に応じて入力画像10の色調を変更することによって、情報処理装置200の使用者が初期位置姿勢に近づいている状況を把握することが可能となる。   In the second modification, when the number of corresponding feature points between the initial position / posture image 20 and the current input image 10 is increased, the guidance generation unit 204 to the guidance output unit 205 are initialized by the user of the information processing apparatus 200. It may be considered that the position / orientation has been approached. When the number of corresponding feature points increases, it is possible to grasp the situation in which the user of the information processing apparatus 200 is approaching the initial position and orientation by changing the color tone of the input image 10 according to the ratio.

[変形例4]
誘導出力部205は、ステップS1050の閉経路判定処理に成功した場合には、撮影を終了できる旨を使用者に通知するようにしてもよい。図3(b)は閉経路に到達したことを通知する表示形態30として「撮影終了」との文字列を表示している。これは、使用者に対して、これまでに撮影した複数の画像(入力画像10)の位置姿勢が閉経路を構成し、必要な画像がすべて取得できたため、撮影を終了することができるという情報を提示するものである。使用者への通知は、使用者が撮影を終了できることを認識できるものであれば、いかなるものでもよい。表示形態30の他に、音声や振動などを使用者に提示するようにしてもよい。
[Modification 4]
The guidance output unit 205 may notify the user that the photographing can be ended when the closed path determination process in step S1050 is successful. FIG. 3B shows a character string “Finished” as a display form 30 for notifying that the closed route has been reached. This is because the position and orientation of a plurality of images (input images 10) that have been captured so far constitute a closed path for the user, and all necessary images can be acquired, so that the capturing can be terminated. Is presented. The notification to the user may be anything as long as the user can recognize that the shooting can be finished. In addition to the display mode 30, voice, vibration, etc. may be presented to the user.

[変形例5]
ステップS1010において、三次元地図を生成する対象となる空間が撮影部101の視野内に含まれるようになったことを確認してから、ステップS1020に進むようにしてもよい。このようにすることで、起動直後に撮影部101が本来三次元地図を生成しない環境を撮影していた場合に、三次元地図の精度が低下することを防止することができる。情報処理装置200の使用者に準備が完了したことをボタンやスイッチなどにより情報処理装置200へ通知させるようにしてもよいし、例えば撮影部101が環境中の特定の物体が観察できたことを条件として、情報処理装置200が自動で判定するようにしてもよい。
[Modification 5]
In step S1010, after confirming that the space for generating the three-dimensional map is included in the field of view of the photographing unit 101, the process may proceed to step S1020. In this way, it is possible to prevent the accuracy of the three-dimensional map from being lowered when the photographing unit 101 is photographing an environment that does not originally generate a three-dimensional map immediately after activation. The user of the information processing apparatus 200 may be notified of the completion of preparation to the information processing apparatus 200 by a button, a switch, or the like. For example, the photographing unit 101 can observe a specific object in the environment. As a condition, the information processing apparatus 200 may determine automatically.

[変形例6]
本実施形態における撮影部101は、デプスセンサやサーモグラフィ等、明るさ以外の情報を輝度値に変えて取得する装置を利用してもよく、装置の使用者が現在のおよび初期位置姿勢を画像によって区別できるものであれば、いかなるものを用いてもよい。また、これらの装置で構成される撮影部101から取得される画像あるいはデータ群を用いて閉経路判定処理を実行してもよい。
[Modification 6]
The imaging unit 101 according to the present embodiment may use a device that acquires information other than brightness, such as a depth sensor or a thermography, by converting the information into a luminance value. Any material can be used as long as it is possible. Further, the closed path determination process may be executed using an image or a data group acquired from the imaging unit 101 configured by these devices.

[変形例7]
三次元地図生成部206が行うSLAM処理は、一連の入力画像10から各入力画像10を撮影した位置姿勢と、特徴点の三次元座標を算出できるものであれば、いかなる手法を用いてもよい。
[Modification 7]
The SLAM processing performed by the three-dimensional map generation unit 206 may use any method as long as it can calculate the position and orientation of each input image 10 from the series of input images 10 and the three-dimensional coordinates of the feature points. .

(第2実施形態)
<概要>
本実施形態では、MR(またはAR)体験に先立ち、あらかじめ高精度な三次元地図を生成し用意しておく場合に適用できる情報処理装置に関して説明する。情報処理装置の使用者は、接続されたカメラを保持して移動しながら、三次元地図を生成するための画像列を撮影する。本発明の情報処理装置は、推定される位置姿勢を用いて、ループクローズが可能となるように使用者を誘導する。具体的には、使用者に現在の位置姿勢から経路の始点となる初期位置姿勢に至る方向を示した画像を提示する。使用者はこの画像を見ながら、カメラの位置姿勢が初期位置姿勢と概ね一致するようにカメラを移動する。
(Second Embodiment)
<Overview>
In this embodiment, an information processing apparatus that can be applied to a case where a highly accurate three-dimensional map is generated and prepared in advance prior to the MR (or AR) experience will be described. A user of the information processing apparatus captures an image sequence for generating a three-dimensional map while holding and moving the connected camera. The information processing apparatus of the present invention guides the user using the estimated position and orientation so that the loop can be closed. Specifically, an image showing the direction from the current position and orientation to the initial position and orientation that is the starting point of the route is presented to the user. While viewing this image, the user moves the camera so that the position and orientation of the camera substantially coincide with the initial position and orientation.

本実施形態では、使用者に対して具体的な移動方向が提示されるので、より効率的にカメラの位置姿勢を初期位置姿勢に一致させることができるようになる。情報処理装置はカメラがほぼ初期位置姿勢に至ったことを判定し、ループクローズ処理を行う。これによって、情報処理装置は経路の始点と終点の位置姿勢を一致させるように最適化を行い、高精度な三次元地図を生成する。   In the present embodiment, since a specific moving direction is presented to the user, the position and orientation of the camera can be matched with the initial position and orientation more efficiently. The information processing apparatus determines that the camera has almost reached the initial position and orientation, and performs a loop close process. As a result, the information processing apparatus performs optimization so as to match the position and orientation of the start point and end point of the route, and generates a highly accurate three-dimensional map.

<システム構成>
図5は、第2実施形態に係るシステム構成を示す図である。図5における長方形の枠は本実施形態の各処理を行う機能モジュールを、矢印はデータの流れを示している。本実施形態に係るシステムは、情報処理装置200とそれに接続する撮影部101および表示部102を備えている。図5の構成は一例であり図示されるものに限定されない。また、第1実施形態と異なる部分について主に説明し、同じ部分については説明を省略する。
<System configuration>
FIG. 5 is a diagram illustrating a system configuration according to the second embodiment. A rectangular frame in FIG. 5 indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The system according to the present embodiment includes an information processing apparatus 200, a photographing unit 101 and a display unit 102 connected thereto. The configuration of FIG. 5 is an example, and is not limited to that illustrated. In addition, different parts from the first embodiment will be mainly described, and description of the same parts will be omitted.

<情報処理装置の構成>
本実施形態においては、画像記憶部202に替えて状態記憶部207が備えられている。状態記憶部207は、入力画像10の撮影時における撮影部101の位置姿勢を入力画像10に対応づけて保持する。また、初期位置姿勢画像20の登録時には、状態記憶部207はその時点における位置姿勢も初期位置姿勢として同時に記憶する。すなわち、本実施形態では、状態記憶部207は、初期位置姿勢画像20、閉経路到達画像を含む入力画像10のすべてがその位置姿勢に対応づけた形で保持される。状態記憶部207の詳細な動作に関しては後述する。
<Configuration of information processing apparatus>
In the present embodiment, a state storage unit 207 is provided instead of the image storage unit 202. The state storage unit 207 holds the position and orientation of the photographing unit 101 at the time of photographing the input image 10 in association with the input image 10. When the initial position / posture image 20 is registered, the state storage unit 207 also stores the current position / posture as the initial position / posture at the same time. In other words, in the present embodiment, the state storage unit 207 holds all of the initial position / posture image 20 and the input image 10 including the closed path arrival image in association with the position / posture. Detailed operation of the state storage unit 207 will be described later.

さらに、本実施形態においては、新たに位置姿勢取得部208が追加されている。位置姿勢取得部208は、入力画像10を用いて、SLAM処理によって現在の入力画像10を撮影したときの撮影部101の位置姿勢を推定する。推定された位置姿勢は状態記憶部207によって、入力画像10と対応づけて保持される。以後、対応づけられたこれらの位置姿勢については、入力画像10の位置姿勢と表記する。位置姿勢取得部208の詳細な動作に関しては後述する。   Further, in the present embodiment, a position / orientation acquisition unit 208 is newly added. The position and orientation acquisition unit 208 uses the input image 10 to estimate the position and orientation of the imaging unit 101 when the current input image 10 is captured by the SLAM process. The estimated position and orientation are held by the state storage unit 207 in association with the input image 10. Hereinafter, these associated position and orientation are referred to as the position and orientation of the input image 10. The detailed operation of the position / orientation acquisition unit 208 will be described later.

判定部203は、画像取得部201からの現在の入力画像10と、画像記憶部202が保持している初期位置姿勢画像20とを比較することに加えて、これらに対応づけられた位置姿勢を参照して、閉経路判定処理を行う。   The determination unit 203 compares the current input image 10 from the image acquisition unit 201 with the initial position / orientation image 20 held by the image storage unit 202, and determines the position / orientation associated with them. Referring to, a closed path determination process is performed.

より具体的には、判定部203は、第1実施形態で説明したBoWによる類似度の判定に加えて、入力画像10の位置姿勢と、初期位置姿勢画像20の位置姿勢とを比較する。画像の類似性のみならず、両者の位置姿勢を比較することによって、より正確に閉経路の判定を行うことができる。位置については、2つの三次元座標間のユークリッド距離、姿勢については2つの姿勢ベクトル間の内積(あるいはなす角)を指標として比較すればよい。   More specifically, the determination unit 203 compares the position / posture of the input image 10 and the position / posture of the initial position / posture image 20 in addition to the determination of the similarity by BoW described in the first embodiment. By comparing not only the similarity of images but also the position and orientation of both, it is possible to more accurately determine the closed path. For the position, the Euclidean distance between the two three-dimensional coordinates, and for the attitude, the inner product (or angle formed) between the two attitude vectors may be compared as an index.

すなわち、2つの三次元座標間のユークリッド距離が閾値よりも小さければ位置については一致したものとみなし、2つの姿勢ベクトル間の内積が閾値よりも大きければ姿勢については一致したものと見なすことができる。なお、SLAMによって推定された位置姿勢は、前述のように再び同じ地点に到達したときに位置姿勢が同じにならない場合がある。そのため、初期位置姿勢と現在の位置姿勢との比較時に、特に位置の閾値を大きめに設定してもよい。   That is, if the Euclidean distance between two three-dimensional coordinates is smaller than a threshold value, the positions are considered to be matched, and if the inner product between two posture vectors is larger than the threshold value, the attitudes can be regarded as matched. . Note that the position and orientation estimated by SLAM may not be the same when the same point is reached again as described above. Therefore, when comparing the initial position and posture with the current position and posture, the position threshold value may be set to be particularly large.

誘導生成部204は、判定部203が閉経路判定モードである場合に、情報処理装置200の使用者を誘導する方向を算出し、後述する誘導指示画像60を生成する。生成した誘導指示画像60は誘導出力部205に送出される。誘導生成部204は、誘導指示画像60を生成するために、状態記憶部207において保持されている入力画像10と対応する位置姿勢、三次元地図を参照する。   When the determination unit 203 is in the closed route determination mode, the guidance generation unit 204 calculates a direction for guiding the user of the information processing apparatus 200 and generates a guidance instruction image 60 described later. The generated guidance instruction image 60 is sent to the guidance output unit 205. In order to generate the guidance instruction image 60, the guidance generation unit 204 refers to the position and orientation corresponding to the input image 10 held in the state storage unit 207, and the three-dimensional map.

図6(a)には、本実施形態において、誘導指示画像60およびそれを重畳した出力画像70の例を示している。入力画像10は図2(a)における位置姿勢Bにおいて撮影されたものとする。初期位置姿勢画像20を図2(a)における位置姿勢Aにおいて撮影されたものとすると、図6(a)における入力画像10が撮影された位置姿勢Bに対して、情報処理装置200の使用者を左方向に誘導させれば閉経路を構成することができる。   FIG. 6A shows an example of a guidance instruction image 60 and an output image 70 on which the guidance instruction image 60 is superimposed in the present embodiment. It is assumed that the input image 10 is taken at the position / orientation B in FIG. If the initial position / posture image 20 is taken at the position / posture A in FIG. 2 (a), the user of the information processing apparatus 200 with respect to the position / posture B at which the input image 10 is taken in FIG. 6 (a). Is guided to the left, a closed path can be formed.

そのため、図6(a)においては、誘導指示画像60として、出力画像70中央に左方向を示す矢印を、右上に計測空間全体を示す俯瞰図を示している。俯瞰図には、初期位置姿勢(黒丸)、位置姿勢の軌跡(実線矢印)、移動すべき経路(破線矢印)が示されている。情報処理装置200の使用者は、俯瞰図によって目的とする位置姿勢を認識することができる。また、出力画像70中の矢印、俯瞰図を参照することによって、左側に向かって移動すればよいことが認識できる。   Therefore, in FIG. 6A, as the guidance instruction image 60, an arrow indicating the left direction is shown at the center of the output image 70, and an overhead view showing the entire measurement space is shown at the upper right. In the overhead view, an initial position and orientation (black circle), a locus of position and orientation (solid arrow), and a path to be moved (broken line arrow) are shown. A user of the information processing apparatus 200 can recognize a target position and orientation from an overhead view. Further, by referring to the arrow and the overhead view in the output image 70, it can be recognized that it is only necessary to move toward the left side.

図6(b)には、本実施形態において、誘導指示画像60およびそれを重畳した出力画像70の別の例を示している。図6(b)には、誘導指示画像60として、出力画像70中央に立方体形状の仮想物体が表示されている。仮想物体の左側面には文字が書かれており、左側面に書かれた文字を読むように促すメッセージが表示されている。この場合、情報処理装置200の使用者は仮想物体左側面に書かれた文字がよく読めるよう、左側に回り込むような動作を行うことが期待できる。誘導生成部204は、現在の位置姿勢と誘導方向とに基づいて、仮想物体の回転角を算出する。   FIG. 6B shows another example of the guidance instruction image 60 and the output image 70 on which the guidance instruction image 60 is superimposed in the present embodiment. In FIG. 6B, a cubic virtual object is displayed at the center of the output image 70 as the guidance instruction image 60. Characters are written on the left side of the virtual object, and a message prompting the user to read the characters written on the left side is displayed. In this case, the user of the information processing apparatus 200 can be expected to perform an operation of turning around to the left side so that the characters written on the left side of the virtual object can be read well. The guidance generation unit 204 calculates the rotation angle of the virtual object based on the current position and orientation and the guidance direction.

情報処理装置200の使用者を左方向に誘導する場合には、仮想物体に書かれた文字を画面左から奥に隠す方向に仮想物体を回転させる。逆に情報処理装置200の使用者を右方向に誘導する場合には、仮想物体に書かれた文字を画面右から奥に隠す方向に仮想物体を回転させる。誘導生成部204は、短時間のうちに推定される位置姿勢に応じて仮想物体を刻一刻と回転させるため、情報処理装置200の使用者を所望の位置姿勢へと誘導することができる。   When the user of the information processing apparatus 200 is guided in the left direction, the virtual object is rotated in a direction in which characters written on the virtual object are hidden from the left side of the screen. Conversely, when guiding the user of the information processing apparatus 200 to the right, the virtual object is rotated in a direction to hide the character written on the virtual object from the right side of the screen to the back. Since the guidance generation unit 204 rotates the virtual object every moment according to the estimated position and orientation within a short time, the user of the information processing apparatus 200 can be guided to a desired position and orientation.

図6(c)には、本実施形態における、誘導指示画像60およびそれを重畳した出力画像70の別の例を示している。図6(c)には、誘導指示画像60として、出力画像70の誘導する方向を除いた部分を黒で塗りつぶした画像を示している。図6(c)においては、黒で塗りつぶしているが、異なる色としてもよい。また、塗りつぶしの色を半透明にするなど、覆われる部分においても、その下の入力画像10の一部を視認できるようにしてもよい。使用者が出力画像70の明るい部分に向かって移動しやすいように塗りつぶしの色を決定する。   FIG. 6C shows another example of the guidance instruction image 60 and the output image 70 on which it is superimposed in the present embodiment. FIG. 6C shows an image in which a portion excluding the guiding direction of the output image 70 is blacked out as the guidance instruction image 60. In FIG. 6C, the color is black, but a different color may be used. Also, a part of the input image 10 underneath may be made visible even in a covered part, such as making the fill color translucent. The fill color is determined so that the user can easily move toward the bright part of the output image 70.

本実施形態において、誘導生成部204が現在の位置姿勢から初期位置姿勢に向けて誘導すべき方向を決定する処理を、図7(a)、図7(b)を用いて説明する。図7(a)において初期位置Tを黒丸で、初期姿勢Rを三角で示している。三角はRにおける視野方向を示すものである。現在の位置姿勢T、Rを同様に白丸および三角で示している。また、現在の姿勢Rから算出できる視線ベクトルをvとする。現在位置Ttから向かうべき方向を示す移動方向ベクトルdは式(1)で表される。 In the present embodiment, a process in which the guidance generation unit 204 determines a direction to be guided from the current position / orientation toward the initial position / orientation will be described with reference to FIGS. 7 (a) and 7 (b). The initial position T 0 by black circles in FIG. 7 (a), shows the initial position R 0 by triangles. The triangle indicates the viewing direction at R0 . The current position and orientation T t and R t are similarly indicated by white circles and triangles. In addition, the line-of-sight vector can be calculated from the current posture R t and v t. A moving direction vector dt indicating a direction from the current position Tt is expressed by Expression (1).

=T−T...(1)
誘導する方向はvからdへのなす角θによって定めることができる。θが正であれば誘導方向は左、負であれば誘導方向は右となる。すなわち、誘導生成部204は、このθが正であれば左方向の矢印、負であれば右方向の矢印を誘導指示画像60として生成すればよい。
d t = T 0 −T t (1)
The guiding direction can be determined by an angle θ t formed from v t to dt . If θ t is positive, the guidance direction is left, and if θ t is negative, the guidance direction is right. That is, the induction generator 204, the theta t arrow in the left direction if positive may be generated a rightward arrow as guiding instruction image 60 if it is negative.

一方、現在の位置姿勢が初期位置姿勢に十分近い場合には、誘導生成部204は現在の姿勢を初期姿勢に合わせるように誘導する必要が生じる。この場合に誘導すべき方向を決定する方法を、図7(b)を用いて説明する。図7(b)における初期姿勢の視線ベクトルをvとすると、誘導すべき方向はvからvへのなす角φによって定められる。φが正であれば誘導方向は左、負であれば誘導方向は右となる。すなわち、誘導生成部204は、このφが正であれば左方向の矢印、負であれば右方向の矢印を誘導指示画像60として生成すればよい。 On the other hand, when the current position / posture is sufficiently close to the initial position / posture, the guidance generation unit 204 needs to guide the current posture to match the initial posture. A method for determining the direction to be guided in this case will be described with reference to FIG. If the line-of-sight vector in the initial posture in FIG. 7B is v 0 , the direction to be guided is determined by the angle φ t formed from v t to v 0 . guidance direction if it is positive is φ t is left, if it is negative induction direction is right. That is, the induction generator 204, the phi t arrow in the left direction if positive may be generated a rightward arrow as guiding instruction image 60 if it is negative.

三次元地図生成部206は、状態記憶部207が保持する入力画像10および位置姿勢から計測空間の三次元地図を生成する。第1実施形態においては、一連の撮影が終了した後に三次元地図の生成を行っていたのに対し、本実施形態においては、入力画像10が入力され、対応する位置姿勢が推定されるたびに三次元地図の生成・更新を行う。生成・更新された三次元地図は状態記憶部207において保持される。また、判定部203によって閉経路が構成された旨が判定され、撮影を終了した場合には、ループクローズ処理を行い、これまでに生成した三次元地図に対して最適化処理を行う。   The 3D map generation unit 206 generates a 3D map of the measurement space from the input image 10 and the position / orientation held by the state storage unit 207. In the first embodiment, a 3D map is generated after a series of photographing is completed. In the present embodiment, every time an input image 10 is input and a corresponding position and orientation is estimated. Generate and update 3D maps. The generated / updated three-dimensional map is held in the state storage unit 207. When the determination unit 203 determines that the closed path is configured and the photographing is finished, the loop closing process is performed, and the optimization process is performed on the three-dimensional map generated so far.

状態記憶部207は、画像取得部201が取得した各時刻における入力画像10を記憶し、保持する。また、位置姿勢取得部208によって推定された位置姿勢について、同時刻に撮影された入力画像10と対応づけて保持する。また、状態記憶部207は三次元地図生成部206によって生成・更新された三次元地図についても保持し、必要に応じて三次元地図生成部206とデータの送受を行う。   The state storage unit 207 stores and holds the input image 10 at each time acquired by the image acquisition unit 201. Further, the position and orientation estimated by the position and orientation acquisition unit 208 are held in association with the input image 10 taken at the same time. The state storage unit 207 also holds the 3D map generated and updated by the 3D map generation unit 206, and transmits and receives data to and from the 3D map generation unit 206 as necessary.

位置姿勢取得部208は、過去の入力画像10とその位置姿勢、これまでに生成された三次元地図を参照して、SLAM処理によって現在の入力画像10の位置姿勢を推定する。推定された位置姿勢は状態記憶部207に送られ、入力画像10と対応づけて保持される。   The position / orientation acquisition unit 208 estimates the current position / orientation of the input image 10 by SLAM processing with reference to the past input image 10, its position / orientation, and the three-dimensional map generated so far. The estimated position / orientation is sent to the state storage unit 207 and held in association with the input image 10.

<処理>
以上のような構成を備えた本実施形態に係る情報処理装置200の制御について、以下説明する。図8(a)は、本実施形態に係る情報処理装置200が実施する処理の手順を示すフローチャートである。第1実施形態と比較すると、ステップS1020の処理がステップS1025に変更されている。ステップS1025では、現在の入力画像10に対する位置姿勢の取得と、三次元地図の生成更新を行う。
<Processing>
Control of the information processing apparatus 200 according to this embodiment having the above configuration will be described below. FIG. 8A is a flowchart illustrating a procedure of processing performed by the information processing apparatus 200 according to the present embodiment. Compared to the first embodiment, the process of step S1020 is changed to step S1025. In step S1025, the position / orientation for the current input image 10 is acquired, and the generation and update of the three-dimensional map are performed.

図8(b)は、ステップS1025内部の処理の流れを示すフローチャートである。ステップS2010において、撮影部101は、現在の入力画像10を撮影する。入力画像10は画像取得部201を通じて情報処理装置200の内部に取り込まれる。また、この時点から誘導出力部205は表示部102への出力画像70の出力を開始する。   FIG. 8B is a flowchart showing the flow of processing inside step S1025. In step S2010, the imaging unit 101 captures the current input image 10. The input image 10 is taken into the information processing apparatus 200 through the image acquisition unit 201. At this time, the guidance output unit 205 starts outputting the output image 70 to the display unit 102.

ステップS2020において、位置姿勢取得部208は、状態記憶部207に保持された起動開始から現在までの入力画像10および三次元地図を用い、SLAM処理によって入力画像10の位置姿勢を取得する。   In step S2020, the position / orientation acquisition unit 208 acquires the position / orientation of the input image 10 by SLAM processing using the input image 10 and the three-dimensional map from the start of activation to the present stored in the state storage unit 207.

ステップS2030において、三次元地図生成部206は、状態記憶部207に保持された入力画像10および位置姿勢を用いて三次元地図の生成を行う。既に三次元地図が生成されている場合には、三次元地図の更新処理を行う。   In step S2030, the 3D map generation unit 206 generates a 3D map using the input image 10 and the position and orientation held in the state storage unit 207. If a 3D map has already been generated, the 3D map is updated.

ステップS2020およびS2030の処理については、処理の順序を入れ替えてもよいし、同時に行ってもよい。いずれにせよ、ステップS2030までの処理を完了することによって、情報処理装置200内部に入力画像10が取り込まれ、それに対応する位置姿勢と現在までの三次元地図が生成・更新されることになる。   About the process of step S2020 and S2030, the order of a process may be replaced and may be performed simultaneously. In any case, by completing the processing up to step S2030, the input image 10 is taken into the information processing apparatus 200, and the corresponding position and orientation and the three-dimensional map up to the present are generated and updated.

ステップS1030において、誘導生成部204は、誘導指示画像60を生成し、誘導出力部205に送出する。先述のように、本実施形態では、誘導生成部204は、状態記憶部207が保持する初期位置姿勢と、位置姿勢取得部208において取得された位置姿勢とに基づいて、誘導指示画像60を生成する。誘導出力部205は、入力画像10に誘導指示画像60を重畳し、出力画像70を生成する。   In step S <b> 1030, the guidance generation unit 204 generates a guidance instruction image 60 and sends it to the guidance output unit 205. As described above, in the present embodiment, the guidance generation unit 204 generates the guidance instruction image 60 based on the initial position and orientation held by the state storage unit 207 and the position and orientation acquired by the position and orientation acquisition unit 208. To do. The guidance output unit 205 generates the output image 70 by superimposing the guidance instruction image 60 on the input image 10.

ステップS1040において、判定部203は、動作モードが閉経路判定モードである場合に、現在の入力画像10に対して閉経路判定処理を行う。一方、起動モードである場合には、状態記憶部207は初期位置姿勢画像20および初期位置姿勢の登録を行い、所定の時間が経過した後に、判定部203の動作モードを閉経路判定モードに移行する。   In step S1040, the determination unit 203 performs a closed path determination process on the current input image 10 when the operation mode is the closed path determination mode. On the other hand, in the start mode, the state storage unit 207 registers the initial position / posture image 20 and the initial position / posture, and after a predetermined time has elapsed, the operation mode of the determination unit 203 is shifted to the closed path determination mode. To do.

ステップS1050において、ステップS1040における閉経路判定処理に成功した(閉経路が構成された)場合には、判定部203は画像記憶部202に入力画像10を閉経路到達画像として登録し、ステップS1060に進む。そうでない場合には、ステップS1020に戻る。   In step S1050, when the closed path determination process in step S1040 is successful (closed path is configured), the determination unit 203 registers the input image 10 as the closed path arrival image in the image storage unit 202, and the process proceeds to step S1060. move on. Otherwise, the process returns to step S1020.

ステップS1060において、三次元地図生成部206は、ステップS2010において記憶した入力画像10、初期位置姿勢画像20、初期位置姿勢、ステップS2020において推定した入力画像10の位置姿勢、ステップS1050において取得した閉経路到達画像を用い、ステップS2030で作成した三次元地図を初期値として、ループクローズによる最適化処理とを行う。最適化された三次元地図が生成されたら、本実施形態の処理を終了する。   In step S1060, the 3D map generation unit 206 stores the input image 10, the initial position / posture image 20, the initial position / posture stored in step S2010, the position / posture of the input image 10 estimated in step S2020, and the closed path acquired in step S1050. Using the reached image, the optimization process by loop closing is performed using the three-dimensional map created in step S2030 as an initial value. When the optimized three-dimensional map is generated, the process of the present embodiment is terminated.

以上述べたように、本実施形態によれば、撮影された画像から随時算出される位置姿勢と三次元地図を用いることで、装置の使用者に対して、ループクローズ処理を適用可能な閉経路を構成するための方向を具体的に示し、撮影部の動きを効率的に誘導することが可能となる。また、生成された三次元地図にループクローズ処理を適用することによって、より高精度な三次元地図を生成することが可能となる。   As described above, according to the present embodiment, a closed path to which a loop close process can be applied to the user of the apparatus by using the position and orientation calculated from time to time and a 3D map. It is possible to specifically indicate the direction for constructing and to efficiently guide the movement of the photographing unit. Further, by applying a loop close process to the generated 3D map, it is possible to generate a 3D map with higher accuracy.

このように、装置の使用者に対して、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。このとき、使用者に対して具体的な移動方向を提示することによって、使用者はより効率的に閉経路を構成するための位置姿勢に到達することが可能となる。   In this way, it is possible to guide the user of the apparatus to a position and orientation for configuring a closed path to which the loop closing process can be applied. At this time, by presenting a specific moving direction to the user, the user can reach a position and orientation for configuring the closed path more efficiently.

[変形例8]
本実施形態における位置姿勢取得部208は、SLAM処理によって入力画像10から位置姿勢を求めるのではなく、撮影部101に位置姿勢センサを設置して、直接的に位置姿勢を求めるようにしてもよい。あるいは、撮影部101にマーカなどの特徴を配置し、さらに外部に設けられた撮影装置によって撮影部101の画像を撮影して、その画像から特徴を抽出することによって、撮影部101の位置姿勢を求めるようにしてもよい。
[Modification 8]
The position / orientation acquisition unit 208 according to the present embodiment may directly obtain the position / orientation by installing a position / orientation sensor in the photographing unit 101 instead of obtaining the position / orientation from the input image 10 by SLAM processing. . Alternatively, a feature such as a marker is arranged on the photographing unit 101, and an image of the photographing unit 101 is photographed by a photographing device provided outside, and the feature is extracted from the image, thereby changing the position and orientation of the photographing unit 101. You may make it ask.

撮影部101の位置姿勢を、入力画像10を用いたSLAMによって算出せず、前述したように外部の装置によって推定する場合には、三次元地図生成部206は、撮影中に三次元地図をリアルタイムで生成しなくてもよく、状態記憶部207は三次元地図を常時保持しなくてもよい。また、6自由度の位置姿勢のうち、3自由度の位置のみ、あるいは姿勢のみを外部の装置で計測し、残りのパラメータをSLAM処理によって算出するようにしてもよい。   When the position and orientation of the imaging unit 101 is not calculated by SLAM using the input image 10 but is estimated by an external device as described above, the 3D map generation unit 206 generates a 3D map in real time during imaging. The state storage unit 207 may not always hold the three-dimensional map. Alternatively, only the position of 3 degrees of freedom or only the position of the 6 degrees of freedom position and orientation may be measured by an external device, and the remaining parameters may be calculated by SLAM processing.

[変形例9]
本実施形態における撮影部101には、デプスセンサなど撮影部101視点からの奥行きを計測できるものを利用することが可能である。三次元地図生成部206および位置姿勢取得部208は、入力画像10に替えて奥行き画像を用いて位置姿勢の推定および三次元地図の生成を行ってもよい。
[Modification 9]
As the photographing unit 101 in the present embodiment, a device capable of measuring the depth from the viewpoint of the photographing unit 101 such as a depth sensor can be used. The 3D map generation unit 206 and the position / orientation acquisition unit 208 may perform position / orientation estimation and 3D map generation using a depth image instead of the input image 10.

[変形例10]
判定部203は、閉経路の判定において、入力画像10の位置姿勢の履歴(軌跡)を利用するようにしてもよい。ループクローズの最適化時には、位置姿勢の軌跡が広く分布していることが好ましいため、これを判定部203の判定条件として追加することができる。例えば、三次元地図を作成する空間(計測空間)において、位置姿勢の軌跡が十分な広がりを持っているかどうかを閉経路検出の判定条件に追加すればよい。
[Modification 10]
The determination unit 203 may use a history (trajectory) of the position and orientation of the input image 10 in determining the closed path. At the time of loop close optimization, it is preferable that the locus of position and orientation is widely distributed, and this can be added as a determination condition of the determination unit 203. For example, in a space (measurement space) for creating a three-dimensional map, whether or not the locus of position and orientation has a sufficient spread may be added to the determination condition for closed path detection.

図9にその例を示している。図9の長方形は、上から見た計測空間を示している。その内部に描かれている曲線は、初期位置姿勢から開始した位置姿勢の軌跡を示している。図9の軌跡に対して、外接長方形を定義したときに、計測空間の大きさに対して、X方向、Y方向の辺が共に十分な長さを持っているため、この時点で閉経路を構成した場合には、精度のよい三次元地図が生成できることが期待できる。判定条件として、例えば計測空間のX軸、Y軸方向の長さと、軌跡の外接長方形のX軸方向、Y軸方向の広がりの比を算出し、この比が閾値以上であることを用いればよい。また、計測空間と軌跡が描く図形を多角形に近似して面積を求め、計測空間との面積比を用いてもよい。   An example is shown in FIG. The rectangle in FIG. 9 shows the measurement space viewed from above. The curve drawn in the inside shows the locus of the position and orientation starting from the initial position and orientation. When a circumscribed rectangle is defined with respect to the trajectory of FIG. 9, both sides in the X direction and the Y direction have a sufficient length with respect to the size of the measurement space. When configured, it can be expected that an accurate three-dimensional map can be generated. As a determination condition, for example, the ratio of the length of the measurement space in the X-axis and Y-axis directions and the extent of the circumscribed rectangle of the trajectory in the X-axis direction and the Y-axis direction may be calculated, and this ratio may be equal to or greater than a threshold value. . Further, an area may be obtained by approximating a figure drawn by the measurement space and the locus to a polygon, and an area ratio with the measurement space may be used.

[変形例11]
誘導生成部204は、変形例7で説明した位置姿勢の軌跡が十分な広がりを持つ方向(広がりが拡大する方向)を優先して誘導指示を生成するようにしてもよい。誘導生成部204は、図9の軌跡に対する外接長方形に対して、少なくとも1つの辺が大きくなる方向を経由させ、最終的に閉経路を構成する位置姿勢に至るように誘導指示画像60を生成するようにしてもよい。
[Modification 11]
The guidance generation unit 204 may generate the guidance instruction by giving priority to the direction in which the locus of the position and orientation described in Modification 7 has a sufficient spread (a direction in which the spread is expanded). The guidance generation unit 204 generates a guidance instruction image 60 so as to finally reach a position and orientation that constitutes a closed path through a direction in which at least one side becomes larger with respect to the circumscribed rectangle with respect to the locus in FIG. You may do it.

[変形例12]
判定部203は、閉経路判定処理において、状態記憶部207が保持する三次元地図を利用するようにしてもよい。三次元地図を構成する点群は計測空間内に均一に分布していることが望ましいため、三次元地図として生成された三次元点群の密度分布を判定条件に追加してもよい。例えば、三次元点群が疎である領域がまだ残っている場合には、判定部203は閉経路判定処理を失敗させ、誘導生成部204は情報処理装置200の使用者に対してその領域に至るように誘導指示画像60を生成するようにしてもよい。
[Modification 12]
The determination unit 203 may use a three-dimensional map held by the state storage unit 207 in the closed route determination process. Since it is desirable that the point group constituting the three-dimensional map is uniformly distributed in the measurement space, the density distribution of the three-dimensional point group generated as the three-dimensional map may be added to the determination condition. For example, when an area where the three-dimensional point cloud is sparse still remains, the determination unit 203 fails the closed path determination process, and the guidance generation unit 204 instructs the user of the information processing device 200 to enter the area. Alternatively, the guidance instruction image 60 may be generated.

[変形例13]
判定部203は、閉経路の判定において、状態記憶部207が保持する入力画像10、位置姿勢、三次元地図を用いて、各入力画像における再投影誤差を利用するようにしてもよい。判定部203は状態記憶部207が保持する三次元地図を構成する三次元点群を、位置姿勢に基づいて入力画像10上に再投影し、画像処理によって抽出された特徴点と再投影された座標との差を算出する。この差が大きい場合には位置姿勢あるいは三次元地図の推定精度が良好でないことを意味する。そのため、この場合、判定部203は閉経路判定処理を失敗させ、誘導生成部204は情報処理装置200の使用者に対してその領域での入力画像10を再撮影させるべく誘導指示画像60を生成するようにしてもよい。
[Modification 13]
The determination unit 203 may use the reprojection error in each input image using the input image 10, the position and orientation, and the three-dimensional map held by the state storage unit 207 in determining the closed path. The determination unit 203 reprojects the 3D point group constituting the 3D map held by the state storage unit 207 on the input image 10 based on the position and orientation, and reprojects the feature points extracted by image processing. The difference from the coordinates is calculated. If this difference is large, it means that the position and orientation or the estimation accuracy of the 3D map is not good. Therefore, in this case, the determination unit 203 fails the closed path determination process, and the guidance generation unit 204 generates the guidance instruction image 60 to cause the user of the information processing device 200 to re-capture the input image 10 in that region. You may make it do.

[変形例14]
誘導生成部204は、情報処理装置200の使用者が閉経路を構成する目的の位置姿勢に近づく、あるいは遠ざかるにつれて、誘導指示画像60で表示される色を変更するようにしてもよい。例えば目的の位置姿勢に近づくにつれて図6(c)の塗りつぶしの色を薄くする、あるいは塗りつぶす領域を狭くすることによって、情報処理装置200の使用者は、目的の位置姿勢に近づいていることを容易に認識できる。
[Modification 14]
The guidance generation unit 204 may change the color displayed in the guidance instruction image 60 as the user of the information processing apparatus 200 approaches or moves away from the target position and orientation that forms the closed path. For example, the user of the information processing apparatus 200 can easily approach the target position and orientation by reducing the color of the fill in FIG. Can be recognized.

誘導生成部204が目的の位置姿勢に近づいている、あるいは遠ざかっていることを判定するために、位置姿勢の軌跡を用いるだけでなく、初期位置姿勢画像20と入力画像10との間で対応する特徴点の数を用いてもよい。対応する特徴点の数が増加している場合には、使用者が初期位置姿勢に近づいていると判断することができる。逆に対応する特徴点数が減少している場合には、初期位置姿勢から遠ざかっていると判定することができる。   In order to determine that the guidance generation unit 204 is approaching or moving away from the target position and orientation, not only the position and orientation trajectory is used, but also correspondence between the initial position and orientation image 20 and the input image 10 is made. The number of feature points may be used. When the number of corresponding feature points increases, it can be determined that the user is approaching the initial position and orientation. On the contrary, when the number of corresponding feature points is decreasing, it can be determined that the position is away from the initial position and orientation.

[変形例15]
誘導生成部204および誘導出力部205は、画像以外の方法を用いて使用者が移動すべき方向を示してもよい。不図示の音響装置を用いて、声によって情報処理装置200の使用者が移動すべき方向を示してもよい。右あるいは左など、移動方向を直接指示することができる。あるいは立体音響によって、例えば仮想物体が移動すべき方向に去っていくような音声を与え、情報処理装置200の使用者を誘導するようにしてもよい。情報処理装置200の使用者は、仮想物体が去っていく方向を追うような動作を行うことで、目的の位置姿勢に近づくことが可能となる。
[Modification 15]
The guidance generation unit 204 and the guidance output unit 205 may indicate a direction in which the user should move using a method other than an image. The direction in which the user of the information processing device 200 should move may be indicated by voice using an acoustic device (not shown). The direction of movement can be directly indicated, such as right or left. Alternatively, for example, a sound that leaves the virtual object in the direction in which the virtual object should move may be given by stereophonic sound to guide the user of the information processing apparatus 200. The user of the information processing apparatus 200 can approach the target position and orientation by performing an operation that follows the direction in which the virtual object leaves.

[変形例16]
図6(a)には誘導指示画像60の例として、矢印と俯瞰図の両方を示しているが、いずれか片方のみで誘導指示画像60を構成してもよい。
[Modification 16]
FIG. 6A shows both an arrow and an overhead view as an example of the guidance instruction image 60, but the guidance instruction image 60 may be composed of only one of them.

(実施形態3)
<概要>
本実施形態では、MR(またはAR)体験に先立ち、あらかじめ高精度な三次元地図を生成し用意しておく場合に適用できる情報処理装置に関して説明する。情報処理装置200の使用者は、接続されたカメラを保持して移動しながら、三次元地図を生成するための画像列を撮影する。本発明の情報処理装置はまず、MR体験時の位置姿勢推定に好適な三次元地図が生成されるように使用者を誘導する。そのために情報処理装置は、あらかじめ指定された、MR体験時に仮想物体が配置されることが想定される領域を観測しつつ、使用者の移動軌跡が空間的に広がるような画像列を撮影するように使用者を誘導する。
(Embodiment 3)
<Overview>
In this embodiment, an information processing apparatus that can be applied to a case where a highly accurate three-dimensional map is generated and prepared in advance prior to the MR (or AR) experience will be described. The user of the information processing apparatus 200 captures an image sequence for generating a three-dimensional map while holding and moving the connected camera. The information processing apparatus of the present invention first guides the user so that a three-dimensional map suitable for position and orientation estimation during MR experience is generated. For this purpose, the information processing apparatus captures an image sequence in which the user's movement trajectory is spatially expanded while observing a region in which a virtual object is assumed to be arranged during MR experience. Guide the user to

具体的には、使用者に仮想物体が配置される領域方向と、軌跡が空間的に広がる移動方向とを示した画像を提示する。使用者はこの画像を見ながら、MR体験時の位置姿勢推定に好適な画像列を撮影するようにカメラを移動する。情報処理装置はそのような画像列が取得されたことを検出すると、次にループクローズが可能となるように使用者を誘導する。具体的には、使用者に経路の始点方向を示した画像を提示する。使用者はこの画像を見ながら、カメラの位置姿勢が初期位置姿勢と概ね一致するようにカメラを移動する。情報処理装置はカメラがほぼ初期位置姿勢に至ったことを判定し、ループクローズ処理を行う。これによって、情報処理装置200は経路の始点と終点の位置姿勢を一致させるように最適化を行い、高精度な三次元地図を生成する。   Specifically, an image showing a region direction in which the virtual object is arranged and a moving direction in which the locus is spatially spread is presented to the user. While viewing this image, the user moves the camera so as to capture an image sequence suitable for position and orientation estimation during MR experience. When the information processing apparatus detects that such an image sequence has been acquired, the information processing apparatus guides the user so that the loop can be closed next. Specifically, an image showing the starting point direction of the route is presented to the user. While viewing this image, the user moves the camera so that the position and orientation of the camera substantially coincide with the initial position and orientation. The information processing apparatus determines that the camera has almost reached the initial position and orientation, and performs a loop close process. As a result, the information processing apparatus 200 performs optimization so as to match the position and orientation of the start point and end point of the route, and generates a highly accurate three-dimensional map.

<システム構成>
本実施形態に係るシステムの全体構成は、図5に示す第2実施形態における構成と同じである。ただし、本実施形態においては、機能モジュールの動作について第2実施形態と異なる部分が存在する。以下、第2実施形態と異なる部分についてのみ説明し、同じ部分については説明を省略する。
<System configuration>
The overall configuration of the system according to the present embodiment is the same as that of the second embodiment shown in FIG. However, in the present embodiment, there are parts different from the second embodiment regarding the operation of the functional module. Hereinafter, only different parts from the second embodiment will be described, and description of the same parts will be omitted.

<情報処理装置の構成>
判定部203は、MR体験を行うための三次元地図が生成されたか否かの三次元地図生成判定処理と、閉経路を検知するための閉経路判定処理とを行う。本実施形態においては、判定部203は起動モード、三次元地図生成モード、閉経路判定モードの少なくとも3つのモードを持つ。本実施形態において、判定部203は、初期位置姿勢が登録され、かつ後述の仮想物体提示領域が検知された場合に、起動モードから三次元地図生成モードに移行する。
<Configuration of information processing apparatus>
The determination unit 203 performs a 3D map generation determination process for determining whether or not a 3D map for performing the MR experience has been generated, and a closed path determination process for detecting a closed path. In the present embodiment, the determination unit 203 has at least three modes: a start mode, a 3D map generation mode, and a closed route determination mode. In the present embodiment, the determination unit 203 shifts from the activation mode to the 3D map generation mode when the initial position and orientation are registered and a virtual object presentation area to be described later is detected.

仮想物体提示領域とは、MR体験時に仮想物体が提示される領域として情報処理装置200に入力されるものであり、仮想物体中心を示す三次元座標と、仮想物体が占める大きさ(例えば、仮想物体のバウンディングボックスを定義する縦、横、高さの値)の情報を含む。仮想物体提示領域は、情報処理装置200にあらかじめ数値として入力しておく。入力された仮想物体提示領域の中心座標および大きさは状態記憶部207が保持する。   The virtual object presentation area is input to the information processing apparatus 200 as an area where the virtual object is presented during the MR experience, and the three-dimensional coordinates indicating the virtual object center and the size occupied by the virtual object (for example, virtual Information on the vertical, horizontal, and height values that define the bounding box of the object. The virtual object presentation area is input to the information processing apparatus 200 as a numerical value in advance. The state storage unit 207 holds the center coordinates and size of the input virtual object presentation area.

判定部203は、三次元地図生成の終了判定処理に成功した場合には、三次元地図生成モードから閉経路判定モードに移行する。三次元地図の生成終了判定処理は、以下のようにして行う。   When the determination unit 203 succeeds in the end determination process of the 3D map generation, the determination unit 203 shifts from the 3D map generation mode to the closed route determination mode. The 3D map generation end determination process is performed as follows.

判定部203は、変形例7と同様に、これまで推定された位置姿勢の軌跡を参照する。この軌跡が計測空間の大きさに対して、X方向、Y方向の辺が共に十分な長さを持っているか否かを判定する(第1の判定)。さらに判定部203は、入力画像10に仮想物体提示領域が含まれていた回数を参照し、位置姿勢の履歴に対して、当該回数が十分に大きいか否かを判定する(第2の判定)。判定部203は、2つの判定条件が両方とも満たされた場合に、三次元地図の生成終了処理に成功したと判定する。閉経路判定モードに移行した後の判定部203の動作に関しては、第2実施形態と同じである。   Similar to the seventh modification, the determination unit 203 refers to the locus of the position and orientation estimated so far. It is determined whether or not the trajectory has a sufficient length for both sides in the X direction and the Y direction with respect to the size of the measurement space (first determination). Further, the determination unit 203 refers to the number of times the virtual object presentation area is included in the input image 10 and determines whether the number of times is sufficiently large with respect to the position and orientation history (second determination). . The determination unit 203 determines that the 3D map generation end processing has been successful when both of the two determination conditions are satisfied. The operation of the determination unit 203 after shifting to the closed path determination mode is the same as in the second embodiment.

誘導生成部204は、判定部203が三次元地図生成モードである場合に、MR体験時に提示される仮想物体を観察するのに好適な位置姿勢へ誘導するための誘導指示画像40を生成する。誘導生成部204は、状態記憶部207において保持されている入力画像10に対応する位置姿勢、三次元地図、仮想物体提示領域を用いて誘導指示画像40を生成する。生成される誘導指示画像80(図11参照)は第2実施形態と同様であるが、本実施形態では、第2実施形態に対して誘導する方向が異なるため、以下説明する。   When the determination unit 203 is in the 3D map generation mode, the guidance generation unit 204 generates a guidance instruction image 40 for guiding to a position and orientation suitable for observing a virtual object presented during the MR experience. The guidance generation unit 204 generates the guidance instruction image 40 using the position and orientation corresponding to the input image 10 held in the state storage unit 207, the three-dimensional map, and the virtual object presentation area. The generated guidance instruction image 80 (see FIG. 11) is the same as that of the second embodiment, but in this embodiment, the direction of guidance is different from that of the second embodiment, and will be described below.

本実施形態において、誘導生成部204は、情報処理装置200の利用者に対して、仮想物体提示領域の方向を向き、かつ、位置姿勢の軌跡が計測空間内に広がる方向に誘導する。後者に関しては、初期位置姿勢から遠ざかり、かつ、位置姿勢の軌跡の外接多角形の面積が大きくなる方向に誘導すればよい。   In the present embodiment, the guidance generation unit 204 guides the user of the information processing apparatus 200 in the direction in which the direction of the virtual object presentation area is directed and the position and orientation trajectory extends in the measurement space. With respect to the latter, it is only necessary to guide away from the initial position and orientation and increase the area of the circumscribed polygon of the locus of the position and orientation.

本実施形態において、誘導生成部204が現在の位置姿勢から仮想物体提示領域の方向を向くように誘導するにあたり、その方向を決定する方法を、図10を参照しながら説明する。図10において、仮想物体提示領域の中心座標をTとすると、現在の位置から仮想物体提示領域を向く方向ベクトルmは式(2)によって表される。 In the present embodiment, a method for determining the direction when the guidance generation unit 204 guides the virtual object presentation area from the current position and orientation will be described with reference to FIG. 10, when the center coordinates of the virtual object presentation area and T m, the direction vector m t facing the virtual object presentation area from the current position is represented by the formula (2).

=T−T...(2)
このとき、誘導すべき方向はvからmへのなす角ρによって定められる。ρが正であれば誘導方向は左となり、負であれば誘導方向は右となる。すなわち、誘導生成部204は、このρが正であれば左方向の矢印を、負であれば右方向の矢印を誘導指示画像80として生成すればよい。
m t = T m −T t (2)
At this time, the direction to be induced is determined by the angle [rho t from v t to m t. If ρt is positive, the guidance direction is left, and if ρt is negative, the guidance direction is right. That is, the induction generator 204, the left direction of the arrow if it is positive the [rho t may be generated right direction of arrow as guiding instruction image 80 if it is negative.

図11は、本実施形態に係る誘導指示画像80およびそれを重畳した出力画像90の例を示している。図11には、誘導指示画像80として、誘導方向を示す2種類の矢印が描かれている。図11において、黒の矢印は仮想物体提示領域の方向を示し、情報処理装置200の使用者にその方向を視認するように促している。また、白の矢印は三次元地図を生成するための移動方向を示しており、情報処理装置200の使用者が移動すべき方向を示している。すなわち、情報処理装置200の使用者は、黒の矢印で示された方向を向きつつ、白の矢印で示された方向に移動することで、最適な三次元地図が生成されることが容易に理解できる。また、誘導指示画像80の一部に、実際に提示されるべき仮想物体を重畳して表示するようにしてもよい。   FIG. 11 shows an example of a guidance instruction image 80 according to the present embodiment and an output image 90 on which the guidance instruction image 80 is superimposed. In FIG. 11, two types of arrows indicating the direction of guidance are drawn as the guidance instruction image 80. In FIG. 11, the black arrow indicates the direction of the virtual object presentation area, and prompts the user of the information processing apparatus 200 to visually recognize the direction. Moreover, the white arrow has shown the moving direction for producing | generating a three-dimensional map, and has shown the direction which the user of the information processing apparatus 200 should move. That is, the user of the information processing device 200 can easily generate an optimal three-dimensional map by moving in the direction indicated by the white arrow while facing the direction indicated by the black arrow. Understandable. Further, a virtual object to be actually presented may be superimposed on a part of the guidance instruction image 80 and displayed.

<処理>
以上のような構成を備えた本実施形態に係る情報処理装置200の制御について、以下説明する。本実施形態に係る情報処理装置200が実施する処理の手順を示すフローチャートは、図8に示した第2実施形態のフローチャートとほぼ同じであるが、処理の内容については第2実施形態と異なる部分が存在する。そのため、以下、第2実施形態と異なる部分について主に説明し、同じ部分については説明を省略する。
<Processing>
Control of the information processing apparatus 200 according to this embodiment having the above configuration will be described below. The flowchart showing the procedure of the process performed by the information processing apparatus 200 according to the present embodiment is almost the same as the flowchart of the second embodiment shown in FIG. 8, but the contents of the process are different from the second embodiment. Exists. Therefore, hereinafter, different parts from the second embodiment will be mainly described, and description of the same parts will be omitted.

ステップS1040において、誘導生成部204は、判定部203の動作モードに応じた誘導指示画像80を生成する。判定部203の動作モードが三次元地図生成モードである場合には、MR体験時に提示される仮想物体を観察するのに好適な位置姿勢へ誘導するための誘導指示画像80を生成する。一方、判定部203のモードが閉経路判定モードである場合には、第1、第2実施形態と同様に、撮影部101を初期位置姿勢に至らしめる誘導指示画像40又は60を生成する。判定部203のモードが三次元地図生成モードである場合、誘導出力部205は、入力画像10に誘導指示画像80を重畳し、出力画像90を生成する。   In step S1040, the guidance generation unit 204 generates a guidance instruction image 80 corresponding to the operation mode of the determination unit 203. When the operation mode of the determination unit 203 is the three-dimensional map generation mode, a guidance instruction image 80 for guiding to a position and orientation suitable for observing a virtual object presented during the MR experience is generated. On the other hand, when the mode of the determination unit 203 is the closed path determination mode, the guidance instruction image 40 or 60 that brings the photographing unit 101 to the initial position and orientation is generated as in the first and second embodiments. When the mode of the determination unit 203 is the 3D map generation mode, the guidance output unit 205 generates the output image 90 by superimposing the guidance instruction image 80 on the input image 10.

ステップS1050において、判定部203は、動作モードに応じて異なる判定処理を行う。動作モードが三次元地図生成モードである場合には、三次元地図生成の終了判定処理を行う。三次元地図生成の終了判定に成功した場合には、判定部203は自身の動作モードを閉経路判定モードに移行させる。また、動作モードが三次元地図生成モードである場合には、三次元地図生成の終了判定処理の後、その結果によらずステップS1025に戻る。一方、動作モードが閉経路判定モードである場合には、第1、第2実施形態と同様に閉経路判定処理を行う。判定に成功した場合にはステップS1060に進み、そうでない場合にはステップS1025に戻る。   In step S1050, the determination unit 203 performs different determination processing depending on the operation mode. If the operation mode is the 3D map generation mode, a 3D map generation end determination process is performed. If the end determination of the 3D map generation is successful, the determination unit 203 shifts its operation mode to the closed path determination mode. If the operation mode is the 3D map generation mode, the process returns to step S1025 after the 3D map generation end determination process regardless of the result. On the other hand, when the operation mode is the closed path determination mode, the closed path determination process is performed as in the first and second embodiments. If the determination is successful, the process proceeds to step S1060; otherwise, the process returns to step S1025.

ステップS1080において、誘導生成部204は、判定部203の動作モードが三次元地図生成モードであるか、閉経路判定モードであるかに応じて異なる誘導指示画像40、60、80等を生成し、誘導出力部205に送出する。   In step S1080, the guidance generation unit 204 generates different guidance instruction images 40, 60, 80, etc. depending on whether the operation mode of the determination unit 203 is the 3D map generation mode or the closed route determination mode, This is sent to the guidance output unit 205.

以上述べたように、本実施形態によれば、撮影された画像から随時算出される位置姿勢と三次元地図を用いることで、最初に情報処理装置200の使用者をMR体験時に表示される仮想物体を観察するのに好適な位置姿勢に誘導することが可能となる。また、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。ループクローズ処理を適用することによって、MR体験時の位置姿勢推定に好適な高精度な三次元地図を生成することが可能となる。   As described above, according to the present embodiment, by using the position and orientation calculated from time to time and a 3D map, a user of the information processing device 200 is first displayed during MR experience. It is possible to guide to an appropriate position and orientation for observing the object. In addition, it is possible to guide to a position and orientation for configuring a closed path to which the loop closing process can be applied. By applying the loop closing process, it is possible to generate a highly accurate three-dimensional map suitable for position and orientation estimation during MR experience.

[変形例17]
仮想物体提示領域は、空間中で仮想物体を提示することが想定される領域を指定できるものであれば、いかなる方法で指定してもよい。本実施形態ではあらかじめ数値を入力することとしたが、例えば形状あるいは模様が既知のマーカを空間に配置し、入力画像10に写るマーカ像から中心座標を自動で算出するようにしてもよい。
[Modification 17]
The virtual object presentation area may be specified by any method as long as it can specify an area in which a virtual object is supposed to be presented in the space. In this embodiment, a numerical value is input in advance. However, for example, a marker having a known shape or pattern may be arranged in the space, and the center coordinates may be automatically calculated from the marker image shown in the input image 10.

[変形例18]
誘導生成部204は、装置の使用者への誘導生成時に三次元地図を参照し、障害物などの存在により移動できない方向を避けるように誘導してもよい。
[Modification 18]
The guidance generation unit 204 may refer to a three-dimensional map at the time of guidance generation to the user of the device and guide the vehicle so as to avoid a direction in which it cannot move due to the presence of an obstacle or the like.

(実施形態4)
<概要>
本実施形態では、高精度な三次元地図を生成しながらMR(またはAR)体験を行う場合に適用できる情報処理装置に関して説明する。情報処理装置200の使用者は、撮影部101および表示部102を内蔵したHMDを装着して移動しながら、MR体験を行うことができる。このとき、本発明の情報処理装置はカメラによって撮影された画像群を用いて三次元地図を生成しつつ、同時にこれまでに生成された三次元地図を利用してHMDの位置姿勢を算出する。情報処理装置は算出したHMDの位置姿勢から仮想画像をコンピュータグラフィックス(CG)によって使用者に提示する。情報処理装置は推定された位置姿勢を用いて、ループクローズが可能となるように使用者を誘導する。具体的には、使用者に現在の位置姿勢から経路の始点となる初期位置姿勢に至る方向を示した画像を提示する。使用者はこの画像を見ながら、装着したHMDの位置姿勢が初期位置姿勢と概ね一致するように移動する。
(Embodiment 4)
<Overview>
In the present embodiment, an information processing apparatus that can be applied to an MR (or AR) experience while generating a highly accurate three-dimensional map will be described. A user of the information processing apparatus 200 can perform an MR experience while wearing and moving an HMD incorporating the photographing unit 101 and the display unit 102. At this time, the information processing apparatus of the present invention generates a 3D map using a group of images photographed by the camera, and simultaneously calculates the position and orientation of the HMD using the 3D map generated so far. The information processing apparatus presents a virtual image to the user by computer graphics (CG) from the calculated position and orientation of the HMD. The information processing apparatus uses the estimated position and orientation to guide the user so that the loop can be closed. Specifically, an image showing the direction from the current position and orientation to the initial position and orientation that is the starting point of the route is presented to the user. While viewing this image, the user moves so that the position and orientation of the mounted HMD substantially coincide with the initial position and orientation.

情報処理装置はHMDがほぼ初期位置姿勢に至ったことを判定すると、ループクローズ処理を行う。これによって、情報処理装置は経路の始点と終点の位置姿勢を一致させるように最適化を行い、これまでに生成された三次元地図が修正され高精度化される。   When the information processing apparatus determines that the HMD has almost reached the initial position and orientation, it performs a loop close process. Thereby, the information processing apparatus performs optimization so that the position and orientation of the start point and the end point of the route coincide with each other, and the three-dimensional map generated so far is corrected and highly accurate.

<システム構成>
図12は、第4実施形態に係るシステム構成を示す図である。図12における長方形の枠は本実施形態の各処理を行う機能モジュールを、矢印はデータの流れを示している。本実施形態に係るシステムは、情報処理装置200とそれに接続する撮影部101、表示部102、仮想画像生成部103、仮想画像出力部104を備えている。図12の構成は一例であり図示されるものに限定されない。また、第2実施形態と異なる部分について主に説明し、同じ部分については説明を省略する。
<System configuration>
FIG. 12 is a diagram illustrating a system configuration according to the fourth embodiment. A rectangular frame in FIG. 12 indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The system according to the present embodiment includes an information processing apparatus 200, a photographing unit 101 connected thereto, a display unit 102, a virtual image generation unit 103, and a virtual image output unit 104. The configuration of FIG. 12 is an example, and is not limited to that illustrated. In addition, different parts from the second embodiment will be mainly described, and description of the same parts will be omitted.

<情報処理装置の構成>
本実施形態においては、情報処理装置200の外部に仮想画像生成部103が備えられている。仮想画像生成部103は、位置姿勢取得部208よりHMDの位置姿勢を受け取り、MR体験を行っている使用者に対して提示する仮想画像を生成する処理を行う。より具体的には、仮想画像生成部103は、位置姿勢取得部208において取得されたHMDの位置姿勢を視点としてコンピュータグラフィックスによって仮想の物体を描画し、仮想画像100を生成する。このようにして生成された仮想画像100は仮想画像出力部104へと送出される。
<Configuration of information processing apparatus>
In the present embodiment, a virtual image generation unit 103 is provided outside the information processing apparatus 200. The virtual image generation unit 103 receives the position and orientation of the HMD from the position and orientation acquisition unit 208, and performs a process of generating a virtual image to be presented to the user who is performing the MR experience. More specifically, the virtual image generation unit 103 draws a virtual object by computer graphics using the position and orientation of the HMD acquired by the position and orientation acquisition unit 208 as a viewpoint, and generates a virtual image 100. The virtual image 100 generated in this way is sent to the virtual image output unit 104.

さらに、本実施形態においては、情報処理装置200の外部に仮想画像出力部104が備えられている。仮想画像出力部104は仮想画像生成部103より仮想画像100を、誘導出力部205より出力画像70を入力する。仮想画像出力部104は出力画像70に仮想画像100を重畳して最終出力画像110を生成する。出力画像110はHMDに内蔵された表示部102へと送られ、本装置の使用者に提示される。   Further, in the present embodiment, a virtual image output unit 104 is provided outside the information processing apparatus 200. The virtual image output unit 104 receives the virtual image 100 from the virtual image generation unit 103 and the output image 70 from the guidance output unit 205. The virtual image output unit 104 generates a final output image 110 by superimposing the virtual image 100 on the output image 70. The output image 110 is sent to the display unit 102 built in the HMD and presented to the user of this apparatus.

図13は仮想画像出力部104が出力する最終出力画像110の例を示す図である。第2実施形態における出力画像70とは異なり、出力画像70上にさらに仮想の物体(この例では椅子)を、推定された位置姿勢からCGによって描画した仮想画像100が重畳されている。すなわち、本装置の使用者はMR体験中に仮想画像100を観察しながら、同時に表示されている誘導指示画像40を参照することで、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢へと誘導される。   FIG. 13 is a diagram illustrating an example of the final output image 110 output from the virtual image output unit 104. Unlike the output image 70 in the second embodiment, a virtual image 100 in which a virtual object (a chair in this example) is further drawn by CG from the estimated position and orientation is superimposed on the output image 70. That is, the user of the present apparatus refers to the guidance instruction image 40 displayed at the same time while observing the virtual image 100 during the MR experience, so that a position for configuring a closed path to which the loop closing process can be applied. Guided to posture.

さらに、本実施形態においては、三次元地図修正部209が備えられている。三次元地図修正部209は、判定部203によって閉経路が構成された旨が判定された場合には、状態記憶部207において保持されている三次元地図を修正する。三次元地図修正部209はループクローズ処理を行い、三次元地図に対して最適化を行うことで、三次元地図を修正する。   Furthermore, in this embodiment, a three-dimensional map correction unit 209 is provided. When the determination unit 203 determines that the closed route is configured, the 3D map correction unit 209 corrects the 3D map held in the state storage unit 207. The 3D map correcting unit 209 corrects the 3D map by performing a loop closing process and optimizing the 3D map.

<処理>
以上のような構成を備えた本実施形態に係る情報処理装置200の制御について、以下説明する。図14は、本実施形態に係る情報処理装置200が実施する処理の手順を示すフローチャートである。第2実施形態と比較すると、ステップS1030の処理がステップS1035に、ステップS1060の処理がステップS1065に変更されている。また、ステップS1070が追加されている。
<Processing>
Control of the information processing apparatus 200 according to this embodiment having the above configuration will be described below. FIG. 14 is a flowchart illustrating a procedure of processing performed by the information processing apparatus 200 according to the present embodiment. Compared to the second embodiment, the process of step S1030 is changed to step S1035, and the process of step S1060 is changed to step S1065. Also, step S1070 is added.

ステップS1035において、誘導生成部204は誘導指示画像60を生成する。誘導生成部204は生成された誘導指示画像60を誘導出力部205に送出する。また同時に仮想画像生成部103は、ステップS1025において取得された位置姿勢からCGによって仮想の物体を描画し、仮想画像100を生成する。仮想画像生成部103は生成された仮想画像100を仮想画像出力部104に送出する。また、ステップS1035において誘導出力部205は、入力画像10に誘導指示画像60を重畳し、出力画像70を生成して仮想画像出力部211に送出する。仮想画像出力部104は出力画像90に仮想画像100を重畳して最終出力画像110を生成し、表示部102に送出する。   In step S <b> 1035, the guidance generation unit 204 generates the guidance instruction image 60. The guidance generation unit 204 sends the generated guidance instruction image 60 to the guidance output unit 205. At the same time, the virtual image generation unit 103 draws a virtual object by CG from the position and orientation acquired in step S1025, and generates a virtual image 100. The virtual image generation unit 103 sends the generated virtual image 100 to the virtual image output unit 104. In step S <b> 1035, the guidance output unit 205 superimposes the guidance instruction image 60 on the input image 10, generates the output image 70, and sends it to the virtual image output unit 211. The virtual image output unit 104 generates a final output image 110 by superimposing the virtual image 100 on the output image 90 and sends it to the display unit 102.

ステップS1065において、三次元地図修正部209は、判定部203によって閉経路が構成された旨が判定された場合には、状態記憶部207において保持されている三次元地図を修正する。三次元地図修正部209はループクローズ処理を行い、三次元地図に対して最適化を行うことで、三次元地図を修正する。修正された三次元地図は状態記憶部207に保持され、次にステップS1025の処理を行う際に、ステップS1070において修正され高精度化された三次元地図が用いられるようになる。   In step S <b> 1065, the 3D map correction unit 209 corrects the 3D map held in the state storage unit 207 when the determination unit 203 determines that the closed route is configured. The 3D map correcting unit 209 corrects the 3D map by performing a loop closing process and optimizing the 3D map. The corrected three-dimensional map is held in the state storage unit 207, and the next time the process of step S1025 is performed, the three-dimensional map corrected in step S1070 and improved in accuracy is used.

ステップS1070において、本装置の使用者がMR体験を終了する場合には、本実施形態に係る情報処理装置200の処理を終了する。そうでない場合には、ステップS1025に戻る。   In step S1070, when the user of the apparatus ends the MR experience, the process of the information processing apparatus 200 according to the present embodiment ends. Otherwise, the process returns to step S1025.

以上述べたように、本実施形態によれば、装置の使用者に対して、MR体験中において、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。また、生成された三次元地図にループクローズ処理を適用することによって、三次元地図が修正され高精度される。その結果、MR体験中の使用者が装着しているHMDの位置姿勢が高精度に推定され、位置ずれのない正しい仮想画像を生成することが可能となる。   As described above, according to the present embodiment, the user of the apparatus can be guided to a position and orientation for configuring a closed path to which the loop closing process can be applied during the MR experience. . Further, by applying a loop close process to the generated three-dimensional map, the three-dimensional map is corrected and highly accurate. As a result, the position and orientation of the HMD worn by the user who is experiencing the MR can be estimated with high accuracy, and a correct virtual image without positional deviation can be generated.

<実施例の効果>
第1実施形態によれば、装置の使用者に対して、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。また、取得した画像列に対してループクローズ処理を適用することによって高精度な三次元地図を生成することが可能となる。
<Effect of Example>
According to the first embodiment, the user of the apparatus can be guided to a position and orientation for configuring a closed path to which the loop closing process can be applied. In addition, it is possible to generate a highly accurate three-dimensional map by applying a loop close process to the acquired image sequence.

第2実施形態によれば、装置の使用者に対して、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。このとき、使用者に対して具体的な移動方向を提示することによって、使用者はより効率的に閉経路を構成するための位置姿勢に到達することが可能となる。また、生成された三次元地図にループクローズ処理を適用することによって、より高精度な三次元地図を生成することが可能となる。   According to the second embodiment, the user of the apparatus can be guided to a position and orientation for configuring a closed path to which the loop closing process can be applied. At this time, by presenting a specific moving direction to the user, the user can reach a position and orientation for configuring the closed path more efficiently. Further, by applying a loop close process to the generated 3D map, it is possible to generate a 3D map with higher accuracy.

第3実施形態によれば、MR体験時の位置姿勢推定に好適な三次元地図を生成するための画像列を撮影する位置姿勢に誘導することが可能となる。さらに、そのような画像列を撮影した後に、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。ループクローズ処理を適用することによって、MR体験時の位置姿勢推定に好適な三次元地図を高精度に生成することが可能となる。   According to the third embodiment, it is possible to guide to a position and orientation for capturing an image sequence for generating a three-dimensional map suitable for position and orientation estimation during MR experience. Furthermore, after shooting such an image sequence, it is possible to guide to a position and orientation for configuring a closed path to which the loop close process can be applied. By applying the loop closing process, it is possible to generate a three-dimensional map suitable for position and orientation estimation during MR experience with high accuracy.

第4実施形態によれば、装置の使用者に対して、MR体験中において、ループクローズ処理を適用可能な閉経路を構成するための位置姿勢に誘導することが可能となる。また、生成された三次元地図にループクローズ処理を適用することによって、三次元地図が修正され高精度される。その結果、MR体験中の使用者が装着しているHMDの位置姿勢が高精度に推定され、位置ずれのない正しい仮想画像を生成することが可能となる。   According to the fourth embodiment, it is possible to guide the user of the apparatus to a position and orientation for configuring a closed path to which the loop close process can be applied during the MR experience. Further, by applying a loop close process to the generated three-dimensional map, the three-dimensional map is corrected and highly accurate. As a result, the position and orientation of the HMD worn by the user who is experiencing the MR can be estimated with high accuracy, and a correct virtual image without positional deviation can be generated.

<定義>
本発明における画像取得部201は、撮影部101が撮影した画像を情報処理装置200に入力できるものであれば、いかなるものでもよい。また、入力する画像においても、RGBカラー画像、グレイスケール画像、白黒画像、奥行き画像など、いかなる種類の画像でもよい。
<Definition>
The image acquisition unit 201 according to the present invention may be anything as long as the image captured by the imaging unit 101 can be input to the information processing apparatus 200. The input image may be any type of image such as an RGB color image, a gray scale image, a black and white image, or a depth image.

本発明における画像記憶部202は、情報処理装置200が動作している間、画像やパラメータなどのデータを保持できるものであれば、いかなるものでもよい。RAM、フラッシュメモリなどの半導体記憶装置や、ハードディスク、ソリッドステートディスク等の補助記憶装置を利用することができる。   The image storage unit 202 in the present invention may be anything as long as it can hold data such as images and parameters while the information processing apparatus 200 is operating. Semiconductor storage devices such as RAM and flash memory, and auxiliary storage devices such as hard disks and solid state disks can be used.

本発明における誘導生成部204および誘導出力部205は、撮影部101の位置姿勢を初期位置姿勢と概略同じ位置姿勢へと変更させることを促すものであれば、いかなるものでもよい。第1〜第3実施形態では誘導指示画像を生成し、出力する方法について説明した。他にも音声などの報知方法を用いることも可能であるし、情報処理装置200の使用者に振動や触覚などを提示するようにしてもよい。また、撮影部101を保持するロボット装置に動作指示を与えるような構成も可能である。   The guidance generation unit 204 and the guidance output unit 205 according to the present invention may be anything as long as they prompt the user to change the position / posture of the photographing unit 101 to approximately the same position / posture as the initial position / posture. In the first to third embodiments, the method for generating and outputting the guidance instruction image has been described. In addition, a notification method such as voice can be used, and vibration or tactile sense may be presented to the user of the information processing apparatus 200. Further, a configuration in which an operation instruction is given to the robot apparatus that holds the photographing unit 101 is also possible.

また、本発明における誘導生成部204は、撮影部101の位置姿勢を初期位置姿勢と概略同じ位置姿勢へと変更させることを促すだけでなく、さらなる誘導を生成するようにしてもよい。第3実施形態や変形例11においては、生成される三次元地図の密度あるいは精度を向上させる方向に誘導を行いつつ、撮影部101の位置姿勢を初期位置姿勢と概略同じ位置姿勢へと変更させることを促す方法について説明した。   In addition, the guidance generation unit 204 according to the present invention may generate not only a prompt for changing the position and orientation of the photographing unit 101 to a position and orientation substantially the same as the initial position and orientation, but also a further guidance. In the third embodiment and the modified example 11, the position and orientation of the photographing unit 101 are changed to the same position and orientation as the initial position and orientation while performing guidance in a direction to improve the density or accuracy of the generated three-dimensional map. I explained how to encourage you.

本発明における判定部203は、規定状態における撮影画像とその他の状態における撮影画像とが概略同じ位置姿勢において撮影されたか否かが判定できれば、いかなるものでもよい。   The determination unit 203 according to the present invention may be anything as long as it can determine whether or not the captured image in the specified state and the captured image in the other state are captured at substantially the same position and orientation.

第1実施形態においては、BoWによって画像間の類似度を判定する方法について説明した。変形例2で説明したように、画像間で対応する特徴点から幾何変換パラメータを算出し、幾何変換パラメータを適用した画像間で類似度を算出するようにしてもよい。   In the first embodiment, the method of determining the similarity between images by BoW has been described. As described in the second modification, the geometric transformation parameter may be calculated from the corresponding feature points between the images, and the similarity may be calculated between the images to which the geometric transformation parameter is applied.

また、本発明における判定部203は、規定状態における撮影画像とその他の状態における撮影画像とが概略同じ位置姿勢において撮影されたか否かの判定に加えて、他の条件を追加して判定してもよい。先述の変形例12、13においては、生成される三次元地図の性質を向上させることを企図して、さらに条件を追加して判定を行う方法について説明した。   Further, the determination unit 203 according to the present invention performs determination by adding other conditions in addition to determining whether the captured image in the specified state and the captured image in the other state are captured at substantially the same position and orientation. Also good. In the above-described modified examples 12 and 13, the method of performing the determination by adding further conditions was described in order to improve the properties of the generated three-dimensional map.

本発明における三次元地図生成部206は、複数の撮影画像を用いて対象空間の三次元座標を算出するものであれば、いかなるものでもよい。先述の実施形態においては、SfMやSLAMを用いる方法について説明した。変形例5で説明したように、位置姿勢センサを補助的に用いてもよいし、変形例6で説明したように、奥行き画像を入力して用いるようにしてもよい。   The 3D map generation unit 206 according to the present invention may be anything as long as it calculates 3D coordinates of the target space using a plurality of captured images. In the above-described embodiment, the method using SfM or SLAM has been described. As described in the fifth modification, the position / orientation sensor may be used supplementarily, or as described in the sixth modification, a depth image may be input and used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:撮影部、102:表示部、200:情報処理装置、201:画像取得部、202:画像記憶部、203:判定部、204:誘導生成部、205:誘導出力部、206:三次元地図生成部、207:状態記憶部、208:位置姿勢取得部   101: imaging unit, 102: display unit, 200: information processing device, 201: image acquisition unit, 202: image storage unit, 203: determination unit, 204: guidance generation unit, 205: guidance output unit, 206: three-dimensional map Generation unit, 207: state storage unit, 208: position and orientation acquisition unit

Claims (16)

複数の位置姿勢で撮影部により撮影された撮影画像を取得する取得手段と、
規定状態の撮影画像と略同じ位置姿勢に対応する撮影画像を取得させるための誘導指示を生成する生成手段と、
前記誘導指示を出力する出力手段と、
前記誘導指示の出力の後に前記取得手段により取得された1つの撮影画像が、前記規定状態の撮影画像と略同じ位置姿勢で撮影されたか否かを判定する判定手段と、
前記略同じ位置姿勢で撮影されたと判定された場合、前記複数の位置姿勢で撮影された前記1つの撮影画像を含む複数の撮影画像に基づいて、撮影画像に含まれる特徴の三次元座標から三次元地図を生成もしくは更新する地図生成手段と、
を備えることを特徴とする情報処理装置。
Acquisition means for acquiring captured images captured by the imaging unit at a plurality of positions and orientations;
Generating means for generating a guidance instruction for acquiring a captured image corresponding to substantially the same position and orientation as the captured image in the prescribed state;
Output means for outputting the guidance instruction;
A determining unit that determines whether one captured image acquired by the acquiring unit after the output of the guidance instruction is captured in substantially the same position and orientation as the captured image in the specified state;
When it is determined that the images are taken at the substantially same position and orientation, a third order is obtained from the three-dimensional coordinates of the features included in the photographed image based on the plurality of photographed images including the one photographed image photographed at the plurality of positions and orientations. Map generation means for generating or updating the original map;
An information processing apparatus comprising:
前記生成手段は、前記規定状態の撮影画像を含む画像を前記誘導指示として生成することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the generation unit generates an image including the photographed image in the specified state as the guidance instruction. 前記判定手段は、前記1つの撮影画像と、前記規定状態の撮影画像との類似度に基づいて、前記略同じ位置姿勢で撮影されたか否かを判定することを特徴とする請求項1又は2に記載の情報処理装置。   3. The determination unit according to claim 1, wherein the determination unit determines whether or not the image is captured at the substantially same position and orientation based on a similarity between the one captured image and the captured image in the specified state. The information processing apparatus described in 1. 前記判定手段は、前記1つの撮影画像に含まれる特徴と、前記規定状態の撮影画像に含まれる特徴とから取得される画像間の幾何変換パラメータに基づいて、前記略同じ位置姿勢で撮影されたか否かを判定することを特徴とする請求項1又は2に記載の情報処理装置。   Whether the determination unit has photographed at substantially the same position and orientation based on a geometric transformation parameter between images acquired from the feature included in the one captured image and the feature included in the captured image in the specified state. The information processing apparatus according to claim 1, wherein it is determined whether or not. 前記規定状態の撮影画像を記憶する画像記憶手段をさらに備えることを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an image storage unit that stores the photographed image in the specified state. 前記取得手段により取得された撮影画像が撮影された位置姿勢を取得する位置姿勢取得手段と、
前記規定状態に対応する規定位置姿勢を記憶する状態記憶手段と、をさらに備え、
前記生成手段は、前記規定位置姿勢と略同じ位置姿勢に対応する撮影画像を取得させるための誘導指示を生成することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
Position and orientation acquisition means for acquiring the position and orientation at which the captured image acquired by the acquisition means was captured;
State storage means for storing a specified position and orientation corresponding to the specified state;
The information processing apparatus according to claim 1, wherein the generation unit generates a guidance instruction for acquiring a captured image corresponding to a position and orientation that is substantially the same as the specified position and orientation. .
前記生成手段は、前記規定位置姿勢と前記位置姿勢取得手段により取得された複数の位置姿勢の軌跡とを含む計測空間の俯瞰図を含む誘導指示を生成することを特徴とする請求項6に記載の情報処理装置。   The said production | generation means produces | generates the guidance instruction | indication which contains the bird's-eye view of the measurement space containing the said prescription | regulation position and orientation and the locus | trajectory of several position and orientation acquired by the said position and orientation acquisition means. Information processing device. 前記生成手段は、前記規定位置姿勢と、前記位置姿勢取得手段により取得された位置姿勢とに基づいて、前記位置姿勢取得手段により取得された位置姿勢から前記規定位置姿勢へと至る誘導方向を含む誘導指示を生成することを特徴とする請求項6又は7に記載の情報処理装置。   The generation unit includes a guidance direction from the position and orientation acquired by the position and orientation acquisition unit to the specified position and orientation based on the specified position and orientation and the position and orientation acquired by the position and orientation acquisition unit. The information processing apparatus according to claim 6, wherein a guidance instruction is generated. 前記状態記憶手段は、前記取得手段により取得された複数の撮影画像に対応する複数の位置姿勢の軌跡をさらに記憶し、
前記生成手段は、前記位置姿勢の軌跡に基づいて、計測空間に対する前記位置姿勢の軌跡の空間的な広がりが拡大するように、前記誘導指示を生成することを特徴とする請求項6乃至8の何れか1項に記載の情報処理装置。
The state storage means further stores a plurality of positions and orientation trajectories corresponding to the plurality of captured images acquired by the acquisition means,
The said generation | production means produces | generates the said guidance instruction | indication so that the spatial expansion of the locus | trajectory of the said position / orientation with respect to measurement space may expand based on the locus | trajectory of the said position / orientation. The information processing apparatus according to any one of claims.
前記判定手段は、前記規定位置姿勢と、前記位置姿勢取得手段により取得された位置姿勢との間の各位置のユークリッド距離と、各姿勢ベクトルのなす角との少なくとも一方に基づいて、前記略同じ位置姿勢で撮影されたか否かの判定を行うことを特徴とする請求項6乃至9の何れか1項に記載の情報処理装置。   The determination means is substantially the same as the above based on at least one of the Euclidean distance of each position between the specified position and orientation and the position and orientation acquired by the position and orientation acquisition means, and an angle formed by each orientation vector. The information processing apparatus according to any one of claims 6 to 9, wherein it is determined whether or not the image is taken in a position and orientation. 前記判定手段は、前記三次元地図の推定精度をさらに算出し、当該推定精度に基づいて、前記略同じ位置姿勢で撮影されたか否かの判定を行うことを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。   The said determination means further calculates the estimation accuracy of the said three-dimensional map, and determines whether it image | photographed with the said substantially same position and orientation based on the said estimation accuracy. The information processing apparatus according to any one of claims. 前記地図生成手段による三次元地図の生成の終了を判定する終了判定手段をさらに備えることを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an end determination unit that determines the end of generation of the three-dimensional map by the map generation unit. 複数の位置姿勢で撮影部により撮影された撮影画像を取得する取得手段と、
前記複数の位置姿勢で撮影された少なくとも1つの撮影画像に基づいて、撮影画像に含まれる特徴の三次元座標から三次元地図を生成する地図生成手段と、
規定状態の撮影画像と略同じ位置姿勢に対応する撮影画像を取得させるための誘導指示を生成する生成手段と、
前記誘導指示を出力する出力手段と、
前記誘導指示の出力の後に前記取得手段により取得された1つの撮影画像が、前記規定状態の撮影画像と略同じ位置姿勢で撮影されたか否かを判定する判定手段と、
前記略同じ位置姿勢で撮影されたと判定された場合、前記三次元地図を修正する地図修正手段と
を備えることを特徴とする情報処理装置。
Acquisition means for acquiring captured images captured by the imaging unit at a plurality of positions and orientations;
Map generating means for generating a three-dimensional map from three-dimensional coordinates of features included in the photographed image based on at least one photographed image photographed at the plurality of positions and orientations;
Generating means for generating a guidance instruction for acquiring a captured image corresponding to substantially the same position and orientation as the captured image in the prescribed state;
Output means for outputting the guidance instruction;
A determining unit that determines whether one captured image acquired by the acquiring unit after the output of the guidance instruction is captured in substantially the same position and orientation as the captured image in the specified state;
An information processing apparatus comprising: a map correcting unit that corrects the three-dimensional map when it is determined that the images are photographed at substantially the same position and orientation.
情報処理装置の制御方法であって、
取得手段が、複数の位置姿勢で撮影部により撮影された撮影画像を取得する取得工程と、
生成手段が、規定状態の撮影画像と略同じ位置姿勢に対応する撮影画像を取得させるための誘導指示を生成する生成工程と、
出力手段が、前記誘導指示を出力する出力工程と、
判定手段が、前記誘導指示の出力の後に前記取得工程により取得された1つの撮影画像が、前記規定状態の撮影画像と略同じ位置姿勢で撮影されたか否かを判定する判定工程と、
地図生成手段が、前記略同じ位置姿勢で撮影されたと判定された場合、前記複数の位置姿勢で撮影された前記1つの撮影画像を含む複数の撮影画像に基づいて、撮影画像に含まれる特徴の三次元座標から三次元地図を生成する地図生成工程と、
を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus,
An acquisition step in which an acquisition unit acquires captured images captured by the imaging unit at a plurality of positions and orientations;
A generating step for generating a guidance instruction for acquiring a captured image corresponding to a position and orientation substantially the same as the captured image in the prescribed state;
An output step in which the output means outputs the guidance instruction;
A determination step of determining whether or not one captured image acquired by the acquisition step after the output of the guidance instruction is captured at substantially the same position and orientation as the captured image in the specified state;
When it is determined that the map generation unit is photographed at the substantially same position and orientation, the feature of the feature included in the photographed image is based on a plurality of photographed images including the one photographed image photographed at the plurality of positions and orientations. A map generation process for generating a 3D map from 3D coordinates;
A method for controlling an information processing apparatus, comprising:
情報処理装置の制御方法であって、
取得手段が、複数の位置姿勢で撮影部により撮影された撮影画像を取得する取得工程と、
地図生成手段が、前記複数の位置姿勢で撮影された少なくとも1つの撮影画像に基づいて、撮影画像に含まれる特徴の三次元座標から三次元地図を生成する地図生成工程と、
生成手段が、規定状態の撮影画像と略同じ位置姿勢に対応する撮影画像を取得させるための誘導指示を生成する生成工程と、
出力手段が、前記誘導指示を出力する出力工程と、
判定手段が、前記誘導指示の出力の後に前記取得工程により取得された1つの撮影画像が、前記規定状態の撮影画像と略同じ位置姿勢で撮影されたか否かを判定する判定工程と、
地図修正手段が、前記略同じ位置姿勢で撮影されたと判定された場合、前記三次元地図を修正する地図修正工程と
を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus,
An acquisition step in which an acquisition unit acquires captured images captured by the imaging unit at a plurality of positions and orientations;
A map generating step for generating a three-dimensional map from three-dimensional coordinates of features included in the photographed image based on at least one photographed image photographed at the plurality of positions and orientations;
A generating step for generating a guidance instruction for acquiring a captured image corresponding to a position and orientation substantially the same as the captured image in the prescribed state;
An output step in which the output means outputs the guidance instruction;
A determination step of determining whether or not one captured image acquired by the acquisition step after the output of the guidance instruction is captured at substantially the same position and orientation as the captured image in the specified state;
And a map correction step of correcting the three-dimensional map when it is determined that the map correction means is photographed at the substantially same position and orientation.
コンピュータを、請求項1乃至13の何れか1項に記載の情報処理装置として機能させるためのプログラム。   A program for causing a computer to function as the information processing apparatus according to any one of claims 1 to 13.
JP2016166011A 2016-02-15 2016-08-26 Information processing device, control method of information processing device, information processing method and program Active JP6823403B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/415,048 US10171730B2 (en) 2016-02-15 2017-01-25 Information processing apparatus, method of controlling information processing apparatus, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016026345 2016-02-15
JP2016026345 2016-02-15

Publications (3)

Publication Number Publication Date
JP2017146952A true JP2017146952A (en) 2017-08-24
JP2017146952A5 JP2017146952A5 (en) 2019-09-26
JP6823403B2 JP6823403B2 (en) 2021-02-03

Family

ID=59680848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016166011A Active JP6823403B2 (en) 2016-02-15 2016-08-26 Information processing device, control method of information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP6823403B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021503665A (en) * 2018-03-26 2021-02-12 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods and devices for generating environmental models and storage media
CN112955901A (en) * 2018-12-23 2021-06-11 三星电子株式会社 Method and apparatus for performing loop detection
CN113747039A (en) * 2020-05-27 2021-12-03 杭州海康威视数字技术股份有限公司 Image acquisition method and device
WO2023026634A1 (en) * 2021-08-25 2023-03-02 株式会社Nttドコモ Display control device
WO2024041464A1 (en) * 2022-08-22 2024-02-29 先临三维科技股份有限公司 Loop-back path prediction method and apparatus, nonvolatile storage medium, and processor
WO2024106223A1 (en) * 2022-11-16 2024-05-23 パナソニックIpマネジメント株式会社 Imaging device, imaging work assistance method, and imaging work assistance program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002980A (en) * 2006-06-23 2008-01-10 Canon Inc Information processing method and device
WO2013069048A1 (en) * 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント Image generating device and image generating method
JP2014507723A (en) * 2011-01-31 2014-03-27 マイクロソフト コーポレーション Reproduction of 3D environment
US8787614B2 (en) * 2010-05-03 2014-07-22 Samsung Electronics Co., Ltd. System and method building a map
US20140327792A1 (en) * 2013-05-02 2014-11-06 Qualcomm Incorporated Methods for facilitating computer vision application initialization

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002980A (en) * 2006-06-23 2008-01-10 Canon Inc Information processing method and device
US8787614B2 (en) * 2010-05-03 2014-07-22 Samsung Electronics Co., Ltd. System and method building a map
JP2014507723A (en) * 2011-01-31 2014-03-27 マイクロソフト コーポレーション Reproduction of 3D environment
WO2013069048A1 (en) * 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント Image generating device and image generating method
US20140327792A1 (en) * 2013-05-02 2014-11-06 Qualcomm Incorporated Methods for facilitating computer vision application initialization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
半澤 悠樹: "オンライン撮影に適した実用的なSfMシステム", 電子情報通信学会論文誌 (J96−D) 第8号, vol. 96, no. 8, JPN6020037114, 1 August 2013 (2013-08-01), JP, pages 1753 - 1763, ISSN: 0004357278 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021503665A (en) * 2018-03-26 2021-02-12 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods and devices for generating environmental models and storage media
JP7043601B2 (en) 2018-03-26 2022-03-29 オッポ広東移動通信有限公司 Methods and devices for generating environmental models and storage media
CN112955901A (en) * 2018-12-23 2021-06-11 三星电子株式会社 Method and apparatus for performing loop detection
EP3834133A4 (en) * 2018-12-23 2021-10-13 Samsung Electronics Co., Ltd. Method and device for performing a loop closure detection
CN113747039A (en) * 2020-05-27 2021-12-03 杭州海康威视数字技术股份有限公司 Image acquisition method and device
CN113747039B (en) * 2020-05-27 2023-03-24 杭州海康威视数字技术股份有限公司 Image acquisition method and device
WO2023026634A1 (en) * 2021-08-25 2023-03-02 株式会社Nttドコモ Display control device
WO2024041464A1 (en) * 2022-08-22 2024-02-29 先临三维科技股份有限公司 Loop-back path prediction method and apparatus, nonvolatile storage medium, and processor
WO2024106223A1 (en) * 2022-11-16 2024-05-23 パナソニックIpマネジメント株式会社 Imaging device, imaging work assistance method, and imaging work assistance program

Also Published As

Publication number Publication date
JP6823403B2 (en) 2021-02-03

Similar Documents

Publication Publication Date Title
JP2017146952A (en) Information processing device, method for controlling information processing device, and program
US20210407160A1 (en) Method and sytem for presenting a digital information related to a real object
JP4434890B2 (en) Image composition method and apparatus
CN110022470B (en) Method and system for training object detection algorithm using composite image and storage medium
US10171730B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP4137078B2 (en) Mixed reality information generating apparatus and method
JP5966510B2 (en) Information processing system
KR20170007102A (en) Device and method for generating and displaying three-dimentional map
JP4834424B2 (en) Information processing apparatus, information processing method, and program
JP2005107970A (en) Image display device and method
JPH0689342A (en) Moving picture processor
CN110362193A (en) With hand or the method for tracking target and system of eyes tracking auxiliary
JP2005107969A (en) Image display method and image display system
JP2018081410A (en) Computer program
JP2017187882A (en) Computer program used for image processing
TW201738847A (en) Assembly instruction system and assembly instruction method
JP6701694B2 (en) Head-mounted display and computer program
JP5870618B2 (en) Free viewpoint video display device
JP7129839B2 (en) TRAINING APPARATUS, TRAINING SYSTEM, TRAINING METHOD, AND PROGRAM
JP2018056924A (en) Image display device and virtual reality interface device using teh same
JP6687510B2 (en) AR information display device and program
US20220300120A1 (en) Information processing apparatus, and control method
KR20190048810A (en) Apparatus and method for providing augmented reality contents
US11936986B2 (en) Image adjustment system, image adjustment device, and image adjustment method
TW201928761A (en) Apparatus and method of image capture

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210108

R151 Written notification of patent or utility model registration

Ref document number: 6823403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151