JP2016145733A - Information processing device and method thereof - Google Patents

Information processing device and method thereof Download PDF

Info

Publication number
JP2016145733A
JP2016145733A JP2015022345A JP2015022345A JP2016145733A JP 2016145733 A JP2016145733 A JP 2016145733A JP 2015022345 A JP2015022345 A JP 2015022345A JP 2015022345 A JP2015022345 A JP 2015022345A JP 2016145733 A JP2016145733 A JP 2016145733A
Authority
JP
Japan
Prior art keywords
information
scene
arrangement
imaging
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015022345A
Other languages
Japanese (ja)
Other versions
JP6482307B2 (en
Inventor
武本 和樹
Kazuki Takemoto
和樹 武本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015022345A priority Critical patent/JP6482307B2/en
Publication of JP2016145733A publication Critical patent/JP2016145733A/en
Application granted granted Critical
Publication of JP6482307B2 publication Critical patent/JP6482307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate characteristic arrangement information suitable for estimating a position attitude of an imaging device in a space.SOLUTION: An input unit 111 inputs camera information on an internal parameter of an imaging device, scene shape information for drawing a scene, and sight line information indicating a position attitude of a sight line in observing a virtual object in the scene. An imaging scene setting unit 150 sets an imaging scene that is a real space imaged by the imaging device in the position attitude indicated by the sight line information, and a depth distance of the imaging scene, on the basis of the scene shape information, the camera information and the sight line information. An arrangement information generation unit 170 generates characteristic arrangement information arranged in a scene, on the basis of the scene shape information, the imaging scene and the depth distance.SELECTED DRAWING: Figure 4

Description

本発明は、空間における撮像装置の位置姿勢を推定するために現実のシーンに配置する特徴の配置情報を生成する情報処理に関する。   The present invention relates to information processing for generating arrangement information of features to be arranged in an actual scene in order to estimate the position and orientation of an imaging device in space.

空間における撮像装置の位置姿勢を推定する方法に、撮像装置の撮像画像に映り込む画像特徴を用いる方法がある。特許文献1が開示する技術は、磁気センサで撮像装置(ヘッドマウントディスプレイ(HMD)に固定されたカメラ)の位置姿勢を計測する。そして、磁気ノイズによって生じる誤差を画像特徴(テーブルに配置した色マーカ)を用いて補正し、撮像画像と整合した位置姿勢を推定する。   As a method for estimating the position and orientation of the imaging device in space, there is a method that uses an image feature reflected in a captured image of the imaging device. The technology disclosed in Patent Document 1 measures the position and orientation of an imaging device (a camera fixed to a head mounted display (HMD)) with a magnetic sensor. Then, an error caused by magnetic noise is corrected using image features (color markers arranged in a table), and a position and orientation that is consistent with the captured image is estimated.

また、非特許文献1は、外形が正方形で内部に識別情報をもつ画像特徴(正方形マーカと円形マーカ)を開示し、撮像画像に映り込むマーカを画像処理して認識することで、撮像装置自体の位置姿勢を推定する方法を記載する。   Non-Patent Document 1 discloses image features (square markers and circular markers) having a square outer shape and identification information inside, and by performing image processing and recognizing the markers reflected in the captured image, the imaging device itself A method for estimating the position and orientation of the is described.

特許文献1と非特許文献1の技術は、システム環境の構築者が、予め、撮像装置によって撮像されるエリアを考慮して、画像特徴を空間に配置する必要がある。特許文献1は、カメラからの距離(以下、奥行き距離)に応じて色マーカの密度分布を変更して、撮像画像に映り込むマーカの数を抑えることを記載する。ただし、特許文献1はエアホッケーゲームを想定しているが、HMDの装着者が、空間を自由に歩き回るケースにおける適切な密度分布については言及しない。   In the techniques of Patent Document 1 and Non-Patent Document 1, a system environment builder needs to arrange image features in a space in advance in consideration of an area imaged by an imaging device. Patent Document 1 describes that the density distribution of color markers is changed according to the distance from the camera (hereinafter referred to as the depth distance) to suppress the number of markers reflected in the captured image. However, although Patent Literature 1 assumes an air hockey game, it does not mention an appropriate density distribution in a case where a wearer of an HMD walks freely in space.

非特許文献1は、紙面上に複数のマーカ(正方形マーカと円形マーカ)を等間隔に配置し、体験者が周囲を見回すような状況でもカメラの位置姿勢の推定が可能な方法を開示する。しかし、非特許文献1は、一定の大きさの正方形マーカのみを使用し、体験者が広いスペースを歩いて移動するような事例に対して、適切なマーカの大きさ・位置などの配置情報を提示する仕組みを開示しない。   Non-Patent Document 1 discloses a method in which a plurality of markers (a square marker and a circular marker) are arranged at equal intervals on a paper surface, and the position and orientation of a camera can be estimated even in a situation where an experienced person looks around. However, Non-Patent Document 1 uses only a square marker of a certain size, and for cases where the user walks in a large space and moves, the placement information such as the appropriate marker size and position is provided. The mechanism to present is not disclosed.

また、非特許文献2は、空間に配置された計測用カメラで、計測対象のHMDに取り付けた複数の自発光マーカを計測して、HMD自体の位置姿勢を計測する方法を開示する。さらに、非特許文献2は、HMDのどの場所に自発光マーカを取り付ければよいかを、自発光マーカの発光範囲や、HMDの形状による隠れを考慮してシミュレーションする方法を開示する。ただし、シミュレーションは、計測用カメラが撮影対象のHMDを球形状で等間隔に取り囲むような配置で行われるだけで、計測用カメラとマーカの間の距離や重要な視点位置に対して有効に画像特徴を配置する方法は、非特許文献2に開示されていない。   Non-Patent Document 2 discloses a method of measuring the position and orientation of the HMD itself by measuring a plurality of self-luminous markers attached to the HMD to be measured with a measurement camera arranged in a space. Further, Non-Patent Document 2 discloses a method for simulating which location of the HMD should be attached in consideration of the light emission range of the self-light-emitting marker and the hiding due to the shape of the HMD. However, the simulation is only performed in such a way that the measurement camera surrounds the HMD to be imaged in a spherical shape at equal intervals, and it is possible to effectively image the distance between the measurement camera and the marker and an important viewpoint position. A method of arranging the features is not disclosed in Non-Patent Document 2.

また、特許文献1、非特許文献1、2は、撮像装置と画像特徴の間に遮蔽物がある場合を考慮せず、遮蔽物を考慮した画像特徴の配置やサイズなどは開示されていない。従って、空間における撮像装置の位置姿勢の推定に適切な画像特徴の配置やサイズを提供する技術が望まれる。   Patent Document 1 and Non-Patent Documents 1 and 2 do not consider the case where there is a shielding object between the imaging device and the image feature, and do not disclose the arrangement and size of the image feature considering the shielding object. Therefore, a technique for providing an arrangement and size of image features suitable for estimating the position and orientation of the imaging device in space is desired.

特許第3450704号公報Japanese Patent No. 3450704

加藤博一、Mark Billinghurst、Ivan Poupyrev、鉄谷信二、橘啓八郎「拡張現実感技術を用いたタンジブルインタフェイス」芸術科学会論文誌、Vol. 1、No. 2、97-104頁、2002年Hirokazu Kato, Mark Billinghurst, Ivan Poupyrev, Shinji Tetsuya, Keihachiro Tachibana "Tangible Interface Using Augmented Reality Technology" Journal of Art and Science, Vol. 1, No. 2, pp. 97-104, 2002 Larry Davis、Eric Clarkson、Janniek P. Rolland「Predicting Accuracy in Pose Estimation for Marker-based Tracking」Proceeding of the Second IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR '03)、2003年Larry Davis, Eric Clarkson, Janniek P. Rolland `` Predicting Accuracy in Pose Estimation for Marker-based Tracking '' Proceeding of the Second IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR '03), 2003

本発明は、空間における撮像装置の位置姿勢の推定に適切な特徴の配置情報を生成することを目的とする。   An object of the present invention is to generate arrangement information of features suitable for estimating the position and orientation of an imaging device in space.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる情報処理は、空間における撮像装置の位置姿勢を推定するために現実のシーンに配置する特徴の配置情報を生成する際に、前記撮像装置の内部パラメータに関するカメラ情報、前記シーンを描画するためのシーン形状情報、および、前記シーンにおいて仮想物体を観察する際の視線の位置姿勢を示す視線情報を入力し、前記シーン形状情報、前記カメラ情報および前記視線情報に基づき、前記視線情報が示す位置姿勢において前記撮像装置が撮像する現実の空間である撮像シーンと、前記撮像シーンの奥行き距離を設定し、前記シーン形状情報、前記撮像シーンおよび前記奥行き距離に基づき、前記シーンに配置する特徴の配置情報を生成する。   The information processing according to the present invention draws the camera information regarding the internal parameters of the imaging apparatus and the scene when generating the arrangement information of the characteristics to be arranged in the actual scene in order to estimate the position and orientation of the imaging apparatus in space. Scene shape information and gaze information indicating the position and orientation of the gaze when observing a virtual object in the scene are input, and the gaze information is based on the scene shape information, the camera information, and the gaze information. An imaging scene that is an actual space imaged by the imaging apparatus at the position and orientation shown, and a depth distance of the imaging scene are set, and the scene is arranged in the scene based on the scene shape information, the imaging scene, and the depth distance Generate placement information for.

本発明によれば、空間における撮像装置の位置姿勢の推定に適切な特徴の配置情報を生成することができる。   According to the present invention, it is possible to generate feature arrangement information suitable for estimating the position and orientation of an imaging device in space.

撮像装置の位置姿勢を計測する環境の一例を示す図。The figure which shows an example of the environment which measures the position and orientation of an imaging device. 図1に示す環境におけるマーカの配置例を示す図。FIG. 2 is a diagram showing an example of marker arrangement in the environment shown in FIG. 実施例の情報処理装置の構成例を示すブロック図。The block diagram which shows the structural example of the information processing apparatus of an Example. 実施例におけるマーカ配置の提示処理を実行する情報処理装置の機能構成例を示すブロック図。The block diagram which shows the function structural example of the information processing apparatus which performs the presentation process of marker arrangement | positioning in an Example. 三つの視線情報が示す位置姿勢における撮像シーンを説明する図。The figure explaining the imaging scene in the position and orientation which three eyes | visual_axis information shows. 領域分割の例を示す図。The figure which shows the example of an area | region division. UIの一例を示す図。The figure which shows an example of UI. マーカ配置の提示処理の手順例を説明するフローチャート。The flowchart explaining the example of a procedure of the presentation process of marker arrangement | positioning. 撮像シーン設定部と領域分割部の処理を説明するフローチャート。The flowchart explaining the process of an imaging scene setting part and an area division part. 配置情報生成部の処理を説明するフローチャート。The flowchart explaining the process of an arrangement | positioning information generation part. マーカテーブルの一例を示す図。The figure which shows an example of a marker table. マーカの配置を説明する図。The figure explaining arrangement | positioning of a marker. マーカの配置を説明する図。The figure explaining arrangement | positioning of a marker. 最終的なマーカ配置例を示す図。The figure which shows the example of a final marker arrangement | positioning. サイズが異なるマーカの混合配置を行う場合の最終的なマーカ配置例を示す図。The figure which shows the example of final marker arrangement | positioning in the case of performing the mixed arrangement | positioning of the marker from which size differs. 観察用のカメラと位置姿勢推定用のカメラを組み合わせる例を示す図。The figure which shows the example which combines the camera for observation, and the camera for position and orientation estimation.

以下、本発明にかかる実施例の情報処理装置および情報処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。   Hereinafter, an information processing apparatus and an information processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, an Example does not limit this invention concerning a claim, and all the combinations of the structure demonstrated in an Example are not necessarily essential for the solution means of this invention.

[撮像装置の位置姿勢の計測]
空間における撮像装置の位置姿勢を推定する方法の概要を説明する。図1により撮像装置の位置姿勢を計測する環境の一例を示す。図1は、現実のシーンである屋内において三次元のコンピュータグラフィクスモデル(以下、CGモデル)330を観察するケースに、非特許文献1のマーカを利用して、撮像装置の位置姿勢を計測することを想定している。
[Measurement of position and orientation of imaging device]
An outline of a method for estimating the position and orientation of the imaging device in space will be described. FIG. 1 shows an example of an environment for measuring the position and orientation of the imaging apparatus. Figure 1 shows the case of observing a three-dimensional computer graphics model (hereinafter referred to as CG model) 330 indoors, which is a real scene. Is assumed.

なお、図1に示す環境には、空間における撮像装置の位置姿勢を推定するための特徴である画像特徴(以下、マーカ)を配置する壁面301、302、床面303が存在する。その他、図1に示す環境には、デスクやテーブルのような什器310が配置され、柱のような構造物320が存在するものとする。また、符号100a-100cはそれぞれ、HMDに固定された撮像装置であるカメラ100の位置姿勢を示す。   Note that the environment shown in FIG. 1 includes wall surfaces 301 and 302 and a floor surface 303 on which image features (hereinafter referred to as markers), which are features for estimating the position and orientation of the imaging device in space, are arranged. In addition, it is assumed that a fixture 310 such as a desk or table is disposed in the environment illustrated in FIG. 1 and a structure 320 such as a pillar is present. Reference numerals 100a to 100c denote the positions and orientations of the camera 100, which is an imaging device fixed to the HMD.

図2により図1に示す環境におけるマーカの配置例を示す。図2に示すマーカ配置は、非特許文献1の方法に従い壁面301、302、床面303に同一サイズのマーカを等間隔に配置した例である。マーカの一部は、構造物320や什器310によって遮蔽され、それらマーカがカメラ100によって撮影されない場合がある。   FIG. 2 shows an example of marker arrangement in the environment shown in FIG. The marker arrangement shown in FIG. 2 is an example in which markers of the same size are arranged at equal intervals on the wall surfaces 301 and 302 and the floor surface 303 according to the method of Non-Patent Document 1. Some of the markers are shielded by the structure 320 and the fixture 310, and the markers may not be captured by the camera 100 in some cases.

本来、什器や構造物によって遮蔽されたマーカが存在しても、撮像画像から遮蔽されていないマーカを一つでも検出することができれば、カメラ100の位置姿勢を推定することができる。しかし、カメラ100が広範囲に移動する場合、遮蔽されていないマーカを撮影不可能な場所が存在する可能性が高く、そのような場所ではカメラ100の位置姿勢の推定が困難になる。カメラ100の位置姿勢の推定が難しい場所が存在する場合、観察者は、CGモデル330をスムーズに観察することができない。   Originally, even if there is a marker shielded by a fixture or a structure, the position and orientation of the camera 100 can be estimated if at least one marker not shielded from the captured image can be detected. However, when the camera 100 moves in a wide range, there is a high possibility that there is a place where the unshielded marker cannot be photographed, and it is difficult to estimate the position and orientation of the camera 100 in such a place. When there is a place where it is difficult to estimate the position and orientation of the camera 100, the observer cannot observe the CG model 330 smoothly.

上記の問題を防ぐには、予め現場に赴いて、観察者がCGモデル330を観察するような位置において遮蔽されることがないように、マーカの配置やサイズを調整する環境構築が必要になる。つまり、現場において、マーカを移動したり、カメラ100の画角に収まるようなマーカサイズに印刷し直し、再度、マーカを貼るなど、マーカの配置に試行錯誤が必要になる。   In order to prevent the above problems, it is necessary to construct an environment that adjusts the arrangement and size of the markers so that the observer will not be blocked at a position where the observer observes the CG model 330 in advance. . In other words, it takes trial and error to place the marker, such as moving the marker on the site, printing again to a marker size that fits within the angle of view of the camera 100, and attaching the marker again.

以下では、観察者に拡張現実(MR)を体験させる環境である、図1に示すような現実のシーン(以下、MR環境)に配置するマーカの配置情報を生成する実施例の情報処理装置および情報処理方法を説明する。   In the following, an information processing apparatus according to an embodiment for generating marker placement information to be placed in a real scene (hereinafter referred to as an MR environment) as shown in FIG. 1, which is an environment for an observer to experience augmented reality (MR), and An information processing method will be described.

[装置の構成]
図3のブロック図により実施例の情報処理装置の構成例を示す。CPU201は、RAM202をワークメモリとして、ROM203や記憶部204に格納されたOSや各種プログラムを実行し、システムバス205を介して後述する構成を制御する。
[Device configuration]
The block diagram of FIG. 3 shows a configuration example of the information processing apparatus of the embodiment. The CPU 201 uses the RAM 202 as a work memory, executes an OS and various programs stored in the ROM 203 and the storage unit 204, and controls a configuration to be described later via the system bus 205.

CPU201は、USBなどの汎用インタフェイス206を介してキーボードやマウスなど操作部207からユーザ指示を入力する。CPU201は、ユーザ指示に従い、記憶部204に格納されたプログラムを実行し、当該プログラムに従い、ビデオカード(VC)208を介してモニタ209にユーザインタフェイス(UI)や処理経過や処理結果を表示する。汎用インタフェイス206には操作部207のほかにメモリカードリーダなどを接続可能で、CPU201は、メモリカードなどから各種データを読み込むことができる。   The CPU 201 inputs a user instruction from the operation unit 207 such as a keyboard and a mouse via a general-purpose interface 206 such as USB. The CPU 201 executes a program stored in the storage unit 204 according to a user instruction, and displays a user interface (UI), a process progress, and a process result on the monitor 209 via the video card (VC) 208 according to the program. . In addition to the operation unit 207, a memory card reader or the like can be connected to the general-purpose interface 206, and the CPU 201 can read various data from the memory card or the like.

記憶部204は、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)である。記憶部204が格納するプログラムには、図1に示す屋内の環境などに非特許文献1が開示するマーカなどを配置し、カメラ100の計測された位置姿勢を利用してHMD211にCGモデル330を表示するプログラムが含まれる。つまり、HMD211を装着した観察者は、図1に示す環境にCGモデル330が表す物体が配置された拡張現実(MR)を体験することができる。   The storage unit 204 is a hard disk drive (HDD) or a solid state drive (SSD). In the program stored in the storage unit 204, a marker disclosed in Non-Patent Document 1 is placed in the indoor environment shown in FIG. 1, and the CG model 330 is added to the HMD 211 using the measured position and orientation of the camera 100. Contains programs to display. That is, the observer wearing the HMD 211 can experience augmented reality (MR) in which the object represented by the CG model 330 is arranged in the environment shown in FIG.

MR用のプログラムを実行する場合、CPU201は、インタフェイス210を介した有線または無線接続により、HMD211に画像データを送信し、HMD211に固定されたカメラ100から撮像画像データを受信する。なお、CPU201は、HMD211に送信する画像データの生成にVC208に搭載されたGPUを利用する場合があるが、その詳細は省略する。   When executing a program for MR, the CPU 201 transmits image data to the HMD 211 by wired or wireless connection via the interface 210 and receives captured image data from the camera 100 fixed to the HMD 211. Note that the CPU 201 may use a GPU installed in the VC 208 to generate image data to be transmitted to the HMD 211, but details thereof are omitted.

なお、CPU201は、システムバス205に接続された図示しないネットワークI/Fを介して、有線または無線ネットワーク上のコンピュータ装置やサーバ装置との間でプログラム、データ、演算処理結果の送受信を行うこともできる。また、モニタ209と操作部207は、それらを重ねたタッチパネルであってもよく、その場合、情報処理装置はタブレットデバイスまたはスマートフォンのようなコンピュータ機器でもよい。   Note that the CPU 201 can also send and receive programs, data, and arithmetic processing results to and from computer devices and server devices on a wired or wireless network via a network I / F (not shown) connected to the system bus 205. it can. Further, the monitor 209 and the operation unit 207 may be a touch panel in which they are overlapped. In that case, the information processing apparatus may be a computer device such as a tablet device or a smartphone.

また、記憶部204が格納するプログラムには、観察者にMRを体験させるMR環境に配置するマーカの配置方法を提示処理を実現するプログラムが含まれ、CPU201は後述するマーカ配置の提示処理を実行する。   In addition, the program stored in the storage unit 204 includes a program that realizes a process for presenting a marker placement method to be placed in an MR environment that allows an observer to experience MR, and the CPU 201 executes a marker placement presentation process described later. To do.

[機能構成]
図4のブロック図により実施例におけるマーカ配置の提示処理を実行する情報処理装置の機能構成例を示す。なお、図4に示す機能構成は、CPU201がマーカ配置の提示用のプログラムを実行することで実現される。
[Function configuration]
FIG. 4 is a block diagram illustrating an example of a functional configuration of an information processing apparatus that executes a marker placement presentation process in the embodiment. Note that the functional configuration shown in FIG. 4 is realized by the CPU 201 executing a marker placement presentation program.

シーン形状入力部110は、MR環境を表す情報(以下、シーン形状情報)を入力する。例えば、図1に示す環境の壁面301、302と床面303、および、什器310と構造物320の配置や形状を示す三次元モデル(以下、3Dモデル)を入力する。3Dモデルとして、例えば、CADで作成された3Dポリゴンモデルを使用することができる。また、MR環境の三次元形状を一括取得が可能な測定器が取得した点群からポリゴンモデルを生成し、当該ポリゴンモデルをシーン形状情報として入力してもよい。   The scene shape input unit 110 inputs information representing the MR environment (hereinafter, scene shape information). For example, a three-dimensional model (hereinafter referred to as a 3D model) indicating the arrangement and shape of the wall surfaces 301 and 302 and the floor surface 303 and the fixture 310 and the structure 320 of the environment shown in FIG. 1 is input. As the 3D model, for example, a 3D polygon model created by CAD can be used. Alternatively, a polygon model may be generated from a point cloud acquired by a measuring instrument that can acquire the three-dimensional shape of the MR environment at once, and the polygon model may be input as scene shape information.

また、什器310や構造物320は、シーンに配置されたマーカとカメラ100の間に存在し、カメラ100に対してマーカを遮蔽する可能性がある物体(遮蔽物)である。遮蔽物はデスクや柱に限られず、鉢植、垂れ幕、バナー、スタンド型照明、ソファを含む椅子、パーティションなども遮蔽物に含まれる。   The fixture 310 and the structure 320 are objects (shields) that exist between the marker placed in the scene and the camera 100 and may shield the marker from the camera 100. Shields are not limited to desks and pillars, and include pot plants, banners, banners, stand-type lighting, chairs including sofas, partitions, and the like.

モデル形状入力部120は、体験者に観察させる物体(以下、仮想物体)の3D形状を示す情報(以下、物体形状情報)を入力する。例えば、図1に示す車両を表すCGモデル330が入力される。なお、入力するシーン形状情報は部屋のサイズに限られず、入力する物体形状情報は車両を表すCGモデルに限られない。   The model shape input unit 120 inputs information (hereinafter, object shape information) indicating the 3D shape of an object (hereinafter referred to as a virtual object) to be observed by the experience person. For example, a CG model 330 representing the vehicle shown in FIG. 1 is input. The input scene shape information is not limited to the room size, and the input object shape information is not limited to the CG model representing the vehicle.

カメラ情報入力部130は、マーカのサイズや位置姿勢の決定に必要な、カメラ100のカメラ内部パラメータをカメラ情報として入力する。カメラ内部パラメータには、例えば、画角、撮像画像の解像度、主点位置が含まれる。また、レンズ歪みが大きいカメラ100を利用する場合は、カメラ内部パラメータにレンズ歪みの補正中心位置と歪み補正パラメータを加える。   The camera information input unit 130 inputs camera internal parameters of the camera 100 necessary for determining the marker size, position and orientation as camera information. The camera internal parameters include, for example, the angle of view, the resolution of the captured image, and the principal point position. When the camera 100 having a large lens distortion is used, the lens distortion correction center position and the distortion correction parameter are added to the camera internal parameters.

視線情報入力部140は、カメラ100が取り得る位置姿勢を視線情報として入力する。例えば、体験者がシーンに配置された仮想物体を観察する動作を想定し、図1に示すカメラ100の位置姿勢100a-103cを入力するものとする。例えば、位置姿勢100aは仮想物体を正面から俯瞰する位置姿勢、位置姿勢100bは仮想物体の後部(例えば、車両のリアの曲線)を観察する位置姿勢、位置姿勢100cは仮想物体の上部(例えば、車両のトップの曲線)を観察する位置姿勢である。   The line-of-sight information input unit 140 inputs the position and orientation that the camera 100 can take as line-of-sight information. For example, assuming that the experiencer observes a virtual object placed in the scene, the position / orientation 100a-103c of the camera 100 shown in FIG. 1 is input. For example, the position / posture 100a is a position / posture from which the virtual object is viewed from the front, the position / posture 100b is a position / posture for observing the rear part of the virtual object (for example, a rear curve of the vehicle), and the position / posture 100c is an upper part of the virtual object (for example, It is a position and orientation for observing the top curve of the vehicle.

シーン形状入力部110、モデル形状入力部120、カメラ情報入力部130、視線情報入力部140は、マーカ配置の提示処理における入力部111を構成する。入力部111によって入力されたシーン形状情報、物体形状情報、カメラ情報および視線情報は、記憶部204の所定領域に格納される。   The scene shape input unit 110, the model shape input unit 120, the camera information input unit 130, and the line-of-sight information input unit 140 constitute an input unit 111 in the marker arrangement presentation process. The scene shape information, object shape information, camera information, and line-of-sight information input by the input unit 111 are stored in a predetermined area of the storage unit 204.

撮像シーン設定部150は、記憶部204に格納されたシーン形状情報、カメラ情報、視線情報に基づき、各視線情報が示す位置姿勢においてカメラ100が撮影するシーン(以下、撮像シーン)を設定する。撮像シーンは、カメラ100により撮影される現実の空間である。図5により三つの視線情報が示す位置姿勢における撮像シーンを説明する。   Based on the scene shape information, camera information, and line-of-sight information stored in the storage unit 204, the imaging scene setting unit 150 sets a scene (hereinafter, an imaging scene) that the camera 100 captures at the position and orientation indicated by each line-of-sight information. The imaging scene is a real space photographed by the camera 100. An imaging scene in the position and orientation indicated by the three line-of-sight information will be described with reference to FIG.

図5(a)は位置姿勢100aにおける撮像シーン610を示す。同様に、図5(b)(c)は、位置姿勢100bと100cにおける撮像シーン620、630を示す。撮像シーンの取得方法は同一であり、撮像シーン610を代表としてその取得方法を説明する。   FIG. 5A shows an imaging scene 610 in the position / orientation 100a. Similarly, FIGS. 5B and 5C show the imaging scenes 620 and 630 in the positions and orientations 100b and 100c. The acquisition method of the imaging scene is the same, and the acquisition method will be described with the imaging scene 610 as a representative.

撮像シーン610は、例えば、位置姿勢100aを視点としてシーン形状情報の3Dポリゴンモデルを描画した際のデプスバッファの値を、シーン形状情報の3Dポリゴンモデルに逆投影して取得することができる。その際、デプスバッファが8ビットであり、画素の値が255で初期化されていた場合、255以外の値をもつ画素領域が位置姿勢100aにおける撮像シーン610に相当する領域である。撮像シーン610は3Dポリゴンモデルのテクスチャとして保存される。   For example, the imaging scene 610 can be acquired by back projecting the value of the depth buffer when the 3D polygon model of the scene shape information is drawn from the position and orientation 100a as the viewpoint onto the 3D polygon model of the scene shape information. At this time, when the depth buffer is 8 bits and the pixel value is initialized to 255, a pixel area having a value other than 255 is an area corresponding to the imaging scene 610 in the position and orientation 100a. The captured scene 610 is stored as a texture of a 3D polygon model.

なお、撮像シーンの取得や保存は、デプスバッファを利用した再投影による取得や、テクスチャとしての保存に限定されない。シーンの三次元情報に基づきカメラ100が撮像する領域を特定可能な方法や、シーンの三次元領域に対応付けて情報を保存可能な方法であれば、撮像シーンの取得や保存に適用することができる。   Note that acquisition and storage of an imaging scene are not limited to acquisition by reprojection using a depth buffer or storage as a texture. Any method that can identify the area captured by the camera 100 based on the three-dimensional information of the scene or that can store information in association with the three-dimensional area of the scene can be applied to acquisition and storage of the captured scene. it can.

図5(a)に示すように、3Dポリゴンモデルに撮像シーン610を逆投影すると、什器310や構造物320によって遮蔽されて撮像されない領域(以下、遮蔽領域)615が存在することがわかる。遮蔽領域615にはデプスバッファの値が再投影されないため、後述するマーカの配置領域にはならない。言い替えれば、カメラ100から見えない領域にマーカを貼る無駄を省くことができる。   As shown in FIG. 5 (a), when the imaging scene 610 is back-projected onto the 3D polygon model, it can be seen that there is an area (hereinafter referred to as an occluded area) 615 that is shielded by the fixture 310 or the structure 320 and is not imaged. Since the depth buffer value is not reprojected in the shielding area 615, it does not become a marker arrangement area, which will be described later. In other words, waste of attaching a marker to an area that cannot be seen from the camera 100 can be eliminated.

次に、領域分割部160は、シーン形状情報と視線情報が示す距離に基づいて、撮像シーン610、620、630を領域分割する。例えば、カメラ100からの距離(奥行き距離)1mごとに領域を区分する。図6により領域分割の例を示す。図6(a)は奥行き距離1mごとに撮像シーン610の領域を区分した分割領域を示し、例えば、領域710は奥行き距離1m超2m以下の範囲で分割された領域に対応する。同様に、領域720は2m超3m以下、領域730は3m超4m以下、領域740は4m超5m以下の領域に対応する。図6(b)(c)は、同様に奥行き距離1mごとに撮像シーン620、630の領域を区分した分割領域を示す。   Next, the area dividing unit 160 divides the imaging scenes 610, 620, and 630 into areas based on the distances indicated by the scene shape information and the line-of-sight information. For example, the area is divided every 1 m from the camera 100 (depth distance). FIG. 6 shows an example of area division. FIG. 6A shows a divided area obtained by dividing the area of the imaging scene 610 for each depth distance of 1 m. For example, the area 710 corresponds to an area divided in a range of a depth distance of 1 m to 2 m. Similarly, the region 720 corresponds to a region greater than 2 m and less than 3 m, the region 730 corresponds to a region greater than 3 m and less than 4 m, and the region 740 corresponds to a region greater than 4 m and less than 5 m. FIGS. 6 (b) and 6 (c) show divided areas obtained by dividing the areas of the imaging scenes 620 and 630 for each 1m depth distance.

領域分割の奥行き距離の間隔は1mに限定されるものではなく、必要に応じて間隔を増減することができる。例えば、カメラ100とマーカを貼る対象の壁や床との最大距離が図1に示す環境の半分であれば、分割領域の奥行き距離の間隔も半分の50cmにすればよい。また、奥行き距離に応じて分割領域の奥行き距離の間隔を変更してもよい。例えば、奥行き距離1mまでは50cm間隔、奥行き距離1mから3mは1m間隔、奥行き距離3m以上は2m間隔などのようにしてもよい。   The interval of the depth distance of the area division is not limited to 1 m, and the interval can be increased or decreased as necessary. For example, if the maximum distance between the camera 100 and the target wall or floor to which the marker is to be attached is half of the environment shown in FIG. 1, the interval between the depth distances of the divided regions may be half, 50 cm. Moreover, you may change the space | interval of the depth distance of a division area according to depth distance. For example, a depth distance of 1 m may be 50 cm intervals, a depth distance of 1 m to 3 m may be 1 m intervals, and a depth distance of 3 m or more may be 2 m intervals.

配置情報生成部170は、領域分割部160が区分した分割領域に基づき、詳細は後述するが、シーンに配置するマーカのサイズや位置を示す配置情報を生成し、配置情報を記憶部204に格納する。   The arrangement information generation unit 170 generates arrangement information indicating the size and position of the marker to be arranged in the scene, and stores the arrangement information in the storage unit 204, as will be described in detail later, based on the divided areas divided by the area division unit 160. To do.

画像生成部180は、記憶部204に格納された、少なくとも配置情報とシーン形状情報に基づき、シーンに配置するマーカのサイズや位置を示す画像(以下、マーカ配置画像)を生成し、UIに表示する。   Based on at least the arrangement information and scene shape information stored in the storage unit 204, the image generation unit 180 generates an image indicating the size and position of the marker to be arranged in the scene (hereinafter referred to as a marker arrangement image) and displays it on the UI. To do.

図7によりマーカ配置の提示用のプログラムによってモニタ209に表示されるUIの一例を示す。マーカ配置画像には、物体形状情報から描画したCGモデル330や、視線情報から描画したカメラ100の位置姿勢を示す視線オブジェクトを含めてもよく、UIの表示部500には、例えば、次の3Dオブジェクトから構成されたマーカ配置画像が表示される。
シーン(壁面301、302、床面303、什器310、構造物320を含む)、
仮想物体(CGモデル330)、
視線オブジェクト101-103(それぞれ位置姿勢100a-100cに対応する)、
マーカオブジェクト507(マーカのサイズと位置姿勢を示す)、
座標軸501(シーンの座標系を示す)。
FIG. 7 shows an example of a UI displayed on the monitor 209 by the marker arrangement presentation program. The marker arrangement image may include a CG model 330 drawn from the object shape information and a line-of-sight object indicating the position and orientation of the camera 100 drawn from the line-of-sight information. The UI display unit 500 includes, for example, the following 3D A marker arrangement image composed of objects is displayed.
Scene (including wall surfaces 301, 302, floor surface 303, fixture 310, structure 320),
Virtual object (CG model 330),
Line-of-sight objects 101-103 (each corresponding to position and orientation 100a-100c),
Marker object 507 (indicates marker size and position / posture),
Coordinate axis 501 (indicates the coordinate system of the scene).

なお、図7に示す構成のマーカ配置画像をモニタ209に表示することは必須ではない。少なくともマーカの配置情報をMR環境の構築者(以下、ユーザ)に提示することができればよい。   Note that it is not essential to display the marker arrangement image having the configuration shown in FIG. It is sufficient that at least marker arrangement information can be presented to the builder (hereinafter referred to as user) of the MR environment.

ユーザがUIの「シーン入力」ボタン510を押すかタッチすると、画像生成部180は、UIにファイル選択ダイアログ(不図示)を表示する。ユーザは、当該ダイアログを操作して、予め記憶部204などに格納されたシーン形状情報を示すファイルを選択することができる。同様に、ユーザが「モデル入力」ボタン520を押すかタッチすると、画像生成部180は、UIにファイル選択ダイアログ(不図示)を表示する。ユーザは、当該ダイアログを操作して、予め記憶部204などに格納された物体形状情報を示すファイルを選択することができる。   When the user presses or touches the “scene input” button 510 of the UI, the image generation unit 180 displays a file selection dialog (not shown) on the UI. The user can select a file indicating scene shape information stored in advance in the storage unit 204 or the like by operating the dialog. Similarly, when the user presses or touches the “model input” button 520, the image generation unit 180 displays a file selection dialog (not shown) on the UI. The user can select the file indicating the object shape information stored in advance in the storage unit 204 or the like by operating the dialog.

このように、UIはシーン形状入力部110やモデル形状入力部120として機能する。同様に、UIの入力部530はカメラ情報入力部130として機能し、UIの入力部540は視線情報入力部140として機能する。さらに、ユーザは、カーソル505によって、例えば視線オブジェクト101-103、CGモデル330、什器310などの位置姿勢を変更することができる。   Thus, the UI functions as the scene shape input unit 110 and the model shape input unit 120. Similarly, the UI input unit 530 functions as the camera information input unit 130, and the UI input unit 540 functions as the line-of-sight information input unit 140. Further, the user can change the position and orientation of the line-of-sight object 101-103, the CG model 330, the fixture 310, and the like with the cursor 505, for example.

位置姿勢の変更後、ユーザが「保存」ボタン550を押すと、撮像シーン設定部150、領域分割部160、配置情報生成部170により、変更された位置姿勢に応じた配置情報が生成される。当該配置情報は記憶部204に格納されるか、当該配置情報によって、先に記憶部204に格納された配置情報が更新される。また、ユーザが「終了」ボタン560を押した場合、CPU201は、マーカ配置の提示処理を終了する。   When the user presses the “save” button 550 after the change of the position and orientation, the imaging scene setting unit 150, the region dividing unit 160, and the arrangement information generating unit 170 generate arrangement information corresponding to the changed position and orientation. The arrangement information is stored in the storage unit 204, or the arrangement information previously stored in the storage unit 204 is updated by the arrangement information. When the user presses the “end” button 560, the CPU 201 ends the marker arrangement presentation process.

なお、ユーザが視線オブジェクトの何れかを選択すると、当該視線オブジェクトが例えば太線で強調表示され、入力部540には、当該視線オブジェクトの位置姿勢情報として位置と姿勢(回転軸および回転角)を示す数値が表示される。ユーザは、入力部540に表示された位置姿勢を示す数値を変更することができる。ユーザによる位置姿勢の数値の変更に伴い、当該視線オブジェクトの表示も変更される。   When the user selects any of the line-of-sight objects, the line-of-sight object is highlighted with, for example, a thick line, and the input unit 540 indicates the position and posture (rotation axis and rotation angle) as position / posture information of the line-of-sight object. A numerical value is displayed. The user can change the numerical value indicating the position and orientation displayed on the input unit 540. As the user changes the numerical value of the position and orientation, the display of the line-of-sight object is also changed.

[マーカ配置の提示処理]
図8のフローチャートによりマーカ配置の提示処理の手順例を説明する。なお、図8に示す処理手順は、CPU201がマーカ配置の提示用のプログラムを実行することで実現される。マーカ配置の提示処理が開始されると、CPU201は、画像生成部180により初期設定のUIをモニタ209に表示する(S101)。
[Marker placement presentation processing]
A procedure example of marker arrangement presentation processing will be described with reference to the flowchart of FIG. Note that the processing procedure shown in FIG. 8 is realized by the CPU 201 executing a marker placement presentation program. When the marker arrangement presentation process is started, the CPU 201 causes the image generation unit 180 to display a default UI on the monitor 209 (S101).

次に、CPU201は、UIに対するユーザの操作を判定して、シーン形状情報、物体形状情報、カメラ情報、または、視線情報が更新されたか否かを判定する(S102)。それら情報の少なくとも一つが更新された場合、CPU201は処理をステップS103に移し、マーカの配置情報の更新処理を実行する。   Next, the CPU 201 determines a user operation on the UI, and determines whether the scene shape information, object shape information, camera information, or line-of-sight information has been updated (S102). If at least one of these pieces of information has been updated, the CPU 201 moves the process to step S103, and executes a marker arrangement information update process.

一方、シーン形状情報、物体形状情報、カメラ情報、視線情報の何れも更新されなかった場合、CPU201は、終了ボタン560が押されたか否かを判定する(S107)。そして、終了ボタン560が押された場合はマーカ配置の提示処理を終了し、終了ボタン560が押されていない場合は処理をステップS102に戻す。   On the other hand, when none of the scene shape information, object shape information, camera information, and line-of-sight information has been updated, the CPU 201 determines whether or not the end button 560 has been pressed (S107). If the end button 560 is pressed, the marker arrangement presentation process is terminated, and if the end button 560 is not pressed, the process returns to step S102.

マーカの配置情報の更新処理において、CPU201は、撮像シーン設定部150により視線情報に対応する撮像シーンの描画を行い(S103)、領域分割部160により上述した分割領域を設定する(S104)。そして、配置情報生成部170により分割領域に基づきマーカの配置情報を生成する(S105)。なお、これらの処理の詳細は後述する。そして、CPU201は、画像生成部180によりマーカ配置画像を生成し、マーカ配置画像をUIに表示して、処理をステップS107に進める。   In the marker arrangement information update process, the CPU 201 draws an imaging scene corresponding to the line-of-sight information by the imaging scene setting unit 150 (S103), and sets the above-described divided regions by the region dividing unit 160 (S104). Then, the arrangement information generation unit 170 generates marker arrangement information based on the divided areas (S105). Details of these processes will be described later. Then, the CPU 201 generates a marker arrangement image using the image generation unit 180, displays the marker arrangement image on the UI, and advances the process to step S107.

●撮像シーン設定部と領域分割部
図9のフローチャートにより撮像シーン設定部150の処理(S103)と領域分割部160の処理(S104)を説明する。撮像シーン設定部150は、シーン形状情報、カメラ情報および視線情報に基づき、当該視線情報が示す位置姿勢においてカメラ100が撮像するシーン(以下、撮像シーン)を描画する(S111)。そして、撮像シーンを表す3Dポリゴンモデルを記憶部204などに保存する(S112)。なお、視線情報が複数ある場合、複数の視線情報の一つ選択して撮像シーンを描画する。
Imaging Scene Setting Unit and Region Dividing Unit The processing of the imaging scene setting unit 150 (S103) and the processing of the region dividing unit 160 (S104) will be described with reference to the flowchart of FIG. Based on the scene shape information, camera information, and line-of-sight information, the imaging scene setting unit 150 draws a scene (hereinafter, an imaging scene) that the camera 100 captures at the position and orientation indicated by the line-of-sight information (S111). Then, the 3D polygon model representing the imaging scene is stored in the storage unit 204 or the like (S112). If there is a plurality of line-of-sight information, one of the plurality of line-of-sight information is selected to draw an imaging scene.

シーンの描画は、一般に、描画シーンを構成するポリゴンの三次元の頂点情報を仮想カメラの投影面に投影し、カメラからの奥行き距離(デプス)を考慮しながらポリゴン内部を画素単位に塗り潰す処理である。描画結果として、視線情報の位置姿勢から観たシーンの画像と、距離画像が生成される。距離画像のビット深さは8ビットの場合が多いが、後段の処理において、視点からポリゴンの間の実距離を参照する必要があるため、距離画像のビット深さが例えば24ビットに拡張される。あるいは、8ビットのビット深さと実距離の対応関係を示すテーブルなどを用意してもよい。   When drawing a scene, generally, the 3D vertex information of the polygons that make up the drawing scene is projected onto the projection surface of the virtual camera, and the interior of the polygon is filled in pixel units while taking into account the depth distance from the camera. It is. As a drawing result, an image of a scene viewed from the position and orientation of the line-of-sight information and a distance image are generated. The bit depth of the distance image is often 8 bits, but in the subsequent processing, it is necessary to refer to the actual distance between the viewpoint and the polygon, so the bit depth of the distance image is expanded to 24 bits, for example. . Alternatively, a table indicating the correspondence between the bit depth of 8 bits and the actual distance may be prepared.

次に、撮像シーン設定部150は、生成した距離画像をテクスチャとして、撮像シーンを表す3Dポリゴンモデルに再投影する(S113)。例えば、距離画像を構成する画素の中心点と視点位置を結んだ直線が3Dポリゴンモデルと交差する点を求める処理を、距離画像の全画素について行うことで、距離画像を3Dポリゴンモデルに再投影することができる。   Next, the imaging scene setting unit 150 re-projects the generated distance image as a texture onto a 3D polygon model representing the imaging scene (S113). For example, the distance image is re-projected to the 3D polygon model by performing processing for all pixels in the distance image to find the point where the straight line connecting the center point of the pixels constituting the distance image and the viewpoint position intersects the 3D polygon model. can do.

以上がステップS103に対応する処理であり、以降がステップS104に対応する処理である。   The above is processing corresponding to step S103, and the subsequent processing is processing corresponding to step S104.

次に、領域分割部160は、テクスチャの画素値として、対応する距離画像の画素値に基づく距離区分を設定し(S114)、画素値を設定したテクスチャを記憶部204などに保存する(S115)。例えば、奥行き距離1m以下の領域に画素値に「0」を設定する。同様に、1m超2m以下の領域の画素値に「1」、2m超3m以下の領域の画素値に「2」、3m超4m以下の領域の画素値に「3」、4m超5m以下の領域の画素値に「4」を設定する。   Next, the region dividing unit 160 sets a distance classification based on the pixel value of the corresponding distance image as the texture pixel value (S114), and stores the texture in which the pixel value is set in the storage unit 204 or the like (S115). . For example, “0” is set as the pixel value in an area having a depth distance of 1 m or less. Similarly, "1" for the pixel value in the area above 1m and 2m, "2" for the pixel value in the area above 2m and 3m, "3" for the pixel value in the area above 3m and 4m and below 5m and below 4m Set the pixel value of the area to “4”.

なお、画素値に距離区分を設定する代わりに、距離画像のデプス値を画素値に設定してもよく、距離画像のビット深さが8ビットの場合、テクスチャの画素値として8ビットのデプス値を格納すればよい。   In addition, instead of setting the distance category for the pixel value, the depth value of the distance image may be set to the pixel value. When the bit depth of the distance image is 8 bits, the 8-bit depth value is used as the texture pixel value. Should be stored.

次に、領域分割部160は、視線情報のすべてについて、ステップS111からS115の処理を完了したか否かを判定する(S116)。処理が未了の視線情報がある場合、処理はステップS111に戻されて、ステップS111からS115の処理が繰り返される。   Next, the area dividing unit 160 determines whether or not the processing of steps S111 to S115 has been completed for all the line-of-sight information (S116). If there is line-of-sight information that has not been processed, the process returns to step S111, and the processes of steps S111 to S115 are repeated.

●配置情報生成部
図10のフローチャートにより配置情報生成部170の処理(S104)を説明する。配置情報生成部170は、視線情報の一つに対応する撮像シーンを表す3Dポリゴンモデルを記憶部204から読み出し(S121)、同一平面と見做せるポリゴンをグループ化し、マーカ配置を提示する面(以下、マーカ配置の提示面)を抽出する(S122)。
Arrangement Information Generation Unit The processing (S104) of the arrangement information generation unit 170 will be described with reference to the flowchart of FIG. The arrangement information generation unit 170 reads a 3D polygon model representing an imaging scene corresponding to one of the line-of-sight information from the storage unit 204 (S121), groups polygons that can be regarded as the same plane, and presents a marker arrangement ( Hereinafter, the marker placement presentation surface) is extracted (S122).

グループ化は、壁面301、302や床面303が複数のポリゴンで構成されていた場合に、それらポリゴンを同一平面のグループとして扱うための処理である。そして、グループ化した平面の短辺の長さが所定未満(例えば10cm未満)の場合、当該グループの以降の処理はスキップされる。   The grouping is processing for handling the polygons as a group on the same plane when the wall surfaces 301 and 302 and the floor surface 303 are composed of a plurality of polygons. If the length of the short side of the grouped plane is less than a predetermined value (for example, less than 10 cm), the subsequent processing of the group is skipped.

つまり、シーン形状情報に含まれる構造物320の曲面など、マーカを貼る形状にそぐわない狭い面に対応する場所を抽出し、マーカ配置を提示しないようにする。例えば、図1に示すシーン形状情報であれば、壁面301、302、床面303、什器310がマーカ配置の提示面として列挙され、配置情報生成部170は、マーカ配置の提示面ごとに以降の処理を実行する。   That is, a location corresponding to a narrow surface that does not match the shape to which the marker is pasted, such as the curved surface of the structure 320 included in the scene shape information, is extracted so that the marker arrangement is not presented. For example, in the case of the scene shape information shown in FIG. 1, the wall surfaces 301 and 302, the floor surface 303, and the fixture 310 are listed as marker placement presentation surfaces, and the placement information generation unit 170 performs the following for each marker placement presentation surface. Execute the process.

配置情報生成部170は、撮像シーンに対応するテクスチャを記憶部204から読み込み、テクスチャの画素値から距離区分を取得する(S123)。そして、記憶部204などに格納されたマーカテーブルを参照して距離区分に対応するマーカのサイズと配置間隔を取得する(S124)。図11によりマーカテーブルの一例を示す。マーカテーブルには、距離区分に応じたマーカのサイズ(辺の長さ)と配置間隔が記録されている。なお、テクスチャの画素値にデプス値が格納されている場合は、マーカテーブルの距離列を参照して、マーカのサイズと配置間隔を取得すればよい。   The arrangement information generation unit 170 reads the texture corresponding to the imaging scene from the storage unit 204, and acquires the distance category from the texture pixel value (S123). Then, referring to the marker table stored in the storage unit 204 or the like, the size and arrangement interval of the marker corresponding to the distance section are acquired (S124). FIG. 11 shows an example of the marker table. In the marker table, the marker size (side length) and the arrangement interval corresponding to the distance classification are recorded. In addition, when the depth value is stored in the pixel value of the texture, the marker size and the arrangement interval may be acquired by referring to the distance column of the marker table.

次に、配置情報生成部170は、マーカ配置の提示面ごとにマーカを配置する(S125)。図12、図13によりマーカの配置を説明する。図12は、壁面302について、図6(a)に示す領域分割によって得られた分割領域740に対応する提示面、図6(b)に示す領域分割によって得られた分割領域730に対応する提示面を示す。また、領域615は、図5(a)に示す撮像シーン610の逆投影によって検出される構造物320による遮蔽領域である。なお、以下では、分割領域740に対応する提示面を提示面740、分割領域730に対応する提示面を提示面730と呼ぶ。   Next, the arrangement information generation unit 170 arranges a marker for each presentation surface of the marker arrangement (S125). The arrangement of the markers will be described with reference to FIGS. FIG. 12 shows a presentation surface corresponding to the divided area 740 obtained by the area division shown in FIG. 6 (a), and a presentation corresponding to the divided area 730 obtained by the area division shown in FIG. 6 (b). Show the surface. A region 615 is a shielding region by the structure 320 detected by back projection of the imaging scene 610 shown in FIG. Hereinafter, the presentation surface corresponding to the divided region 740 is referred to as a presentation surface 740, and the presentation surface corresponding to the divided region 730 is referred to as a presentation surface 730.

配置情報生成部170は、図13(a)に示すように、提示面740について、マーカテーブルに基づき例えば辺の長さが45cmの正方形のマーカを間隔75cmで配置する。なお、提示面740を包含する長方形を設定し、当該直方体の左上頂点を基準に、マーカテーブルが示すサイズと間隔でマーカを配置する。   As shown in FIG. 13 (a), the arrangement information generation unit 170 arranges square markers with a side length of 45 cm, for example, at intervals of 75 cm on the presentation surface 740 based on the marker table. Note that a rectangle including the presentation surface 740 is set, and markers are arranged at the size and interval indicated by the marker table with the upper left vertex of the rectangular parallelepiped as a reference.

次に、配置情報生成部170は、図13(a)に示すマーカのうち、提示面740からはみ出したマーカを縦方向または横方向の少なくとも一方に並行移動して、当該マーカが提示面740に収まるようにその位置を調整する。移動マーカが、隣り合うマーカと面積比で例えば40%以上重畳する場合は、移動マーカを削除する。また、重畳が40%未満の場合、重畳が解消する位置まで移動マーカを逆方向に移動する。図13(b)は配置調整後のマーカの配置を示す。   Next, the arrangement information generation unit 170 moves, in parallel with at least one of the vertical direction and the horizontal direction, the marker that protrudes from the presentation surface 740 among the markers shown in FIG. Adjust its position to fit. When the moving marker overlaps with an adjacent marker in an area ratio of 40% or more, for example, the moving marker is deleted. When the superposition is less than 40%, the moving marker is moved in the reverse direction to the position where the superposition is canceled. FIG. 13 (b) shows the arrangement of the markers after the arrangement adjustment.

配置情報生成部170は、提示面730についても同様の処理を行い、図13(d)に示すように、例えば35cmのマーカを60cm間隔で配置する。例えばマーカ980は、下方向に隣り合うマーカとの重畳が40%以上になり、重畳が解消するように上方向に移動されたマーカである。なお、マーカの配置の調整は、分割領域を包含する長方形に配置されたマーカの移動に限らず、マーカを回転したり、マーカのサイズを変更してもよい。   The arrangement information generation unit 170 performs the same processing on the presentation surface 730, and arranges, for example, 35 cm markers at 60 cm intervals as shown in FIG. 13 (d). For example, the marker 980 is a marker that has been moved upward so that the overlap with the marker adjacent in the downward direction is 40% or more and the overlap is eliminated. The adjustment of the marker arrangement is not limited to the movement of the marker arranged in the rectangle including the divided area, and the marker may be rotated or the marker size may be changed.

次に、配置情報生成部170は、提示面ごとに配置したマーカを、遮蔽領域615に重ならないように削除または移動する(S126)。配置情報生成部170は、提示面730、740に配置したマーカから遮蔽領域615に重なるマーカを列挙する。図13(b)の例においてマーカ910、920、930、940が遮蔽領域615と重なり、図13(d)の例においてマーカ950、960、970、990、995が遮蔽領域615と重なる。配置情報生成部170は、列挙したマーカのうち、面積が遮蔽領域615と例えば40%以上重なるマーカを削除し、重畳が40%未満のマーカは重畳を解消するように縦方向または横方向に移動する。   Next, the arrangement information generation unit 170 deletes or moves the marker arranged for each presentation surface so as not to overlap the shielding area 615 (S126). The arrangement information generation unit 170 lists markers that overlap the shielding area 615 from the markers arranged on the presentation surfaces 730 and 740. In the example of FIG. 13 (b), the markers 910, 920, 930, and 940 overlap with the shielding area 615, and in the example of FIG. 13 (d), the markers 950, 960, 970, 990, and 995 overlap with the shielding area 615. The arrangement information generation unit 170 deletes a marker whose area overlaps with the shielding region 615, for example, 40% or more, from among the listed markers, and a marker whose overlay is less than 40% moves in the vertical direction or the horizontal direction so as to cancel the overlap. To do.

図13(b)において、遮蔽領域615に重なるマーカのうち、マーカ910、920は削除され、マーカ930、940は右方向に遮蔽領域615と重畳しない位置まで移動される(図13(c))。提示面730についても同様の処理が行われ、遮蔽領域615に重ならないようにマーカが配置される。   In FIG. 13 (b), markers 910 and 920 are deleted from the markers overlapping with the shielding region 615, and the markers 930 and 940 are moved to the right so as not to overlap with the shielding region 615 (FIG. 13 (c)). . Similar processing is performed on the presentation surface 730, and the marker is arranged so as not to overlap the shielding area 615.

次に、配置情報生成部170は、提示面ごとのマーカ配置を統合して、注目面について最終的なマーカ配置を決定して配置情報を生成し(S127)、生成した配置情報を記憶部204などに保存する(S128)。図14により最終的なマーカ配置例を示す。図14は、図13(c)に示す提示面740のマーカ配置と、図13(d)に示す提示面730のマーカ配置からマーカ650、960、970、990、995を削除したマーカ配置を統合した様子を示す。   Next, the arrangement information generation unit 170 integrates the marker arrangement for each presentation surface, determines the final marker arrangement for the attention surface, generates the arrangement information (S127), and stores the generated arrangement information in the storage unit 204. (S128). FIG. 14 shows a final marker arrangement example. Fig. 14 integrates the marker arrangement on the presentation surface 740 shown in Fig. 13 (c) and the marker arrangement obtained by deleting the markers 650, 960, 970, 990, 995 from the marker arrangement on the presentation surface 730 shown in Fig. 13 (d). Shows how it was done.

つまり、図13(c)に示すマーカ配置上に、図13(d)に示す非削除対象のマーカ配置を重ねる。異なる提示面のマーカが部分的に重畳する場合はサイズが小さいマーカ(以下、小マーカ)を残す。小マーカは、カメラ100とマーカの距離が遠くてもマーカとして検出され、カメラ100の位置姿勢を計測することができる。他方、サイズが大きいマーカ(以下、大マーカ)はカメラ100の画角に収まらず、カメラ100の位置姿勢を推定できなくなる場面が増加すると考えられる。そのため、小マーカを残すことになる。   That is, the marker arrangement shown in FIG. 13 (d) is superimposed on the marker arrangement shown in FIG. 13 (c). When markers on different presentation surfaces partially overlap, a small marker (hereinafter referred to as a small marker) is left. The small marker is detected as a marker even when the distance between the camera 100 and the marker is long, and the position and orientation of the camera 100 can be measured. On the other hand, it is considered that a marker having a large size (hereinafter referred to as a large marker) does not fall within the angle of view of the camera 100, and the number of scenes in which the position and orientation of the camera 100 cannot be estimated increases. Therefore, a small marker is left.

次に、配置情報生成部170は、マーカ配置の提示面すべてについて、マーカの配置情報を生成したか否かを判定し(S129)、配置情報が未生成の提示面がある場合は処理をステップS123に戻す。マーカ配置の提示面すべてについてマーカの配置情報を生成すると、視線情報のすべてに対応する撮像シーンについてマーカの配置情報を生成したか否かを判定し(S130)、配置情報が未生成の視線情報があれば処理をステップS121に戻す。   Next, the arrangement information generation unit 170 determines whether or not marker arrangement information has been generated for all of the marker arrangement presentation surfaces (S129). Return to S123. When the marker placement information is generated for all the marker placement presentation surfaces, it is determined whether or not the marker placement information has been generated for the imaging scene corresponding to all of the line-of-sight information (S130). If there is, the process returns to step S121.

このように、シーン形状情報、カメラ情報、視線情報に基づいて、MR環境におけるカメラ100の位置姿勢の推定に適切なマーカの配置情報を提示することができる。とくに、カメラ100がMR環境を広範囲に移動し、一部領域にカメラ100とマーカの間に遮蔽物が存在する場合も、カメラ100の位置姿勢の推定に適切なマーカの配置情報の提示が可能になる。また、MR環境における観察者の観察位置姿勢を示す視点位置を入力することにより、MR環境に適切なマーカの配置情報を事前に提示することができ、MR環境の構築者であるユーザによるマーカの作成と配置に要する時間・コストを削減することができる。   As described above, based on the scene shape information, camera information, and line-of-sight information, marker placement information suitable for estimating the position and orientation of the camera 100 in the MR environment can be presented. In particular, even when the camera 100 moves in a wide range in the MR environment and there is a shield between the camera 100 and the marker in some areas, it is possible to present marker placement information suitable for estimating the position and orientation of the camera 100 become. Also, by inputting the viewpoint position indicating the observation position and orientation of the observer in the MR environment, it is possible to present in advance the marker placement information appropriate for the MR environment, and the marker of the marker by the user who is the MR environment builder Time and cost required for creation and placement can be reduced.

なお、隣り合うマーカ同士の重畳面積比や、マーカが遮蔽領域と重なる面積比の判定基準の一例として40%を挙げたが、これに限定されるものではなく、必要に応じて判定基準を変更してもよい。   In addition, although 40% was cited as an example of the criteria for determining the overlapping area ratio between adjacent markers and the area ratio at which the marker overlaps the shielding area, it is not limited to this, and the criteria can be changed as necessary. May be.

[サイズが異なるマーカの混合配置]
上記では、分割領域ごとのマーカ配置を統合する際に、小マーカを優先配置する例を説明した。しかし、小マーカの優先配置に限定されるものではなく、カメラ100の位置姿勢を推定する処理の安定性を考慮してサイズが異なるマーカを面に混合配置してもよい。
[Mixed arrangement of markers of different sizes]
In the above description, the example in which the small marker is preferentially arranged when the marker arrangement for each divided region is integrated has been described. However, the present invention is not limited to the priority arrangement of small markers, and markers of different sizes may be mixed and arranged on the surface in consideration of the stability of the process for estimating the position and orientation of the camera 100.

一般に、カメラ100の位置姿勢を高精度に推定するには、マーカをなるべく大きく撮影し、画像上に分散したマーカが撮影されていることが望ましい。マーカサイズの混合配置を実施するには、配置情報生成部170によるステップS127の処理を以下のように変更する。   In general, in order to estimate the position and orientation of the camera 100 with high accuracy, it is desirable that a marker is photographed as large as possible and markers dispersed on the image are photographed. In order to carry out the mixed arrangement of the marker sizes, the process of step S127 by the arrangement information generation unit 170 is changed as follows.

配置情報生成部170は、提示面ごとのマーカ配置を重ね合わせて、マーカ同士の重畳を検出する。サイズが異なるマーカが重畳する場合は、隣り合う大マーカ同士の距離を取得し、当該距離が閾値以上であれば大マーカを優先配置する。   The arrangement information generation unit 170 detects the superposition of the markers by superimposing the marker arrangements for each presentation surface. When markers of different sizes are superimposed, the distance between adjacent large markers is acquired, and if the distance is equal to or greater than a threshold, the large marker is preferentially arranged.

例えば、図13(c)に示す大マーカの配置と図13(d)に示す小マーカの配置を重ね合わせる場合、大マーカ945と小マーカ955が重畳する。大マーカ945と隣り合う大マーカの距離が例えば2m以上の場合、小マーカ955に代えて大マーカ945を配置することになる。図15によりサイズが異なるマーカの混合配置を行う場合の最終的なマーカ配置例を示す。図14に示す小マーカの優先配置の例と比べると、左下に配置されたマーカが小マーカ955から大マーカ945に変更されている。   For example, when the arrangement of the large marker shown in FIG. 13 (c) and the arrangement of the small marker shown in FIG. 13 (d) are overlapped, the large marker 945 and the small marker 955 are overlapped. When the distance between the large marker 945 and the large marker adjacent to the large marker 945 is 2 m or more, for example, the large marker 945 is disposed instead of the small marker 955. FIG. 15 shows a final marker arrangement example in the case of performing mixed arrangement of markers having different sizes. Compared with the example of the priority arrangement of the small markers shown in FIG. 14, the marker arranged in the lower left is changed from the small marker 955 to the large marker 945.

このように、常に小マーカの優先配置を行うだけでなく、同一サイズのマーカの分散を考慮して配置情報を生成する。言い替えれば、同一サイズのマーカの分布に基づきマーカ配置を統合して、サイズが異なるマーカの混合配置を行う。同一サイズのマーカの分布を考慮することにより、カメラ100と壁などの距離が遠い場合も、カメラ100の位置姿勢の推定精度を向上させることができる。   In this way, not only the priority placement of small markers is always performed, but also placement information is generated in consideration of the distribution of markers of the same size. In other words, marker arrangements are integrated based on the distribution of markers of the same size, and mixed arrangement of markers having different sizes is performed. By considering the distribution of markers of the same size, the position and orientation estimation accuracy of the camera 100 can be improved even when the distance between the camera 100 and the wall is long.

[視線情報の追加]
上記では、入力された視点情報を利用してマーカの配置情報を生成する例を説明したが、CGモデル330を観察する際の視線を予測し、予測した視線情報を追加して配置情報を生成することもできる。視線情報の予測によれば、ユーザであるシステム構築者が想定していない位置姿勢からCGモデル330が観察された場合のカメラ100の位置姿勢を推定可能なマーカの配置情報を提示することができる。一方、観察者にとっては、CGモデル330をより広い範囲から観察することができるようになる。
[Add gaze information]
In the above, an example of generating marker placement information using the input viewpoint information has been described. However, the line of sight when observing the CG model 330 is predicted, and the predicted line of sight information is added to generate the placement information. You can also According to the prediction of the line-of-sight information, it is possible to present marker arrangement information that can estimate the position and orientation of the camera 100 when the CG model 330 is observed from a position and orientation that is not assumed by the system builder who is the user. . On the other hand, for the observer, the CG model 330 can be observed from a wider range.

視線情報予測部190は、視線情報入力部140に入力された視線情報から追加する視線情報を予測し、予測した視線情報を記憶部204に格納する。視線情報予測部190は、例えば、ユーザが入力または追加した視線情報を二つずつ組み合わせ、それら視線情報が示す位置の中間位置に相当する視線情報を追加し、追加する視線情報の姿勢として、二つの視線情報の姿勢を合成した中間姿勢を設定する。   The line-of-sight information prediction unit 190 predicts line-of-sight information to be added from the line-of-sight information input to the line-of-sight information input unit 140, and stores the predicted line-of-sight information in the storage unit 204. The line-of-sight information prediction unit 190, for example, combines line-of-sight information input or added by the user two by two, adds line-of-sight information corresponding to an intermediate position indicated by the line-of-sight information, An intermediate posture is set by combining the postures of the two line-of-sight information.

また、ユーザが入力または追加した視線情報から、新たな視線情報を予測して追加するだけではなく、過去に、同様のシーンが体験されたときの視線情報をサンプリングし、その視線情報から新たな視線情報を予測して追加することができる。例えば、別の環境において同一のCGモデル330を観察者が観察した際のカメラ100の位置姿勢は、これから構築する環境においても高い確率で出現すると予想される。   In addition to predicting and adding new line-of-sight information from the line-of-sight information input or added by the user, the line-of-sight information when a similar scene has been experienced in the past is sampled, and new line-of-sight information is obtained from the line-of-sight information. Gaze information can be predicted and added. For example, the position and orientation of the camera 100 when an observer observes the same CG model 330 in another environment is expected to appear with high probability even in an environment to be constructed.

図7に示すUIに「視線情報読込」ボタン570を追加する。「視線情報読込」ボタン570が押されるまたはタッチされると、視線情報入力部140は、過去にサンプリングされた視線情報を記憶部204などから読み込む。視線情報予測部190は、読み込まれた視線情報から新たな視線情報を予測し、予測した視線情報を記憶部204に格納する。   A “Gaze information reading” button 570 is added to the UI shown in FIG. When the “Gaze information reading” button 570 is pressed or touched, the gaze information input unit 140 reads gaze information sampled in the past from the storage unit 204 or the like. The line-of-sight information prediction unit 190 predicts new line-of-sight information from the read line-of-sight information, and stores the predicted line-of-sight information in the storage unit 204.

[視線情報の入力時のCGモデルの別表示]
上記では、視線情報入力部140の例として、図7に示す入力部540の例を説明した。ユーザは、視線情報の位置姿勢を入力する際、CGモデル330とカメラ100の位置関係を表示部500に表示された俯瞰視点の画像を参照しながら調整する。しかし、表示部500に表示された俯瞰視点の画像はMR環境のシーン形状情報を基に描画されたものであり、視線情報に基づき描画された画像ではない。そのため、ユーザは、俯瞰視点の画像に基づき、カメラ100の視点から観察されるCGモデル330の画像を想像して、視線情報を設定する必要があり、視線情報の設定に試行錯誤が必要になる場合がある。
[Separate display of CG model when entering line-of-sight information]
The example of the input unit 540 illustrated in FIG. 7 has been described above as an example of the line-of-sight information input unit 140. When the user inputs the position and orientation of the line-of-sight information, the user adjusts the positional relationship between the CG model 330 and the camera 100 with reference to the overhead view image displayed on the display unit 500. However, the overhead viewpoint image displayed on the display unit 500 is drawn based on the scene shape information of the MR environment, and is not an image drawn based on the line-of-sight information. Therefore, the user needs to set the line-of-sight information by imagining the image of the CG model 330 observed from the viewpoint of the camera 100 based on the image of the overhead viewpoint, and trial and error is necessary for setting the line-of-sight information There is a case.

カメラ100の視点から観察されるCGモデル330の画像を提供するため、画像生成部180は、視線情報の位置姿勢の入力時、視線情報に対応するCGモデル330の画像をモニタ209に別画面として表示する。つまり、画像生成部180は、ユーザが設定した視線情報の位置姿勢とカメラ情報に基づきCGモデル330を描画して、描画結果を別画面に表示する。   In order to provide an image of the CG model 330 observed from the viewpoint of the camera 100, the image generation unit 180 displays the image of the CG model 330 corresponding to the line-of-sight information as a separate screen on the monitor 209 when inputting the position and orientation of the line-of-sight information. indicate. That is, the image generation unit 180 draws the CG model 330 based on the position and orientation of the line-of-sight information set by the user and the camera information, and displays the drawing result on another screen.

なお、別画面用の描画にシーン情報を含めてMR環境に配置されたCGモデル330を描画してもよいし、視線情報に対応するCGモデル330の画像の表示は別画面に限らず、表示部500の画像を切り替えてることで行ってもよい。   Note that the CG model 330 placed in the MR environment may be drawn including scene information in the drawing for another screen, and the display of the image of the CG model 330 corresponding to the line-of-sight information is not limited to another screen. This may be done by switching the image of unit 500.

[視線情報の位置姿勢のセンサ入力]
上記では、視線情報の位置姿勢を数値入力する例を説明したが、位置姿勢は汎用インタフェイス206やインタフェイス210に接続された位置センサ、姿勢センサ、位置姿勢センサを利用して入力することもできる。姿勢センサとしては、例えばThales Visionix社のInertiaCube3(商標)などを利用すればよい。
[Gaze information position and orientation sensor input]
In the above, an example in which the position and orientation of the line-of-sight information is numerically input has been described. However, the position and orientation can be input using a position sensor, a posture sensor, and a position and posture sensor connected to the general-purpose interface 206 or the interface 210. it can. As the attitude sensor, for example, InertiaCube3 (trademark) manufactured by Thales Visionix may be used.

[方向が異なる別のカメラを対象とするマーカ配置]
上記では、ユーザであるシステム環境構築者がカメラ100をCGモデル330の観察用カメラとして利用するとともに、画像に映り込むマーカを用いてカメラ100の位置姿勢を推定することに利用した。しかし、一つの撮像装置を観察用と位置姿勢推定用に同時に用いることに限定されず、複数のカメラを用意し、一つは観察に、一つは位置姿勢推定に用いてもよい。
[Marker placement for different cameras in different directions]
In the above description, the system environment builder who is a user uses the camera 100 as an observation camera of the CG model 330 and uses the marker reflected in the image to estimate the position and orientation of the camera 100. However, the present invention is not limited to using one imaging device for observation and position / orientation estimation simultaneously, and a plurality of cameras may be prepared, one for observation and one for position / orientation estimation.

図16により観察用のカメラ100と位置姿勢推定用のカメラ1610を組み合わせる例を示す。なお、カメラ100とカメラ1610は互いに固定されて移動するものとする。カメラ1610の映像は、カメラ100と同様にインタフェイス210を介して情報処理装置に入力される。また、カメラ情報入力部130にはカメラ1610のカメラ情報が入力され、撮像シーン設定部150はカメラ1610に対する撮像シーンや壁などとの距離を計算する。   FIG. 16 shows an example in which an observation camera 100 and a position / orientation estimation camera 1610 are combined. Note that the camera 100 and the camera 1610 are fixed to each other and moved. The video from the camera 1610 is input to the information processing apparatus via the interface 210 in the same manner as the camera 100. In addition, camera information of the camera 1610 is input to the camera information input unit 130, and the imaging scene setting unit 150 calculates the distance of the camera 1610 from an imaging scene, a wall, and the like.

例えば、カメラ100に対してカメラ1610を下向き方向に取り付けると、観察時の視線の位置姿勢に対応する撮像シーンの領域の広さに対して、カメラ1610の撮像シーンの領域の広さを抑えることができる。例えば、CGモデル330に正対して観察する姿勢であれば、下向きのカメラ1610はほぼ床面303を撮影することになり、撮像装置と壁や床との最大距離が減少する傾向になる。撮像シーンの領域の広さが抑えられると、マーカをMR環境に貼り付ける時間が削減され、マーカの印刷にかかるコストも抑えることができる。   For example, when the camera 1610 is attached in the downward direction with respect to the camera 100, the area of the imaging scene area of the camera 1610 is suppressed relative to the area of the imaging scene area corresponding to the position and orientation of the line of sight during observation. Can do. For example, if the posture is to face the CG model 330, the downward facing camera 1610 captures almost the floor surface 303, and the maximum distance between the imaging device and the wall or floor tends to decrease. If the area of the imaging scene is reduced, the time for attaching the marker to the MR environment is reduced, and the cost for printing the marker can be reduced.

[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program It can also be realized by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

111 … 入力部、150 … 撮像シーン設定部、170 … 配置情報生成部   111… Input unit, 150… Imaging scene setting unit, 170… Arrangement information generation unit

Claims (13)

空間における撮像装置の位置姿勢を推定するために現実のシーンに配置する特徴の配置情報を生成する情報処理装置であって、
前記撮像装置の内部パラメータに関するカメラ情報、前記シーンを描画するためのシーン形状情報、および、前記シーンにおいて仮想物体を観察する際の視線の位置姿勢を示す視線情報を入力する入力手段と、
前記シーン形状情報、前記カメラ情報および前記視線情報に基づき、前記視線情報が示す位置姿勢において前記撮像装置が撮像する現実の空間である撮像シーンと、前記撮像シーンの奥行き距離を設定する設定手段と、
前記シーン形状情報、前記撮像シーンおよび前記奥行き距離に基づき、前記シーンに配置する特徴の配置情報を生成する生成手段とを有する情報処理装置。
An information processing apparatus that generates arrangement information of features to be arranged in an actual scene in order to estimate a position and orientation of an imaging apparatus in space,
Input means for inputting camera information related to internal parameters of the imaging apparatus, scene shape information for drawing the scene, and line-of-sight information indicating the position and orientation of the line of sight when observing a virtual object in the scene;
Based on the scene shape information, the camera information, and the line-of-sight information, an imaging scene that is an actual space imaged by the imaging apparatus in the position and orientation indicated by the line-of-sight information, and a setting unit that sets a depth distance of the imaging scene ,
An information processing apparatus comprising: generation means for generating arrangement information of features to be arranged in the scene based on the scene shape information, the imaging scene, and the depth distance.
さらに、前記シーン形状情報と前記配置情報に基づき、前記シーンにおける前記特徴の配置を示す画像を生成する画像生成手段を有する請求項1に記載された情報処理装置。   2. The information processing apparatus according to claim 1, further comprising an image generation unit configured to generate an image indicating the arrangement of the features in the scene based on the scene shape information and the arrangement information. 前記入力手段は、さらに、前記仮想物体を描画するための物体形状情報を入力し、
前記画像生成手段は、前記シーンに前記特徴と前記仮想物体を配置した画像を生成する請求項2に記載された情報処理装置。
The input means further inputs object shape information for drawing the virtual object,
3. The information processing apparatus according to claim 2, wherein the image generation unit generates an image in which the feature and the virtual object are arranged in the scene.
前記画像生成手段は、さらに、前記視線情報が示す位置姿勢において観察される前記仮想物体を表示するための画像を生成する請求項3に記載された情報処理装置。   4. The information processing apparatus according to claim 3, wherein the image generation unit further generates an image for displaying the virtual object observed in the position and orientation indicated by the line-of-sight information. 前記シーン形状情報には、前記シーンの壁面と床面を描画するための情報、および、前記シーンに配置された特徴と前記撮像装置の間に存在し、前記撮像装置に対して前記特徴を遮蔽する可能性がある物体を描画するための情報が含まれる請求項1から請求項4の何れか一項に記載された情報処理装置。   The scene shape information includes information for drawing a wall surface and a floor surface of the scene, and a feature arranged in the scene and the imaging device, and shields the feature from the imaging device. 5. The information processing apparatus according to any one of claims 1 to 4, wherein information for drawing an object that is likely to be displayed is included. 前記生成手段は、前記撮像シーンからマーカ配置を提示する面として提示面を抽出し、
前記撮像シーンに対応する前記奥行き距離に基づき所定のテーブルを参照して、前記提示面に配置する前記特徴のサイズと配置間隔を取得し、
前記サイズと配置間隔に基づき前記提示面に前記特徴を配置し、前記物体に遮蔽される特徴を削除または移動して前記配置情報を生成する請求項5に記載された情報処理装置。
The generation unit extracts a presentation surface as a surface for presenting a marker arrangement from the imaging scene,
Refer to a predetermined table based on the depth distance corresponding to the imaging scene, obtain the size and arrangement interval of the feature to be arranged on the presentation surface,
6. The information processing apparatus according to claim 5, wherein the arrangement information is generated by arranging the feature on the presentation surface based on the size and an arrangement interval, and deleting or moving the feature shielded by the object.
前記提示面が複数ある場合、前記生成手段は、各提示面における前記特徴の配置を統合して前記配置情報を生成する請求項6に記載された情報処理装置。   7. The information processing apparatus according to claim 6, wherein when there are a plurality of presentation surfaces, the generation unit generates the arrangement information by integrating the arrangement of the features on each presentation surface. 前記生成手段は、前記特徴の配置の統合において、サイズが小さい特徴を優先配置する請求項7に記載された情報処理装置。   8. The information processing apparatus according to claim 7, wherein the generation unit preferentially arranges features having a small size in the integration of the arrangement of the features. 前記生成手段は、同一サイズの特徴の分布に基づき、前記特徴の配置を統合する請求項7に記載された情報処理装置。   8. The information processing apparatus according to claim 7, wherein the generation unit integrates the arrangement of the features based on a distribution of features of the same size. 前記入力手段は複数の視線情報を入力し、前記設定手段は前記複数の視線情報それぞれについて前記撮像シーンと前記奥行き距離を設定する請求項1から請求項9の何れか一項に記載された情報処理装置。   10. The information according to claim 1, wherein the input unit inputs a plurality of line-of-sight information, and the setting unit sets the imaging scene and the depth distance for each of the plurality of line-of-sight information. Processing equipment. さらに、前記複数の視線情報に基づき、追加する視線情報を予測する予測手段を有する請求項10に記載された情報処理装置。   11. The information processing apparatus according to claim 10, further comprising prediction means for predicting additional line-of-sight information based on the plurality of line-of-sight information. 空間における撮像装置の位置姿勢を推定するために現実のシーンに配置する特徴の配置情報を生成する情報処理方法であって、
入力手段が、前記撮像装置の内部パラメータに関するカメラ情報、前記シーンを描画するためのシーン形状情報、および、前記シーンにおいて仮想物体を観察する際の視線の位置姿勢を示す視線情報を入力し、
設定手段が、前記シーン形状情報、前記カメラ情報および前記視線情報に基づき、前記視線情報が示す位置姿勢において前記撮像装置が撮像する現実の空間である撮像シーンと、前記撮像シーンの奥行き距離を設定し、
生成手段が、前記シーン形状情報、前記撮像シーンおよび前記奥行き距離に基づき、前記シーンに配置する特徴の配置情報を生成する情報処理方法。
An information processing method for generating arrangement information of features to be arranged in an actual scene in order to estimate the position and orientation of an imaging device in space,
The input means inputs camera information related to internal parameters of the imaging device, scene shape information for drawing the scene, and line-of-sight information indicating the position and orientation of the line of sight when observing a virtual object in the scene,
Based on the scene shape information, the camera information, and the line-of-sight information, a setting unit sets an imaging scene that is an actual space captured by the imaging apparatus at a position and orientation indicated by the line-of-sight information, and a depth distance between the imaging scenes And
An information processing method in which a generation unit generates arrangement information of features to be arranged in the scene based on the scene shape information, the imaging scene, and the depth distance.
コンピュータを請求項1から請求項11の何れか一項に記載された情報処理装置の各手段として機能させるためのプログラム。   12. A program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 11.
JP2015022345A 2015-02-06 2015-02-06 Information processing apparatus and method Active JP6482307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015022345A JP6482307B2 (en) 2015-02-06 2015-02-06 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015022345A JP6482307B2 (en) 2015-02-06 2015-02-06 Information processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2016145733A true JP2016145733A (en) 2016-08-12
JP6482307B2 JP6482307B2 (en) 2019-03-13

Family

ID=56686121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015022345A Active JP6482307B2 (en) 2015-02-06 2015-02-06 Information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP6482307B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350859A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Marker arranging method and composite reality really feeling device
JP3450704B2 (en) * 1997-09-01 2003-09-29 キヤノン株式会社 Position and orientation detection apparatus and information processing method
JP2007064684A (en) * 2005-08-29 2007-03-15 Canon Inc Marker arrangement assisting method and device therefor
JP2008275340A (en) * 2007-04-25 2008-11-13 Canon Inc Apparatus and method for processing information
JP2009020614A (en) * 2007-07-10 2009-01-29 Ritsumeikan Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3450704B2 (en) * 1997-09-01 2003-09-29 キヤノン株式会社 Position and orientation detection apparatus and information processing method
JP2000350859A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Marker arranging method and composite reality really feeling device
JP2007064684A (en) * 2005-08-29 2007-03-15 Canon Inc Marker arrangement assisting method and device therefor
JP2008275340A (en) * 2007-04-25 2008-11-13 Canon Inc Apparatus and method for processing information
JP2009020614A (en) * 2007-07-10 2009-01-29 Ritsumeikan Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小竹大輔、内山晋二、山本裕之: "マーカ配置に関する先験的知識を利用したマーカキャリブレーション方法", 日本バーチャルリアリティ学会論文誌, vol. 10, no. 3, JPN6019000475, 2005, JP, pages 401 - 410, ISSN: 0003955284 *

Also Published As

Publication number Publication date
JP6482307B2 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
US7965304B2 (en) Image processing method and image processing apparatus
JP6171079B1 (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
JP5709440B2 (en) Information processing apparatus and information processing method
JP5777786B1 (en) Information processing apparatus, information processing method, and program
JP5592011B2 (en) Multi-scale 3D orientation
JP6144364B2 (en) Work support data creation program
JP2011095797A (en) Image processing device, image processing method and program
KR102539427B1 (en) Image processing apparatus, image processing method, and storage medium
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP7238060B2 (en) Information processing device, its control method, and program
CN107168534B (en) Rendering optimization method and projection method based on CAVE system
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP2009134681A (en) Image processor, and image processing method
JP2018206025A (en) Information processing device and information processing method
JP2020173529A (en) Information processing device, information processing method, and program
JP2018106661A (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
JP2016162392A (en) Three-dimensional image processing apparatus and three-dimensional image processing system
JP2013092888A (en) Data processor
JP7006056B2 (en) Virtual space presentation device, virtual space presentation method, and program
JP6482307B2 (en) Information processing apparatus and method
JP2021009557A (en) Information processing device, information processing method, and program
JP6800599B2 (en) Information processing equipment, methods and programs
JP2009015648A (en) Image processor and image processing method
JP2016058043A (en) Information processing device, information processing method, and program
US20230334767A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190212

R151 Written notification of patent or utility model registration

Ref document number: 6482307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151