JP6134874B1 - System for creating a mixed reality environment - Google Patents

System for creating a mixed reality environment Download PDF

Info

Publication number
JP6134874B1
JP6134874B1 JP2017001926A JP2017001926A JP6134874B1 JP 6134874 B1 JP6134874 B1 JP 6134874B1 JP 2017001926 A JP2017001926 A JP 2017001926A JP 2017001926 A JP2017001926 A JP 2017001926A JP 6134874 B1 JP6134874 B1 JP 6134874B1
Authority
JP
Japan
Prior art keywords
color information
dimensional
real space
space
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017001926A
Other languages
Japanese (ja)
Other versions
JP2017228268A (en
Inventor
修一 倉林
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2017001926A priority Critical patent/JP6134874B1/en
Application granted granted Critical
Publication of JP6134874B1 publication Critical patent/JP6134874B1/en
Publication of JP2017228268A publication Critical patent/JP2017228268A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】複合現実環境において実空間の環境をリアルタイムに認識することができるシステムを提供する。【解決手段】本発明に係るシステムは、サーバと、ユーザに対して仮想オブジェクトを表示するための表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置と、所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得する画像取得装置とを備え、表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して仮想オブジェクトを重畳させて描画するためのシステムであって、3次元空間データ記憶手段と、テーブル記憶手段と、色情報決定手段と、色情報更新手段と、ユーザ環境決定手段と、仮想照明情報生成手段と、描画手段との各手段をサーバ又は表示装置が備える。【選択図】図1A system capable of recognizing an environment in real space in a mixed reality environment in real time is provided. A system according to the present invention includes a portable display device having a server, a display unit for displaying a virtual object for a user, and a photographing unit for photographing a real space, and a predetermined real space. A system for drawing a virtual object by superimposing a virtual object on a real space or a captured image of a real space that a user visually recognizes through a display unit Each of the three-dimensional spatial data storage means, the table storage means, the color information determination means, the color information update means, the user environment determination means, the virtual illumination information generation means, and the drawing means is a server. Or a display apparatus is provided. [Selection] Figure 1

Description

本発明は、システムに関するものであり、特に複合現実環境において実空間の環境をリアルタイムに認識するシステムに関する。   The present invention relates to a system, and more particularly to a system for recognizing a real space environment in real time in a mixed reality environment.

近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。本技術は、これを体験するユーザに対して、あたかもその場に仮想の物体が存在するかのような体験を行わせることができる。複合現実感の技術は、様々な分野で注目を集めている。MR技術を実現するために、ユーザは、光学シースルー型HMD(Head Mounted Display)やビデオシースルー型HMDを装着することにより、HMDに重畳表示された複合現実画像を確認することができる。   In recent years, a mixed reality, so-called MR (Mixed Reality) technology has been known as a technology for seamlessly combining the real world and the virtual world in real time. The present technology can make a user who experiences this experience as if a virtual object exists on the spot. Mixed reality technology is attracting attention in various fields. In order to realize the MR technology, the user can confirm the mixed reality image superimposed and displayed on the HMD by wearing an optical see-through HMD (Head Mounted Display) or a video see-through HMD.

現実世界を3D空間として認識する技術としては、ユーザ視点の高精度なカメラを搭載する手法と、観測対象空間を取り囲むようにカメラを設置する手法の2つが知られている。   There are two known technologies for recognizing the real world as a 3D space: a method of mounting a highly accurate camera from the user's viewpoint and a method of installing a camera so as to surround the observation target space.

ユーザ視点の高精度なカメラを搭載する手法としては、赤外線プロジェクタと赤外線カメラを用いる手法がある。例えば、ユーザ視点の高精度なカメラを搭載する手法としては、赤外線を照射し、その反射パターンの歪みから、物体の深度を計測する手法がある。また、Time of Flight法(TOF法)と呼ばれる手法では、赤外線などの不可視光を照射し、その反射結果を計測することにより、対象物までの往復の距離を算出する手法がある。これらの方式は、3次元化できる空間が、赤外線の到達範囲に限定され、また、太陽効果で使用できないという問題点がある。   As a method for mounting a highly accurate camera from the user's viewpoint, there is a method using an infrared projector and an infrared camera. For example, as a technique for mounting a highly accurate camera from the user's viewpoint, there is a technique for irradiating infrared rays and measuring the depth of an object from the distortion of the reflection pattern. In addition, in a method called Time of Flight method (TOF method), there is a method of calculating a reciprocal distance to an object by irradiating invisible light such as infrared rays and measuring the reflection result. These systems have a problem that the space that can be three-dimensional is limited to the infrared reachable range and cannot be used due to the solar effect.

また、極めて高精度な3次元情報を撮影する手法としては、3Dレーザスキャナを用いる方式がある。本方式は、高い測定精度を実現できるが、360度の測定を行うために、最低でも10分程度、標準画質で30分間程度の時間を要する。したがって、リアルタイムの用途には適用できない。また、3Dレーザスキャナは、1台が数百〜数千万円と非常に高価であり、広域に大量配備するには適さない。3Dレーザスキャナは以上のような特性から、土木における測量や工場内のレイアウト確認などの、長時間かけて高精度な3D化を行う用途に用いられている。例えば特許文献1は、3Dイメージスキャナでスキャンして作成した点群データに対して、カメラで撮影した画像の色を付与することで、現実世界を3D空間として認識する技術を実現している。   In addition, as a method for photographing extremely accurate three-dimensional information, there is a method using a 3D laser scanner. Although this method can achieve high measurement accuracy, it takes a time of at least about 10 minutes and a standard image quality of about 30 minutes to perform a 360 degree measurement. Therefore, it cannot be applied to real-time usage. In addition, one 3D laser scanner is very expensive at several hundred to several tens of millions of yen, and is not suitable for mass deployment in a wide area. Due to the above characteristics, the 3D laser scanner has been used for high-precision 3D conversion over a long period of time, such as surveying in civil engineering and layout confirmation in factories. For example, Patent Document 1 realizes a technology for recognizing the real world as a 3D space by adding the color of an image captured by a camera to point cloud data created by scanning with a 3D image scanner.

観測対象空間を取り囲むようにカメラを設置する手法としては、非特許文献1に示すStructure-from-Motion(SfM)と呼ばれる技術を用いて、複数の、ばらばらに撮影された画像から、元の3次元情報を復元する方式が挙げられる。この方式を採用する代表的な製品としては、Microsoft Photosynth(登録商標)がある。Sfmが実現する精度は、MR技術が要求する精度との比較においては相対的に低いものの、安価に3Dモデルを構築できる方式である。しかしながら、リアルタイム性は低く、そのままではMR環境の実現に適用することはできない。   As a method of installing the camera so as to surround the observation target space, a technique called Structure-from-Motion (SfM) shown in Non-Patent Document 1 is used to obtain the original 3 A method for restoring the dimension information is mentioned. A representative product that employs this method is Microsoft Photosynth (registered trademark). Although the accuracy realized by Sfm is relatively low in comparison with the accuracy required by the MR technology, it is a method that can construct a 3D model at low cost. However, the real-time property is low and cannot be applied to the realization of the MR environment as it is.

上述のとおり、これらの手法では、リアルタイム性と高精度な測定を同時に実現できないため、建造物等の背景を高精度に撮影することと、太陽の移動や人の移動による間接照明の変化を認識することが困難である。   As mentioned above, these methods cannot achieve real-time performance and high-accuracy measurement at the same time, so it is possible to capture the background of buildings, etc. with high accuracy, and to recognize changes in indirect lighting due to movement of the sun and movement of people. Difficult to do.

特開2013−69235号公報JP 2013-69235 A

Sameer Agarwal, Yasutaka Furukawa, Noah Snavely, Ian Simon, Brian Curless, Steven M. Seitz, and Richard Szeliski. 2011. Building Rome in a day. Commun. ACM 54, 10 (October 2011), 105-112. DOI=http://dx.doi.org/10.1145/2001269.2001293Sameer Agarwal, Yasutaka Furukawa, Noah Snavely, Ian Simon, Brian Curless, Steven M. Seitz, and Richard Szeliski. 2011. Building Rome in a day. Commun. ACM 54, 10 (October 2011), 105-112. DOI = http : //dx.doi.org/10.1145/2001269.2001293

上述のとおり、現実世界の構造や環境をリアルタイムかつ高精度に認識してそれを仮想空間に反映する方法は、未だ確立されていない。これは、MR環境において、例えば、描画される仮想オブジェクトの高品質なグローバルイルミネーションやユーザ(HMD)のポジショントラッキングを実現する上で問題である。   As described above, a method for recognizing a real-world structure and environment in real time with high accuracy and reflecting it in the virtual space has not yet been established. This is a problem in realization of high-quality global illumination of a virtual object to be drawn and position tracking of a user (HMD) in an MR environment, for example.

本発明は、このような課題を解決するためになされたものであり、複合現実環境において実空間の環境をリアルタイムに認識することができるシステムを提供することを目的とする。   The present invention has been made to solve such a problem, and an object thereof is to provide a system capable of recognizing a real space environment in real time in a mixed reality environment.

上記の目的を達成するために、本発明の一態様としてのシステムは、サーバと、ユーザに対して仮想オブジェクトを表示するための表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置と、所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得する画像取得装置とを備え、上記表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して仮想オブジェクトを重畳させて描画するためのシステムであって、予め取得された上記所定の実空間内にある実オブジェクトの点群データに基づいて作成された3次元空間データであって、それぞれが3次元位置情報を有する3次元形状要素から構成される3次元空間データを記憶する3次元空間データ記憶手段と、上記画像取得装置により取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数の上記3次元形状要素の3次元位置情報とが関連付けられたテーブルを記憶するテーブル記憶手段と、上記3次元形状要素が関連付けられた1又は複数の上記ピクセルの色情報に基づいて上記3次元形状要素の色情報を決定する色情報決定手段と、上記画像取得装置により取得された画像のそれぞれのピクセルの色情報の変化に基づいて上記3次元形状要素の色情報を更新する色情報更新手段と、上記表示装置の位置及び上記撮影部の撮影方向を決定するユーザ環境決定手段と、上記3次元形状要素の色情報及び3次元位置情報に基づいて、上記描画される仮想オブジェクトに対する仮想照明情報を生成する仮想照明情報生成手段と、上記表示装置の位置及び上記撮影部の撮影方向、並びに上記仮想照明情報に基づいて、上記表示部に上記仮想オブジェクトを描画する描画手段と、の各手段を上記サーバ又は上記表示装置が備える、ことを特徴とする。   In order to achieve the above object, a system according to one aspect of the present invention includes a portable display device having a server, a display unit for displaying a virtual object to a user, and a photographing unit for photographing a real space. And an image acquisition device that acquires images from a plurality of fixed points capable of capturing an area in a predetermined real space, and a virtual object for a real space or a captured image of the real space that the user visually recognizes through the display unit Are three-dimensional spatial data created based on point cloud data of real objects in the predetermined real space acquired in advance, each of which is a three-dimensional position. 3D spatial data storage means for storing 3D spatial data composed of 3D shape elements having information, and each of the images acquired by the image acquisition device. Table storage means for storing a table in which position information of each pixel is associated with three-dimensional position information of one or more of the three-dimensional shape elements indicated by each pixel, and 1 with which the three-dimensional shape element is associated Or color information determination means for determining color information of the three-dimensional shape element based on color information of a plurality of the pixels, and based on a change in color information of each pixel of the image acquired by the image acquisition device. Color information updating means for updating color information of a three-dimensional shape element, user environment determining means for determining a position of the display device and a photographing direction of the photographing unit, color information and three-dimensional position information of the three-dimensional shape element Based on the virtual illumination information generating means for generating virtual illumination information for the virtual object to be drawn, the position of the display device, and the imaging of the imaging unit. Direction, and based on the virtual illumination information, and drawing means for drawing the virtual object on the display unit, the means of the provided in the server or the display device, characterized in that.

このように構成された本発明によれば、3次元空間データを構成する3次元形状要素(例えばメッシュやボクセル)の位置情報と、画像取得装置(例えば固定カメラ)により取得された画像のそれぞれのピクセルの位置情報とを関連付けたテーブルを用いることにより、3次元形状要素の色情報を画像取得装置により取得された画像のピクセルの色情報から決定し、また更新する。このようにテーブルを用いることにより、画像取得装置から得られる色情報を3次元形状要素のそれぞれにリアルタイムに反映することが可能となる。   According to the present invention configured as described above, the position information of the three-dimensional shape elements (for example, meshes and voxels) constituting the three-dimensional space data, and the images acquired by the image acquisition device (for example, a fixed camera), respectively. By using a table in which pixel position information is associated, the color information of the three-dimensional shape element is determined from the color information of the pixel of the image acquired by the image acquisition device and updated. By using the table in this way, the color information obtained from the image acquisition device can be reflected in real time on each of the three-dimensional shape elements.

また、本発明において好ましくは、上記仮想照明情報生成手段は、上記3次元形状要素の色情報及び3次元位置情報に基づいて、上記描画される仮想オブジェクトを収容する仮想的な多面体の各面における仮想照明情報を上記描画される仮想オブジェクトに対する仮想照明情報として生成する。   In the present invention, it is preferable that the virtual illumination information generating means is provided on each surface of a virtual polyhedron that accommodates the rendered virtual object based on the color information and the three-dimensional position information of the three-dimensional shape element. Virtual illumination information is generated as virtual illumination information for the rendered virtual object.

このように構成された本発明によれば、描画される仮想オブジェクトに対して、該仮想オブジェクトを収容する仮想的な多面体を想定し、該多面体の各面における色彩(光)の状態を、実空間の色彩を反映させた3次元形状要素のそれぞれから決定する。そして、決定された各面における色彩の状態を、描画される仮想オブジェクトの仮想的な間接照明として用いる。これにより、より実空間の環境に近い色彩や陰影を持つ仮想オブジェクトを描画することが可能となる。   According to the present invention configured as described above, a virtual polyhedron accommodating the virtual object is assumed for the virtual object to be drawn, and the color (light) state on each surface of the polyhedron is realized. It is determined from each of the three-dimensional shape elements reflecting the color of the space. Then, the determined color state on each surface is used as virtual indirect illumination of the virtual object to be drawn. This makes it possible to draw a virtual object having colors and shadows that are closer to the real space environment.

また、本発明において好ましくは、上記表示装置は、位置姿勢センサを更に備え、上記ユーザ環境決定手段は、上記位置姿勢センサにより取得された上記表示装置の位置及び上記撮影部の撮影方向を暫定ユーザ環境とし、該暫定ユーザ環境から所定範囲内の位置及び方向において上記撮影部が撮影可能な上記3次元形状要素を上記3次元空間データ記憶手段から取得し、該取得された3次元形状要素の色情報及び3次元位置情報と上記撮影された実空間の撮影画像とに基づいて、上記表示装置の位置及び上記撮影部の撮影方向を決定する。   In the present invention, it is preferable that the display device further includes a position / orientation sensor, and the user environment determining means determines the position of the display device and the image capturing direction of the image capturing unit acquired by the position / orientation sensor. The three-dimensional shape element that can be photographed by the photographing unit at a position and direction within a predetermined range from the provisional user environment is acquired from the three-dimensional spatial data storage means, and the color of the acquired three-dimensional shape element The position of the display device and the photographing direction of the photographing unit are determined based on the information and the three-dimensional position information and the photographed real space photographed image.

このように構成された本発明によれば、位置姿勢センサを用いて決定された大まかな表示装置の位置及び撮影部の撮影方向を暫定ユーザ環境とし、該暫定ユーザ環境周辺において撮影部の撮影可能な領域にある3次元形状要素の色情報及び3次元位置情報と、撮影部の撮影画像とを比較して照合することにより、表示装置の位置及び撮影部の撮影方向を決定する。ここでは、通常、表示装置の位置はユーザの位置に対応し、撮影部の撮影方向はユーザの向いている方向に対応する。   According to the present invention configured as described above, the approximate position of the display device determined using the position and orientation sensor and the shooting direction of the shooting unit are set as a temporary user environment, and the shooting unit can be shot around the temporary user environment. The position of the display device and the photographing direction of the photographing unit are determined by comparing and collating the color information and three-dimensional position information of the three-dimensional shape element in a certain area with the photographed image of the photographing unit. Here, normally, the position of the display device corresponds to the position of the user, and the shooting direction of the shooting unit corresponds to the direction in which the user faces.

このように、従来の位置姿勢センサから得られる大まかな位置情報と、3次元空間データを用いた高精度の仮想空間とのマッチングを行い、実空間と仮想空間におけるユーザの位置やユーザの向いている方向のずれをリアルタイムに補正することができる。これにより、現実と高精度にリンクするMR環境を実現することが可能となり、ポジショントラッキングを実現することが可能になる。   In this way, the rough position information obtained from the conventional position and orientation sensor is matched with the high-accuracy virtual space using the three-dimensional space data, and the position of the user in the real space and the virtual space and the user's orientation It is possible to correct the deviation in the direction in which it is present in real time. As a result, it is possible to realize an MR environment that links the reality with high accuracy, and it is possible to realize position tracking.

また、本発明において好ましくは、上記3次元形状要素は、予め取得された上記所定の実空間内にある実オブジェクトの点群データに基づいて作成されたポリゴンから構成されるメッシュである。   In the present invention, it is preferable that the three-dimensional shape element is a mesh composed of polygons created based on point cloud data of real objects in the predetermined real space acquired in advance.

このように構成された本発明によれば、3次元形状要素としてメッシュを用いることができる。   According to the present invention configured as described above, a mesh can be used as a three-dimensional shape element.

また、上記の目的を達成するために、本発明の一態様としての表示装置は、ユーザに対して仮想オブジェクトを表示するための表示部及び実空間を撮影する撮影部を有し、上記表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して仮想オブジェクトを重畳させて描画するための携帯可能な表示装置であって、予め取得された所定の実空間内にある実オブジェクトの点群データに基づいて作成された3次元空間データであって、それぞれが3次元位置情報を有する3次元形状要素から構成される3次元空間データを記憶する3次元空間データ記憶手段と、上記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数の上記3次元形状要素の3次元位置情報とが関連付けられたテーブルを記憶するテーブル記憶手段と、上記3次元形状要素が関連付けられた1又は複数の上記ピクセルの色情報に基づいて上記3次元形状要素の色情報を決定する色情報決定手段と、上記取得された画像のそれぞれのピクセルの色情報の変化に基づいて上記3次元形状要素の色情報を更新する色情報更新手段と、上記表示装置の位置及び上記撮影部の撮影方向を決定するユーザ環境決定手段と、上記3次元形状要素の色情報及び3次元位置情報に基づいて、上記描画される仮想オブジェクトに対する仮想照明情報を生成する仮想照明情報生成手段と、上記表示装置の位置及び上記撮影部の撮影方向、並びに上記仮想照明情報に基づいて、上記表示部に上記仮想オブジェクトを描画する描画手段と、を備える、ことを特徴とする。   In order to achieve the above object, a display device according to an aspect of the present invention includes a display unit for displaying a virtual object to a user and a photographing unit for photographing a real space. A portable display device for rendering a virtual object superimposed on a real space or a captured image of the real space that is visually recognized by the user through the points of the real object in a predetermined real space acquired in advance 3D space data storage means for storing 3D space data created based on group data, each of which is composed of 3D shape elements each having 3D position information; Position information of each pixel of an image acquired from a plurality of fixed points capable of photographing an area in real space, and one or a plurality of the three-dimensional shapes indicated by each pixel Table storage means for storing a table associated with the three-dimensional position information of the element, and color information of the three-dimensional shape element based on color information of one or a plurality of the pixels associated with the three-dimensional shape element Color information determining means for determining, color information updating means for updating color information of the three-dimensional shape element based on a change in color information of each pixel of the acquired image, a position of the display device, and the photographing User environment determining means for determining the shooting direction of the part, virtual illumination information generating means for generating virtual illumination information for the rendered virtual object based on the color information and three-dimensional position information of the three-dimensional shape element, Drawing means for drawing the virtual object on the display unit based on the position of the display device, the shooting direction of the shooting unit, and the virtual illumination information It comprises, characterized in that.

このように構成された本発明によれば、上記のシステムが実現する技術を、表示装置により実現することができる。   According to the present invention configured as described above, the technology realized by the above system can be realized by a display device.

また、上記の目的を達成するために、本発明の一態様としてのシステムは、サーバと、ユーザに対して3次元の仮想オブジェクトを表示するための表示部、実空間を撮影する撮影部、及び位置姿勢センサを有する携帯可能な表示装置と、を備え、上記表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して仮想オブジェクトを重畳させて描画するためのシステムであって、予め取得された所定の実空間内にある実オブジェクトの点群データに基づいて作成された3次元空間データであって、それぞれが色情報及び3次元位置情報を有する3次元形状要素から構成される3次元空間データを記憶する3次元空間データ記憶手段と、上記位置姿勢センサにより取得された上記表示装置の位置及び上記撮影部の撮影方向を暫定ユーザ環境とし、該暫定ユーザ環境から所定範囲内の位置及び方向において上記撮影部が撮影可能な上記3次元形状要素を上記3次元空間データ記憶手段から取得し、該取得された3次元形状要素の色情報及び3次元位置情報と上記撮影された実空間の撮影画像とに基づいて、上記表示装置の位置及び上記撮影部の撮影方向を決定するユーザ環境決定手段と、の各手段を上記サーバ又は上記表示装置が備える、ことを特徴とする。   In order to achieve the above object, a system according to one aspect of the present invention includes a server, a display unit for displaying a three-dimensional virtual object for a user, a photographing unit for photographing a real space, and A portable display device having a position and orientation sensor, and a system for rendering a virtual object superimposed on a real space or a captured image of the real space visually recognized by the user through the display unit, 3D space data created based on the acquired point cloud data of a real object in a predetermined real space, each of which is composed of 3D shape elements having color information and 3D position information Temporary user sets the position of the display device and the shooting direction of the shooting unit acquired by the three-dimensional space data storage means for storing the dimension space data and the position and orientation sensor. The three-dimensional shape element that can be photographed by the photographing unit at a position and direction within a predetermined range from the provisional user environment is acquired from the three-dimensional spatial data storage means, and the color of the acquired three-dimensional shape element Based on the information, the three-dimensional position information, and the photographed real space photographed image, the user environment determining means for determining the position of the display device and the photographing direction of the photographing unit is the server or the The display device is provided.

このように構成された本発明によれば、位置姿勢センサを用いて決定された大まかな表示装置の位置及び撮影部の撮影方向を暫定ユーザ環境とし、該暫定ユーザ環境周辺において撮影部の撮影可能な領域にある3次元形状要素の色情報及び3次元位置情報と、撮影部の撮影画像とを比較して照合することにより、表示装置の位置及び撮影部の撮影方向を決定する。   According to the present invention configured as described above, the approximate position of the display device determined using the position and orientation sensor and the shooting direction of the shooting unit are set as a temporary user environment, and the shooting unit can be shot around the temporary user environment. The position of the display device and the photographing direction of the photographing unit are determined by comparing and collating the color information and three-dimensional position information of the three-dimensional shape element in a certain area with the photographed image of the photographing unit.

このように、従来の位置姿勢センサから得られる大まかな位置情報と、3次元空間データを用いた高精度の仮想空間とのマッチングを行い、実空間と仮想空間におけるユーザの位置やユーザの向いている方向のずれをリアルタイムに補正することができる。これにより、現実と高精度にリンクするMR環境を実現することが可能となり、ポジショントラッキングを実現することが可能になる。   In this way, the rough position information obtained from the conventional position and orientation sensor is matched with the high-accuracy virtual space using the three-dimensional space data, and the position of the user in the real space and the virtual space and the user's orientation It is possible to correct the deviation in the direction in which it is present in real time. As a result, it is possible to realize an MR environment that links the reality with high accuracy, and it is possible to realize position tracking.

また、上記の目的を達成するために、本発明の一態様としての方法は、所定の実空間内において携帯可能な表示装置の表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して仮想オブジェクトを重畳させて描画する方法であって、上記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得するステップと、予め取得された上記所定の実空間内にある実オブジェクトの点群データに基づいて作成された3次元空間データを構成する3次元位置情報を有する3次元形状要素の色情報であって、上記取得された画像の上記3次元形状要素に対応する位置のピクセルの色情報に基づいて上記3次元形状要素の色情報を決定するステップと、上記取得された画像のそれぞれのピクセルの色情報の変化に基づいて上記3次元形状要素の色情報を更新するステップと、上記表示装置の位置及び上記表示装置が備える撮影部の撮影方向を決定するステップと、上記3次元形状要素の色情報及び3次元位置情報に基づいて、上記描画される仮想オブジェクトに対する仮想照明情報を生成するステップと、上記表示装置の位置及び上記撮影部の撮影方向、並びに上記仮想照明情報に基づいて、上記表示部に上記仮想オブジェクトを描画するステップと、を有する、ことを特徴とする。   In order to achieve the above object, a method according to one aspect of the present invention is applied to a real space or a captured image of a real space that is visually recognized by a user through a display unit of a portable display device in a predetermined real space. A method of superimposing and drawing a virtual object, the step of acquiring an image from each of a plurality of fixed points capable of photographing an area in the predetermined real space, and in the predetermined real space acquired in advance Color information of a 3D shape element having 3D position information constituting 3D space data created based on point cloud data of a real object, corresponding to the 3D shape element of the acquired image Determining the color information of the three-dimensional shape element based on the color information of the pixel at the position, and the third order based on the change in the color information of each pixel of the acquired image. Based on the step of updating the color information of the shape element, the step of determining the position of the display device and the photographing direction of the photographing unit provided in the display device, the color information of the three-dimensional shape element and the three-dimensional position information, Generating virtual illumination information for the virtual object to be drawn, drawing the virtual object on the display unit based on the position of the display device, the shooting direction of the shooting unit, and the virtual lighting information; It is characterized by having.

また、上記の目的を達成するために、本発明の一態様としてのプログラムは、サーバと、ユーザに対して仮想オブジェクトを表示するための表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置と、所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得する画像取得装置とを備えるシステムにおいて、上記表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して仮想オブジェクトを重畳させて描画するためのプログラムであって、上記プログラムは、上記サーバに、上記表示装置から画像を取得するステップと、予め取得された上記所定の実空間内にある実オブジェクトの点群データに基づいて作成された3次元空間データを構成する3次元位置情報を有する3次元形状要素の色情報であって、上記画像取得装置により取得された画像の上記3次元形状要素に対応する位置のピクセルの色情報に基づいて上記3次元形状要素の色情報を決定するステップと、上記画像取得装置により取得された画像のそれぞれのピクセルの色情報の変化に基づいて上記3次元形状要素の色情報を更新するステップと、上記表示装置の位置及び上記撮影部の撮影方向を決定するステップと、上記3次元形状要素の色情報及び3次元位置情報に基づいて、上記描画される仮想オブジェクトに対する仮想照明情報を生成するステップと、上記表示装置の位置及び上記撮影部の撮影方向、並びに上記仮想照明情報に基づいて、上記表示部に上記仮想オブジェクトを描画するステップと、を実行させる、ことを特徴とする。   In order to achieve the above object, a program according to one aspect of the present invention is portable and includes a server, a display unit for displaying a virtual object for a user, and a photographing unit for photographing a real space. In a system including a display device and an image acquisition device that acquires images from a plurality of fixed points that can capture an area in a predetermined real space, the real space or a captured image of the real space that is visually recognized by the user through the display unit A program for superimposing and drawing a virtual object on the server, the program acquiring an image from the display device on the server, and a real object in the predetermined real space acquired in advance Color information of a 3D shape element having 3D position information constituting 3D space data created based on the point cloud data of Determining color information of the three-dimensional shape element based on color information of a pixel at a position corresponding to the three-dimensional shape element of the image acquired by the image acquisition device; and Updating the color information of the three-dimensional shape element based on changes in the color information of each pixel; determining the position of the display device and the photographing direction of the photographing unit; and the color of the three-dimensional shape element Generating virtual illumination information for the rendered virtual object based on the information and the three-dimensional position information; and displaying the display based on the position of the display device, the photographing direction of the photographing unit, and the virtual illumination information. And a step of drawing the virtual object in a section.

また、上記の目的を達成するために、本発明の一態様としての方法は、所定の実空間内において携帯可能な表示装置の表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して3次元の仮想オブジェクトを重畳させて描画するための複合現実環境を作成する方法であって、上記所定の実空間内にある実オブジェクトの点群データに基づいて、それぞれが3次元位置情報を有する3次元形状要素から構成される3次元空間データを作成するステップと、上記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得するステップと、上記取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数の上記3次元形状要素の3次元位置情報とを関連付けたテーブルを作成するステップと、上記3次元形状要素が関連付けられた1又は複数の上記ピクセルの色情報に基づいて上記3次元形状要素の色情報を決定するステップと、を有する、ことを特徴とする。   In order to achieve the above object, a method according to one aspect of the present invention is applied to a real space or a captured image of a real space that is visually recognized by a user through a display unit of a portable display device in a predetermined real space. And creating a mixed reality environment for rendering a three-dimensional virtual object superimposed on the basis of the point cloud data of the real object in the predetermined real space. Each of a step of creating three-dimensional space data composed of three-dimensional shape elements having, a step of acquiring images from a plurality of fixed points capable of photographing a region in the predetermined real space, and the acquired images Creating a table associating the position information of each pixel with the three-dimensional position information of one or more of the three-dimensional shape elements indicated by each pixel; And a step of determining the color information of the three-dimensional shape element based on color information of one or more of the pixels serial three-dimensional shape element is associated, characterized in that.

このように構成された本発明によれば、仮想空間において実オブジェクトを含む所定の実空間を表現する3次元空間データを作成し、固定カメラ等から画像を取得し、該3次元空間データを構成する3次元形状要素の位置情報と、固定カメラ等により取得された画像のそれぞれのピクセルの位置情報とを関連付けたテーブルを作成し、テーブルを用いて3次元形状要素の色情報を決定する。   According to the present invention configured as described above, three-dimensional space data representing a predetermined real space including a real object is created in a virtual space, an image is acquired from a fixed camera or the like, and the three-dimensional space data is configured. A table in which the positional information of the three-dimensional shape element to be associated with the positional information of each pixel of the image acquired by a fixed camera or the like is created, and the color information of the three-dimensional shape element is determined using the table.

これにより、実空間の色彩状態(光の状態)をリアルタイム、かつ、高精度に3次元形状要素の色情報に反映させることが可能となり、その結果、実空間の色彩状態をリアルタイム、かつ、高精度に反映させる複合現実環境を実現することが可能となる。   As a result, the color state (light state) of the real space can be reflected in the color information of the three-dimensional shape element in real time and with high accuracy. As a result, the color state of the real space can be reflected in real time and high. It is possible to realize a mixed reality environment that reflects the accuracy.

また、本発明において好ましくは、上記取得された画像のそれぞれのピクセルの色情報の変化に基づいて上記3次元形状要素の色情報を更新するステップを更に有する。   In the present invention, it is preferable that the method further includes a step of updating the color information of the three-dimensional shape element based on a change in color information of each pixel of the acquired image.

また、上記の目的を達成するために、本発明の一態様としてのシステムは、所定の実空間内において携帯可能な表示装置の表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して3次元の仮想オブジェクトを重畳させて描画するための複合現実環境を作成するためのシステムであって、上記所定の実空間内にある実オブジェクトの点群データに基づいて、それぞれが3次元位置情報を有する3次元形状要素から構成される3次元空間データを作成する3次元空間データ作成手段と、上記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得する画像取得手段と、上記取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数の上記3次元形状要素の3次元位置情報とを関連付けたテーブルを作成するテーブル作成手段と、上記3次元形状要素が関連付けられた1又は複数の上記ピクセルの色情報に基づいて上記3次元形状要素の色情報を決定する色情報決定手段と、を備える、ことを特徴とする。   In order to achieve the above object, a system according to an aspect of the present invention is provided for a real space or a captured image of a real space that a user visually recognizes through a display unit of a portable display device in a predetermined real space. A system for creating a mixed reality environment for superimposing and rendering a three-dimensional virtual object, each of which is based on the point cloud data of the real object in the predetermined real space. 3D space data creation means for creating 3D space data composed of 3D shape elements having information, and image acquisition means for obtaining images from a plurality of fixed points capable of photographing the region in the predetermined real space. And the position information of each pixel of the acquired image and the three-dimensional position information of one or more of the three-dimensional shape elements indicated by each pixel Table creating means for creating a table, and color information determining means for determining color information of the three-dimensional shape element based on color information of one or a plurality of the pixels associated with the three-dimensional shape element. It is characterized by that.

また、上記の目的を達成するために、本発明の一態様としてのデータ構造は、所定の実空間内において携帯可能な表示装置の表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して3次元の仮想オブジェクトを重畳させて描画するための複合現実環境を作成するためのデータ構造であって、上記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得し、該取得された画像のそれぞれのピクセルの位置情報を示す2次元座標データと、上記所定の実空間内にある実オブジェクトの点群データに基づいて作成された3次元空間データを構成する3次元形状要素であって、上記それぞれのピクセルに関連付けられた3次元形状要素の3次元位置情報を示す3次元座標データと、を含む、ことを特徴とする。   In order to achieve the above object, a data structure as one aspect of the present invention is a real space or a captured image of a real space that is visually recognized by a user through a display unit of a portable display device in a predetermined real space. A data structure for creating a mixed reality environment for superimposing and drawing a three-dimensional virtual object, and acquiring images from a plurality of fixed points capable of photographing an area in the predetermined real space. 3D constituting 3D space data created based on 2D coordinate data indicating the position information of each pixel of the acquired image and the point cloud data of the real object in the predetermined real space And a three-dimensional coordinate data indicating three-dimensional position information of the three-dimensional shape element associated with each of the pixels.

このように構成された本発明によれば、データ構造は、仮想空間において実オブジェクトを含む所定の実空間を表現する3次元空間データを構成する3次元形状要素の位置情報と、画像取得装置(例えば固定カメラ)により取得された画像のそれぞれのピクセルの位置情報とを関連付けたテーブルを含むものである。このようなテーブルを用いることにより、3次元形状要素の色情報を固定カメラ等により取得された画像のピクセルの色情報から決定し、また更新することが可能となる。   According to the present invention configured as described above, the data structure includes the position information of the three-dimensional shape element constituting the three-dimensional space data representing the predetermined real space including the real object in the virtual space, and the image acquisition device ( For example, it includes a table that associates position information of each pixel of an image acquired by a fixed camera. By using such a table, it is possible to determine and update the color information of the three-dimensional shape element from the color information of the pixels of the image acquired by a fixed camera or the like.

本発明によれば、複合現実環境において実空間の環境をリアルタイムに認識することができる。   According to the present invention, the real space environment can be recognized in real time in the mixed reality environment.

本発明の一実施形態によるシステムの全体構成図である。1 is an overall configuration diagram of a system according to an embodiment of the present invention. 本発明の一実施形態による現実世界の光の状態を利用したグローバルイルミネーションの概要を示す図である。It is a figure which shows the outline | summary of the global illumination using the light state of the real world by one Embodiment of this invention. 本発明の一実施形態によるポジショントラッキングの概要を示す図である。It is a figure which shows the outline | summary of the position tracking by one Embodiment of this invention. 本発明の一実施形態によるサーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the server by one Embodiment of this invention. 本発明の一実施形態による表示装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the display apparatus by one Embodiment of this invention. 本発明の一実施形態による実空間の概観図である。1 is an overview of real space according to an embodiment of the present invention. 図6aの実空間を上から見た平面図である。It is the top view which looked at real space of Drawing 6a from the top. 図6aの実空間において取得された点群データにより表現された3次元空間データである。It is the three-dimensional space data expressed by the point cloud data acquired in the real space of FIG. 6a. 図6cの点群データから作成されたボクセルにより表現された3次元空間データである。It is the three-dimensional space data expressed by the voxel created from the point cloud data of FIG. 6c. 本発明の一実施形態によるシステムの機能ブロック図である。It is a functional block diagram of the system by one Embodiment of this invention. 本発明の一実施形態による、固定カメラにより取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示すボクセルの3次元位置情報との関連付けを説明する図である。It is a figure explaining the correlation with the positional information of each pixel of the image acquired by the fixed camera, and the three-dimensional positional information of the voxel which each pixel shows by one Embodiment of this invention. 本発明の一実施形態による、ユーザの向いている方向と撮影部203の撮影方向を説明する図である。It is a figure explaining the direction which the user is facing, and the imaging direction of the imaging | photography part 203 by one Embodiment of this invention. 本発明の一実施形態による、実空間の環境を仮想空間にリアルタイムに反映する複合現実環境を作成する方法を示す図である。FIG. 3 is a diagram illustrating a method for creating a mixed reality environment that reflects an environment in real space in a virtual space in real time according to an embodiment of the present invention; 図10で作成した複合現実環境において、ユーザに複合現実感を体感させることが可能な、実空間の光の状態を利用したグローバルイルミネーションとユーザの高精度なポジショントラッキングを提供する方法を示す図である。FIG. 11 is a diagram illustrating a method for providing global illumination using a light state in real space and high-accuracy position tracking of a user, in which the user can experience mixed reality in the mixed reality environment created in FIG. 10. is there. 本発明の一実施形態による実空間の概観図である。1 is an overview of real space according to an embodiment of the present invention.

以下、図面を参照して、本発明の実施形態による、ユーザに対して仮想空間と現実空間とを融合した複合現実空間を提供するためのシステムについて説明する。   Hereinafter, a system for providing a mixed reality space in which a virtual space and a real space are fused to a user according to an embodiment of the present invention will be described with reference to the drawings.

本発明の実施形態によるシステムの技術的特徴の1つは、実空間と極めて高い精度で一致する構造及び色彩を有する高精度の3次元仮想空間を生成することである。これにより、(1)現実世界の光の状態を利用したグローバルイルミネーションを実現することや、(2)ユーザの高精度なポジショントラッキングを実現することが可能となる。   One of the technical features of the system according to the embodiment of the present invention is to generate a high-precision three-dimensional virtual space having a structure and color that match the real space with extremely high accuracy. As a result, (1) it is possible to realize global illumination using light conditions in the real world, and (2) it is possible to realize highly accurate position tracking of the user.

(1)現実世界の光の状態を利用したグローバルイルミネーションの概要について説明する。本発明の実施形態によるシステムは、ゲーム・キャラクタのように、画面上のごく一部だけをコンピュータグラフィックス(CG)が占めるMR環境の運用形態を想定している。例えば、図2では、実空間の光源21により実空間の建物22から生じる影23の中に、仮想空間の存在である仮想オブジェクト(すなわちCG)であるキャラクタ24が入ると、その場所の暗さに(明るさ)に応じて、キャラクタ24画像の明度を変更する。本発明の実施形態によるシステムは、このキャラクタ画像の明度を、建物と床の3次元空間データ(例えば、3Dメッシュやボクセル)の色情報の明度から算出し、レンダリングすることにより、現実世界の光の状態とマッチしたキャラクタ表示を実現する。   (1) An outline of global illumination using light conditions in the real world will be described. The system according to the embodiment of the present invention assumes an operation mode of an MR environment where computer graphics (CG) occupies only a small part on the screen, such as a game character. For example, in FIG. 2, when a character 24 that is a virtual object (that is, CG) that is the existence of a virtual space enters a shadow 23 generated from a building 22 in the real space by the light source 21 in the real space, the darkness of the place The brightness of the character 24 image is changed according to the (brightness). The system according to the embodiment of the present invention calculates the lightness of the character image from the lightness of the color information of the three-dimensional space data (for example, 3D mesh and voxel) of the building and the floor, and renders the light in the real world. The character display that matches the state of is realized.

(2)ユーザの高精度なポジショントラッキングの概要について説明する。図3は、ユーザがいる現実世界31と、3次元空間データ(DB)により構築される仮想世界32と、これらをマッチングして生成された複合現実世界(MR環境)33とを示す。MR環境33において、一般的にユーザはHMD等の表示部を有する装置を装着する。HMDには各種センサ機器が搭載されているが、現実世界31の構造を高精度に認識してそれを仮想空間32に反映するMR環境33を実現するためには、従来使用されるセンサの計測精度では十分ではない。   (2) An outline of highly accurate position tracking of the user will be described. FIG. 3 shows a real world 31 in which a user is present, a virtual world 32 constructed by three-dimensional space data (DB), and a mixed real world (MR environment) 33 generated by matching them. In the MR environment 33, a user generally wears a device having a display unit such as an HMD. Various sensor devices are installed in the HMD. In order to realize the MR environment 33 that recognizes the structure of the real world 31 with high accuracy and reflects it in the virtual space 32, measurement of sensors conventionally used is performed. Accuracy is not enough.

そこで、本発明の実施形態によるシステムは、従来使用される各種センサ(例えば、距離センサ、画像センサ、方向センサ、GPSセンサ、Bluetooth(登録商標)ビーコン)から得られる大まかな位置情報と高精度の仮想空間32とのマッチングを行い、実空間31と仮想空間32におけるユーザの位置やユーザの向いている方向のずれをリアルタイムに補正する。これにより、現実と高精度にリンクするMR環境33を実現し、ポジショントラッキングを実現する。このようなMR環境33においては、仮想世界32で仮想オブジェクトの台26の上にキャラクタ24を立たせる場合、ユーザは現実世界31の台25の上に違和感なくキャラクタ24が立っていることを視認することができる。   In view of this, the system according to the embodiment of the present invention provides rough position information obtained from various sensors conventionally used (for example, a distance sensor, an image sensor, a direction sensor, a GPS sensor, a Bluetooth (registered trademark) beacon) and high-precision Matching with the virtual space 32 is performed, and the deviation of the position of the user and the direction in which the user is facing in the real space 31 and the virtual space 32 is corrected in real time. As a result, an MR environment 33 that links the reality with high accuracy is realized, and position tracking is realized. In such an MR environment 33, when the character 24 stands on the virtual object platform 26 in the virtual world 32, the user visually recognizes that the character 24 stands on the platform 25 in the real world 31 without a sense of incongruity. can do.

上記のような本発明の実施形態によるシステムは、予め定められた実空間(所定の実空間)において実現する。本発明の実施形態によるシステムは、所定の実空間内にある建物やベンチ等の実オブジェクトの状態を認識し、高精度3次元空間を生成する生成フェーズと、所定の実空間内にいるユーザに複合現実感を体感させるために、実空間上の光の状態を認識し、高精度3次元空間に写像する認識フェーズとを含んで構成される。以下に具体的な構成を説明する。   The system according to the embodiment of the present invention as described above is realized in a predetermined real space (predetermined real space). A system according to an embodiment of the present invention recognizes the state of a real object such as a building or a bench in a predetermined real space, generates a high-precision three-dimensional space, and allows a user in the predetermined real space to In order to experience mixed reality, it is configured to include a recognition phase in which the state of light in real space is recognized and mapped to a high-precision three-dimensional space. A specific configuration will be described below.

[システム構成]
図1は、本発明の実施形態によるシステム10の全体構成図の一例である。図1に示すように、システム10は、サーバ100と、1又は複数の表示装置200と、1又は複数の画像取得装置300とを含む。サーバ100、表示装置200、及び画像取得装置300は、インターネットなどのネットワーク50に接続され、互いに通信可能である。
[System configuration]
FIG. 1 is an example of an overall configuration diagram of a system 10 according to an embodiment of the present invention. As shown in FIG. 1, the system 10 includes a server 100, one or more display devices 200, and one or more image acquisition devices 300. The server 100, the display device 200, and the image acquisition device 300 are connected to a network 50 such as the Internet and can communicate with each other.

システム10は、サーバ‐クライアントシステムを想定しており、好ましくは、表示装置200と画像取得装置300は、サーバ100とのみ通信を行う。ただし、PtoPのようなサーバのないシステムで構成することもできる。   The system 10 is assumed to be a server-client system. Preferably, the display device 200 and the image acquisition device 300 communicate only with the server 100. However, it can be configured by a system without a server such as PtoP.

システム10は、所定の実空間内にいるユーザに対して、複合現実感を体感させることができるものである。所定の実空間は、予め定められた屋内又は屋外の実空間であり、該空間内には、現実世界におけるオブジェクトである実オブジェクトが存在する。実オブジェクトは、例えば建物、ベンチ、壁などの構造物であり、実空間内に固定されたものである。ただし、移動可能な物を実オブジェクトに含めてもよい。   The system 10 can allow a user in a predetermined real space to experience mixed reality. The predetermined real space is a predetermined indoor or outdoor real space, and a real object that is an object in the real world exists in the space. The real object is a structure such as a building, a bench, or a wall, and is fixed in the real space. However, a movable object may be included in the real object.

図4は本発明の実施形態によるサーバ100のハードウェア構成を示すブロック図である。サーバ100は、処理部101、表示部102、入力部103、記憶部104及び通信部105を備える。これらの各構成部はバス110によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。   FIG. 4 is a block diagram showing a hardware configuration of the server 100 according to the embodiment of the present invention. The server 100 includes a processing unit 101, a display unit 102, an input unit 103, a storage unit 104, and a communication unit 105. Each of these components is connected by the bus 110, but may be individually connected as necessary.

処理部101は、サーバ100が備える各部を制御するプロセッサ(例えばCPU)を備えており、記憶部104をワーク領域として各種処理を行う。サーバ100が仮想オブジェクトを描画する場合、処理部101は、CPUとは別に、描画処理を行うGPUを備えるのが好ましい。表示部102はサーバ使用者に情報を表示する機能を有する。入力部103はキーボードやマウス等のようにサーバ使用者からの入力を受け付ける機能を有するものである。   The processing unit 101 includes a processor (for example, a CPU) that controls each unit included in the server 100, and performs various processes using the storage unit 104 as a work area. When the server 100 draws a virtual object, the processing unit 101 preferably includes a GPU that performs drawing processing separately from the CPU. The display unit 102 has a function of displaying information to the server user. The input unit 103 has a function of receiving input from the server user, such as a keyboard and a mouse.

記憶部104は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラムが記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部104には、プログラムや当該プログラムの実行に伴って参照され得る各種データが記憶される。処理部101がGPUを備える場合、記憶部104はビデオメモリを含むことができる。   The storage unit 104 includes a hard disk, a main memory, and a buffer memory. A program is stored in the hard disk. However, the hard disk may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable. The storage unit 104 stores a program and various data that can be referred to when the program is executed. When the processing unit 101 includes a GPU, the storage unit 104 can include a video memory.

1つの例では、プログラムは、ユーザの位置・向き・アクションに対して、表示装置200を通して仮想オブジェクトを表示・移動させるための1又は複数のプログラムであり、各種データは描画する3Dキャラクタ等の仮想オブジェクトデータを含む。   In one example, the program is one or a plurality of programs for displaying / moving a virtual object through the display device 200 according to the position / orientation / action of the user, and various data are virtual such as a 3D character to be drawn. Contains object data.

記憶部104は各種データベース用のデータ(例えばテーブル)やプログラムを記憶することができる。処理部101の動作などにより、各種データベースは実現される。例えば、サーバ100は、データベースサーバ機能を備えることもできるし、データベースサーバを含むこともできるし、又は他のサーバを含む若しくは備えることもできる。   The storage unit 104 can store data (for example, tables) and programs for various databases. Various databases are realized by the operation of the processing unit 101 and the like. For example, the server 100 may have a database server function, may include a database server, or may include or include other servers.

通信部105はイーサネット(登録商標)ケーブル等を用いた有線通信や移動体通信、無線LAN等の無線通信を行い、ネットワーク50へ接続する。   The communication unit 105 performs wired communication using an Ethernet (registered trademark) cable, mobile communication, wireless communication such as a wireless LAN, and connects to the network 50.

サーバ100は、プログラムが実行されることによって様々な機能が実現されるが、これらの機能の一部は電子回路等を構成することによっても実現できる。   The server 100 realizes various functions by executing a program, but some of these functions can also be realized by configuring an electronic circuit or the like.

1つの例では、サーバ100が描画する場合、CPUはメインメモリに描画コマンドを書き込み、GPUは描画コマンドを参照してビデオメモリ上のフレームバッファに描画データを書き込む。その後、フレームバッファから読み取ったデータをそのまま表示装置200に送信する。   In one example, when the server 100 draws, the CPU writes a drawing command to the main memory, and the GPU refers to the drawing command and writes the drawing data to the frame buffer on the video memory. Thereafter, the data read from the frame buffer is transmitted to the display device 200 as it is.

1つの例では、サーバ100は、機能やエリアごとに設置された複数のサーバを組み合わせて構成される。例えば、所定の実空間を複数のエリアに分割し、各エリアに1台のサーバを設置するとともに、それらのサーバを統合するサーバを設置する構成とすることもできる。   In one example, the server 100 is configured by combining a plurality of servers installed for each function or area. For example, a predetermined real space may be divided into a plurality of areas, and one server may be installed in each area, and a server that integrates these servers may be installed.

図5は本発明の実施形態による表示装置200のハードウェア構成を示すブロック図である。表示装置200は、処理部201と、表示部202と、撮影部203と、記憶部204と、通信部205と、位置姿勢センサ206とを備える。これらの各構成部はバス210によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。   FIG. 5 is a block diagram showing a hardware configuration of the display device 200 according to the embodiment of the present invention. The display device 200 includes a processing unit 201, a display unit 202, a photographing unit 203, a storage unit 204, a communication unit 205, and a position / orientation sensor 206. Each of these components is connected by the bus 210, but each may be individually connected as necessary.

処理部201は、表示装置200が備える各部を制御するプロセッサ(例えばCPU)を備えており、記憶部204をワーク領域として各種処理を行う。表示装置200が描画する場合、処理部201は、CPUとは別に、描画処理を行うGPUを備えるのが好ましい。1つの例では、表示装置200はサーバ100から描画コマンドを受信し、描画処理を行う。   The processing unit 201 includes a processor (for example, a CPU) that controls each unit included in the display device 200, and performs various processes using the storage unit 204 as a work area. When the display device 200 performs rendering, the processing unit 201 preferably includes a GPU that performs rendering processing separately from the CPU. In one example, the display device 200 receives a drawing command from the server 100 and performs a drawing process.

記憶部204は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラムが記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部204には、プログラムや当該プログラムの実行に伴って参照され得る各種のデータが記憶される。更に記憶部204は各種データベース用のデータやプログラムを記憶することができる。処理部201の動作などにより、各種データベースは実現される。処理部201がGPUを備える場合、記憶部204はビデオメモリを含むことができる。   The storage unit 204 includes a hard disk, a main memory, and a buffer memory. A program is stored in the hard disk. However, the hard disk may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable. The storage unit 204 stores a program and various types of data that can be referred to when the program is executed. Furthermore, the storage unit 204 can store data and programs for various databases. Various databases are realized by the operation of the processing unit 201 and the like. When the processing unit 201 includes a GPU, the storage unit 204 can include a video memory.

表示部202は、ユーザに対して仮想オブジェクトを表示する透過型ディスプレイ、半透過型ディスプレイ、又は非透過型ディスプレイである。   The display unit 202 is a transmissive display, a transflective display, or a non-transmissive display that displays a virtual object to the user.

撮影部203は、実空間を撮影するもので、撮影した各フレームの画像(現実世界の画像)を、例えば記憶部204に格納する。撮影部203が撮影する領域は、表示装置200を携帯した又は装着したユーザの視界領域と同じであることが好ましい。   The imaging unit 203 captures a real space, and stores the captured image of each frame (real world image) in the storage unit 204, for example. The area captured by the imaging unit 203 is preferably the same as the field of view of the user carrying or wearing the display device 200.

表示装置200は、ユーザが携帯可能なものであり、好ましくは、頭部に装着可能な頭部搭載型画像表示装置(HMD)である。以下、本実施形態においては、表示装置200としてHMD200を用いるものとする。HMD200は、光学シースルー型HMDとビデオシースルー型HMDとを含む。   The display device 200 is portable by the user, and is preferably a head-mounted image display device (HMD) that can be worn on the head. Hereinafter, in the present embodiment, the HMD 200 is used as the display device 200. The HMD 200 includes an optical see-through HMD and a video see-through HMD.

光学シースルー型HMDは、透過型ディスプレイの表示部202を備え、HMDを装着するユーザに対して表示部202を通して実空間を視認させるとともに、表示部202に仮想オブジェクトを重畳して描画することで、複合現実画像を提供する。   The optical see-through type HMD includes a display unit 202 of a transmissive display, allows a user wearing the HMD to visually recognize the real space through the display unit 202, and draws a virtual object superimposed on the display unit 202. Provide mixed reality images.

ビデオシースルー型HMDは、非透過型ディスプレイの表示部202を備え、HMDを装着するユーザに対して表示部202を通して実空間の撮影画像を視認させるとともに、表示部202に仮想オブジェクトを重畳して描画することで、複合現実画像を提供する。   The video see-through type HMD includes a display unit 202 of a non-transparent display, allows a user wearing the HMD to visually recognize a captured image of real space through the display unit 202, and superimposes a virtual object on the display unit 202 for drawing. To provide a mixed reality image.

ただし表示装置200は、ユーザが手で保持するタイプの表示装置(Hand Held Display)であってもよい。   However, the display device 200 may be a display device (Hand Held Display) of a type that is held by a user's hand.

位置姿勢センサ206は、GPS、ジャイロセンサ、及び加速度計を含み、大まかな表示装置の位置及び表示装置の撮影部203が撮影する方向(又は表示部202が向く方向)をリアルタイムに決定する。従来使用される他の各種センサを含んでいてもよい。   The position and orientation sensor 206 includes a GPS, a gyro sensor, and an accelerometer, and determines a rough position of the display device and a direction in which the photographing unit 203 of the display device photographs (or a direction in which the display unit 202 faces) in real time. Various other sensors conventionally used may be included.

通信部205は移動体通信、無線LAN等の無線通信を行い、ネットワーク50へ接続する。1つの例では、通信部205は、撮影部203が撮影した画像データを、ネットワーク50を介してサーバ100に送信する。   The communication unit 205 performs wireless communication such as mobile communication and wireless LAN, and connects to the network 50. In one example, the communication unit 205 transmits image data captured by the imaging unit 203 to the server 100 via the network 50.

画像取得装置300は、実空間の映像(画像)を取得し、取得された画像データを、ネットワーク50を介してサーバ100や表示装置200に送信する。また画像取得装置300は、所定の実空間を取り囲み、所定の実空間内にいるユーザが視認可能な領域を撮影可能な定点に固定して設置される。   The image acquisition device 300 acquires a real space video (image) and transmits the acquired image data to the server 100 and the display device 200 via the network 50. In addition, the image acquisition device 300 is installed so as to surround a predetermined real space and fix a region visible to the user in the predetermined real space to a fixed point that can be photographed.

1つの例では、画像取得装置300は、定点に設置される固定カメラである。また1つの例では、画像取得装置300は1秒間に30コマの画像を取得し、サーバ100に送信する。以下、本実施形態においては、画像取得装置300として固定カメラ300を用いるものとする。   In one example, the image acquisition device 300 is a fixed camera installed at a fixed point. In one example, the image acquisition device 300 acquires 30 frames of images per second and transmits them to the server 100. Hereinafter, in this embodiment, the fixed camera 300 is used as the image acquisition device 300.

[第1の実施形態]
本発明の実施形態によるシステム10が複合現実環境43をユーザに提供する現実世界の空間(所定の実空間)として、図6に示すような壁27に覆われた屋内の空間である実空間41を想定する。図6aは実空間41の概観図、図6bは実空間41を上から見た平面図である。実空間41内には、現実世界の光源21及び現実世界の実オブジェクトである建物22が存在する。図6に示すように、実空間41においては、観測対象となる空間、すなわち実空間41内にいるユーザが視認可能な空間を撮影できるように、複数の固定カメラ300が配置される。
[First Embodiment]
As a real-world space (predetermined real space) in which the system 10 according to the embodiment of the present invention provides the mixed reality environment 43 to the user, a real space 41 that is an indoor space covered with a wall 27 as shown in FIG. Is assumed. 6A is an overview of the real space 41, and FIG. 6B is a plan view of the real space 41 as viewed from above. In the real space 41, there are a light source 21 in the real world and a building 22 that is a real object in the real world. As shown in FIG. 6, in the real space 41, a plurality of fixed cameras 300 are arranged so that a space to be observed, that is, a space visible to the user in the real space 41 can be photographed.

本発明の実施形態においては、例えば高精度なレーザスキャナ(図示せず)を用いることにより、実空間41内の実オブジェクトの3次元形状を示す点群データを予め取得する。点群データの取得は、実空間41内に固定カメラ300が設置された後に行われるのが好適であり、また点群データ取得と同時に固定カメラ300の画像データを取得するのが好適である。ただし、レーザスキャナを用いて点群データを取得した後に固定カメラ300を設置してもよい。図6cは、実空間41において取得された点群データにより表現された3次元空間データの例を示す。   In the embodiment of the present invention, point cloud data indicating the three-dimensional shape of a real object in the real space 41 is acquired in advance by using, for example, a high-precision laser scanner (not shown). The acquisition of the point cloud data is preferably performed after the fixed camera 300 is installed in the real space 41, and the image data of the fixed camera 300 is preferably acquired simultaneously with the acquisition of the point cloud data. However, the fixed camera 300 may be installed after the point cloud data is acquired using a laser scanner. FIG. 6 c shows an example of three-dimensional space data represented by point cloud data acquired in the real space 41.

図6cに示すように、点群データのそれぞれは、3次元座標(x、y、z)を有し、実空間41に対応付けられた仮想空間42内に配置される。また点群データのそれぞれは、色情報を有する色付き点群データである。色付き点群データは、レーザスキャナが備えるカメラを用いて点群データ取得とは別に撮影された画像から求めた色情報を、撮影時のカメラの位置や姿勢に応じて点群の各座標点(x、y、z)にマッピングすることにより、作成される。   As shown in FIG. 6 c, each of the point group data has three-dimensional coordinates (x, y, z) and is arranged in a virtual space 42 associated with the real space 41. Each of the point cloud data is colored point cloud data having color information. Colored point cloud data is obtained by obtaining color information obtained from an image taken separately from the point cloud data acquisition using a camera included in the laser scanner, according to each coordinate point ( x, y, z).

このように実空間41に対応付けされた仮想空間42において実オブジェクトの3次元形状を表すものとして、点群データを基本単位(基本構成要素)として用いることにより、3次元空間データを構成することができる。本明細書においては、この基本単位を3次元形状要素と表現する。   In this way, three-dimensional space data is constructed by using point cloud data as a basic unit (basic component) as a representation of the three-dimensional shape of a real object in the virtual space 42 associated with the real space 41. Can do. In this specification, this basic unit is expressed as a three-dimensional shape element.

本発明の実施形態では、説明を簡単にするため、取得された点群データを、例えばOctoMap("OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees" in Autonomous Robots, 2013; A.Hornung,. K.M. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard (http://dx.doi.org/10.1007/s10514-012-9321-0) DOI: 10.1007/s10514-012-9321-0.)等の既知の手法を用いて、ボクセルと呼ばれるデータ構造へ変換する。ボクセルは、2次元空間のピクセルに対応する3次元空間の単位構成要素であり、3次元空間上の座標を用いて識別される一定の大きさを持つ立方体である。   In the embodiment of the present invention, for ease of explanation, the acquired point cloud data is converted into, for example, OctoMap (“OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees” in Autonomous Robots, 2013; A. Hornung,. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard (http://dx.doi.org/10.1007/s10514-012-9321-0) DOI: 10.1007 / s10514-012-9321-0.) Using a known method, it is converted into a data structure called a voxel. A voxel is a unit component in a three-dimensional space corresponding to a pixel in the two-dimensional space, and is a cube having a certain size that is identified using coordinates in the three-dimensional space.

第1の実施形態において、以下では実空間41に対応付けされた仮想空間42において実オブジェクトの3次元形状を表す3次元空間データは、ボクセルから構成されるものとする。この場合、ボクセルが3次元空間データの3次元形状要素である。図6dは、図6cの点群データから作成されたボクセルにより表現された3次元空間データを示す。ただし、後述するように3次元形状要素としてメッシュ(3Dメッシュ)を用いることもできるし、点群データそのものを3次元形状要素として用いることもできる。   In the first embodiment, hereinafter, it is assumed that the three-dimensional space data representing the three-dimensional shape of the real object in the virtual space 42 associated with the real space 41 is composed of voxels. In this case, the voxel is a three-dimensional shape element of the three-dimensional space data. FIG. 6d shows three-dimensional spatial data represented by voxels created from the point cloud data of FIG. 6c. However, as described later, a mesh (3D mesh) can be used as the three-dimensional shape element, or the point cloud data itself can be used as the three-dimensional shape element.

本発明の実施形態では、例えば実空間を1cm3のボクセル枠に分割し、ボクセル空間(ボクセルにより表現された3次元空間)を設定する。1つのボクセルVは、位置情報x、y、zに加え、固定カメラ300から見たときの1又は複数の色情報cを持つ。

Figure 0006134874
色情報cは、RGBやHSV等のフォーマットで表現される。例えばHSVのフォーマットで表現される場合、色情報は、色相、彩度、及び明度を有する。 In the embodiment of the present invention, for example, a real space is divided into 1 cm 3 voxel frames, and a voxel space (a three-dimensional space expressed by voxels) is set. One voxel V has one or more color information c when viewed from the fixed camera 300 in addition to the position information x, y, z.
Figure 0006134874
The color information c is expressed in a format such as RGB or HSV. For example, when expressed in the HSV format, the color information includes hue, saturation, and brightness.

また本発明の実施形態においては、仮想空間42を実空間41内に対応付けされた領域(0≦X≦X1、0≦Y≦Y1、0≦Z≦Z1)に限定して考えるものとする。ただし、仮想空間42をより小さい領域に設定して、複数の仮想空間をそれぞれ実空間41と対応付けることもできるし、仮想空間42をより大きい領域に設定することもできる。仮想空間42をより小さい領域に設定する場合、それぞれの仮想空間42に対応する実空間41内において、ユーザが視認可能な領域を撮影可能な複数の定点にそれぞれ固定カメラ300が設置される。   In the embodiment of the present invention, the virtual space 42 is considered to be limited to a region (0 ≦ X ≦ X1, 0 ≦ Y ≦ Y1, 0 ≦ Z ≦ Z1) associated with the real space 41. . However, the virtual space 42 can be set to a smaller area, and a plurality of virtual spaces can be associated with the real space 41, respectively, or the virtual space 42 can be set to a larger area. When the virtual space 42 is set to a smaller area, the fixed camera 300 is installed at each of a plurality of fixed points that can shoot an area visible to the user in the real space 41 corresponding to each virtual space 42.

1つの例では、実空間41が広域の空間である場合、仮想空間42を複数のエリアごとに設定し、サーバ100も複数のエリアごとに設置するのが好適である。例えば、サーバ100の記憶部104がボクセルデータを記憶する場合、式(1)の1つのボクセルVは、1 voxel = (int16 x, int16 y, int16 z, int32 rgb)とすると、10 byteとなる。実空間を10mm3のボクセルの集合としてモデル化するとき、1000mm3 = 100万voxelとなり、約10Mbyteとなる。テーマパークのように広域の空間を高精度ボクセル空間に変換する場合は、このテーマパーク領域を、10m=10,000mmのグリッドに分割すると、1グリッドは、10,000m3なので、約10億voxelとなる。これを、高さ5mまでの空間に縮退させると、約5億voxelとなる。すなわち、5億voxelをそのままナイーブにメモリ上に確保しても、5GByteで格納できるため、グリッドごとにサーバを割り当て、オンメモリ化することは容易である。 In one example, when the real space 41 is a wide area, it is preferable that the virtual space 42 is set for each of a plurality of areas, and the server 100 is also installed for each of the plurality of areas. For example, when the storage unit 104 of the server 100 stores voxel data, one voxel V in Expression (1) becomes 10 bytes if 1 voxel = (int16 x, int16 y, int16 z, int32 rgb). . When the real space is modeled as a set of 10 mm 3 voxels, 1000 mm 3 = 1 million voxel, which is about 10 Mbytes. When converting a broad space as a theme park with high accuracy voxel space, the theme park area, when divided into a grid of 10 m = 10,000 mm, 1 grid, so 10,000 m 3, a 1 billion voxel . If this is reduced to a space up to 5m high, it will be about 500 million voxel. That is, even if 500 million voxel is secured in memory as it is, it can be stored in 5 GByte, so it is easy to allocate a server for each grid and make it on-memory.

図7は本発明の実施形態によるシステムの機能ブロック図を示す。システム10は、記憶手段11と、3次元空間データ作成手段12と、テーブル作成手段13と、色情報決定手段14と、色情報更新手段15と、仮想照明情報生成手段16と、ユーザ環境取得手段17と、描画手段18と、を備える。   FIG. 7 shows a functional block diagram of a system according to an embodiment of the present invention. The system 10 includes a storage unit 11, a three-dimensional space data generation unit 12, a table generation unit 13, a color information determination unit 14, a color information update unit 15, a virtual illumination information generation unit 16, and a user environment acquisition unit. 17 and the drawing means 18.

これらの機能は、プログラムをサーバ100に実行させることで実現されるか、プログラムをHMD200に実行させることで実現されるか、又はプログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現される。このように各種機能がプログラム読み込みにより実現されるため、1つの手段の一部の機能を他の手段が有していてもよい。このように、サーバ100及びHMD200の少なくとも一方が図7に示す各種機能を備えることにより、本システムは実現される。   These functions are realized by causing the server 100 to execute the program, realized by causing the HMD 200 to execute the program, or causing the server 100 to execute the program and causing the HMD 200 to execute the program. Realized. As described above, since various functions are realized by reading a program, other means may have a part of the functions of one means. As described above, this system is realized by providing at least one of the server 100 and the HMD 200 with the various functions illustrated in FIG. 7.

記憶手段11は、サーバ100及びHMD200の双方が備え、プログラムやデータ等を記憶部104又は204へ格納する機能を有する。1つの例では、サーバ100が備える記憶手段11は、仮想空間42に配置される仮想オブジェクトの位置や動きに関するデータや仮想オブジェクトの3次元データを記憶部104へ記憶し、HMD200が備える記憶手段11は、サーバ100から受信する描画コマンドを一時的に記憶部204へ記憶し、描画処理を行う。他の例では、記憶手段11は、各種データベースへのデータ入出力を行う。   The storage unit 11 is provided in both the server 100 and the HMD 200 and has a function of storing programs, data, and the like in the storage unit 104 or 204. In one example, the storage unit 11 included in the server 100 stores, in the storage unit 104, data related to the position and movement of a virtual object placed in the virtual space 42, and three-dimensional data of the virtual object, and the storage unit 11 included in the HMD 200. Temporarily stores the drawing command received from the server 100 in the storage unit 204 and performs a drawing process. In another example, the storage means 11 performs data input / output to / from various databases.

3次元空間データ作成手段12は、実空間41に対応付けされた仮想空間42において実オブジェクトの3次元形状を示す点群データをボクセルへ変換することで、3次元空間データ(3次元ボクセルデータ)を作成する。   The three-dimensional space data creation unit 12 converts the point cloud data indicating the three-dimensional shape of the real object into voxels in the virtual space 42 associated with the real space 41, thereby obtaining three-dimensional space data (three-dimensional voxel data). Create

ここで点群データは色付き点群データであるため、作成されるボクセルは色付きボクセルとなる。またそれぞれのボクセルは、3次元位置情報を有する。例えば、仮想空間に設定された3次元座標の原点から最も近い立方体の頂点の3次元座標(x、y、z)を3次元位置情報として有する。   Here, since the point cloud data is colored point cloud data, the created voxel is a colored voxel. Each voxel has three-dimensional position information. For example, the three-dimensional position information includes the three-dimensional coordinates (x, y, z) of the cube vertex closest to the origin of the three-dimensional coordinates set in the virtual space.

3次元空間データ作成手段12は、サーバ100が備えるのが好適である。ただし、3次元空間データが予め作成され、記憶部104等に記憶されている場合、システム10は、3次元空間データ作成手段12を備えていなくてもよい。   It is preferable that the server 100 is provided with the three-dimensional spatial data creation means 12. However, when the three-dimensional spatial data is created in advance and stored in the storage unit 104 or the like, the system 10 may not include the three-dimensional spatial data creation unit 12.

サーバ100が備える記憶手段11は、作成された3次元空間データを記憶部104へ記憶する3次元空間データ記憶手段を含む。1つの例では、サーバ100はデータベースサーバ機能を有し、3次元位置情報に関する照会に応じて、サーバ100は記憶された3次元空間データを適宜出力する。ただし、HMD200が備える記憶手段11が、3次元空間データを記憶部204へ記憶する3次元空間データ記憶手段を含むこともできる。   The storage unit 11 included in the server 100 includes a three-dimensional spatial data storage unit that stores the created three-dimensional spatial data in the storage unit 104. In one example, the server 100 has a database server function, and the server 100 appropriately outputs stored three-dimensional spatial data in response to an inquiry regarding three-dimensional position information. However, the storage unit 11 included in the HMD 200 can also include a three-dimensional spatial data storage unit that stores the three-dimensional spatial data in the storage unit 204.

テーブル作成手段13は、固定カメラ300により取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数のボクセルの3次元位置情報とを関連付けてテーブルを作成する。これについては、図8を用いて説明する。   The table creation means 13 creates a table by associating the position information of each pixel of the image acquired by the fixed camera 300 with the three-dimensional position information of one or a plurality of voxels indicated by each pixel. This will be described with reference to FIG.

図8に示すように、固定カメラ300のうちの1つの固定カメラ300aにより取得された画像の任意の1つのピクセル(x、y)は、実空間において実オブジェクトの微小領域を映し出す。この映し出された微小領域は、ボクセル空間における複数のボクセル(x、y、z)に対応するものである。ただし、任意の1つのピクセルが1つのボクセルに対応する場合もある。   As shown in FIG. 8, any one pixel (x, y) of an image acquired by one fixed camera 300 a of the fixed cameras 300 projects a minute area of the real object in the real space. The projected micro area corresponds to a plurality of voxels (x, y, z) in the voxel space. However, any one pixel may correspond to one voxel.

ここで、前述のとおり、それぞれのボクセルは色情報を有する。また固定カメラ300は定められたポイントに固定されるものであり、固定カメラ300の仮想空間42における3次元位置情報は、3次元空間データとして記憶されている。例えば図6cに示すように、固定カメラ300という実オブジェクトの3次元形状を示す点群データを予め取得することにより、固定カメラ300の3次元座標は、3次元空間データとして記憶されている。   Here, as described above, each voxel has color information. The fixed camera 300 is fixed to a predetermined point, and the three-dimensional position information of the fixed camera 300 in the virtual space 42 is stored as three-dimensional space data. For example, as shown in FIG. 6c, by acquiring in advance point cloud data indicating the three-dimensional shape of a real object called the fixed camera 300, the three-dimensional coordinates of the fixed camera 300 are stored as three-dimensional space data.

したがって、ボクセル(点群データ)の3次元位置情報及び色情報と、固定カメラ300により撮影された画像データとを比較することにより、画像データのそれぞれのピクセルの位置情報(2次元座標)と、そのピクセルが示す実オブジェクトの微小領域に対応するボクセルの位置情報(3次元座標)とを関連付けることができる。テーブル作成手段13は、このようにして固定カメラ300の撮影する画像のピクセルの位置情報と、それぞれのピクセルが示すボクセルの3次元位置情報とを関連付けてテーブルを作成する。1つの例では、当該関連付けは、3次元空間データにおけるボクセルの3次元位置情報及び色情報と、固定カメラ300により撮影された画像データの位置情報及び色情報との類似性を用いて行う。   Therefore, by comparing the three-dimensional position information and color information of the voxel (point cloud data) with the image data captured by the fixed camera 300, the position information (two-dimensional coordinates) of each pixel of the image data, The position information (three-dimensional coordinates) of the voxel corresponding to the minute area of the real object indicated by the pixel can be associated. In this way, the table creation unit 13 creates a table by associating the position information of the pixels of the image captured by the fixed camera 300 with the three-dimensional position information of the voxel indicated by each pixel. In one example, the association is performed using similarity between the three-dimensional position information and color information of the voxel in the three-dimensional space data and the position information and color information of the image data captured by the fixed camera 300.

またこのような関連付けを行うことにより、固定カメラ300の3次元位置情報と撮影する方向(例えば6DOF座標)を高精度に決定することができる。   In addition, by performing such association, the three-dimensional position information of the fixed camera 300 and the shooting direction (for example, 6 DOF coordinates) can be determined with high accuracy.

テーブル作成手段13は、サーバ100が備えるのが好適である。ただし、テーブルデータが予め作成され、記憶部104等に記憶されている場合、システム10は、テーブル作成手段13を備えていなくてもよい。   The table creation means 13 is preferably provided in the server 100. However, when table data is created in advance and stored in the storage unit 104 or the like, the system 10 may not include the table creation unit 13.

サーバ100が備える記憶手段11は作成されたテーブルを記憶部104へ記憶するテーブル記憶手段を更に含む。記憶されたテーブルは、例えばデータベースが参照するテーブルとして使用することができる。他の例では、HMD200が備える記憶手段11は作成されたテーブルを記憶部204へ記憶するテーブル記憶手段を更に含む。   The storage unit 11 provided in the server 100 further includes a table storage unit that stores the created table in the storage unit 104. The stored table can be used, for example, as a table referenced by the database. In another example, the storage unit 11 included in the HMD 200 further includes a table storage unit that stores the created table in the storage unit 204.

色情報決定手段14は、作成されたテーブルを用いることにより、実空間41内の実オブジェクトの3次元形状を示すボクセルそれぞれのボクセルの色情報を決定する。ここで、色付き点群データから作成された色付きボクセルの色情報は、上記のテーブル作成においてのみ使用されるものである。   The color information determination unit 14 determines the color information of each voxel indicating the three-dimensional shape of the real object in the real space 41 by using the created table. Here, the color information of the colored voxel created from the colored point cloud data is used only in the above table creation.

ある1つのボクセル(の位置情報)が、1つの固定カメラ300により撮影された画像の1つのピクセル(の位置情報)のみに関連付けられる場合、色情報決定手段14は、該ピクセルの色情報を該ボクセルの色情報として決定する。   When a certain voxel (position information) is associated with only one pixel (position information) of an image captured by one fixed camera 300, the color information determination unit 14 displays the color information of the pixel. Determined as voxel color information.

ある1つのボクセルが、複数の固定カメラ300により撮影されたそれぞれの画像のそれぞれのピクセルに関連付けられる場合、色情報決定手段14は、該ボクセルに対応する実オブジェクトの微小領域を最も大きく映し出す固定カメラ300から取得された画像の該ボクセルに関連付けられたピクセルの色情報を、該ボクセルの色情報として決定する。ただし、この場合、テーブル作成手段13により作成されたテーブルにおいてボクセルが関連付けられたピクセルのうちの任意の1つのピクセルの色情報を、該ボクセルの色情報として決定してもよい。   When a certain voxel is associated with each pixel of each image captured by a plurality of fixed cameras 300, the color information determination unit 14 displays a fixed camera that reflects the minute area of the real object corresponding to the voxel most greatly. The color information of the pixel associated with the voxel of the image acquired from 300 is determined as the color information of the voxel. However, in this case, the color information of any one of the pixels associated with the voxel in the table created by the table creating unit 13 may be determined as the color information of the voxel.

前述のとおり、本発明の実施形態によるシステム10は、ボクセルの色情報を、グローバルイルミネーションにおける描画される仮想オブジェクトに対する間接照明として使用する。色情報決定手段14は、好ましくはサーバ100が備え、色情報決定手段14により決定されたボクセルの色情報は、それぞれのボクセルに関連付けられて記憶部104へ記憶される。   As described above, the system 10 according to an embodiment of the present invention uses voxel color information as indirect illumination for a virtual object to be drawn in global illumination. The color information determination unit 14 is preferably provided in the server 100, and the color information of the voxel determined by the color information determination unit 14 is stored in the storage unit 104 in association with each voxel.

1つの例では、ボクセルの色情報は、式(1)に示すように3次元空間データの1つの要素として、3次元位置情報と併せて記憶される。他の例では、ボクセルの色情報は、データベースのテーブルデータとして記憶される。   In one example, the voxel color information is stored together with the three-dimensional position information as one element of the three-dimensional spatial data as shown in Expression (1). In another example, voxel color information is stored as table data in a database.

他の例では、ある1つのボクセルが、複数の固定カメラ300により撮影されたそれぞれの画像のそれぞれのピクセルに関連付けられる場合、それぞれのピクセルの色情報を平均した色情報を、該ボクセルの色情報として決定してもよい。或いは、それぞれのピクセルの色情報に対して重み付けした色情報を、該ボクセルの色情報として決定してもよい。   In another example, when a certain voxel is associated with each pixel of each image captured by a plurality of fixed cameras 300, the color information obtained by averaging the color information of each pixel is used as the color information of the voxel. May be determined as Or you may determine the color information weighted with respect to the color information of each pixel as the color information of this voxel.

色情報更新手段15は、固定カメラ300により取得された画像のピクセルの色情報の変化が所定条件を満たす場合に、色情報決定手段14において該ピクセルの色情報を用いて決定したボクセルの色情報を、最新のピクセルの色情報を用いて更新(新たに決定)する。   The color information update means 15 is a voxel color information determined by the color information determination means 14 using the color information of the pixel when a change in the color information of the pixel of the image acquired by the fixed camera 300 satisfies a predetermined condition. Is updated (newly determined) using the latest pixel color information.

1つの例では、ピクセルの色情報の変化が所定条件を満たす場合は、最新のピクセルの色情報が元のピクセルの色情報から一定の距離範囲(HSV色空間などにおける距離)内にある場合である。他の例では、ピクセルの色情報の変化が所定条件を満たす場合は、1つのピクセルごとに、過去30コマの画像の色情報を平均したものが、元のピクセルの色情報から一定の距離範囲内にある場合である。   In one example, when the change in the color information of the pixel satisfies the predetermined condition, the color information of the latest pixel is within a certain distance range (distance in the HSV color space or the like) from the color information of the original pixel. is there. In another example, when a change in color information of a pixel satisfies a predetermined condition, an average of the color information of images in the past 30 frames for each pixel is a certain distance range from the color information of the original pixel. This is the case.

このように一定条件を満たす色情報の変化であれば、光の状態による変化であると判断することができ、判断されたときの最新のピクセルの色情報をボクセルに反映してボクセルの色情報を更新することができる。一方、例えば固定カメラ300により取得された画像にカメラを通過する人が映った場合、色情報更新手段15は、人が映ったピクセルにおいては一定距離の色変化ではないと判断し、ボクセルの色情報を更新しない。   In this way, if the color information changes so as to satisfy a certain condition, it can be determined that the change is due to the light state, and the color information of the voxel is reflected in the voxel by reflecting the latest pixel color information at the time of the determination. Can be updated. On the other hand, for example, when a person who passes the camera appears in an image acquired by the fixed camera 300, the color information update unit 15 determines that the color in the pixel in which the person is reflected is not a color change of a certain distance, and the color of the voxel. Do not update information.

色情報更新手段15は、色情報決定手段14と同じ装置が備えるのが好適であり、サーバ100が備えるのが好適である。   The color information update unit 15 is preferably provided in the same device as the color information determination unit 14, and is preferably provided in the server 100.

仮想照明情報生成手段16は、間接照明を考慮して陰影を描画するために、ボクセルの色情報及びその3次元位置情報に基づいて、描画される仮想オブジェクトに対する仮想照明情報を生成する。ボクセルの色情報に基づくため、ボクセルの色情報が更新されると、仮想照明情報も更新される。仮想照明情報生成手段16は、色情報更新手段15と同じ装置が備えるのが好適であり、サーバ100が備えるのが好適である。   The virtual illumination information generating means 16 generates virtual illumination information for a virtual object to be drawn based on the voxel color information and its three-dimensional position information in order to draw a shadow in consideration of indirect illumination. Since it is based on the voxel color information, when the voxel color information is updated, the virtual illumination information is also updated. The virtual illumination information generation unit 16 is preferably provided in the same device as the color information update unit 15, and is preferably provided in the server 100.

1つの例では、ボクセルの色情報及びその3次元位置情報に基づいて、描画される仮想オブジェクトを収容する仮想的な多面体の各面における仮想照明情報を、描画される仮想オブジェクトに対する仮想照明情報として生成する。ここでの仮想的な多面体の各面は、イメージベースドライティング(IBL)の手法のように各面のそれぞれが間接照明(光源)であるものとして用いる。このように、本発明の実施形態によれば、環境光(間接照明)の光源となる実オブジェクトに実空間から得たテクスチャをリアルタイムにマッピングすることから、移動する仮想オブジェクトへのIBLもまた可能となる。なお、従来IBLにより仮想オブジェクトの描画を行う場合は、該描画位置から全方向の環境光を取得するためのカメラを設置する必要があったため、ゲーム・キャラクタなどの、自由に移動する仮想オブジェクトへのIBLの適用は困難であった。   In one example, based on the voxel color information and its three-dimensional position information, the virtual illumination information on each surface of the virtual polyhedron containing the rendered virtual object is used as virtual illumination information for the rendered virtual object. Generate. Here, each surface of the virtual polyhedron is used as an indirect illumination (light source) of each surface as in the image-based lighting (IBL) method. As described above, according to the embodiment of the present invention, the texture obtained from the real space is mapped in real time to the real object serving as the light source of the ambient light (indirect illumination), so that the IBL to the moving virtual object is also possible. It becomes. Note that when a virtual object is drawn by conventional IBL, it is necessary to install a camera for acquiring ambient light in all directions from the drawing position. Therefore, a virtual object such as a game character can be moved freely. The application of IBL was difficult.

ユーザ環境決定手段17は、ユーザに装着されたHMD200の位置及び撮影部203が撮影する方向を決定する。ユーザ環境決定手段17は、サーバ100が備えるのが好適である。   The user environment determination unit 17 determines the position of the HMD 200 attached to the user and the direction in which the image capturing unit 203 captures images. The server environment determining unit 17 is preferably provided in the server 100.

具体的には、ユーザ環境決定手段17は、位置姿勢センサ206によりHMD200の大まかな位置及び撮影部203の撮影方向を取得し、これを暫定ユーザ環境とする。続いてユーザ環境決定手段17は、暫定ユーザ環境から所定範囲内の位置及び方向においてユーザが視認可能なボクセルの色情報及び3次元位置情報を記憶部104又は記憶部204から取得する。続いてユーザ環境決定手段17は、撮影部203により撮影された実空間41の撮影画像と、取得されたボクセルの位置情報及び色情報とを比較して照合することにより、HMD200の位置及び撮影部203の撮影方向を決定する。   Specifically, the user environment determination unit 17 acquires the rough position of the HMD 200 and the shooting direction of the shooting unit 203 by the position / orientation sensor 206, and uses this as the provisional user environment. Subsequently, the user environment determination unit 17 acquires from the storage unit 104 or the storage unit 204 the voxel color information and three-dimensional position information that can be visually recognized by the user at a position and direction within a predetermined range from the provisional user environment. Subsequently, the user environment determination unit 17 compares the captured image of the real space 41 captured by the capturing unit 203 with the acquired position information and color information of the voxel, thereby comparing the position of the HMD 200 and the capturing unit. A shooting direction 203 is determined.

1つの例では、撮影画像の色情報のパターンと、取得されたボクセルの色情報のパターンとをマッチングすることにより、HMD200の位置及び撮影部203の撮影方向を決定する。本発明の実施形態においては、HMD200の位置はユーザの位置に対応し、撮影部203の撮影方向はユーザの向いている方向に対応する。   In one example, the position of the HMD 200 and the photographing direction of the photographing unit 203 are determined by matching the color information pattern of the photographed image with the acquired color information pattern of the voxel. In the embodiment of the present invention, the position of the HMD 200 corresponds to the position of the user, and the shooting direction of the shooting unit 203 corresponds to the direction in which the user is facing.

図9は、ユーザの向いている方向と、撮影部203の撮影方向を説明する図である。図9に示す位置にユーザがいる場合、撮影部203により撮影された実空間41の撮影画像は図9の下図に示すとおりである。この撮影画像の色情報のパターンと、位置姿勢センサ206により取得されたHMD200の位置及び該位置から一定範囲内の位置において撮影部203が撮影する方向及び該方向から一定範囲内の方向におけるボクセルの色情報のパターンとを比較して照合する。これにより、HMD200の位置及び撮影部203の撮影方向を決定することが可能となる。   FIG. 9 is a diagram illustrating the direction in which the user is facing and the shooting direction of the shooting unit 203. When the user is at the position shown in FIG. 9, the photographed image of the real space 41 photographed by the photographing unit 203 is as shown in the lower diagram of FIG. 9. The color information pattern of the photographed image, the position of the HMD 200 acquired by the position / orientation sensor 206, the direction in which the photographing unit 203 shoots at a position within a certain range from the position, and the voxel in the direction within the certain range from the direction. The color information pattern is compared and compared. Thereby, the position of the HMD 200 and the shooting direction of the shooting unit 203 can be determined.

描画手段18は、仮想オブジェクトをHMD200の表示部202に描画する。1つの例では、サーバ100が備えるCPUがメインメモリに描画コマンドを書き込んでHMD200へ送信する。HMD200が備えるGPUは、受信した描画コマンドを参照してビデオメモリ上のフレームバッファ等に描画データを書き込み、フレームバッファから読み取った内容をそのまま表示部202に描画する。   The drawing unit 18 draws the virtual object on the display unit 202 of the HMD 200. In one example, the CPU included in the server 100 writes a drawing command in the main memory and transmits it to the HMD 200. The GPU included in the HMD 200 refers to the received drawing command, writes drawing data to a frame buffer or the like on the video memory, and draws the content read from the frame buffer on the display unit 202 as it is.

描画コマンドを作成するにあたって、描画手段18は、ユーザ環境決定手段17により決定されたHMD200の位置及び撮影部203の撮影方向を用いて、表示部202上に表示される仮想オブジェクトの位置や向きを決定する。また描画コマンドを作成するにあたって、描画手段18は、仮想照明情報を用いて、仮想オブジェクトに陰影を付ける。   In creating the drawing command, the drawing unit 18 uses the position of the HMD 200 determined by the user environment determining unit 17 and the shooting direction of the shooting unit 203 to determine the position and orientation of the virtual object displayed on the display unit 202. decide. In creating the drawing command, the drawing unit 18 adds a shadow to the virtual object using the virtual illumination information.

このように、描画手段18は、サーバ100とHMD200が分担して実行するのが好適である。ただし、サーバ100が描画手段18を備え、サーバ100において描画処理すべてを実行した後、画像データをHMD200へ送信し、HMD200が受信した画像データを表示するように構成してもよい。或いは、HMD200が描画手段18を備え、HMD200において描画処理すべてを実行するように構成してもよい。   As described above, it is preferable that the drawing unit 18 is executed by the server 100 and the HMD 200 being shared. However, the server 100 may include the drawing unit 18, and after executing all drawing processes in the server 100, the image data may be transmitted to the HMD 200 and the image data received by the HMD 200 may be displayed. Alternatively, the HMD 200 may include the drawing unit 18 and the HMD 200 may be configured to execute all drawing processes.

続いて生成フェーズについて説明する。図10は、本発明の実施形態による、実空間41の環境を仮想空間42にリアルタイムに反映する複合現実環境43を作成する方法を示す。なお実空間41においては、図6aに示すように、ユーザが視認可能な実空間41内の領域を撮影可能な複数の定点に、予め固定カメラ300が設置される。   Next, the generation phase will be described. FIG. 10 shows a method of creating a mixed reality environment 43 that reflects the environment of the real space 41 in the virtual space 42 in real time according to an embodiment of the present invention. In the real space 41, as shown in FIG. 6a, fixed cameras 300 are installed in advance at a plurality of fixed points that can shoot an area in the real space 41 that can be visually recognized by the user.

まずレーザスキャナ(図示せず)を用いることにより、実空間41内の実オブジェクトの3次元形状を示す色付き点群データを予め取得し、該色付き点群データをボクセルへ変換することで、3次元空間データ(3次元ボクセルデータ)を作成する(ステップ1001)。   First, by using a laser scanner (not shown), colored point cloud data indicating the three-dimensional shape of a real object in the real space 41 is acquired in advance, and the colored point cloud data is converted into voxels to obtain a three-dimensional data. Spatial data (three-dimensional voxel data) is created (step 1001).

続いて、予め設置された固定カメラ300から画像を取得する(ステップ1002)。ただし、固定カメラ300は設置後から画像を取得することができるため、ステップ1001よりも前に行ってもよい。   Subsequently, an image is acquired from the fixed camera 300 installed in advance (step 1002). However, since the fixed camera 300 can acquire an image after installation, it may be performed before step 1001.

続いて、ボクセルの3次元位置情報及び色情報と、固定カメラ300により撮影された画像データとを比較することにより、該画像データのそれぞれのピクセルの位置情報(2次元座標)と、該ピクセルが示す実オブジェクトの微小領域に対応する1又は複数のボクセルの位置情報(3次元座標)とを関連付けたテーブルを作成する(ステップ1003)。   Subsequently, by comparing the three-dimensional position information and color information of the voxel with the image data captured by the fixed camera 300, the position information (two-dimensional coordinates) of each pixel of the image data and the pixel are A table in which position information (three-dimensional coordinates) of one or a plurality of voxels corresponding to the minute area of the real object to be shown is associated is created (step 1003).

上記のとおり作成されたテーブルを用いて、実空間41内の実オブジェクトの3次元形状を示すボクセルそれぞれのボクセルの色情報を決定する(ステップ1004)。本ステップにおいて、1つの固定カメラ300により撮影された画像の1つのピクセルのみに関連付けられた1つのボクセルは、該ピクセルの色情報を該ボクセルの色情報として決定する。また本ステップにおいて、複数の固定カメラ300により撮影されたそれぞれの画像のそれぞれのピクセルに関連付けられた1つのボクセルは、該ボクセルに対応する実オブジェクトの微小領域を最も大きく映し出す固定カメラ300から取得された画像の該ボクセルに関連付けられたピクセルの色情報を、該ボクセルの色情報として決定する。   Using the table created as described above, the color information of each voxel indicating the three-dimensional shape of the real object in the real space 41 is determined (step 1004). In this step, one voxel associated with only one pixel of an image photographed by one fixed camera 300 determines the color information of the pixel as the color information of the voxel. In this step, one voxel associated with each pixel of each image captured by the plurality of fixed cameras 300 is acquired from the fixed camera 300 that displays the largest minute area of the real object corresponding to the voxel. The color information of the pixel associated with the voxel in the image is determined as the color information of the voxel.

ただし、複数の固定カメラ300により撮影されたそれぞれの画像のそれぞれのピクセルに関連付けられた1つのボクセルは、それぞれのピクセルの色情報を平均した色情報をボクセルの色情報として決定してもよい。   However, one voxel associated with each pixel of each image captured by the plurality of fixed cameras 300 may determine color information obtained by averaging the color information of each pixel as the color information of the voxel.

続いて、複数の固定カメラ300により取得された画像のそれぞれのピクセルにおいて、色情報の変化が所定条件を満たすかどうかを判定する(ステップ1005)。例えば所定条件は、1つのピクセルごとに、過去30コマの画像の色情報を平均したものが、元のピクセルの色情報から一定の距離範囲(HSV色空間などにおける距離)内にあるかどうかという条件である。   Subsequently, in each pixel of the image acquired by the plurality of fixed cameras 300, it is determined whether or not the color information change satisfies a predetermined condition (step 1005). For example, the predetermined condition is whether the average of the color information of the past 30 frames for each pixel is within a certain distance range (distance in HSV color space) from the color information of the original pixel. It is a condition.

所定条件を満たすピクセルについては、最新のピクセルの色情報を用いて、ボクセルの色情報を決定する際に該ピクセルの色情報を参照するボクセルの色情報を更新(決定)する(ステップ1006)。所定条件を満たさないピクセルについては、ボクセルの色情報を決定する際に該ピクセルの色情報を参照するボクセルの色情報を更新(決定)しない。その後、複合現実環境43を作成し続ける限り(ステップ1007)、ステップ1005へ戻る。   For pixels satisfying the predetermined condition, the color information of the voxel that refers to the color information of the pixel is updated (determined) when determining the color information of the voxel using the color information of the latest pixel (step 1006). For pixels that do not satisfy the predetermined condition, the voxel color information that refers to the color information of the pixel is not updated (determined) when determining the color information of the voxel. Thereafter, as long as the mixed reality environment 43 is continuously created (step 1007), the process returns to step 1005.

続いて認識フェーズについて説明する。図11は、本発明の実施形態による、図10で作成した複合現実環境43において、ユーザに複合現実感を体感させることが可能な、実空間41の光の状態を利用したグローバルイルミネーションとユーザの高精度なポジショントラッキングを提供する方法を示す。なお、ユーザは、HMD200を装着し、実空間41(複合現実環境43)内にいるものとする。また、本ステップ開始時点において、各ボクセルの色情報は、図10のステップ1004又は1006により決定(更新)されていることに留意されたい。   Next, the recognition phase will be described. FIG. 11 is a diagram illustrating global illumination using the light state of the real space 41 and the user's experience in the mixed reality environment 43 created in FIG. 10 according to the embodiment of the present invention. Shows how to provide highly accurate position tracking. It is assumed that the user wears the HMD 200 and is in the real space 41 (mixed reality environment 43). It should be noted that the color information of each voxel is determined (updated) in step 1004 or 1006 in FIG. 10 at the start of this step.

HMD200の位置及び撮影部203の撮影方向を決定することにより、ユーザ環境、すなわちユーザの位置及びユーザの向いている方向を決定する(ステップ1101)。本ステップにおいては、暫定ユーザ環境として、位置姿勢センサ206を用いてHMD200の大まかな位置及び撮影部203の撮影方向を取得する。更に本ステップにおいては、暫定ユーザ環境から所定範囲内の位置及び撮影方向において撮影部203が撮影可能なボクセルの色情報及び3次元位置情報を取得する。更に本ステップにおいては、撮影部203により撮影された実空間の撮影画像と、取得されたボクセルの位置情報及び色情報とを比較して照合することにより、HMD200の位置及び撮影部203の撮影方向を決定する。   By determining the position of the HMD 200 and the shooting direction of the shooting unit 203, the user environment, that is, the position of the user and the direction in which the user is facing are determined (step 1101). In this step, the rough position of the HMD 200 and the shooting direction of the shooting unit 203 are acquired using the position and orientation sensor 206 as a provisional user environment. Further, in this step, color information and three-dimensional position information of voxels that can be photographed by the photographing unit 203 in the position and photographing direction within a predetermined range are obtained from the provisional user environment. Further, in this step, the position of the HMD 200 and the shooting direction of the shooting unit 203 are compared by comparing the captured image of the real space shot by the shooting unit 203 with the acquired voxel position information and color information. To decide.

続いて、撮影部203が撮影する方向において、描画される仮想オブジェクトが有るかどうかを判定する(ステップ1102)。ここにおいて、複合現実環境43を構成する仮想空間42において撮影部203が撮影する方向に対応する場所に仮想オブジェクトが配置される場合は、描画される仮想オブジェクトが有ることになる。   Subsequently, it is determined whether or not there is a virtual object to be drawn in the direction in which the photographing unit 203 shoots (step 1102). Here, when a virtual object is arranged at a location corresponding to the direction in which the image capturing unit 203 captures an image in the virtual space 42 constituting the mixed reality environment 43, there is a virtual object to be drawn.

描画される仮想オブジェクトが有る場合は、ボクセルの色情報及びその3次元位置情報を用いてIBLの手法により、描画される仮想オブジェクトを収容する仮想的な多面体の各面における仮想照明情報を、描画される仮想オブジェクトに対する仮想照明情報として生成する(ステップ1103)。   When there is a virtual object to be drawn, the virtual illumination information on each surface of the virtual polyhedron containing the virtual object to be drawn is drawn by the IBL technique using the voxel color information and its three-dimensional position information. It is generated as virtual illumination information for the virtual object to be executed (step 1103).

ただし、ボクセルの色情報及びその3次元位置情報を用いてレイトレーシングの手法により、描画される仮想オブジェクトに対する仮想照明情報を生成してもよい。   However, virtual illumination information for a virtual object to be drawn may be generated by a ray tracing technique using the voxel color information and its three-dimensional position information.

続いて、ステップ1101で決定されたHMD200の位置及び撮影部203の撮影方向を用いて位置や向きが決定され、かつステップ1104で生成された仮想照明情報を用いて陰影(色彩)を付けられた仮想オブジェクトをHMD200の表示部202に描画する(ステップ1104)。描画される仮想オブジェクトが無い場合は、ステップ1103及び1104は行わない。   Subsequently, the position and orientation are determined using the position of the HMD 200 determined in step 1101 and the shooting direction of the shooting unit 203, and shading (color) is added using the virtual illumination information generated in step 1104. The virtual object is drawn on the display unit 202 of the HMD 200 (step 1104). If there is no virtual object to be drawn, steps 1103 and 1104 are not performed.

続くステップ1105は、図10におけるステップ1005と同様の処理であり、ステップ1106は、図10におけるステップ1006と同様の処理であるため、説明は省略する。その後、複合現実環境(グローバルイルミネーションとポジショントラッキング)を提供し続ける限り(ステップ1107)、ステップ1101へ戻る。   Subsequent step 1105 is the same processing as step 1005 in FIG. 10, and step 1106 is the same processing as step 1006 in FIG. Thereafter, as long as the mixed reality environment (global illumination and position tracking) continues to be provided (step 1107), the process returns to step 1101.

上記のとおり、本発明の実施形態においては、レーザスキャナを用いることにより実空間41内の実オブジェクトの3次元形状を示す色付き点群データを予め取得する。しかしながら、レーザスキャナによる測定は時間を要するため、実オブジェクトの位置・形状等が変わらない限り、最初に1度測定するのみである。   As described above, in the embodiment of the present invention, colored point cloud data indicating the three-dimensional shape of a real object in the real space 41 is acquired in advance by using a laser scanner. However, since the measurement by the laser scanner takes time, the measurement is only performed once first unless the position / shape of the real object is changed.

次に、第1の実施形態によるシステム10の作用効果について説明する。本実施形態では、ボクセルの位置情報と、固定カメラ300により取得された画像のそれぞれのピクセルの位置情報とを関連付けたテーブルを用いることにより、ボクセルの色情報を固定カメラ300により取得された画像のピクセルの色情報から決定し、また更新する。このようにテーブルを用いることにより、固定カメラ300から得られる色情報をボクセルのそれぞれにリアルタイムに反映することが可能となる。これにより、高精度に実空間の形状が再現された複合現実環境において、実空間41の色彩を、高精度かつリアルタイムに認識し、仮想空間に反映することが可能となる。   Next, the operational effects of the system 10 according to the first embodiment will be described. In the present embodiment, by using a table that associates the position information of the voxel and the position information of each pixel of the image acquired by the fixed camera 300, the color information of the voxel is obtained from the image acquired by the fixed camera 300. Determine and update from pixel color information. By using the table in this way, the color information obtained from the fixed camera 300 can be reflected on each of the voxels in real time. Thereby, in the mixed reality environment in which the shape of the real space is reproduced with high accuracy, the color of the real space 41 can be recognized with high accuracy and in real time and reflected in the virtual space.

また本実施形態では、実空間41の色彩を反映させたボクセルのそれぞれを、描画される仮想オブジェクトの仮想的な間接照明(光源)として用いる。これにより、実空間41の光の状態を利用したグローバルイルミネーションを実現することが可能となり、実空間41の環境に極めて近い色彩や陰影を持つ仮想オブジェクトを描画することが可能となる。   In the present embodiment, each voxel reflecting the color of the real space 41 is used as virtual indirect illumination (light source) of a virtual object to be drawn. As a result, global illumination using the light state of the real space 41 can be realized, and a virtual object having a color and a shadow very close to the environment of the real space 41 can be drawn.

また本実施形態では、実空間41においては、実空間41を仮想空間42であるかのように利用することが可能となる。例えばゲーム開発者は、現実空間を、ゲームエンジン内のゲーム空間(仮想空間)と同様に取り扱うことが可能になる。   In the present embodiment, the real space 41 can be used as if it were the virtual space 42 in the real space 41. For example, the game developer can handle the real space in the same manner as the game space (virtual space) in the game engine.

また本実施形態では、描画される仮想オブジェクトに対して、該仮想オブジェクトを収容する仮想的な多面体を想定し、該多面体の各面における色彩(光)の状態を、実空間41の色彩を反映させたボクセルのそれぞれから決定する。そして、決定された各面における色彩の状態を、描画される仮想オブジェクトの仮想的な間接照明として用いる。これにより、より実空間41の環境に近い色彩や陰影を持つ仮想オブジェクトを描画することが可能となる。   In the present embodiment, a virtual polyhedron that accommodates the virtual object is assumed for the virtual object to be drawn, and the color (light) state of each surface of the polyhedron reflects the color of the real space 41. Decide from each of the voxels that were made. Then, the determined color state on each surface is used as virtual indirect illumination of the virtual object to be drawn. As a result, it is possible to draw a virtual object having colors and shadows that are closer to the environment of the real space 41.

また本実施形態では、位置姿勢センサ206を用いて決定された大まかなHMD200の位置及び撮影部203の撮影方向を暫定ユーザ環境とし、該暫定ユーザ環境周辺において撮影部203の撮影可能な領域にあるボクセルの色情報及び3次元位置情報と、撮影部203の撮影画像とを比較して照合することにより、HMD200の位置及び撮影部203の撮影方向を決定する。このように、従来の位置姿勢センサ206から得られる大まかな位置情報と、3次元空間データを用いた高精度の仮想空間42とのマッチングを行い、実空間41と仮想空間42におけるユーザの位置やユーザの向いている方向のずれをリアルタイムに補正することができる。これにより、現実と高精度にリンクするMR環境43を実現することが可能となり、ポジショントラッキングを実現することが可能になる。   In the present embodiment, the approximate position of the HMD 200 determined using the position / orientation sensor 206 and the shooting direction of the shooting unit 203 are set as a provisional user environment, and the shooting unit 203 is in a shootable region around the temporary user environment. The position of the HMD 200 and the photographing direction of the photographing unit 203 are determined by comparing the voxel color information and three-dimensional position information with the photographed image of the photographing unit 203 and collating them. In this way, the rough position information obtained from the conventional position and orientation sensor 206 is matched with the high-precision virtual space 42 using the three-dimensional space data, and the position of the user in the real space 41 and the virtual space 42 A shift in the direction in which the user is facing can be corrected in real time. As a result, it is possible to realize the MR environment 43 that links the reality and the high accuracy, and it is possible to realize position tracking.

[第2の実施形態]
本実施形態においては、3次元形状要素としてメッシュを用いる。第1の実施形態の場合と同様に、取得された色付き点群データをメッシュと呼ばれるデータ構造へ変換する。例えば、取得された色付き点群データから既知の方法を用いて各点群を頂点としたポリゴンを形成し、1又は複数のポリゴンから形成されるメッシュへと変換する。ただし、基本的な考え方は第1の実施形態のボクセルの場合と同じであるため、第1の実施形態と異なる点を中心に説明する。
[Second Embodiment]
In this embodiment, a mesh is used as a three-dimensional shape element. As in the case of the first embodiment, the obtained colored point cloud data is converted into a data structure called a mesh. For example, polygons having each point cloud as a vertex are formed from the obtained colored point cloud data using a known method, and converted to a mesh formed from one or a plurality of polygons. However, since the basic idea is the same as in the case of the voxel of the first embodiment, the description will focus on differences from the first embodiment.

本実施形態におけるテーブル作成手段13が作成するテーブルについて説明する。前述のとおり、固定カメラ300の3次元位置情報と撮影する方向は高精度に決定することができる。取得された色付き点群データと、固定カメラ300から得られる画像のそれぞれのピクセルとを比較することにより、固定カメラ300から得られたピクセルの色情報を点群の色情報に変換するプロジェクションマトリックス(変換行列)を得る。これに関する既知の手法としては、オプティカルフローや色情報の類似性を用いるものがある。   A table created by the table creation means 13 in this embodiment will be described. As described above, the three-dimensional position information of the fixed camera 300 and the shooting direction can be determined with high accuracy. A projection matrix that converts the color information of the pixel obtained from the fixed camera 300 into the color information of the point group by comparing the acquired point group data with color and each pixel of the image obtained from the fixed camera 300 ( Transformation matrix). As a known method in this regard, there is a method using optical flow or similarity of color information.

テーブル作成手段13は、上記のプロジェクションマトリックスを作成する。該マトリックスは、固定カメラ300から得られる画像の座標系を、3次元空間上の座標系に変換するためのテーブルである。1つの例では、固定カメラ300から得られる画像の座標系を、3次元空間のメッシュのUV座標へ変換するテーブルを作成する。   The table creation means 13 creates the above projection matrix. The matrix is a table for converting a coordinate system of an image obtained from the fixed camera 300 into a coordinate system in a three-dimensional space. In one example, a table for converting the coordinate system of an image obtained from the fixed camera 300 into UV coordinates of a mesh in a three-dimensional space is created.

以下にプロジェクションマトリックスに関する具体的な1つの例を説明する。固定カメラ100の位置情報を求めることができると、次のように、プロジェクションマトリックスを設定し、固定カメラ100の画像のピクセルを、3次元空間上のオブジェクトのある場所の色にマッピングすることが可能になる。プロジェクションマトリックスを P とする。P は A(R|t) という構成となっている 3x4 行列であり、A は固定カメラ100の画角、解像度、画像中心などから求められる行列でデバイススペックに依存する固定の値であり、内部パラメータ行列と呼ばれる。R は 3x3 回転行列であり、t は並進ベクトルである。R|t をならべて 3x4 行列としたものを、外部パラメータ行列と呼ぶ。Aは固定カメラ100のスペック値が対応する。R|t はワールド座標系における回転と位置であり、本実施形態における点群データと固定カメラ100の画像の照合により求めることができる。これにより、通常の射影変換の式、m = P・Xを用いて、画像座標 m を、ワールド座標 X に変換することが可能になる。   A specific example regarding the projection matrix will be described below. When the position information of the fixed camera 100 can be obtained, the projection matrix can be set as follows, and the pixels of the image of the fixed camera 100 can be mapped to the color where the object is located in the three-dimensional space. become. Let P be the projection matrix. P is a 3x4 matrix configured as A (R | t), A is a matrix obtained from the angle of view, resolution, image center, etc. of the fixed camera 100 and is a fixed value depending on the device specifications. It is called a parameter matrix. R is a 3x3 rotation matrix and t is a translation vector. A 3x4 matrix with R | t arranged is called an external parameter matrix. A corresponds to the specification value of the fixed camera 100. R | t is the rotation and position in the world coordinate system, and can be obtained by collating the point cloud data and the image of the fixed camera 100 in this embodiment. This makes it possible to convert the image coordinate m to the world coordinate X using the normal projective transformation formula m = P · X.

色情報決定手段14は、それぞれのメッシュの色情報を、固定カメラ300から取得される画像のピクセルの色情報を変換行列により変換することにより決定する。それぞれのメッシュの色情報が参照する画像、すなわちそれぞれのメッシュの色情報の提供元となる固定カメラ300は、予め決定されることが好ましい。   The color information determination unit 14 determines the color information of each mesh by converting the color information of the pixels of the image acquired from the fixed camera 300 using a conversion matrix. It is preferable that the image referred to by the color information of each mesh, that is, the fixed camera 300 that is the source of the color information of each mesh, is determined in advance.

色情報更新手段15は、固定カメラ300により取得された画像のピクセルの色情報の変化が所定条件を満たす場合に、色情報決定手段14において該ピクセルの色情報を用いて決定したメッシュの色情報を、最新のピクセルの色情報を用いて更新(新たに決定)する。   The color information update unit 15 determines the mesh color information determined by the color information determination unit 14 using the color information of the pixel when the change in the color information of the pixel of the image acquired by the fixed camera 300 satisfies a predetermined condition. Is updated (newly determined) using the latest pixel color information.

ステップ1004〜ステップ1006、ステップ1105〜ステップ1106においても、上記の同様の処理を行う。   In steps 1004 to 1006 and steps 1105 to 1106, the same processing as described above is performed.

上記で説明したとおり、本実施形態のメッシュの色情報は、固定カメラ300から得られる画像のピクセルの色情報を変換行列により変換することにより求める。したがって、1つのメッシュ内において異なる色を有する点が、各ボクセルにおいて同じ色情報を有する第1の実施形態と異なることに留意されたい。   As described above, the color information of the mesh of the present embodiment is obtained by converting the color information of the pixels of the image obtained from the fixed camera 300 using the conversion matrix. Thus, it should be noted that having different colors within one mesh differs from the first embodiment having the same color information in each voxel.

[第3の実施形態]
本発明の実施形態によるシステム10が複合現実環境53をユーザに提供する現実世界の空間(所定の実空間)として、図12に示すような屋外の空間である実空間51を想定する。実空間51は、天井と一対の横壁が無い点、太陽光を含む光源22が実空間内ではなく実空間外に有する点以外は、実空間41と同じである。実空間51においても、ユーザが視認可能な実空間51内の領域を撮影可能な複数の定点にそれぞれ固定カメラ300が配置される。また説明を簡単にするため、本実施形態においては、3次元形状要素としてボクセルを用いるものとするが、3次元形状要素としてメッシュや点群データを用いることもできる。以下、第1の実施形態と異なる点を中心に説明する。
[Third Embodiment]
A real space 51 that is an outdoor space as shown in FIG. 12 is assumed as a real-world space (predetermined real space) in which the system 10 according to the embodiment of the present invention provides the mixed reality environment 53 to the user. The real space 51 is the same as the real space 41 except that there is no ceiling and a pair of horizontal walls, and that the light source 22 including sunlight is outside the real space, not inside the real space. Also in the real space 51, the fixed camera 300 is arranged at each of a plurality of fixed points that can shoot an area in the real space 51 that can be visually recognized by the user. In order to simplify the description, in this embodiment, voxels are used as the three-dimensional shape elements, but mesh and point cloud data can also be used as the three-dimensional shape elements. Hereinafter, a description will be given focusing on differences from the first embodiment.

本実施形態においても、仮想空間52を実空間51内に対応付けされた領域(0≦X≦X1、0≦Y≦Y1、0≦Z≦Z1)に限定して考えるものとする。   Also in the present embodiment, the virtual space 52 is considered to be limited to an area (0 ≦ X ≦ X1, 0 ≦ Y ≦ Y1, 0 ≦ Z ≦ Z1) associated with the real space 51.

本実施形態においては、第1の実施形態と異なり屋外の空間であるため、固定カメラ300が実オブジェクトを映し出さない領域が存在する。   In the present embodiment, unlike the first embodiment, since it is an outdoor space, there is an area where the fixed camera 300 does not project a real object.

テーブル作成手段13は、固定カメラ300により取得された画像の少なくとも一部に実オブジェクトが存在しない場合、該画像において実オブジェクトを映し出していないピクセルについては、固定カメラ300の3次元位置情報と撮影方向を用いて、仮想空間52の境界上の位置(x、y、z)に関連付ける。この場合、該境界上の位置に、例えば大きなメッシュ(又はボクセル)があると仮定し、該メッシュを用いて、第1又は第2の実施形態で説明した方法によりテーブル作成を行ってもよい。   When the real object does not exist in at least a part of the image acquired by the fixed camera 300, the table creation unit 13 determines the three-dimensional position information and the shooting direction of the fixed camera 300 for pixels that do not display the real object in the image. Is used to relate to the position (x, y, z) on the boundary of the virtual space 52. In this case, assuming that there is, for example, a large mesh (or voxel) at the position on the boundary, the table may be created using the mesh by the method described in the first or second embodiment.

色情報決定手段14は、作成されたテーブルを用いることにより、仮想空間42の境界においては、該境界の位置情報に応じたそれぞれの色情報を決定する。   The color information determination unit 14 determines each color information corresponding to the position information of the boundary at the boundary of the virtual space 42 by using the created table.

色情報更新手段15は、固定カメラ300により取得された画像のピクセルの色情報の変化が所定条件を満たす場合に、色情報決定手段14において該ピクセルの色情報を用いて決定した仮想空間42の境界上の位置における(例えばメッシュ等の)色情報を、最新のピクセルの色情報を用いて更新(新たに決定)する。   The color information update unit 15 is configured to update the virtual space 42 determined by the color information determination unit 14 using the color information of the pixel when the change in the color information of the pixel of the image acquired by the fixed camera 300 satisfies a predetermined condition. Color information (such as a mesh) at a position on the boundary is updated (newly determined) using the color information of the latest pixel.

ステップ1004〜ステップ1006、ステップ1105〜ステップ1106においても、上記の同様の処理を行う。   In steps 1004 to 1006 and steps 1105 to 1106, the same processing as described above is performed.

[システムアーキテクチャ]
上記のとおり、図7に示す機能を有するものであるが、1つの実施形態に係るシステムアーキテクチャは、次の6つのモジュールから構成することができる。6つのモジュールは、ボクセルコンバータ(Point Cloud to Voxel Converter)と、ボクセルDBと、3Dアドレスマッピングテーブルジェネレータ(以下、「ジェネレータ」という)と、3Dアドレスマッピングテーブル(以下、「テーブル」という)と、ポジショントラッカーと、環境照明パラメータと、から構成される。このようにモジュール化を行うことにより、一部のモジュールを変更してシステムに適用することが可能になる。
[System Architecture]
As described above, the system architecture has the functions shown in FIG. 7, but the system architecture according to one embodiment can be composed of the following six modules. The six modules are voxel converter (Point Cloud to Voxel Converter), voxel DB, 3D address mapping table generator (hereinafter referred to as “generator”), 3D address mapping table (hereinafter referred to as “table”), position It consists of a tracker and ambient lighting parameters. By modularizing in this way, some modules can be changed and applied to the system.

ボクセルコンバータは、Octomapなどの手法を用いて、予め取得されクラウドに記憶された Point Cloud Dataを、隙間の無いボクセルの集合に変換する。このボクセルへの変換により、ゲーム内で直接用いる3D情報として利用しやすくなるとともに、座標を用いてボクセルを一意に特定することが容易となるため、色の更新に適した形式となる。   The voxel converter converts Point Cloud Data acquired in advance and stored in the cloud into a set of voxels without gaps using a technique such as Octomap. This conversion into voxels makes it easy to use as 3D information used directly in the game, and makes it easy to uniquely identify a voxel using coordinates, so that the format is suitable for color update.

ボクセルコンバータは、3次元空間データ作成手段12に対応する機能を有するものである。なお、本発明の実施形態はボクセルを使用する方法に依存していないことから、ボクセルコンバータの代わりに、点群データを隙間の無いメッシュの集合に変換するメッシュコンバータをモジュールの構成要素とすることができる。   The voxel converter has a function corresponding to the three-dimensional spatial data creation means 12. Since the embodiment of the present invention does not depend on the method of using voxels, a mesh converter that converts point cloud data into a set of meshes without gaps is used as a component of the module instead of the voxel converter. Can do.

ボクセルDBは、実世界を一定区画ごとに分割し、その区画の中身をすべてボクセルに変換し、(x、y、z)の位置情報で識別可能にしたものである。実世界上での極小の一定のサイズ(例えば1cm)を基準としたボクセルを最小単位とした、物理空間を写像可能な高精度ボクセル空間であることが好ましい。   The voxel DB divides the real world into fixed sections, converts all the contents of the sections into voxels, and makes them identifiable by position information (x, y, z). A high-precision voxel space capable of mapping a physical space with a minimum unit of voxels based on a certain minimum size (for example, 1 cm) in the real world is preferable.

ボクセルDBは、3次元空間データ作成手段12により作成された3次元空間データを記憶するデータベースに対応する機能を有するものである。なお、本発明の実施形態はボクセルを使用する方法に依存しておらず、ボクセルDBは、点群データを直接格納してもよいし、また、3次元空間のメッシュのUV座標の集合を格納してもよい。   The voxel DB has a function corresponding to a database that stores the three-dimensional spatial data created by the three-dimensional spatial data creation means 12. Note that the embodiment of the present invention does not depend on the method of using voxels, and the voxel DB may store point cloud data directly or store a set of UV coordinates of a mesh in a three-dimensional space. May be.

ジェネレータは、この空間上において、映像データの各ピクセルと、点群データから生成された色付きボクセルとを、ボクセルの位置情報と色情報を用いてマッピングする。なお、本発明の実施形態はボクセルを使用する方法に依存しておらず、例えば、点群データにおける1つの点の位置情報と色情報を用いてマッピングしてもよい。ジェネレータの機能は、固定カメラから得られる画像と点群データ又はボクセルデータとを照合することにより、固定カメラから得られる画像の座標系を、3次元空間上の座標系に変換するためのテーブルを生成するものである。ジェネレータは、テーブル作成手段13に対応する機能を有するものである。   In this space, the generator maps each pixel of the video data and the colored voxel generated from the point cloud data using the position information and the color information of the voxel. Note that the embodiment of the present invention does not depend on a method using voxels. For example, mapping may be performed using position information and color information of one point in point cloud data. The function of the generator is a table for converting the coordinate system of the image obtained from the fixed camera into the coordinate system in the three-dimensional space by collating the image obtained from the fixed camera with the point cloud data or voxel data. Is to be generated. The generator has a function corresponding to the table creation means 13.

テーブルは、固定カメラの各ピクセルと3次元空間上のn個のボクセルとを静的に紐づけるテーブルである。このテーブルは、次に示すマッピングエントリEの集合である。

Figure 0006134874
ここで、cidは、固定カメラの識別し、cx、cyは固定カメラのピクセル、vx、vy、vzは、マッピング先となるボクセルの3次元座標を示す。なお、本発明の実施形態はボクセルを使用する方法に依存しておらず、vx、vy、vzは、点群データの座標でもよいし、3次元空間上の特定のメッシュのUV座標でもよい。テーブルは、テーブル作成手段13により作成されたテーブルに対応する機能を有するものである。 The table is a table that statically associates each pixel of the fixed camera with n voxels in the three-dimensional space. This table is a set of mapping entries E shown below.
Figure 0006134874
Here, cid identifies a fixed camera, cx, cy indicate pixels of the fixed camera, and vx, vy, vz indicate three-dimensional coordinates of voxels to be mapped. The embodiment of the present invention does not depend on the method of using voxels, and vx, vy, and vz may be coordinates of point cloud data or UV coordinates of a specific mesh in a three-dimensional space. The table has a function corresponding to the table created by the table creating means 13.

ポジショントラッカーは、利用者の現在位置と視線の方向をトラッキングし続けることにより、利用者の視野を把握するモジュールである。ポジショントラッカーは、ユーザ環境決定手段に対応する機能を有するものである。   The position tracker is a module that grasps the user's visual field by keeping track of the current position of the user and the direction of the line of sight. The position tracker has a function corresponding to the user environment determining means.

環境照明パラメータは、表示しようとするキャラクタの実世界上の位置をボクセルDBへのクエリに対応するx、y、zとして求め、その場所の周辺のグローバルイルミネーションを、周囲のボクセルの色情報から算出するモジュールである。環境照明パラメータは、仮想照明情報生成手段16に対応する機能を有するものである。   The environmental lighting parameter is obtained as x, y, z corresponding to the query to the voxel DB for the position of the character to be displayed in the real world, and the global illumination around the location is calculated from the color information of the surrounding voxels. It is a module to do. The environmental illumination parameter has a function corresponding to the virtual illumination information generation means 16.

以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。   In the process or operation described above, a process or operation can be freely performed at a certain step as long as there is no inconsistency in the process or operation such as using data that should not be used at that step. Can be changed. Moreover, each Example described above is the illustration for demonstrating this invention, and this invention is not limited to these Examples. The present invention can be implemented in various forms without departing from the gist thereof.

10 システム
11 記憶手段
12 3次元空間データ作成手段
13 テーブル作成手段
14 色情報決定手段
15 色情報更新手段
16 仮想照明情報生成手段
17 ユーザ環境取得手段
18 描画手段
21 光源
22 建物
23 影
24 キャラクタ
25、26 台
27 壁
31、41、51 現実世界(実空間)
32、42、52 仮想世界(仮想空間)
33、43、53 複合現実世界(複合現実環境)
50 ネットワーク
100 サーバ
101、201 処理部
102、202 表示部
103 入力部
104、204 記憶部
105、205 通信部
110、210 バス
200 表示装置
203 撮影部
206 位置姿勢センサ
300 固定カメラ
DESCRIPTION OF SYMBOLS 10 System 11 Memory | storage means 12 3D spatial data creation means 13 Table creation means 14 Color information determination means 15 Color information update means 16 Virtual illumination information generation means 17 User environment acquisition means 18 Drawing means 21 Light source 22 Building 23 Shadow 24 Character 25, 26 units 27 walls 31, 41, 51 Real world (real space)
32, 42, 52 Virtual world (virtual space)
33, 43, 53 Mixed reality world (mixed reality environment)
50 network 100 server 101, 201 processing unit 102, 202 display unit 103 input unit 104, 204 storage unit 105, 205 communication unit 110, 210 bus 200 display device 203 photographing unit 206 position and orientation sensor 300 fixed camera

Claims (2)

所定の実空間内において携帯可能な表示装置の表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して3次元の仮想オブジェクトを重畳させて描画するための複合現実環境を作成する方法であって、
前記所定の実空間内にある実オブジェクトの点群データに基づいて、それぞれが3次元位置情報を有する3次元形状要素から構成される3次元空間データを作成するステップと、
前記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得するステップと、
前記取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数の前記3次元形状要素の3次元位置情報とを関連付けたテーブルを作成するステップと、
前記3次元形状要素が関連付けられた1又は複数の前記ピクセルの色情報に基づいて前記仮想オブジェクトを描画するための前記3次元形状要素の色情報を決定するステップと、
前記取得された画像のそれぞれのピクセルの色情報の変化に基づいて前記仮想オブジェクトを描画するための前記3次元形状要素の色情報を更新するステップと、
を有する方法。
Method for creating a mixed reality environment for rendering a three-dimensional virtual object superimposed on a real space or a captured image of the real space that is visually recognized by a user through a display unit of a portable display device in a predetermined real space Because
Creating three-dimensional space data composed of three-dimensional shape elements each having three-dimensional position information based on point cloud data of real objects in the predetermined real space;
Acquiring images respectively from a plurality of fixed points capable of photographing an area in the predetermined real space;
Creating a table associating position information of each pixel of the acquired image with three-dimensional position information of one or a plurality of the three-dimensional shape elements indicated by each pixel;
Determining color information of the three-dimensional shape element for rendering the virtual object based on color information of one or a plurality of the pixels associated with the three-dimensional shape element;
Updating color information of the three-dimensional shape element for drawing the virtual object based on a change in color information of each pixel of the acquired image;
Having a method.
所定の実空間内において携帯可能な表示装置の表示部を通してユーザが視認する実空間又は実空間の撮影画像に対して3次元の仮想オブジェクトを重畳させて描画するための複合現実環境を作成するためのシステムであって、
前記所定の実空間内にある実オブジェクトの点群データに基づいて、それぞれが3次元位置情報を有する3次元形状要素から構成される3次元空間データを作成する3次元空間データ作成手段と、
前記所定の実空間内の領域を撮影可能な複数の定点からそれぞれ画像を取得する画像取得手段と、
前記取得された画像のそれぞれのピクセルの位置情報と、それぞれのピクセルが示す1又は複数の前記3次元形状要素の3次元位置情報とを関連付けたテーブルを作成するテーブル作成手段と、
前記3次元形状要素が関連付けられた1又は複数の前記ピクセルの色情報に基づいて前記仮想オブジェクトを描画するための前記3次元形状要素の色情報を決定する色情報決定手段と、
前記取得された画像のそれぞれのピクセルの色情報の変化に基づいて前記仮想オブジェクトを描画するための前記3次元形状要素の色情報を更新する色情報更新手段と、
を備えるシステム。
To create a mixed reality environment for superimposing and drawing a three-dimensional virtual object on a real space or a captured image of a real space that is visually recognized by a user through a display unit of a portable display device in a predetermined real space System,
Three-dimensional spatial data creating means for creating three-dimensional spatial data composed of three-dimensional shape elements each having three-dimensional position information based on point cloud data of a real object in the predetermined real space;
Image acquisition means for acquiring images from a plurality of fixed points capable of capturing an area in the predetermined real space;
Table creation means for creating a table in which position information of each pixel of the acquired image is associated with three-dimensional position information of one or more of the three-dimensional shape elements indicated by each pixel;
Color information determining means for determining color information of the three-dimensional shape element for drawing the virtual object based on color information of one or a plurality of the pixels associated with the three-dimensional shape element;
Color information updating means for updating color information of the three-dimensional shape element for drawing the virtual object based on a change in color information of each pixel of the acquired image;
A system comprising:
JP2017001926A 2017-01-10 2017-01-10 System for creating a mixed reality environment Active JP6134874B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017001926A JP6134874B1 (en) 2017-01-10 2017-01-10 System for creating a mixed reality environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017001926A JP6134874B1 (en) 2017-01-10 2017-01-10 System for creating a mixed reality environment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016121928A Division JP6088094B1 (en) 2016-06-20 2016-06-20 System for creating a mixed reality environment

Publications (2)

Publication Number Publication Date
JP6134874B1 true JP6134874B1 (en) 2017-05-24
JP2017228268A JP2017228268A (en) 2017-12-28

Family

ID=58745756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017001926A Active JP6134874B1 (en) 2017-01-10 2017-01-10 System for creating a mixed reality environment

Country Status (1)

Country Link
JP (1) JP6134874B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111148967A (en) * 2017-09-29 2020-05-12 松下电器(美国)知识产权公司 Three-dimensional data creation method, client device, and server
CN111954896A (en) * 2018-04-12 2020-11-17 凸版印刷株式会社 Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method, and image display method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033531A (en) * 2006-07-27 2008-02-14 Canon Inc Method for processing information
JP2009199284A (en) * 2008-02-21 2009-09-03 Univ Of Tokyo Road object recognition method
JP2014120079A (en) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> Shading information derivation device, shading information derivation method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033531A (en) * 2006-07-27 2008-02-14 Canon Inc Method for processing information
JP2009199284A (en) * 2008-02-21 2009-09-03 Univ Of Tokyo Road object recognition method
JP2014120079A (en) * 2012-12-18 2014-06-30 Nippon Telegr & Teleph Corp <Ntt> Shading information derivation device, shading information derivation method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111148967A (en) * 2017-09-29 2020-05-12 松下电器(美国)知识产权公司 Three-dimensional data creation method, client device, and server
CN111148967B (en) * 2017-09-29 2024-03-08 松下电器(美国)知识产权公司 Three-dimensional data creation method, client device, and server
CN111954896A (en) * 2018-04-12 2020-11-17 凸版印刷株式会社 Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method, and image display method

Also Published As

Publication number Publication date
JP2017228268A (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP6088094B1 (en) System for creating a mixed reality environment
US10896497B2 (en) Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
JP4804256B2 (en) Information processing method
JP4185052B2 (en) Enhanced virtual environment
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
KR101861313B1 (en) Three-dimensional environment reconstruction
TWI494898B (en) Extracting and mapping three dimensional features from geo-referenced images
CN105190703A (en) Using photometric stereo for 3D environment modeling
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
MX2013003853A (en) Rapid 3d modeling.
JP2018106661A (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
Remondino et al. Design and implement a reality-based 3D digitisation and modelling project
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
EP4134917A1 (en) Imaging systems and methods for facilitating local lighting
Reitinger et al. Augmented reality scouting for interactive 3d reconstruction
JP7475022B2 (en) Method and device for generating 3D maps of indoor spaces
JP6134874B1 (en) System for creating a mixed reality environment
CN114283243A (en) Data processing method and device, computer equipment and storage medium
JP2015099545A (en) Image generation system and image generation program
Santos et al. Supporting outdoor mixed reality applications for architecture and cultural heritage
CN114332207A (en) Distance determination method and device, computer equipment and storage medium
JP2008203991A (en) Image processor
CN113822936A (en) Data processing method and device, computer equipment and storage medium
Lai Augmented Reality visualization of building information model

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6134874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250