JP2018106661A - Inconsistency detection system, mixed reality system, program, and inconsistency detection method - Google Patents

Inconsistency detection system, mixed reality system, program, and inconsistency detection method Download PDF

Info

Publication number
JP2018106661A
JP2018106661A JP2017130358A JP2017130358A JP2018106661A JP 2018106661 A JP2018106661 A JP 2018106661A JP 2017130358 A JP2017130358 A JP 2017130358A JP 2017130358 A JP2017130358 A JP 2017130358A JP 2018106661 A JP2018106661 A JP 2018106661A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
virtual object
user
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017130358A
Other languages
Japanese (ja)
Inventor
修一 倉林
Shuichi Kurabayashi
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2017130358A priority Critical patent/JP2018106661A/en
Publication of JP2018106661A publication Critical patent/JP2018106661A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a system which can detect a geometric inconsistency in a mixed reality system.SOLUTION: The inconsistency detection system in a mixed reality system comprises a portable display device which has a see-through display unit and a photography unit which photographs a real space, where a virtual object is rendered on the display unit and a user views the same within a prescribed real space. The mixed reality system comprises: means to store three-dimensional spatial data; means to determine a user environment; and means to render the virtual object on the display unit on the basis of the user environment. First point group data is generated from a composite image which is obtained by displaying the virtual object superimposed on a naked-eye visual field image, second point group data is generated using point group data of the virtual object and point group data of the three-dimensional space in the determined user environment, and an inconsistency is detected on the basis of a result of a comparison between the first point group data and the second point group data.SELECTED DRAWING: Figure 1

Description

本発明は、不整合検出システム等に関し、特に所定の実空間内にいるユーザに対して複合現実感を体感させることができる複合現実システムにおける不整合検出システム等に関する。   The present invention relates to an inconsistency detection system and the like, and more particularly to an inconsistency detection system and the like in a mixed reality system that allows a user in a predetermined real space to experience mixed reality.

近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術は、これを体験するユーザに対して、あたかもその場に仮想の物体が存在するかのような体験を行わせることができ、様々な分野で注目を集めている。ユーザは、光学シースルー型HMD(Head Mounted Display)やビデオシースルー型HMDを装着することにより、HMDに重畳表示された複合現実画像を確認することができ、複合現実感を体験することができる。   In recent years, a mixed reality, so-called MR (Mixed Reality) technology has been known as a technology for seamlessly combining the real world and the virtual world in real time. MR technology can make a user who experiences this experience feel as if a virtual object exists on the spot, and is attracting attention in various fields. The user can confirm the mixed reality image superimposed on the HMD by wearing an optical see-through HMD (Head Mounted Display) or a video see-through HMD, and can experience mixed reality.

現実世界を3D空間として認識する技術としては、ユーザ視点の高精度なカメラを搭載する手法と、観測対象空間を取り囲むようにカメラを設置する手法の2つが知られている。   There are two known technologies for recognizing the real world as a 3D space: a method of mounting a highly accurate camera from the user's viewpoint and a method of installing a camera so as to surround the observation target space.

ユーザ視点の高精度なカメラを搭載する手法としては、赤外線プロジェクタと赤外線カメラを用いる手法がある。例えば、ユーザ視点の高精度なカメラを搭載する手法としては、赤外線を照射し、その反射パターンの歪みから、物体の深度を計測する手法がある。また、Time of Flight法(TOF法)と呼ばれる手法では、赤外線などの不可視光を照射し、その反射結果を計測することにより、対象物までの往復の距離を算出する手法がある。これらの方式は、3次元化できる空間が、赤外線の到達範囲に限定され、また、太陽効果で使用できないという問題点がある。   As a method for mounting a highly accurate camera from the user's viewpoint, there is a method using an infrared projector and an infrared camera. For example, as a technique for mounting a highly accurate camera from the user's viewpoint, there is a technique for irradiating infrared rays and measuring the depth of an object from the distortion of the reflection pattern. In addition, in a method called Time of Flight method (TOF method), there is a method of calculating a reciprocating distance to an object by irradiating invisible light such as infrared rays and measuring a reflection result thereof. These systems have a problem that the space that can be three-dimensional is limited to the infrared reachable range and cannot be used due to the solar effect.

また、極めて高精度な3次元情報を撮影する手法としては、3Dレーザスキャナを用いる方式がある。本方式は、高い測定精度を実現できるが、360度の測定を行うために、最低でも10分程度、標準画質で30分間程度の時間を要する。したがって、リアルタイムの用途には適用できない。また、3Dレーザスキャナは、1台が数百〜数千万円と非常に高価であり、広域に大量配備するには適さない。3Dレーザスキャナは以上のような特性から、土木における測量や工場内のレイアウト確認などの、長時間かけて高精度な3D化を行う用途に用いられている。例えば特許文献1は、3Dイメージスキャナでスキャンして作成した点群データに対して、カメラで撮影した画像の色を付与することで、現実世界を3D空間として認識する技術を実現している。   In addition, as a method for photographing extremely accurate three-dimensional information, there is a method using a 3D laser scanner. Although this method can achieve high measurement accuracy, it takes a time of at least about 10 minutes and a standard image quality of about 30 minutes to perform a 360 degree measurement. Therefore, it cannot be applied to real-time usage. In addition, one 3D laser scanner is very expensive at several hundred to several tens of millions of yen, and is not suitable for mass deployment in a wide area. Due to the above characteristics, the 3D laser scanner has been used for high-precision 3D conversion over a long period of time, such as surveying in civil engineering and layout confirmation in factories. For example, Patent Document 1 realizes a technology for recognizing the real world as a 3D space by adding the color of an image captured by a camera to point cloud data created by scanning with a 3D image scanner.

観測対象空間を取り囲むようにカメラを設置する手法としては、非特許文献1に示すStructure−from−Motion(SfM)と呼ばれる技術を用いて、複数の、ばらばらに撮影された画像から、元の3次元情報を復元する方式が挙げられる。この方式を採用する代表的な製品としては、Microsoft Photosynth(登録商標)がある。SfMが実現する精度は、MR技術が要求する精度との比較においては相対的に低いものの、安価に3Dモデルを構築できる方式である。しかしながら、リアルタイム性は低く、そのままではMR環境の実現に適用することはできない。   As a method of installing a camera so as to surround the observation target space, a technique called Structure-from-Motion (SfM) shown in Non-Patent Literature 1 is used to obtain a plurality of images taken from a plurality of disjoint images. A method for restoring the dimension information can be mentioned. A typical product that adopts this method is Microsoft Photosynthesis (registered trademark). Although the accuracy realized by SfM is relatively low in comparison with the accuracy required by the MR technology, it is a method that can construct a 3D model at low cost. However, the real-time property is low and cannot be applied to the realization of the MR environment as it is.

上述のとおり、これらの手法では、リアルタイム性と高精度な測定を同時に実現できない。   As described above, these methods cannot simultaneously realize real-time performance and high-accuracy measurement.

特開2013−69235号公報JP 2013-69235 A

Sameer Agarwal, Yasutaka Furukawa, Noah Snavely, Ian Simon, Brian Curless, Steven M. Seitz, and Richard Szeliski. 2011. Building Rome in a day. Commun. ACM 54, 10 (October 2011), 105-112. DOI=http://dx.doi.org/10.1145/2001269.2001293Sameer Agarwal, Yasutaka Furukawa, Noah Snavely, Ian Simon, Brian Curless, Steven M. Seitz, and Richard Szeliski. 2011. Building Rome in a day. Commun. ACM 54, 10 (October 2011), 105-112. DOI = http : //dx.doi.org/10.1145/2001269.2001293

上述のとおり、現実世界の構造や環境をリアルタイムかつ高精度に認識してそれを仮想空間に反映する方法は、未だ確立されていない。このような状況において、本出願人は、特願2016−121928において、複合現実環境において実空間の環境をリアルタイムに認識することができる複合現実システムを提案している。   As described above, a method for recognizing a real-world structure and environment in real time with high accuracy and reflecting it in the virtual space has not yet been established. Under such circumstances, the present applicant has proposed a mixed reality system capable of recognizing the real space environment in real time in the mixed reality environment in Japanese Patent Application No. 2006-121928.

当該複合現実システムは、実空間と極めて高い精度で一致する構造及び色彩を有する高精度の3次元仮想空間を生成し、これにより、現実世界の光の状態を利用したグローバルイルミネーションを実現し、またユーザの高精度なポジショントラッキングを実現する。   The mixed reality system generates a high-accuracy three-dimensional virtual space having a structure and color that matches the real space with extremely high accuracy, thereby realizing global illumination using the state of light in the real world. Realize highly accurate position tracking of users.

ここで、当該複合現実システムの主目的の1つは、仮想空間の物体(仮想オブジェクト)と実空間の地面や建物などの物体(実オブジェクト)とがほぼ正確に接触する、継ぎ目の無い複合現実空間をユーザに提供することである。   Here, one of the main purposes of the mixed reality system is a seamless mixed reality in which an object in the virtual space (virtual object) and an object such as the ground or building in the real space (real object) almost exactly contact each other. It is to provide space to the user.

上記のような複合現実システムを実現するためには、仮想オブジェクトと、実オブジェクトとを正しく重畳させる幾何学的整合性を、HMDの現在位置や移動に合わせてリアルタイムに維持することが必要となる。特に、仮想的なキャラクタ(仮想オブジェクト)として、地面に立ったり物に触れたりする人間や動物を表示するときの、境界線処理(アラインメント処理)の完全性、すなわち幾何学的整合性は、仮想オブジェクトにリアリティを与えるうえで、極めて重要である。   In order to realize the mixed reality system as described above, it is necessary to maintain the geometric consistency in which the virtual object and the real object are correctly superimposed in real time according to the current position and movement of the HMD. . In particular, when displaying humans and animals standing on the ground or touching objects as virtual characters (virtual objects), the integrity of the boundary processing (alignment processing), that is, geometrical consistency, is virtual. It is extremely important to give reality to objects.

しかしながら、光学シースルー型HMDでは、仮想オブジェクトを重畳する対象としての実オブジェクトを映像(画像)処理の対象にすることはできず、単純な光学的な重畳しかできないため、アラインメント処理の完全性を担保することは極めて難しい。アラインメント処理の完全性(幾何学的整合性)はユーザのポジショントラッキングの精度に依存するものであるが、仮想オブジェクトと、実オブジェクトとの幾何学的不整合は、ポジショントラッキングの誤差の累積などにより発生するものである。しかしながら、複合現実システムにおけるポジショントラッキングに使用される自己位置推定技術単体では、幾何学的不整合を発生させる、数センチ単位の認識誤差を自己検出(自己診断)することはできないという問題があった。   However, in the optical see-through type HMD, a real object as a target for superimposing a virtual object cannot be a target for video (image) processing, and only simple optical superimposition can be performed, thereby ensuring alignment processing integrity. It is extremely difficult to do. The integrity of the alignment process (geometric consistency) depends on the accuracy of the user's position tracking, but the geometric mismatch between the virtual object and the real object depends on the accumulation of position tracking errors. It is what happens. However, the self-position estimation technique used for position tracking in a mixed reality system has a problem that it cannot self-detect (self-diagnose) a recognition error of several centimeters that causes geometric mismatch. .

本発明は、このような課題を解決するためになされたものであり、光学シースルー型HMDを用いた複合現実システムにおいて、仮想空間の物体と、実空間の物体との幾何学的整合性に矛盾が発生したときに不整合を検出することができる不整合検出システムを提供することを主目的とする。   The present invention has been made to solve such problems, and in a mixed reality system using an optical see-through HMD, there is a contradiction in the geometric consistency between an object in a virtual space and an object in a real space. It is a main object of the present invention to provide a mismatch detection system capable of detecting a mismatch when an error occurs.

上記の目的を達成するために、本発明の一態様としての不整合検出システムは、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出システムであって、上記複合現実システムは、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、を備えることを特徴とする。   In order to achieve the above object, an inconsistency detection system according to one aspect of the present invention is portable having a transmissive display unit for displaying a virtual object to a user and a photographing unit for photographing a real space. Inconsistency detection system in a mixed reality system that includes a display device and allows a user to visually recognize a virtual object superimposed on the real space through the display unit by drawing the virtual object on the display unit in a predetermined real space In the mixed reality system, three-dimensional space data including point cloud data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information, is obtained. Based on the three-dimensional spatial data storage means for storing, the data acquired from the sensor provided in the display device, and the three-dimensional spatial data A user environment determining unit that determines a user environment including a position of the display device and a visual field area visually recognized by the user through the display unit, and a drawing unit that draws a virtual object on the display unit based on the user environment. From the synthesized image obtained by superimposing the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit generated from the photographed real space image, the real object And first point cloud data generation means for generating first point cloud data that is point cloud data of the virtual object, and storage by the three-dimensional spatial data storage means in the field-of-view area determined by the user environment determination means. Using the point cloud data thus created and the point cloud data of the virtual object drawn by the drawing means. Second point cloud data generating means for generating point cloud data; and mismatch detection means for detecting mismatch based on a comparison result between the first point cloud data and the second point cloud data. It is characterized by that.

また、本発明において好ましくは、上記撮影部は、実空間をステレオ画像として取得するものであり、第1の点群データ生成手段は、上記ステレオ画像として取得された2つの実空間画像からそれぞれ生成された上記表示部を通してユーザが視認する各実空間画像に上記描画手段により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像から、上記第1の点群データを生成する。   In the present invention, it is preferable that the photographing unit acquires a real space as a stereo image, and the first point cloud data generation unit generates each of the two real space images acquired as the stereo image. The first point cloud data is generated from each composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on each real space image visually recognized by the user through the display unit.

また、本発明において好ましくは、上記第1の点群データ生成手段は、上記撮影された実空間画像を、上記表示部と上記撮像部の位置関係に基づいて射影変換することにより上記表示部を通してユーザが視認する実空間画像を生成する。   In the present invention, it is preferable that the first point cloud data generation unit performs projective transformation on the photographed real space image based on a positional relationship between the display unit and the imaging unit, thereby passing through the display unit. A real space image visually recognized by the user is generated.

また、本発明において好ましくは、上記不整合検出手段は、上記第1の点群データ及び上記第2の点群データの差が所定量を超えた場合に不整合を検出する。   In the present invention, it is preferable that the inconsistency detection unit detects inconsistency when a difference between the first point cloud data and the second point cloud data exceeds a predetermined amount.

また、本発明において好ましくは、上記不整合検出手段は、上記ユーザ環境に基づいて描画される仮想オブジェクトを含む所定の3次元空間領域において上記第1の点群データ及び上記第2の点群データの差が所定量を超えた場合に不整合を検出する。   In the present invention, it is preferable that the inconsistency detection unit includes the first point cloud data and the second point cloud data in a predetermined three-dimensional space area including a virtual object drawn based on the user environment. A mismatch is detected when the difference between the two exceeds a predetermined amount.

また、上記の目的を達成するために、本発明の一態様としての複合現実システムは、サーバと、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置とを備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムであって、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、の各手段を上記サーバ又は上記表示装置が備えることを特徴とする。   In order to achieve the above object, a mixed reality system as one aspect of the present invention includes a server, a transmissive display unit for displaying a virtual object to a user, and a photographing unit for photographing a real space. And a portable display device that includes a portable display device that draws a virtual object on the display unit in a predetermined real space so that the user can visually recognize the virtual object superimposed on the real space through the display unit. 3D space data for storing 3D space data including point cloud data each having 3D position information, which is point cloud data of a real object in the predetermined real space acquired in advance. Based on the data acquired from the sensor provided in the storage device and the display device and the three-dimensional spatial data, the position of the display device and the display unit are determined. And a user environment determining means for determining a user environment including a visual field area visually recognized by the user, a drawing means for drawing a virtual object on the display unit based on the user environment, and the captured real space image. A first point cloud that is point cloud data of the real object and the virtual object from the composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit First point cloud data generating means for generating data, point cloud data stored by the three-dimensional spatial data storage means in the field of view determined by the user environment determining means, and virtual drawn by the drawing means Second point cloud data generating means for generating second point cloud data using the point cloud data of the object; Inconsistent detecting means for detecting a mismatch based on the first point group data and the comparison result of the second point group data, the means of the characterized in that it comprises the said server or said display device.

また、上記の目的を達成するために、本発明の一態様としてのプログラムは、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおいて不整合を検出するためのプログラムであって、上記複合現実システムは、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、上記プログラムは、上記表示装置に、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出するステップと、を実行させることを特徴とする。   In order to achieve the above object, a program according to one aspect of the present invention is portable having a transparent display unit for displaying a virtual object to a user and a photographing unit for photographing a real space. An inconsistency is detected in a mixed reality system that includes a display device and draws a virtual object on the display unit in a predetermined real space so that the user can visually recognize the virtual object over the real space through the display unit. The mixed reality system is a three-dimensional program including point cloud data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information. Three-dimensional spatial data storage means for storing spatial data; data acquired from sensors included in the display device; and the three-dimensional spatial data A user environment determining unit that determines a user environment including a position of the display device and a visual field area visually recognized by the user through the display unit, and a drawing unit that draws a virtual object on the display unit based on the user environment The program superimposes on the display device a virtual object drawn by the drawing means on a real space image visually recognized by the user through the display unit generated from the photographed real space image. Generating first point cloud data that is point cloud data of a real object and a virtual object from a composite image obtained by displaying, and the three-dimensional space in the field-of-view area determined by the user environment determining means Point cloud data stored by the data storage means and virtual objects drawn by the drawing means Generating second point cloud data using the point cloud data of the target, and detecting inconsistencies based on a comparison result between the first point cloud data and the second point cloud data. It is made to perform.

また、上記の目的を達成するために、本発明の一態様としての不整合検出方法は、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出方法であって、上記複合現実システムは、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出するステップと、を有することを特徴とする。   In order to achieve the above object, an inconsistency detection method according to an aspect of the present invention includes a transmissive display unit for displaying a virtual object to a user and a photographing unit for photographing a real space. Inconsistency in a mixed reality system that includes a portable display device and allows a user to visually recognize a virtual object superimposed on the real space through the display unit by drawing the virtual object on the display unit in a predetermined real space In the detection method, the mixed reality system is a three-dimensional space including point cloud data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information. Based on the three-dimensional spatial data storage means for storing data, the data acquired from the sensor included in the display device, and the three-dimensional spatial data User environment determining means for determining a user environment including a position of a display device and a visual field area visually recognized by the user through the display section, and a drawing means for drawing a virtual object on the display section based on the user environment From the composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit generated from the photographed real space image, the real object and Generating first point cloud data which is point cloud data of a virtual object; point cloud data stored by the 3D spatial data storage means in the field of view determined by the user environment determining means; and the drawing Second point cloud data is generated using the point cloud data of the virtual object drawn by the means A step that is characterized by having the steps of: detecting a mismatch based on a comparison result of the first point group data and the second point group data.

本発明によれば、光学シースルー型HMDを用いた複合現実システムにおいて、仮想空間の物体と、実空間の物体との幾何学的整合性に矛盾が発生したときに不整合を検出することができる。   According to the present invention, in a mixed reality system using an optical see-through HMD, inconsistency can be detected when a contradiction occurs in the geometric consistency between a virtual space object and a real space object. .

本発明の一実施形態によるMRシステムの全体構成図である。1 is an overall configuration diagram of an MR system according to an embodiment of the present invention. 本発明の一実施形態によるポジショントラッキングの概要を示す図である。It is a figure which shows the outline | summary of the position tracking by one Embodiment of this invention. 本発明の一実施形態によるMRシステムにおいて現実世界の壁に仮想世界のキャラクタがもたれかかる状況を示す図である。It is a figure which shows the condition where the character of a virtual world leans against the wall of the real world in MR system by one Embodiment of this invention. 本発明の一実施形態によるMRシステムにおいて現実世界の壁に仮想世界のキャラクタがもたれかかる状況を示す図である。It is a figure which shows the condition where the character of a virtual world leans against the wall of the real world in MR system by one Embodiment of this invention. 本発明の一実施形態によるサーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the server by one Embodiment of this invention. 本発明の一実施形態による表示装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the display apparatus by one Embodiment of this invention. 本発明の一実施形態によるHMDの概略構成図の一実施例である。It is an example of the schematic block diagram of HMD by one Embodiment of this invention. 本発明の一実施形態による実空間の概観図である。1 is an overview of real space according to an embodiment of the present invention. 図8の実空間を上から見た平面図である。It is the top view which looked at the real space of FIG. 8 from the top. 図8の実空間において取得された点群データにより表現された3次元空間データである。It is the three-dimensional space data expressed by the point cloud data acquired in the real space of FIG. 図10の点群データから作成されたボクセルにより表現された3次元空間データである。It is the three-dimensional space data expressed by the voxel created from the point cloud data of FIG. 本発明の一実施形態によるMRシステムの機能ブロック図である。It is a functional block diagram of MR system by one Embodiment of this invention. 本発明の一実施形態による第1の点群データ及び第2の点群データの生成を説明する概略図である。It is the schematic explaining the production | generation of the 1st point cloud data and 2nd point cloud data by one Embodiment of this invention. 本発明の一実施形態による第1の点群データ及び第2の点群データの生成を説明する概略図である。It is the schematic explaining the production | generation of the 1st point cloud data and 2nd point cloud data by one Embodiment of this invention. 本発明の一実施形態による不整合検出システムの機能ブロック図である。It is a functional block diagram of the inconsistency detection system by one Embodiment of this invention. 本発明の一実施形態による、MRシステムにおける不整合を検出する情報処理を示すフローチャートである。6 is a flowchart illustrating information processing for detecting inconsistencies in an MR system according to an embodiment of the present invention. 本発明の一実施形態による実空間の概観図である。1 is an overview of real space according to an embodiment of the present invention.

以下、図面を参照して、ユーザに対して仮想空間と現実空間とを融合した複合現実空間を提供する複合現実(MR)システム、及び当該MRシステムにおける不整合検出システムについて説明する。なお各図において同一の符号は、特に言及が無い限り同一又は相当部分を示すものとする。   Hereinafter, a mixed reality (MR) system that provides a mixed reality space in which a virtual space and a real space are fused to a user and a mismatch detection system in the MR system will be described with reference to the drawings. In the drawings, the same reference numerals denote the same or corresponding parts unless otherwise specified.

本発明の実施形態によるMRシステムの技術的特徴の1つは、当該MRシステムは予め定められた実空間(所定の実空間)において実現するものであり、実空間と極めて高い精度で一致する構造及び色彩を有する高精度の3次元仮想空間を生成することである。これにより、ユーザの高精度なポジショントラッキングを実現することが可能となる。   One of the technical features of the MR system according to the embodiment of the present invention is that the MR system is realized in a predetermined real space (predetermined real space), and has a structure that matches the real space with extremely high accuracy. And generating a highly accurate three-dimensional virtual space having colors. Thereby, it becomes possible to realize highly accurate position tracking of the user.

図2は、ユーザがいる現実世界21と、3次元空間データ(DB)により構築される仮想世界22と、これらをマッチングして生成されたMRシステムにおける複合現実世界(MR環境)23とを示す。MR環境23において、一般的にユーザはHMD等の表示部を有する装置を装着する。HMDには各種センサ機器が搭載されているが、現実世界21の構造を高精度に認識してそれを仮想空間22に反映するMR環境23を実現するためには、従来使用されるセンサの計測精度では十分ではない。   FIG. 2 shows a real world 21 in which a user is present, a virtual world 22 constructed by three-dimensional spatial data (DB), and a mixed real world (MR environment) 23 in an MR system generated by matching them. . In the MR environment 23, the user generally wears a device having a display unit such as an HMD. Various types of sensor devices are mounted on the HMD. In order to realize the MR environment 23 that recognizes the structure of the real world 21 with high accuracy and reflects it in the virtual space 22, measurement of sensors used in the past is used. Accuracy is not enough.

そこで、本実施形態のMRシステムは、従来使用される各種センサから得られる大まかな位置情報と高精度の仮想空間22とのマッチングを行い、実空間21と仮想空間22におけるユーザの位置やユーザの向いている方向のずれをリアルタイムに補正する。従来使用される各種センサは、例えば、距離センサ、画像センサ、方向センサ、GPSセンサ、Bluetooth(登録商標)ビーコンなどである。これにより、現実と高精度にリンクするMR環境23を実現し、ユーザのポジショントラッキングを実現する。このようなMR環境23においては、仮想世界22の台26の上にキャラクタ24を立たせる場合、ユーザは現実世界21の台25の上に違和感なくキャラクタ24が立っていることを視認することができる。なお台26は、MR環境23において仮想オブジェクトとして表示されるものではない。   Therefore, the MR system of the present embodiment performs matching between rough position information obtained from various conventionally used sensors and the high-precision virtual space 22, and the user's position in the real space 21 and the virtual space 22 and the user's position. Correct the deviation in the direction you are facing in real time. Conventionally used various sensors include a distance sensor, an image sensor, a direction sensor, a GPS sensor, a Bluetooth (registered trademark) beacon, and the like. As a result, the MR environment 23 that links the reality and the high accuracy is realized, and the position tracking of the user is realized. In such an MR environment 23, when the character 24 stands on the platform 26 of the virtual world 22, the user can visually recognize that the character 24 stands on the platform 25 of the real world 21 without a sense of incongruity. it can. The stand 26 is not displayed as a virtual object in the MR environment 23.

前述のとおり、本実施形態のMRシステムにおいては、仮想オブジェクトを表示するときの実オブジェクト(建物、ベンチなど)との幾何学的整合性(衝突関係、前後関係、オクルージョンなど)は、仮想オブジェクトにリアリティを与えるうえで、極めて重要である。例えば、図3及び図4は、現実世界21の壁に仮想世界22のキャラクタ24がもたれかかる状況を示すものである。図3においては、仮想的なキャラクタ(仮想オブジェクト)24の腕が過剰に壁(実オブジェクト)27に埋没しており、図4においては、仮想的なキャラクタ24の一部が不必要に削れてしまっている。このような表示は、リアリティを著しく損なうため防止する必要がある。しかしながら、上記のポジショントラッキングに使用される自己位置推定技術は、3次元空間の認識エラーを自己検出することはできない。   As described above, in the MR system of the present embodiment, geometrical consistency (collision relationship, context, occlusion, etc.) with a real object (building, bench, etc.) when displaying a virtual object is included in the virtual object. It is extremely important in providing reality. For example, FIGS. 3 and 4 show a situation in which the character 24 of the virtual world 22 leans against the wall of the real world 21. In FIG. 3, the arm of the virtual character (virtual object) 24 is excessively buried in the wall (real object) 27. In FIG. 4, a part of the virtual character 24 is unnecessarily shaved. I'm stuck. Such a display must be prevented because it impairs the reality. However, the self-position estimation technique used for the position tracking described above cannot self-detect a three-dimensional space recognition error.

本発明の実施形態による不整合検出システムは、例えば図3及び図4のように、仮想オブジェクトと、実オブジェクトとの幾何学的整合性に矛盾が発生したときに不整合を検出するものである。以下に具体的な構成を説明するが、説明の便宜上、最初に不整合検出システムを包含するMRシステムについて説明する。   The inconsistency detection system according to the embodiment of the present invention detects an inconsistency when a contradiction occurs in the geometric consistency between a virtual object and a real object, for example, as shown in FIGS. . A specific configuration will be described below. For convenience of explanation, an MR system including a mismatch detection system will be described first.

図1は、本発明の実施形態によるMRシステム10の全体構成図の一例である。図1に示すように、MRシステム10は、サーバ100と、1又は複数の表示装置200と、1又は複数の画像取得装置300とを含む。サーバ100、表示装置200、及び画像取得装置300は、インターネットなどのネットワーク50に接続され、互いに通信可能である。なお、画像取得装置300は、MRシステム10において、実オブジェクトの陰影と、仮想オブジェクトとが違和感なく表示される光学的整合性をリアルタイムに維持するために必要な装置である。そのため、本発明の実施形態によるMRシステム10は、画像取得装置300を含まなくてもよい。   FIG. 1 is an example of an overall configuration diagram of an MR system 10 according to an embodiment of the present invention. As shown in FIG. 1, the MR system 10 includes a server 100, one or more display devices 200, and one or more image acquisition devices 300. The server 100, the display device 200, and the image acquisition device 300 are connected to a network 50 such as the Internet and can communicate with each other. Note that the image acquisition device 300 is a device necessary for maintaining in real time the optical consistency in which the shadow of the real object and the virtual object are displayed without a sense of incongruity in the MR system 10. Therefore, the MR system 10 according to the embodiment of the present invention may not include the image acquisition device 300.

MRシステム10は、サーバ-クライアントシステムを想定しており、好ましくは、表示装置200と画像取得装置300は、サーバ100とのみ通信を行う。ただし、PtoPのようなサーバのないシステムで構成することもできる。   The MR system 10 is assumed to be a server-client system. Preferably, the display device 200 and the image acquisition device 300 communicate only with the server 100. However, it can be configured by a system without a server such as PtoP.

MRシステム10は、所定の実空間内にいるユーザに対して、複合現実感を体感させることができるものである。所定の実空間は、予め定められた屋内又は屋外の実空間であり、該空間内には、現実世界におけるオブジェクトである実オブジェクトが存在する。実オブジェクトは、例えば建物、ベンチ、壁などの構造物であり、実空間内に固定されたものである。ただし、移動可能な物を実オブジェクトに含めてもよい。   The MR system 10 allows a user in a predetermined real space to experience mixed reality. The predetermined real space is a predetermined indoor or outdoor real space, and a real object that is an object in the real world exists in the space. The real object is a structure such as a building, a bench, or a wall, and is fixed in the real space. However, a movable object may be included in the real object.

図5は本発明の実施形態によるサーバ100のハードウェア構成を示すブロック図である。サーバ100は、処理部101、表示部102、入力部103、記憶部104及び通信部105を備える。これらの各構成部はバス110によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。   FIG. 5 is a block diagram showing a hardware configuration of the server 100 according to the embodiment of the present invention. The server 100 includes a processing unit 101, a display unit 102, an input unit 103, a storage unit 104, and a communication unit 105. Each of these components is connected by the bus 110, but may be individually connected as necessary.

処理部101は、サーバ100が備える各部を制御するプロセッサ(例えばCPU)を備えており、記憶部104をワーク領域として各種処理を行う。サーバ100が仮想オブジェクトを描画する場合、処理部101は、CPUとは別に、描画処理を行うGPUを備えるのが好ましい。   The processing unit 101 includes a processor (for example, a CPU) that controls each unit included in the server 100, and performs various processes using the storage unit 104 as a work area. When the server 100 draws a virtual object, the processing unit 101 preferably includes a GPU that performs drawing processing separately from the CPU.

表示部102はサーバ使用者に情報を表示するものであり、入力部103は、サーバ100に対するユーザからの入力を受け付けるものであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。   The display unit 102 displays information to the server user, and the input unit 103 receives input from the user to the server 100, and is, for example, a touch panel, a touch pad, a keyboard, or a mouse.

記憶部104は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラムが記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部104には、プログラムや当該プログラムの実行に伴って参照され得る各種データが記憶される。処理部101がGPUを備える場合、記憶部104はビデオメモリを含むことができる。   The storage unit 104 includes a hard disk, a main memory, and a buffer memory. A program is stored in the hard disk. However, the hard disk may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable. The storage unit 104 stores a program and various data that can be referred to when the program is executed. When the processing unit 101 includes a GPU, the storage unit 104 can include a video memory.

記憶部104は各種データベース用のデータ(例えばテーブル)やプログラムを記憶することができる。処理部101の動作などにより、各種データベースは実現される。例えば、サーバ100は、データベースサーバ機能を備えることもできるし、データベースサーバを含むこともできるし、又は他のサーバを含む若しくは備えることもできる。1つの例では、サーバ100は、仮想空間を構築する3次元空間データについてのデータベースを備え、記憶部104は、当該データベース用のデータ及びプログラムを記憶する。   The storage unit 104 can store data (for example, tables) and programs for various databases. Various databases are realized by the operation of the processing unit 101 and the like. For example, the server 100 may have a database server function, may include a database server, or may include or include other servers. In one example, the server 100 includes a database for three-dimensional spatial data that constructs a virtual space, and the storage unit 104 stores data and programs for the database.

通信部105はイーサネット(登録商標)ケーブル等を用いた有線通信や移動体通信、無線LAN等の無線通信を行い、ネットワーク50へ接続する。   The communication unit 105 performs wired communication using an Ethernet (registered trademark) cable, mobile communication, wireless communication such as a wireless LAN, and connects to the network 50.

サーバ100は、プログラムが実行されることによって様々な機能が実現されるが、これらの機能の一部は電子回路等を構成することによっても実現できる。   The server 100 realizes various functions by executing a program, but some of these functions can also be realized by configuring an electronic circuit or the like.

1つの例では、サーバ100は、機能やエリアごとに設置された複数のサーバを組み合わせて構成される。例えば、所定の実空間を複数のエリアに分割し、各エリアに1台のサーバを設置するとともに、それらのサーバを統合するサーバを設置する構成とすることもできる。   In one example, the server 100 is configured by combining a plurality of servers installed for each function or area. For example, a predetermined real space may be divided into a plurality of areas, and one server may be installed in each area, and a server that integrates these servers may be installed.

1つの例では、サーバ100が仮想オブジェクトを描画する場合、CPUはメインメモリに描画コマンドを書き込み、GPUは描画コマンドを参照してビデオメモリ上のフレームバッファに描画データを書き込む。その後、フレームバッファから読み取ったデータをそのまま表示装置200に送信する。   In one example, when the server 100 draws a virtual object, the CPU writes a drawing command in the main memory, and the GPU writes drawing data in a frame buffer on the video memory with reference to the drawing command. Thereafter, the data read from the frame buffer is transmitted to the display device 200 as it is.

図6は本発明の実施形態による表示装置200のハードウェア構成を示すブロック図である。表示装置200は、処理部201と、表示部202と、撮影部203と、記憶部204と、通信部205と、センサ206とを備える。これらの各構成部はバス210によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。   FIG. 6 is a block diagram showing a hardware configuration of the display device 200 according to the embodiment of the present invention. The display device 200 includes a processing unit 201, a display unit 202, a photographing unit 203, a storage unit 204, a communication unit 205, and a sensor 206. Each of these components is connected by the bus 210, but each may be individually connected as necessary.

表示装置200は、ユーザが携帯可能なものであり、好ましくは、頭部に装着可能な頭部搭載型画像表示装置(HMD)である。以下、本発明の実施形態においては、表示装置200としてHMD200を用いるものとする。   The display device 200 is portable by the user, and is preferably a head-mounted image display device (HMD) that can be worn on the head. Hereinafter, in the embodiment of the present invention, the HMD 200 is used as the display device 200.

処理部201は、HMD200が備える各部を制御するプロセッサ(例えばCPU)を備えており、記憶部204をワーク領域として各種処理を行う。1つの例では、HMD200はサーバ100から描画コマンドを受信し、描画処理を行う。この場合、処理部201は、CPUとは別に、描画処理を行うGPUを備える。   The processing unit 201 includes a processor (for example, a CPU) that controls each unit included in the HMD 200, and performs various processes using the storage unit 204 as a work area. In one example, the HMD 200 receives a drawing command from the server 100 and performs a drawing process. In this case, the processing unit 201 includes a GPU that performs drawing processing separately from the CPU.

記憶部204は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラムが記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部204には、プログラムや当該プログラムの実行に伴って参照され得る各種データが記憶される。処理部201がGPUを備える場合、記憶部204はビデオメモリを含むことができる。更に記憶部204は各種データベース用のデータやプログラムを記憶することができ、この場合、処理部201の動作などにより各種データベースは実現される。   The storage unit 204 includes a hard disk, a main memory, and a buffer memory. A program is stored in the hard disk. However, the hard disk may be any non-volatile storage or non-volatile memory as long as it can store information, and may be removable. The storage unit 204 stores a program and various data that can be referred to when the program is executed. When the processing unit 201 includes a GPU, the storage unit 204 can include a video memory. Further, the storage unit 204 can store data and programs for various databases. In this case, various databases are realized by the operation of the processing unit 201 and the like.

表示部202は、ユーザに対して仮想オブジェクトを表示可能な透過型ディスプレイである。すなわち本発明の実施形態において、HMD200は光学シースルー型HMDである。HMD200は、HMD200を装着するユーザに対して表示部202を通して実空間を視認させるとともに、仮想オブジェクトを表示部202に描画する場合、表示部202を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させることができる。   The display unit 202 is a transmissive display that can display a virtual object to the user. That is, in the embodiment of the present invention, the HMD 200 is an optical see-through HMD. The HMD 200 allows the user wearing the HMD 200 to visually recognize the real space through the display unit 202 and, when drawing a virtual object on the display unit 202, superimposes the virtual object on the real space through the display unit 202 to the user. It can be visually recognized.

本発明の実施形態において、MRシステム10は、描画する仮想オブジェクトを生成する際に、ユーザの右目に視認させるための右目用画像と、ユーザの左目に視認させるための左目用画像とを生成する。したがって、表示部202は、右目用画像を表示する右目用透過型ディスプレイと、左目用画像を表示する左目用透過型ディスプレイとを含む。或いは、表示部202は、1つの透過型ディスプレイを備え、当該ディスプレイの表示領域は、右目用画像表示領域及び左目用画像表示領域を含んで構成されてもよい。   In the embodiment of the present invention, when generating a virtual object to be drawn, the MR system 10 generates a right-eye image for visualizing the user's right eye and a left-eye image for visualizing the user's left eye. . Accordingly, the display unit 202 includes a right-eye transmissive display that displays a right-eye image and a left-eye transmissive display that displays a left-eye image. Alternatively, the display unit 202 may include a single transmissive display, and the display area of the display may include a right-eye image display area and a left-eye image display area.

撮影部203は、実空間を撮影するステレオカメラを備え、実空間をステレオ画像として取得する。撮影部203は、撮影した各フレームの画像(現実世界の画像)を記憶部204に格納する。1つの例では、撮影部203は、ユーザの右目が視認する実空間を撮影するための右目用カメラと、ユーザの左目が視認する実空間を撮影するための左目用カメラとを含んで構成される。ただし、撮影部203は単眼カメラを備え、既知の手法を用いて、実空間をステレオ画像として取得するように構成されてもよい。   The imaging unit 203 includes a stereo camera that captures a real space, and acquires the real space as a stereo image. The imaging unit 203 stores the captured image of each frame (real world image) in the storage unit 204. In one example, the photographing unit 203 includes a right-eye camera for photographing a real space visually recognized by the user's right eye and a left-eye camera for photographing a real space visually recognized by the user's left eye. The However, the photographing unit 203 may include a monocular camera and may be configured to acquire the real space as a stereo image using a known method.

図7は、HMD200の一実施例による概略構成図である。図7に示すように、HMD200は、右目用画像を表示する右目用透過型ディスプレイ202a及び左目用画像を表示する左目用透過型ディスプレイ202bを有する表示部202を備える。またHMD200は、右目用透過型ディスプレイ202bの近傍に設置される右目用カメラ203a及び左目用透過型ディスプレイの近傍に設置される左目用カメラ203bを有する撮影部203を備える。   FIG. 7 is a schematic configuration diagram according to an embodiment of the HMD 200. As shown in FIG. 7, the HMD 200 includes a display unit 202 including a right-eye transmissive display 202 a that displays a right-eye image and a left-eye transmissive display 202 b that displays a left-eye image. The HMD 200 includes a photographing unit 203 having a right-eye camera 203a installed in the vicinity of the right-eye transmissive display 202b and a left-eye camera 203b installed in the vicinity of the left-eye transmissive display.

右目用透過型ディスプレイ202aは、右目用の透過型ディスプレイであり、MRシステム10が生成する右目用画像を表示することができる。透過型ディスプレイの場合、画像を表示していない領域は、現実世界の像がそのまま目に映るため、結果として、仮想世界の画像(仮想オブジェクト)と現実世界の像(実オブジェクト)とが光学的に合成されることになる。左目用透過型ディスプレイ203についても同様である。   The right-eye transmissive display 202 a is a right-eye transmissive display, and can display a right-eye image generated by the MR system 10. In the case of a transmissive display, the real-world image is seen as it is in the area where no image is displayed. As a result, the virtual-world image (virtual object) and the real-world image (real object) are optical. Will be synthesized. The same applies to the transmissive display 203 for the left eye.

右目用カメラ203aは、右目用透過型ディスプレイ202aを透過して閲覧される現実世界の像を撮影するためのカメラである。後述するように、本発明の実施形態においては、MRシステム10は、右目用カメラ203aで撮影した画像から右目用透過型ディスプレイ202aを通してユーザが視認する実空間画像(肉眼視野画像)を生成する。したがって、右目用カメラ203aの画角、視野範囲等の内部パラメータは、右目用透過型ディスプレイ202aが表示する空間とキャリブレーション済となっている必要がある。具体的には、右目用カメラ203aから得られる画像に、内部パラメータから算出された射影行列を適用することにより、右目用透過型ディスプレイ203aを通してユーザが視認する(閲覧する)画像を得ることができる。左目用カメラ203bについても同様である。   The right-eye camera 203a is a camera for photographing a real-world image that is viewed through the right-eye transmissive display 202a. As will be described later, in the embodiment of the present invention, the MR system 10 generates a real space image (visual field image) that is visually recognized by the user through the right-eye transmissive display 202a from the image captured by the right-eye camera 203a. Therefore, the internal parameters such as the angle of view and the visual field range of the right-eye camera 203a need to be calibrated with the space displayed by the right-eye transmissive display 202a. Specifically, by applying a projection matrix calculated from internal parameters to an image obtained from the right-eye camera 203a, an image that is visually recognized (viewed) by the user through the right-eye transmissive display 203a can be obtained. . The same applies to the left-eye camera 203b.

センサ206は、自己位置推定技術を利用するために必要な各種センサである。1つの例では、センサ206は、加速度センサと、ジャイロセンサと、赤外線デプスセンサと、カメラとを含む。赤外線デプスセンサは、赤外線投影によるデプスセンサであるが、RGB−Dカメラにより同機能が実現されてもよい。カメラは、撮影部203が備えるステレオカメラとは異なるカメラ(単眼カメラ等)であるが、撮影部203が備えるステレオカメラをセンサ206として含むこともできる。またセンサ206は、GPSセンサ、Bluetooth(登録商標)ビーコン、Wifiなど従来使用される他の各種センサを含むことができる。他の例では、画像取得装置300をセンサ206として含むこともできる。   The sensor 206 is various sensors necessary for using the self-position estimation technology. In one example, the sensor 206 includes an acceleration sensor, a gyro sensor, an infrared depth sensor, and a camera. The infrared depth sensor is a depth sensor by infrared projection, but the same function may be realized by an RGB-D camera. The camera is a camera (monocular camera or the like) different from the stereo camera included in the photographing unit 203, but a stereo camera included in the photographing unit 203 can also be included as the sensor 206. In addition, the sensor 206 can include various other conventionally used sensors such as a GPS sensor, a Bluetooth (registered trademark) beacon, and WiFi. In another example, the image acquisition device 300 may be included as the sensor 206.

通信部205は移動体通信、無線LAN等の無線通信を行い、ネットワーク50へ接続する。1つの例では、通信部205は、サーバ100から3次元空間データを受信する。1つの例では、通信部205は、撮影部203が撮影した画像データを、ネットワーク50を介してサーバ100に送信する。   The communication unit 205 performs wireless communication such as mobile communication and wireless LAN, and connects to the network 50. In one example, the communication unit 205 receives 3D spatial data from the server 100. In one example, the communication unit 205 transmits image data captured by the imaging unit 203 to the server 100 via the network 50.

画像取得装置300は、実空間の映像(画像)を取得し、取得された画像データを、ネットワーク50を介してサーバ100や表示装置200に送信する。また画像取得装置300は、所定の実空間を取り囲み、所定の実空間内にいるユーザが視認可能な領域を撮影可能な定点に固定して設置される。1つの例では、画像取得装置300は、定点に設置される固定カメラである。また1つの例では、画像取得装置300は1秒間に30コマの画像を取得し、サーバ100に送信する。   The image acquisition device 300 acquires a real space video (image) and transmits the acquired image data to the server 100 and the display device 200 via the network 50. In addition, the image acquisition device 300 is installed so as to surround a predetermined real space and fix a region visible to the user in the predetermined real space to a fixed point that can be photographed. In one example, the image acquisition device 300 is a fixed camera installed at a fixed point. In one example, the image acquisition device 300 acquires 30 frames of images per second and transmits them to the server 100.

ここで本発明の実施形態によるMRシステム10が複合現実空間33をユーザに提供する現実世界の空間(所定の実空間)として、図8に示すような壁36に覆われた屋内の空間である実空間31を想定する。図8は実空間31の概観図、図9は実空間31を上から見た平面図である。実空間31内には、現実世界の光源34及び現実世界の実オブジェクトである建物35が存在する。図8に示すように、実空間31においては、観測対象となる空間、すなわち実空間31内にいるユーザが視認可能な空間を撮影できるように、複数の画像取得装置300が設置される。ただし、本発明の実施形態においては、画像取得装置300は設置されなくてもよい。   Here, the MR system 10 according to the embodiment of the present invention is an indoor space covered with a wall 36 as shown in FIG. 8 as a real-world space (predetermined real space) for providing the mixed reality space 33 to the user. A real space 31 is assumed. 8 is an overview of the real space 31, and FIG. 9 is a plan view of the real space 31 as viewed from above. In the real space 31, there are a light source 34 in the real world and a building 35 that is a real object in the real world. As shown in FIG. 8, in the real space 31, a plurality of image acquisition devices 300 are installed so that a space to be observed, that is, a space visible to the user in the real space 31 can be photographed. However, in the embodiment of the present invention, the image acquisition device 300 may not be installed.

図10は、実空間31において取得された点群データの例を示す。本発明の実施形態においては、例えば高精度な3Dレーザスキャナ(図示せず)を用いることにより、実空間31内の実オブジェクトの3次元形状を示す点群データを予め取得する。なお、画像取得装置300が設置される場合、点群データの取得は、実空間31内に画像取得装置300が設置された後に行われるのが好適である。   FIG. 10 shows an example of point cloud data acquired in the real space 31. In the embodiment of the present invention, point cloud data indicating the three-dimensional shape of a real object in the real space 31 is acquired in advance by using, for example, a high-precision 3D laser scanner (not shown). When the image acquisition device 300 is installed, the point cloud data is preferably acquired after the image acquisition device 300 is installed in the real space 31.

図10に示すように、点群データのそれぞれは、3次元座標(x、y、z)を有し、実空間31に対応付けられた仮想空間32内に配置される。また点群データのそれぞれは、色情報を有する色付き点群データである。色付き点群データは、レーザスキャナが備えるカメラを用いて点群データ取得とは別に撮影された画像から求めた色情報を、撮影時のカメラの位置や姿勢に応じて点群の各座標点(x、y、z)にマッピングすることにより、作成される。   As shown in FIG. 10, each point cloud data has three-dimensional coordinates (x, y, z) and is arranged in a virtual space 32 associated with the real space 31. Each of the point cloud data is colored point cloud data having color information. Colored point cloud data is obtained by obtaining color information obtained from an image taken separately from the point cloud data acquisition using a camera included in the laser scanner, according to each coordinate point ( x, y, z).

このように実空間31に対応付けされた仮想空間32において実オブジェクトの3次元形状を表すものとして、点群データを基本単位(基本構成要素)として用いることができる。本明細書においては、この基本単位を3次元形状要素と表現する。   As described above, the point cloud data can be used as a basic unit (basic component) to represent the three-dimensional shape of the real object in the virtual space 32 associated with the real space 31. In this specification, this basic unit is expressed as a three-dimensional shape element.

本発明の実施形態では、説明を簡単にするため、取得された点群データを、例えばOctoMap("OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees" in Autonomous Robots, 2013; A.Hornung,. K.M. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard (http://dx.doi.org/10.1007/s10514-012-9321-0) DOI: 10.1007/s10514-012-9321-0.)等の既知の手法を用いて、ボクセルと呼ばれるデータ構造へ変換する。ボクセルは、2次元空間のピクセルに対応する3次元空間の単位構成要素であり、3次元空間上の座標を用いて識別される一定の大きさを持つ立方体である。   In the embodiment of the present invention, for ease of explanation, the acquired point cloud data is converted into, for example, OctoMap (“OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees” in Autonomous Robots, 2013; A. Hornung,. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard (http://dx.doi.org/10.1007/s10514-012-9321-0) DOI: 10.1007 / s10514-012-9321-0.) Using a known method, it is converted into a data structure called a voxel. A voxel is a unit component in a three-dimensional space corresponding to a pixel in the two-dimensional space, and is a cube having a certain size that is identified using coordinates in the three-dimensional space.

以下、本発明の実施形態においては、実空間31に対応付けされた仮想空間32において実オブジェクトの3次元形状を表す基本単位をボクセルとする。つまり、ボクセルが3次元形状要素である。図11は、図10の点群データから作成されたボクセルを示す。MRシステム10は、3次元空間データとして点群データ及びボクセルデータを記憶部104又は204に記憶する。ただし、3次元形状要素としてメッシュ(3Dメッシュ)を用いることもできる。この場合、MRシステム10は、3次元空間データとして点群データ及び3Dメッシュデータを記憶部104又は204に記憶する。点群データそのものを3次元形状要素として用いることもできる。この場合、MRシステムは、3次元空間データとして点群データを記憶する。   Hereinafter, in the embodiment of the present invention, a basic unit representing a three-dimensional shape of a real object in a virtual space 32 associated with the real space 31 is a voxel. That is, the voxel is a three-dimensional shape element. FIG. 11 shows voxels created from the point cloud data of FIG. The MR system 10 stores point cloud data and voxel data in the storage unit 104 or 204 as three-dimensional spatial data. However, a mesh (3D mesh) can also be used as the three-dimensional shape element. In this case, the MR system 10 stores point cloud data and 3D mesh data in the storage unit 104 or 204 as three-dimensional space data. The point cloud data itself can also be used as a three-dimensional shape element. In this case, the MR system stores point cloud data as three-dimensional space data.

1つの例では、実空間を1cm3のボクセル枠に分割し、ボクセル空間(ボクセルにより表現された3次元空間)を設定する。1つのボクセルVは、位置情報x、y、zに加え、画像取得装置300から見たときの1又は複数の色情報cを持つ。

Figure 2018106661
色情報cは、RGBやHSV等のフォーマットで表現される。例えばHSVのフォーマットで表現される場合、色情報は、色相、彩度、及び明度を有する。 In one example, the real space is divided into 1 cm 3 voxel frames, and a voxel space (a three-dimensional space expressed by voxels) is set. One voxel V has one or a plurality of color information c when viewed from the image acquisition apparatus 300 in addition to the position information x, y, z.
Figure 2018106661
The color information c is expressed in a format such as RGB or HSV. For example, when expressed in the HSV format, the color information includes hue, saturation, and brightness.

本発明の実施形態においては、仮想空間32を実空間31内に対応付けされた領域(0≦X≦X1、0≦Y≦Y1、0≦Z≦Z1)に限定して考えるものとする。ただし、仮想空間32をより小さい領域に設定して、複数の仮想空間をそれぞれ実空間31と対応付けることもできるし、仮想空間32をより大きい領域に設定することもできる。仮想空間32をより小さい領域に設定する場合、それぞれの仮想空間32に対応する実空間31内において、ユーザが視認可能な領域を撮影可能な複数の定点にそれぞれ画像取得装置300を設置することができる。   In the embodiment of the present invention, it is assumed that the virtual space 32 is limited to a region (0 ≦ X ≦ X1, 0 ≦ Y ≦ Y1, 0 ≦ Z ≦ Z1) associated with the real space 31. However, the virtual space 32 can be set to a smaller area, and each of the plurality of virtual spaces can be associated with the real space 31, or the virtual space 32 can be set to a larger area. When the virtual space 32 is set to a smaller area, the image acquisition device 300 may be installed at each of a plurality of fixed points where the user can visually recognize an area visible in the real space 31 corresponding to each virtual space 32. it can.

1つの例では、実空間31が広域の空間である場合、仮想空間32を複数のエリアごとに設定し、サーバ100も複数のエリアごとに設置するのが好適である。例えば、サーバ100の記憶部104がボクセルデータを記憶する場合、式(1)の1つのボクセルVは、1 voxel = (int16 x, int16 y, int16 z, int32 rgb)とすると、10 byteとなる。例えば実空間を10mm3のボクセルの集合としてモデル化する。テーマパークのように広域の空間を高精度ボクセル空間に変換する場合は、このテーマパーク領域を、10m=10,000mmのグリッドに分割すると、1グリッドは1,000m3なので、約10億voxelとなる。これを、高さ5mまでの空間に縮退させると、約5億voxelとなる。すなわち、5億voxelをそのままナイーブにメモリ上に確保しても、5GByteで格納できるため、グリッドごとにサーバ100を割り当て、オンメモリ化することは容易である。 In one example, when the real space 31 is a wide area, it is preferable that the virtual space 32 is set for each of a plurality of areas, and the server 100 is also installed for each of the plurality of areas. For example, when the storage unit 104 of the server 100 stores voxel data, one voxel V in Expression (1) becomes 10 bytes if 1 voxel = (int16 x, int16 y, int16 z, int32 rgb). . For example, the real space is modeled as a set of 10 mm 3 voxels. When converting a wide-area space into a high-precision voxel space like a theme park, if this theme park area is divided into 10 m = 10,000 mm grids, one grid is 1,000 m 3 , which is about 1 billion voxel. If this is reduced to a space up to 5m high, it will be about 500 million voxel. That is, even if 500 million voxel is secured on the memory as it is, it can be stored in 5 GBytes, and therefore it is easy to allocate the server 100 for each grid and make it on-memory.

図12は本発明の実施形態によるMRシステム10の機能ブロック図を示す。MRシステム10は、記憶手段11と、ユーザ環境決定手段12と、描画手段13と、第1の点群データ生成手段14と、第2の点群データ生成手段15と、不整合検出手段16とを備える。   FIG. 12 shows a functional block diagram of the MR system 10 according to an embodiment of the present invention. The MR system 10 includes a storage unit 11, a user environment determination unit 12, a drawing unit 13, a first point group data generation unit 14, a second point group data generation unit 15, and an inconsistency detection unit 16. Is provided.

これらの機能は、プログラムをサーバ100に実行させることで実現されるか、プログラムをHMD200に実行させることで実現されるか、又はプログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現される。このように各種機能がプログラム読み込みにより実現されるため、1つの手段の一部の機能を他の手段が有していてもよい。このように、サーバ100及びHMD200の少なくとも一方が図12に示す各種機能を備えることにより、MRシステム10は実現される。   These functions are realized by causing the server 100 to execute the program, realized by causing the HMD 200 to execute the program, or causing the server 100 to execute the program and causing the HMD 200 to execute the program. Realized. As described above, since various functions are realized by reading a program, other means may have a part of the functions of one means. As described above, the MR system 10 is realized by providing at least one of the server 100 and the HMD 200 with various functions shown in FIG.

記憶手段11は、サーバ100及びHMD200の双方が備え、プログラムやデータ等を記憶部104又は204に記憶する機能を有する。1つの例では、サーバ100が備える記憶手段11は、仮想空間32に配置される仮想オブジェクトの位置や動きに関するデータや仮想オブジェクトの3次元データを記憶部104へ記憶する。1つの例では、HMD200が備える記憶手段11は、仮想オブジェクトを描画するために、サーバ100から受信する描画コマンドを一時的に記憶部204へ記憶する。他の例では、記憶手段11は、各種データベースへのデータ入出力を行う。   The storage unit 11 is provided in both the server 100 and the HMD 200 and has a function of storing programs, data, and the like in the storage unit 104 or 204. In one example, the storage unit 11 included in the server 100 stores, in the storage unit 104, data related to the position and movement of a virtual object arranged in the virtual space 32 and three-dimensional data of the virtual object. In one example, the storage unit 11 included in the HMD 200 temporarily stores a drawing command received from the server 100 in the storage unit 204 in order to draw a virtual object. In another example, the storage means 11 performs data input / output to / from various databases.

サーバ100が備える記憶手段11は、3次元空間データを記憶部104へ記憶する3次元空間データ記憶手段を含む。前述のとおり、3次元空間データは点群データ及びボクセルデータを含む。ここで点群データは、予め取得された実空間31に対応付けされた仮想空間32において実オブジェクトの3次元形状を示すものであり、ボクセルデータは、点群データから既知の手法を用いて変換されるものである。   The storage unit 11 included in the server 100 includes a three-dimensional spatial data storage unit that stores the three-dimensional spatial data in the storage unit 104. As described above, the three-dimensional spatial data includes point cloud data and voxel data. Here, the point cloud data indicates the three-dimensional shape of the real object in the virtual space 32 associated with the real space 31 acquired in advance, and the voxel data is converted from the point cloud data using a known method. It is what is done.

なお点群データは色付き点群データであるため、作成されるボクセルは色付きボクセルとなる。またそれぞれのボクセルは、3次元位置情報を有する。例えば、仮想空間32に設定された3次元座標の原点から最も近い立方体の頂点の3次元座標(x、y、z)を3次元位置情報として有する。   Since the point cloud data is colored point cloud data, the created voxel is a colored voxel. Each voxel has three-dimensional position information. For example, the three-dimensional position information includes the three-dimensional coordinates (x, y, z) of the cube vertex closest to the origin of the three-dimensional coordinates set in the virtual space 32.

1つの例では、サーバ100はデータベースサーバ機能を有し、3次元位置情報に関する照会に応じて、サーバ100は記憶された3次元空間データを適宜出力する。HMD200が備える記憶手段11が、3次元空間データを記憶部204へ記憶する3次元空間データ記憶手段を含むこともできる。   In one example, the server 100 has a database server function, and the server 100 appropriately outputs stored three-dimensional spatial data in response to an inquiry regarding three-dimensional position information. The storage unit 11 included in the HMD 200 can also include a three-dimensional spatial data storage unit that stores the three-dimensional spatial data in the storage unit 204.

ユーザ環境決定手段12は、センサ206から取得されたデータ及び3次元空間データに基づいて、HMD200の位置及び表示部202を通してユーザが視認する視界領域(ユーザ視界領域)を含むユーザ環境を決定する。ユーザ環境決定手段12により、ユーザの高精度なポジショントラッキングを実現する。   Based on the data acquired from the sensor 206 and the three-dimensional spatial data, the user environment determining unit 12 determines a user environment including a position of the HMD 200 and a visual field area (user visual field area) that the user visually recognizes through the display unit 202. The user environment determining means 12 realizes highly accurate position tracking of the user.

ユーザ環境決定手段12は、好ましくは、自己位置推定技術を利用する。1つの例では、ユーザ環境決定手段12は、(1)初期位置合わせと、(2)相対的な移動量計算と、を実行することにより、HMD200の位置及びユーザ視界領域を決定する。   The user environment determination unit 12 preferably uses a self-position estimation technique. In one example, the user environment determination unit 12 determines the position of the HMD 200 and the user view area by executing (1) initial alignment and (2) relative movement amount calculation.

(1)初期位置合わせとして、ユーザ環境決定手段12は、センサ206から取得されるデータと、予め取得された3次元空間データとを用いて、実空間31と仮想空間32を対応付けて照合する。これにより、初期位置としてのHMD200の位置及びユーザ視界領域を決定する。   (1) As an initial alignment, the user environment determination unit 12 collates the real space 31 and the virtual space 32 by using data acquired from the sensor 206 and three-dimensional space data acquired in advance. . As a result, the position of the HMD 200 as the initial position and the user view area are determined.

1つの例では、ユーザ環境決定手段12は、以下のとおり初期位置合わせを行う。ユーザ環境決定手段12は、カメラにより画像データを取得し、デプスセンサにより形状データを取得し、ユーザ視界領域においてユーザが視認可能な実オブジェクトの形状を決定する。一方、ユーザ環境決定手段12は、GPSセンサ、Bluetooth(登録商標)ビーコン、Wifiなどを用いて大まかなユーザ環境である暫定ユーザ環境を決定する。暫定ユーザ環境を決定した後、当該暫定ユーザ環境から所定範囲の位置及び方向においてユーザが視認可能なボクセルの位置情報及び色情報などの3次元空間データを記憶部104又は記憶部204から取得する。   In one example, the user environment determination unit 12 performs initial alignment as follows. The user environment determination means 12 acquires image data with a camera, acquires shape data with a depth sensor, and determines the shape of the real object which a user can visually recognize in a user view area. On the other hand, the user environment determination unit 12 determines a provisional user environment, which is a rough user environment, using a GPS sensor, a Bluetooth (registered trademark) beacon, WiFi, or the like. After the provisional user environment is determined, three-dimensional spatial data such as voxel position information and color information visible to the user in a predetermined range of positions and directions is acquired from the storage unit 104 or the storage unit 204.

ユーザ環境決定手段12は、画像データや形状データから決定されたユーザ視界領域における実オブジェクトの形状と、暫定ユーザ環境に基づいて取得されたボクセルの位置情報及び色情報から導き出される実オブジェクトの形状とを比較して照合することにより、HMD200の位置及びユーザ視界領域を決定する。   The user environment determining means 12 includes the shape of the real object in the user view area determined from the image data and the shape data, and the shape of the real object derived from the voxel position information and color information acquired based on the provisional user environment. Are compared and the position of the HMD 200 and the user view area are determined.

(2)相対的な移動量計算として、ユーザ環境決定手段12は、センサ206から取得されるデータを用いて、上記のとおり決定された初期位置からの実空間31における相対的な移動量を計算することにより、HMD200の位置及びユーザ視界領域を決定する。1つの例では、ユーザ環境決定手段12は、ジャイロセンサや加速度センサ等から取得されるデータを用いて、6軸の相対的な移動量(例えば6DOF座標)を計算する。このとき、ユーザ環境決定手段12は、カメラから取得された画像データの変化量も用いることができる。また1つの例では、ユーザ環境決定手段12は、SLAM技術を利用して、6軸の相対的な移動量を計算する。   (2) As the relative movement amount calculation, the user environment determination unit 12 calculates the relative movement amount in the real space 31 from the initial position determined as described above, using the data acquired from the sensor 206. By doing so, the position of the HMD 200 and the user view area are determined. In one example, the user environment determination unit 12 calculates a relative movement amount (for example, 6 DOF coordinates) of six axes using data acquired from a gyro sensor, an acceleration sensor, or the like. At this time, the user environment determination unit 12 can also use the amount of change in the image data acquired from the camera. In one example, the user environment determination unit 12 calculates the relative movement amount of the six axes using the SLAM technology.

このように、初期位置合わせの後は相対的な移動量を計算するようにユーザ環境決定手段12を構成することにより、システム全体の情報処理量を低減しつつ、精度よくユーザ環境を決定することが可能となる。   As described above, by configuring the user environment determining unit 12 so as to calculate the relative movement amount after the initial alignment, the user environment can be accurately determined while reducing the information processing amount of the entire system. Is possible.

描画手段13は、ユーザ環境決定手段12により決定されたユーザ環境に対応する仮想オブジェクトをHMD200の表示部202に描画する。描画手段13は、ユーザの右目に視認させるための右目用画像(仮想オブジェクト)と、ユーザの左目に視認させるための左目用画像(仮想オブジェクト)とを生成し、描画する。   The drawing unit 13 draws a virtual object corresponding to the user environment determined by the user environment determining unit 12 on the display unit 202 of the HMD 200. The drawing unit 13 generates and draws a right-eye image (virtual object) for visual recognition by the user's right eye and a left-eye image (virtual object) for visual recognition by the user's left eye.

1つの例では、サーバ100が備えるCPUがメインメモリに描画コマンドを書き込んでHMD200へ送信する。HMD200が備えるGPUは、受信した描画コマンドを参照してビデオメモリ上のフレームバッファ等に描画データを書き込み、フレームバッファから読み取った内容をそのまま表示部202に描画する(レンダリングする)。描画コマンドを作成するにあたって、描画手段13は、ユーザ環境決定手段12により決定されたHMD200の位置及びユーザ視界領域を用いて、表示部202上に表示される仮想オブジェクトの位置や向きを決定する。   In one example, the CPU included in the server 100 writes a drawing command in the main memory and transmits it to the HMD 200. The GPU provided in the HMD 200 refers to the received drawing command, writes the drawing data to a frame buffer or the like on the video memory, and draws (renders) the content read from the frame buffer as it is on the display unit 202. In creating the drawing command, the drawing unit 13 determines the position and orientation of the virtual object displayed on the display unit 202 using the position of the HMD 200 and the user view area determined by the user environment determining unit 12.

このように、描画手段13は、サーバ100とHMD200が分担して実行することにより実現されるが、描画手段13は、HMD200において描画処理すべてを実行することで実現されてもよい。或いは、描画手段13は、サーバ100において描画処理すべてを実行した後、画像データをHMD200へ送信し、HMD200が受信した画像データを表示することで実現されてもよい。   As described above, the drawing unit 13 is realized by the server 100 and the HMD 200 sharing and executing, but the drawing unit 13 may be realized by executing all the drawing processes in the HMD 200. Alternatively, the drawing unit 13 may be realized by executing all drawing processes in the server 100, transmitting image data to the HMD 200, and displaying the image data received by the HMD 200.

第1の点群データ生成手段14は、表示部202を通してユーザが視認する実空間画像に描画手段13により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データを生成する。本明細書においては当該点群データを第1の点群データと呼ぶが、第1の点群データは、仮想オブジェクトが重畳表示される実空間画像を用いた実際のレンダリング結果から得られる点群であるため、アクチュアル・ポイントクラウドと呼ぶこともできる。   The first point cloud data generation unit 14 generates a real object and a virtual object from a composite image obtained by superimposing and displaying the virtual object drawn by the drawing unit 13 on the real space image visually recognized by the user through the display unit 202. Generate point cloud data. In the present specification, the point cloud data is referred to as first point cloud data, but the first point cloud data is obtained from an actual rendering result using a real space image on which a virtual object is superimposed and displayed. Therefore, it can also be called an actual point cloud.

ここで、通常は表示部202と撮影部203は同じ場所に位置しないため、撮影部203が撮影する実空間画像は、表示部202を通してユーザが視認する実空間画像、すなわち肉眼視野画像、ではない。第1の点群データ生成手段14は、撮影部203により撮影された実空間画像に対して、内部パラメータから算出された射影行列を適用して射影変換することにより、肉眼視野画像を生成する。内部パラメータは、対象の撮影部203及び表示部202の位置関係から算出されたカメラの画角や視野範囲等のパラメータである。   Here, since the display unit 202 and the photographing unit 203 are not usually located at the same place, the real space image photographed by the photographing unit 203 is not a real space image visually recognized by the user through the display unit 202, that is, a visual field image. . The first point cloud data generation unit 14 generates a visual field image by performing projective transformation on the real space image photographed by the photographing unit 203 by applying a projection matrix calculated from internal parameters. The internal parameters are parameters such as a camera angle of view and a field-of-view range calculated from the positional relationship between the target photographing unit 203 and the display unit 202.

例えば、図7に示すHMD200において、右目用カメラ203aは、右目用透過型ディスプレイ202aを通してユーザの右目に視認させる実空間の像を取得するためのカメラである。第1の点群データ生成手段14は、右目用カメラ203aから得られた画像に対して、内部パラメータから算出された射影行列を適用して射影変換することにより、右目用透過型ディスプレイ202aを通してユーザの右目に視認させる実空間画像(右目用肉眼視野画像)を生成する。内部パラメータは、右目用カメラ203aと右目用透過型ディスプレイ202aの位置関係から算出されたカメラの画角や視野範囲等のパラメータである。左目用透過型ディスプレイ202b及び左目用カメラ203bについても、右目用透過型ディスプレイ202a及び右目用カメラ203aと同様である。   For example, in the HMD 200 shown in FIG. 7, the right-eye camera 203a is a camera for acquiring an image of a real space that is visually recognized by the user's right eye through the right-eye transmissive display 202a. The first point cloud data generation means 14 applies a projection matrix calculated from the internal parameters to the image obtained from the right-eye camera 203a to perform projective transformation, thereby allowing the user to transmit through the right-eye transmissive display 202a. A real space image (right eye visual field image) to be visually recognized is generated. The internal parameters are parameters such as the angle of view and field of view of the camera calculated from the positional relationship between the right-eye camera 203a and the right-eye transmissive display 202a. The left-eye transmissive display 202b and the left-eye camera 203b are the same as the right-eye transmissive display 202a and the right-eye camera 203a.

また表示部202を通してユーザが視認する実空間画像(肉眼視野画像)は、撮影部203により撮影されたステレオ画像である。第1の点群データ生成手段14は、ステレオ画像として取得された2つの実空間画像からそれぞれ生成された各肉眼視野画像に描画手段13により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像を用いる。第1の点群データ生成手段14は、上記のとおり合成した(右目用と左目用の)2つの肉眼視野画像を用いて、ステレオマッチング法により各ピクセルの深度(depth)を計算し、実オブジェクト及び仮想オブジェクトの点群データを含む第1の点群データを生成する。なおステレオマッチング法においては、右目用カメラと左目用カメラの映像(画像)の視差情報から各ピクセルの深度を計算し、3次元空間上の点群に変換する。点群に変換するときに、色情報をマッピングすることもできる。   A real space image (visual field image) visually recognized by the user through the display unit 202 is a stereo image captured by the imaging unit 203. The first point cloud data generation means 14 is obtained by superimposing and displaying the virtual objects drawn by the drawing means 13 on the respective visual field images respectively generated from two real space images acquired as stereo images. Each composite image is used. The first point cloud data generation unit 14 calculates the depth (depth) of each pixel by the stereo matching method using the two visual field images synthesized (for the right eye and for the left eye) as described above, And first point cloud data including the point cloud data of the virtual object is generated. In the stereo matching method, the depth of each pixel is calculated from the parallax information of the video (image) of the right-eye camera and the left-eye camera, and converted to a point group in a three-dimensional space. Color information can also be mapped when converting to a point cloud.

第2の点群データ生成手段15は、ユーザ環境決定手段12により決定されたHMD200の位置及びユーザ視界領域における3次元空間データ記憶手段により記憶された点群データ及び描画手段13により描画される仮想オブジェクトの点群データを用いて点群データを生成する。本明細書においては当該点群データを第2の点群データと呼ぶが、第2の点群データは、レーザスキャナを用いて予め取得された点群データと、描画手段13により描画される仮想オブジェクトの点群データとを用いた、仮想空間32における理想的な点群データであるため、イデアル・ポイントクラウドと呼ぶこともできる。仮想オブジェクトの点群データは、キャラクタなどの動く仮想映像(画像)を描画した後の映像(画像)から生成することができる。或いは、仮想オブジェクトをレンダリングするために用いた点群データを、第2の点群データ生成手段15が利用することができるように構成することもできる。   The second point cloud data generation means 15 is a virtual image drawn by the drawing means 13 and the point cloud data stored by the three-dimensional spatial data storage means in the user view area and the position of the HMD 200 determined by the user environment determination means 12. Point cloud data is generated using the point cloud data of the object. In this specification, the point cloud data is referred to as second point cloud data, but the second point cloud data is virtual data drawn by the drawing means 13 with point cloud data acquired in advance using a laser scanner. Since it is ideal point cloud data in the virtual space 32 using object point cloud data, it can also be called an ideal point cloud. The point cloud data of the virtual object can be generated from a video (image) after drawing a moving virtual video (image) of a character or the like. Alternatively, the second point cloud data generation unit 15 can use the point cloud data used for rendering the virtual object.

好ましくは、第2の点群データ生成手段15は、描画手段13により描画される仮想オブジェクトの点群データを、3次元空間データ記憶手段により予め取得されて記憶された点群データに追加することにより第2の点群データを生成する。   Preferably, the second point group data generation unit 15 adds the point group data of the virtual object drawn by the drawing unit 13 to the point group data acquired and stored in advance by the three-dimensional space data storage unit. To generate second point cloud data.

上記のとおり、第2の点群データ生成の際に用いるデータは、仮想空間32上に仮想オブジェクトを重畳させた仮想空間32におけるデータであるため、第2の点群データにおいては、原理的に幾何学的不整合は発生しない。第2の点群データは、この点において、仮想オブジェクトが重畳表示される実空間31の画像から生成される第1の点群データと異なる。   As described above, since the data used when generating the second point cloud data is data in the virtual space 32 in which the virtual object is superimposed on the virtual space 32, in principle, the second point cloud data is There is no geometric mismatch. In this respect, the second point cloud data is different from the first point cloud data generated from the image of the real space 31 on which the virtual object is superimposed and displayed.

図13及び図14は、本発明の実施形態による第1の点群データ及び第2の点群データの生成を説明する概略図である。図13及び図14は、複合現実空間33内にいるユーザが、表示部202を通して、実オブジェクトである壁36及び壁36の前に重畳されて描画された仮想オブジェクト37を視認する様子を示すとともに、この状態において生成される第1の点群データ及び第2の点群データを示している。   13 and 14 are schematic diagrams for explaining generation of the first point cloud data and the second point cloud data according to the embodiment of the present invention. FIG. 13 and FIG. 14 show how the user in the mixed reality space 33 visually recognizes the real object wall 36 and the virtual object 37 drawn in a superimposed manner in front of the wall 36 through the display unit 202. The first point cloud data and the second point cloud data generated in this state are shown.

図13においては、ユーザは、壁36に接触する仮想オブジェクト37を視認する。この場合、実空間31における壁36(実オブジェクト)と仮想オブジェクト37との幾何学的整合性がとれた状態にあり、図13に示すとおり、生成される第1の点群データと第2の点群データは、実質的に同じである。   In FIG. 13, the user visually recognizes the virtual object 37 that contacts the wall 36. In this case, the geometrical consistency between the wall 36 (real object) and the virtual object 37 in the real space 31 is maintained, and as shown in FIG. 13, the generated first point cloud data and the second point cloud data The point cloud data is substantially the same.

図14においては、ユーザは、壁36に一部埋没した仮想オブジェクト37を視認する。この場合、実空間31における壁36(実オブジェクト)と仮想オブジェクト37との幾何学的整合性がとれていない状態にあり(整合性に矛盾が発生しており)、図14に示すとおり、生成される第1の点群データと第2の点群データには差分があることが理解される。   In FIG. 14, the user visually recognizes a virtual object 37 partially embedded in the wall 36. In this case, the geometrical consistency between the wall 36 (real object) and the virtual object 37 in the real space 31 is not achieved (consistency is inconsistent), and as shown in FIG. It is understood that there is a difference between the first point cloud data and the second point cloud data.

不整合検出手段16は、上記のような第1の点群データ及び第2の点群データの比較結果に基づいて不整合を検出する。   The mismatch detection means 16 detects mismatch based on the comparison result of the first point cloud data and the second point cloud data as described above.

好ましくは、不整合検出手段16は、不整合検出の対象の仮想オブジェクトが描画手段13により描画される前に不整合検出を行う。この場合、第1の点群データ生成手段14及び第2の点群データ生成手段15も同様に、不整合検出の対象の仮想オブジェクトが描画手段13により描画される前に、第1の点群データ及び第2の点群データを生成する。このような構成とすることにより、幾何学的整合性がとれていない仮想オブジェクトを表示部202に描画する前に、すなわちユーザに視認させる前に、不整合検出を行うことが可能となる。これにより、MRシステム10が、幾何学的整合性がとれていない仮想オブジェクトを描画する前に、例えばポジショントラッキングに補正情報を送ることが可能となる。1つの例では、仮想オブジェクトの描画処理を中止したり、当該オブジェクトの描画位置を移動させたりすることにより、リアリティを著しく損なう仮想オブジェクトの表示を防止することができる。ただし、不整合検出の対象の仮想オブジェクトが描画手段13により描画されたとき又は描画後極めて短時間内に、上記の各手段を実行するように構成することもできる。   Preferably, the inconsistency detection unit 16 performs inconsistency detection before the rendering unit 13 draws a virtual object that is a target of inconsistency detection. In this case, the first point group data generation unit 14 and the second point group data generation unit 15 similarly apply the first point group before the virtual object to be subjected to inconsistency detection is drawn by the drawing unit 13. Data and second point cloud data are generated. With this configuration, inconsistency detection can be performed before a virtual object that is not geometrically consistent is drawn on the display unit 202, that is, before the user visually recognizes the virtual object. This enables the MR system 10 to send correction information to position tracking, for example, before drawing a virtual object that is not geometrically consistent. In one example, display of a virtual object that significantly impairs reality can be prevented by stopping the drawing process of the virtual object or moving the drawing position of the object. However, each of the above-described units can also be executed when a virtual object to be subjected to inconsistency detection is drawn by the drawing unit 13 or within a very short time after drawing.

1つの例では、不整合検出手段16は、第1の点群データ及び第2の点群データの差が所定量を超えた場合に不整合を検出する。すなわち不整合検出手段16は、第1の点群データと第2の点群データの対応する位置において、一方には点データが存在するものの他方には点データが存在しない点データの数量(点群データ差分量)により、不整合の有無を判定し、不整合を検出する。例えば、点群データ差分量は、対応する3次元位置において第1の点群データと第2の点群データが衝突する箇所を消去することにより算出する。この場合、撮影部203から得られた画像を用いて生成される第1の点群データは、仮想空間32上で生成される第2の点群データよりも通常は疎なデータであり、第2の点群データよりも数倍〜10倍程度少ない点データを有する可能性が高い。したがって、この場合好ましくは、点群データ差分量は、第1の点群データの各点の大きさを第2の点群データの各点の大きさよりも数倍〜10倍程度大きくした後に、対応する3次元位置における第1の点群データと第2の点群データが衝突する箇所を消去することにより算出する。   In one example, the mismatch detection means 16 detects mismatch when the difference between the first point cloud data and the second point cloud data exceeds a predetermined amount. That is, the inconsistency detection means 16 has a quantity (point data) of point data in which point data exists on one side but no point data exists on the other side at corresponding positions of the first point cloud data and the second point cloud data. Based on the group data difference amount), the presence or absence of inconsistency is determined, and inconsistency is detected. For example, the point cloud data difference amount is calculated by deleting a portion where the first point cloud data and the second point cloud data collide at the corresponding three-dimensional position. In this case, the first point cloud data generated using the image obtained from the imaging unit 203 is data that is usually sparser than the second point cloud data generated in the virtual space 32, and There is a high possibility of having point data several times to 10 times less than the point cloud data of 2. Therefore, in this case, preferably, the point cloud data difference amount is set to be several times to 10 times larger than the size of each point of the second point cloud data after the size of each point of the first point cloud data is increased. The calculation is performed by deleting the location where the first point cloud data and the second point cloud data collide at the corresponding three-dimensional position.

1つの例では、不整合検出手段16は、描画手段13により描画される仮想オブジェクト37を含む所定の3次元空間領域において、第1の点群データ及び第2の点群データの差が所定量を超えた場合に不整合を検出する。このような構成とすることにより、ユーザに対して視認させた場合に違和感を与える仮想オブジェクト周辺の不整合のみを検出し、仮想オブジェクト周辺以外の不整合の検出を排除することが可能となる。   In one example, the inconsistency detection unit 16 has a predetermined amount of difference between the first point cloud data and the second point cloud data in a predetermined three-dimensional space region including the virtual object 37 drawn by the drawing unit 13. An inconsistency is detected when exceeding. With such a configuration, it is possible to detect only inconsistencies around the virtual object that give a sense of incongruity when visually recognized by the user, and to eliminate detection of inconsistencies other than around the virtual object.

このようにして、仮想オブジェクトが重畳表示される実空間31の画像を用いた実際のレンダリング結果から得られる第1の点群データと、仮想空間32上で生成された第2の点群データとを比較することにより、例えば差分を求めることにより、不整合を検出することができる。すなわち、「あるべき点群が無い」又は「あってはならない点群が有る」という状況を検出することが可能となる。   In this manner, the first point cloud data obtained from the actual rendering result using the image of the real space 31 on which the virtual object is superimposed and displayed, the second point cloud data generated on the virtual space 32, Can be detected by, for example, obtaining a difference. That is, it is possible to detect a situation in which “there should be no point cloud” or “there is a point cloud that should not be”.

第1の点群データ生成手段14、第2の点群データ生成手段15、及び不整合検出手段16は、HMD200が備えるのが好ましい。このような構成とすることにより、MRシステム10における不整合検出の処理において、HMD200がネットワーク50を介して画像データを送信すること等が不要となる。これにより、システム全体の情報処理量を低減することが可能となる。   It is preferable that the HMD 200 includes the first point group data generation unit 14, the second point group data generation unit 15, and the mismatch detection unit 16. With such a configuration, it is not necessary for the HMD 200 to transmit image data via the network 50 in the mismatch detection process in the MR system 10. As a result, the information processing amount of the entire system can be reduced.

これまで、不整合検出システムを包含するMRシステム10について説明したが、本発明の実施形態による不整合検出システム1は、MRシステム10とは別のシステムとすることが好ましい。この場合、不整合検出システム1は、サーバ100と、1又は複数のHMD200とを含み、サーバ100及びHMD200は、インターネットなどのネットワーク50に接続され、互いに通信可能である。不整合検出システム1は、MRシステム10とは異なるサーバ(ハードウェア)及びネットワークを用いて、実現することもできる。この場合、不整合検出システム1は、MRシステム10と通信可能に構成される。   The MR system 10 including the mismatch detection system has been described so far. However, the mismatch detection system 1 according to the embodiment of the present invention is preferably a system different from the MR system 10. In this case, the mismatch detection system 1 includes a server 100 and one or a plurality of HMDs 200. The server 100 and the HMD 200 are connected to a network 50 such as the Internet and can communicate with each other. The inconsistency detection system 1 can also be realized using a server (hardware) and a network different from the MR system 10. In this case, the mismatch detection system 1 is configured to be able to communicate with the MR system 10.

図15は本発明の実施形態による不整合検出システム1の機能ブロック図を示す。不整合検出システム1は、第1の点群データ生成手段14と、第2の点群データ生成手段15と、不整合検出手段16とを備える。第1の点群データ生成手段14、第2の点群データ生成手段15、及び不整合検出手段16は、HMD200が備えるのが好ましい。この場合、これらの機能は、プログラムをHMD200に実行させることで実現され、HMD200は必要に応じてサーバ100から情報を取得する。ただし、プログラムをサーバ100に実行させることで実現されてもよいし、プログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現されてもよい。また、このように各種機能がプログラム読み込みにより実現されるため、1つの手段の一部の機能を他の手段が有していてもよい。   FIG. 15 shows a functional block diagram of the inconsistency detection system 1 according to the embodiment of the present invention. The inconsistency detection system 1 includes a first point group data generation unit 14, a second point group data generation unit 15, and an inconsistency detection unit 16. It is preferable that the HMD 200 includes the first point group data generation unit 14, the second point group data generation unit 15, and the mismatch detection unit 16. In this case, these functions are realized by causing the HMD 200 to execute a program, and the HMD 200 acquires information from the server 100 as necessary. However, it may be realized by causing the server 100 to execute the program, or may be realized by causing the server 100 to execute the program and causing the HMD 200 to execute the program. In addition, since various functions are realized by reading a program in this way, some of the functions of one means may be included in another means.

前述のとおり、図16は、本発明の実施形態による、MRシステム10における不整合を検出する情報処理を示すフローチャートである。本情報処理は、プログラムをサーバ100に実行させることで実現されるか、プログラムをHMD200に実行させることで実現されるか、又はプログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現される。好ましくは、本情報処理は、プログラムをHMD200に実行させることで実現され、HMD200は必要に応じてサーバ100からデータを取得する。なおユーザは、HMD200を装着し、実空間31(複合現実環境33)内にいるものとする。また、MRシステム10は複合現実空間33をユーザに提供するのにユーザ環境を逐次把握する必要があるため、MRシステム10は、定期的に又は必要に応じてユーザ環境を決定している。   As described above, FIG. 16 is a flowchart showing information processing for detecting inconsistencies in the MR system 10 according to the embodiment of the present invention. This information processing is realized by causing the server 100 to execute the program, realized by causing the HMD 200 to execute the program, or causing the server 100 to execute the program and causing the HMD 200 to execute the program. Realized. Preferably, the information processing is realized by causing the HMD 200 to execute the program, and the HMD 200 acquires data from the server 100 as necessary. It is assumed that the user wears the HMD 200 and is in the real space 31 (mixed reality environment 33). Further, since the MR system 10 needs to sequentially grasp the user environment in order to provide the mixed reality space 33 to the user, the MR system 10 determines the user environment periodically or as necessary.

最初に、決定されたユーザ環境において、MRシステム10が描画する仮想オブジェクトが有るかどうかを判定する(ステップ1601)。描画する仮想オブジェクトが無い場合、MRシステム10がユーザに対して複合現実環境33を提供し続ける限り(ステップ1607)、ステップ1601へ戻る。このようにして、描画する仮想オブジェクトが無い場合は不整合検出を行わないように構成することにより、システム全体の情報処理量を低減するとともに消費電力量を低減することができる。ただし、本ステップは省略することもできる。   First, it is determined whether or not there is a virtual object to be drawn by the MR system 10 in the determined user environment (step 1601). If there is no virtual object to be drawn, as long as the MR system 10 continues to provide the mixed reality environment 33 to the user (step 1607), the process returns to step 1601. In this manner, when there is no virtual object to be drawn, the configuration is such that inconsistency detection is not performed, whereby the information processing amount of the entire system can be reduced and the power consumption amount can be reduced. However, this step can be omitted.

描画される仮想オブジェクトが有る場合、HMD200の物理的な移動量又は描画する仮想オブジェクトの移動量が所定の閾値以上であるかどうかを判定する(ステップ1602)。HMD200の移動量又は描画する仮想オブジェクトの移動量が所定の閾値以上であった場合、実オブジェクトに対する描画される仮想オブジェクトの幾何学的整合性が失われる可能性が高いため、ステップ1603へ進む。一方、HMD200の移動量又は描画する仮想オブジェクトの移動量が所定の閾値未満であった場合、MRシステム10がユーザに対して複合現実環境33を提供し続ける限り(ステップ1607)、ステップ1601へ戻る。このようにして、幾何学的不整合が発生する可能性が低い場合は不整合検出を行わないように構成することにより、システム全体の情報処理量を低減するとともに消費電力量を低減することができる。ただし、本ステップは省略することもできる。   If there is a virtual object to be drawn, it is determined whether the physical movement amount of the HMD 200 or the movement amount of the virtual object to be drawn is equal to or greater than a predetermined threshold (step 1602). If the amount of movement of the HMD 200 or the amount of movement of the virtual object to be drawn is equal to or greater than a predetermined threshold, the process proceeds to step 1603 because the geometric consistency of the drawn virtual object with respect to the real object is likely to be lost. On the other hand, if the amount of movement of the HMD 200 or the amount of movement of the virtual object to be drawn is less than the predetermined threshold, as long as the MR system 10 continues to provide the mixed reality environment 33 to the user (step 1607), the process returns to step 1601. . In this way, when the possibility of occurrence of geometric mismatch is low, it is possible to reduce the information processing amount of the entire system and reduce the power consumption by configuring so that mismatch detection is not performed. it can. However, this step can be omitted.

続いて、HMD200の撮影部203から実空間のステレオ画像を取得し、当該ステレオ画像に射影行列を適用することにより仮想的に肉眼視野画像を生成する(ステップ1603)。このようにして、撮影部203からの画像を用いて、ユーザが視認する映像(画像)を機械的に再現する。   Subsequently, a real space stereo image is acquired from the imaging unit 203 of the HMD 200, and a visual field image is virtually generated by applying a projection matrix to the stereo image (step 1603). In this way, the image (image) visually recognized by the user is mechanically reproduced using the image from the photographing unit 203.

続いて、ステップ1604において、生成された肉眼視野画像に対して描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する。第1の点群データの生成と同時に、描画される仮想オブジェクトの点群データに、レーザスキャナを用いて予め取得された実空間31における点群データを追加することで、仮想空間32における理想的な点群データである第2の点群データを生成する。   Subsequently, in step 1604, first point cloud data that is point cloud data of the real object and the virtual object is obtained from the synthesized image obtained by superimposing and displaying the virtual object drawn on the generated visual field image. Is generated. At the same time as the generation of the first point cloud data, by adding the point cloud data in the real space 31 acquired in advance using a laser scanner to the point cloud data of the virtual object to be drawn, the ideal in the virtual space 32 Second point cloud data, which is a point cloud data, is generated.

なお本情報処理において、好ましくは、第1の点群データの生成と第2の点群データの生成を実質的に同時に行うが、直列的にいずれかの処理を先に行ってもよいし、並列的に同時に処理を行ってもよい。第2の点群データの生成処理については、ステップ1603の処理より前に、又は処理と同時に開始してもよい。   In this information processing, preferably, the generation of the first point cloud data and the generation of the second point cloud data are performed substantially simultaneously. However, any one of the processes may be performed in series first, Processing may be performed simultaneously in parallel. The generation process of the second point cloud data may be started before the process of Step 1603 or simultaneously with the process.

続いて、第1の点群データと第2の点群データとの差分を抽出する(ステップ1605)。具体的には、対応する3次元位置において、第1の点群データと第2の点群データが衝突する箇所を消去することにより、一方には点データが存在するものの他方には点データが存在しない点データの数量を抽出する。この差分計算により、ユーザの肉眼から見たときに感じられる形状と、MRシステム10が想定している理想的な形状との差分の有無を認識することが可能となる。   Subsequently, a difference between the first point cloud data and the second point cloud data is extracted (step 1605). Specifically, by deleting a point where the first point cloud data and the second point cloud data collide at the corresponding three-dimensional position, point data exists on one side but point data on the other side. Extract the quantity of point data that does not exist. With this difference calculation, it is possible to recognize the presence or absence of a difference between the shape felt when viewed from the user's naked eye and the ideal shape assumed by the MR system 10.

続いて、抽出された差分を用いて、幾何学的不整合を検出する(ステップ1606)。抽出した差分として、イデアル・ポイントクラウドに対応するアクチュアル・ポイントクラウドが存在しない空間、すなわち「あるべき点群がない」空間と、アクチュアル・ポイントクラウドに対応するイデアル・ポイントクラウドが存在しない空間、すなわち「あってはならない点群がある」状況を検出し、幾何学的な不整合として検出する。1つの例では、抽出された差分が所定量を超えた場合に不整合を検出する。他の例では、描画される仮想オブジェクトを含む所定の3次元空間領域において抽出された差分が所定量を超えた場合に不整合を検出する。   Subsequently, a geometric mismatch is detected using the extracted difference (step 1606). As an extracted difference, a space where there is no actual point cloud corresponding to the ideal point cloud, that is, a space where there is no point cloud that should be, and a space where there is no ideal point cloud corresponding to the actual point cloud, that is, A situation where there is a point cloud that should not be detected is detected as a geometric mismatch. In one example, a mismatch is detected when the extracted difference exceeds a predetermined amount. In another example, inconsistency is detected when a difference extracted in a predetermined three-dimensional space area including a virtual object to be drawn exceeds a predetermined amount.

その後、MRシステム10がユーザに対して複合現実環境33を提供し続ける限り(ステップ1607)、ステップ1601へ戻る。   Thereafter, as long as the MR system 10 continues to provide the mixed reality environment 33 to the user (step 1607), the process returns to step 1601.

次に、本発明の実施形態によるMRシステム10及び不整合検出システム1の作用効果について説明する。まず本実施形態では、実空間31内の実オブジェクトの3次元形状を示す点群データを予め取得し、MRシステム10は、取得された点群データを、既知の手法を用いて、ボクセルと呼ばれるデータ構造へ変換し、3次元空間データとして点群データ及びボクセルデータを記憶部104又は204に記憶する。MRシステム10は、このように予め取得されて記憶された3次元空間データと、ユーザが装着するHMD200のセンサ206から取得されるデータとに基づいて、実空間31と仮想空間32とを対応付ける。これにより、ユーザの高精度なポジショントラッキングを実現することが可能となる。   Next, operational effects of the MR system 10 and the mismatch detection system 1 according to the embodiment of the present invention will be described. First, in the present embodiment, point cloud data indicating the three-dimensional shape of a real object in the real space 31 is acquired in advance, and the MR system 10 uses the known method to call the acquired point cloud data a voxel. The data is converted into a data structure, and point cloud data and voxel data are stored in the storage unit 104 or 204 as three-dimensional spatial data. The MR system 10 associates the real space 31 with the virtual space 32 based on the three-dimensional space data acquired and stored in advance and the data acquired from the sensor 206 of the HMD 200 worn by the user. Thereby, it becomes possible to realize highly accurate position tracking of the user.

本実施形態では、HMD200が備えるカメラから得られる実空間31のステレオ画像へ仮想空間32の仮想オブジェクトの画像を重畳させた合成画像から生成できる点群データと、高精度なレーザスキャナを用いて予め取得した実空間31の点群データへ仮想空間32の仮想オブジェクトの点群データを追加した点群データとを比較する。このように比較するで、HMD200装着者であるユーザの視点から見たときに、実空間31の像と、その上に透過型ディスプレイ202を通して重畳表示される仮想空間32の画像との幾何学的整合性の有無を検出する。このような構成とすることにより、実際にユーザが目にする画像上での、仮想オブジェクトと現実世界との矛盾した関係を検出し、従来自己検出することができなかったMRシステム10におけるポジショントラッキングのエラーを検出することが可能となる。これにより、例えば、矛盾のある画像を画面に表示せずに、ポジショントラッキングに補正情報を送ることが可能となる。なお現在の技術水準では、誤差が生じないポジショントラッキングの実現は不可能であるため、ユーザが目にする画像から矛盾を検出し、その結果に応じて位置情報等を補正することが可能となる、本発明の実施形態の技術的意義は大きいといえる。   In the present embodiment, point cloud data that can be generated from a composite image obtained by superimposing a virtual object image in the virtual space 32 on a stereo image in the real space 31 obtained from a camera included in the HMD 200, and a high-precision laser scanner are used in advance. The point cloud data obtained by adding the point cloud data of the virtual object in the virtual space 32 to the obtained point cloud data in the real space 31 is compared. In comparison, when viewed from the viewpoint of the user who is wearing the HMD 200, the geometrical relationship between the image of the real space 31 and the image of the virtual space 32 superimposed on the transmissive display 202 is displayed on the real space 31. Detects consistency. By adopting such a configuration, an inconsistent relationship between the virtual object and the real world on the image actually seen by the user is detected, and position tracking in the MR system 10 that cannot conventionally be self-detected. Error can be detected. Thereby, for example, correction information can be sent to position tracking without displaying an inconsistent image on the screen. Note that since it is impossible to realize position tracking with no error at the current technical level, it is possible to detect contradiction from an image seen by the user and correct position information or the like according to the result. Therefore, it can be said that the technical significance of the embodiment of the present invention is great.

また本実施形態では、カメラから得た画像をそのまま利用するのではなく、メモリ内で合成された画像を対象として深度計算を行い、MRシステム10によるレンダリング結果を検証することができる。これにより、MRシステム10による「矛盾したレンダリング」、すなわちMRシステム10による幾何学的整合性が取れていない描画処理を、仮想オブジェクトの描画前に又は描画後極めて短時間で検出することが可能となる。   Further, in this embodiment, the image obtained from the camera is not used as it is, but the depth calculation is performed on the image synthesized in the memory, and the rendering result by the MR system 10 can be verified. As a result, it is possible to detect “inconsistent rendering” by the MR system 10, that is, drawing processing that is not geometrically consistent by the MR system 10 before or after drawing the virtual object. Become.

本発明の他の実施形態によるMRシステム10が複合現実環境33をユーザに提供する現実世界の空間(所定の実空間)は、図17に示すような屋外の空間である実空間41であってもよい。実空間41は、天井と一対の横壁が無い点、太陽光を含む光源22が実空間内ではなく実空間外に有する点以外は、実空間31と同じである。この場合においても、仮想空間42を実空間41内に対応付けされた領域(0≦X≦X1、0≦Y≦Y1、0≦Z≦Z1)に限定して考えるものとする。   A real-world space (predetermined real space) in which the MR system 10 according to another embodiment of the present invention provides the user with the mixed reality environment 33 is a real space 41 that is an outdoor space as shown in FIG. Also good. The real space 41 is the same as the real space 31 except that there is no ceiling and a pair of horizontal walls, and that the light source 22 including sunlight is outside the real space, not inside the real space. Also in this case, the virtual space 42 is considered to be limited to a region (0 ≦ X ≦ X1, 0 ≦ Y ≦ Y1, 0 ≦ Z ≦ Z1) associated with the real space 41.

本発明の他の実施形態では、ボクセルの位置情報と、画像取得装置300により取得された画像のそれぞれのピクセルの位置情報とを関連付けたテーブルを用いることにより、ボクセルの色情報を画像取得装置300により取得された画像のピクセルの色情報から決定し、また更新する。このようにテーブルを用いることにより、画像取得装置300から得られる色情報をボクセルのそれぞれにリアルタイムに反映することが可能となる。これにより、高精度に実空間の形状が再現された複合現実環境において、実空間31の色彩を、高精度かつリアルタイムに認識し、仮想空間32に反映することが可能となる。   In another embodiment of the present invention, by using a table that associates the position information of the voxel and the position information of each pixel of the image acquired by the image acquisition apparatus 300, the color information of the voxel is obtained by the image acquisition apparatus 300. Is determined from the color information of the pixel of the image obtained by the above and updated. By using the table in this way, the color information obtained from the image acquisition device 300 can be reflected in each voxel in real time. Thereby, in the mixed reality environment in which the shape of the real space is reproduced with high accuracy, the color of the real space 31 can be recognized with high accuracy and in real time and reflected in the virtual space 32.

この場合、リアルタイムに反映されるボクセルの色情報を、ユーザ環境決定手段12が用いるボクセルの色情報として用いることができる。   In this case, the voxel color information reflected in real time can be used as the voxel color information used by the user environment determination unit 12.

また本発明の他の実施形態では、上記のとおり実空間31の色彩を反映させたボクセルのそれぞれを、描画される仮想オブジェクトの仮想的な間接照明(光源)として用いる。これにより、実空間31の光の状態を利用したグローバルイルミネーションを実現することが可能となり、実空間31の環境に極めて近い色彩や陰影を持つ仮想オブジェクトを描画することが可能となる。   In another embodiment of the present invention, as described above, each voxel reflecting the color of the real space 31 is used as virtual indirect illumination (light source) of a virtual object to be drawn. As a result, global illumination using the light state of the real space 31 can be realized, and a virtual object having a color and a shadow very close to the environment of the real space 31 can be drawn.

また本発明の他の実施形態では、実空間31においては、実空間31を仮想空間32であるかのように利用することが可能となる。例えばゲーム開発者は、現実空間を、ゲームエンジン内のゲーム空間(仮想空間)と同様に取り扱うことが可能になる。   In another embodiment of the present invention, the real space 31 can be used as if it were the virtual space 32 in the real space 31. For example, the game developer can handle the real space in the same manner as the game space (virtual space) in the game engine.

以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。   In the process or operation described above, a process or operation can be freely performed at a certain step as long as there is no inconsistency in the process or operation such as using data that should not be used at that step. Can be changed. Moreover, each Example described above is the illustration for demonstrating this invention, and this invention is not limited to these Examples. The present invention can be implemented in various forms without departing from the gist thereof.

1 不整合検出システム
10 複合現実(MR)システム
11 記憶手段
17 ユーザ環境取得手段
18 描画手段
21 光源
22 建物
23 影
24 キャラクタ(仮想オブジェクト)
25、26 台
27 壁
31、41 現実世界(実空間)
32、42 仮想世界(仮想空間)
33、43 複合現実世界(複合現実環境)
34 光源
35 建物
36 壁
37 仮想オブジェクト
50 ネットワーク
100 サーバ
101、201 処理部
102、202 表示部
103 入力部
104、204 記憶部
105、205 通信部
110、210 バス
200 表示装置
202a 右目用透過型ディスプレイ
202b 左目用透過型ディスプレイ
203 撮影部
203a 右目用カメラ
203b 左目用カメラ
206 センサ
300 画像取得装置
DESCRIPTION OF SYMBOLS 1 Mismatch detection system 10 Mixed reality (MR) system 11 Memory | storage means 17 User environment acquisition means 18 Drawing means 21 Light source 22 Building 23 Shadow 24 Character (virtual object)
25, 26 units 27 walls 31, 41 Real world (real space)
32, 42 Virtual world (virtual space)
33, 43 Mixed reality world (mixed reality environment)
34 Light source 35 Building 36 Wall 37 Virtual object 50 Network 100 Server 101, 201 Processing unit 102, 202 Display unit 103 Input unit 104, 204 Storage unit 105, 205 Communication unit 110, 210 Bus 200 Display device 202a Right-eye transmissive display 202b Left-eye transmissive display 203 Imaging unit 203a Right-eye camera 203b Left-eye camera 206 Sensor 300 Image acquisition device

Claims (8)

ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出システムであって、
前記複合現実システムは、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、
を備える、不整合検出システム。
A portable display device having a transmissive display unit for displaying a virtual object to a user and a photographing unit for photographing a real space, and rendering the virtual object on the display unit in a predetermined real space A mismatch detection system in a mixed reality system that allows a user to visually recognize a virtual object by superimposing it on real space through the display unit,
The mixed reality system is:
Three-dimensional spatial data storage means for storing three-dimensional spatial data including point group data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information;
User environment determining means for determining a user environment including a position of the display device and a visual field area visually recognized by the user through the display unit based on the data acquired from the sensor included in the display device and the three-dimensional spatial data;
Drawing means for drawing a virtual object on the display unit based on the user environment,
From the composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit generated from the captured real space image, the real object and the virtual object are displayed. First point cloud data generating means for generating first point cloud data which is point cloud data;
Second point cloud data using the point cloud data stored by the three-dimensional spatial data storage means in the field of view determined by the user environment determining means and the point cloud data of the virtual object drawn by the drawing means Second point cloud data generating means for generating
Mismatch detection means for detecting mismatch based on a comparison result between the first point cloud data and the second point cloud data;
An inconsistency detection system comprising:
前記撮影部は、実空間をステレオ画像として取得するものであり、
第1の点群データ生成手段は、前記ステレオ画像として取得された2つの実空間画像からそれぞれ生成された前記表示部を通してユーザが視認する各実空間画像に前記描画手段により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像から、前記第1の点群データを生成する、請求項1に記載の不整合検出システム。
The imaging unit acquires real space as a stereo image,
The first point cloud data generation means includes a virtual object drawn by the drawing means on each real space image visually recognized by the user through the display unit generated from the two real space images acquired as the stereo image. The mismatch detection system according to claim 1, wherein the first point cloud data is generated from each composite image obtained by superimposing and displaying each of the images.
前記第1の点群データ生成手段は、前記撮影された実空間画像を、前記表示部と前記撮像部の位置関係に基づいて射影変換することにより前記表示部を通してユーザが視認する実空間画像を生成する、請求項1又は2に記載の不整合検出システム。   The first point cloud data generation means performs a projective transformation on the photographed real space image based on a positional relationship between the display unit and the imaging unit, thereby generating a real space image visually recognized by the user through the display unit. The mismatch detection system according to claim 1, wherein the mismatch detection system is generated. 前記不整合検出手段は、前記第1の点群データ及び前記第2の点群データの差が所定量を超えた場合に不整合を検出する、請求項1から3のいずれか1項に記載の不整合検出システム。   4. The mismatch detection unit according to claim 1, wherein the mismatch detection unit detects mismatch when a difference between the first point cloud data and the second point cloud data exceeds a predetermined amount. 5. Inconsistency detection system. 前記不整合検出手段は、前記ユーザ環境に基づいて描画される仮想オブジェクトを含む所定の3次元空間領域において前記第1の点群データ及び前記第2の点群データの差が所定量を超えた場合に不整合を検出する、請求項1から3のいずれか1項に記載の不整合検出システム。   The mismatch detection means has a difference between the first point cloud data and the second point cloud data exceeding a predetermined amount in a predetermined three-dimensional space region including a virtual object drawn based on the user environment. The mismatch detection system according to any one of claims 1 to 3, wherein a mismatch is detected in a case. サーバと、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置とを備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムであって、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、
の各手段を前記サーバ又は前記表示装置が備える、複合現実システム。
A portable display device having a server, a transmissive display unit for displaying a virtual object to a user, and a photographing unit for photographing a real space, and displaying the virtual object in a predetermined real space; A mixed reality system that allows a user to visually recognize a virtual object superimposed on real space through the display unit,
Three-dimensional spatial data storage means for storing three-dimensional spatial data including point group data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information;
User environment determining means for determining a user environment including a position of the display device and a visual field area visually recognized by the user through the display unit based on the data acquired from the sensor included in the display device and the three-dimensional spatial data;
Drawing means for drawing a virtual object on the display unit based on the user environment;
From the composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit generated from the captured real space image, the real object and the virtual object are displayed. First point cloud data generating means for generating first point cloud data which is point cloud data;
Second point cloud data using the point cloud data stored by the three-dimensional spatial data storage means in the field of view determined by the user environment determining means and the point cloud data of the virtual object drawn by the drawing means Second point cloud data generating means for generating
Mismatch detection means for detecting mismatch based on a comparison result between the first point cloud data and the second point cloud data;
A mixed reality system in which the server or the display device includes the means described above.
ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおいて不整合を検出するためのプログラムであって、
前記複合現実システムは、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
前記プログラムは、前記表示装置に、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出するステップと、
を実行させる、プログラム。
A portable display device having a transmissive display unit for displaying a virtual object to a user and a photographing unit for photographing a real space, and rendering the virtual object on the display unit in a predetermined real space A program for detecting inconsistencies in a mixed reality system that allows a user to visually recognize a virtual object through the display unit and
The mixed reality system is:
Three-dimensional spatial data storage means for storing three-dimensional spatial data including point group data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information;
User environment determining means for determining a user environment including a position of the display device and a visual field area visually recognized by the user through the display unit based on the data acquired from the sensor included in the display device and the three-dimensional spatial data;
Drawing means for drawing a virtual object on the display unit based on the user environment,
The program is stored in the display device.
From the composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit generated from the captured real space image, the real object and the virtual object are displayed. Generating first point cloud data which is point cloud data;
Second point cloud data using the point cloud data stored by the three-dimensional spatial data storage means in the field of view determined by the user environment determining means and the point cloud data of the virtual object drawn by the drawing means A step of generating
Detecting a mismatch based on a comparison result of the first point cloud data and the second point cloud data;
A program that executes
ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出方法であって、
前記複合現実システムは、
予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、
前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、
前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出するステップと、
を有する方法。
A portable display device having a transmissive display unit for displaying a virtual object to a user and a photographing unit for photographing a real space, and rendering the virtual object on the display unit in a predetermined real space A mismatch detection method in a mixed reality system in which a virtual object is superimposed on a real space through the display unit and visually recognized by a user,
The mixed reality system is:
Three-dimensional spatial data storage means for storing three-dimensional spatial data including point group data of real objects in the predetermined real space acquired in advance, each of which includes point cloud data having three-dimensional position information;
User environment determining means for determining a user environment including a position of the display device and a visual field area visually recognized by the user through the display unit based on the data acquired from the sensor included in the display device and the three-dimensional spatial data;
Drawing means for drawing a virtual object on the display unit based on the user environment,
From the composite image obtained by superimposing and displaying the virtual object drawn by the drawing means on the real space image visually recognized by the user through the display unit generated from the captured real space image, the real object and the virtual object are displayed. Generating first point cloud data which is point cloud data;
Second point cloud data using the point cloud data stored by the three-dimensional spatial data storage means in the field of view determined by the user environment determining means and the point cloud data of the virtual object drawn by the drawing means A step of generating
Detecting a mismatch based on a comparison result of the first point cloud data and the second point cloud data;
Having a method.
JP2017130358A 2017-07-03 2017-07-03 Inconsistency detection system, mixed reality system, program, and inconsistency detection method Pending JP2018106661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017130358A JP2018106661A (en) 2017-07-03 2017-07-03 Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017130358A JP2018106661A (en) 2017-07-03 2017-07-03 Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016249429A Division JP6171079B1 (en) 2016-12-22 2016-12-22 Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Publications (1)

Publication Number Publication Date
JP2018106661A true JP2018106661A (en) 2018-07-05

Family

ID=62788139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017130358A Pending JP2018106661A (en) 2017-07-03 2017-07-03 Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Country Status (1)

Country Link
JP (1) JP2018106661A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223048A (en) * 2019-12-27 2020-06-02 中铭谷智能机器人(广东)有限公司 Method and system for splicing 3D visual point cloud data
KR20210079484A (en) * 2019-12-19 2021-06-30 주식회사 비즈모델라인 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Based on Artificial Intelligence
US11210859B1 (en) * 2018-12-03 2021-12-28 Occam Video Solutions, LLC Computer system for forensic analysis using motion video
JP7303711B2 (en) 2019-09-18 2023-07-05 五洋建設株式会社 image display system
WO2023199626A1 (en) * 2022-04-14 2023-10-19 株式会社Nttドコモ Display control device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6171079B1 (en) * 2016-12-22 2017-07-26 株式会社Cygames Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6171079B1 (en) * 2016-12-22 2017-07-26 株式会社Cygames Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210859B1 (en) * 2018-12-03 2021-12-28 Occam Video Solutions, LLC Computer system for forensic analysis using motion video
JP7303711B2 (en) 2019-09-18 2023-07-05 五洋建設株式会社 image display system
KR20210079484A (en) * 2019-12-19 2021-06-30 주식회사 비즈모델라인 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Based on Artificial Intelligence
KR102596833B1 (en) * 2019-12-19 2023-11-03 (주)펫펄스랩 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Based on Artificial Intelligence
CN111223048A (en) * 2019-12-27 2020-06-02 中铭谷智能机器人(广东)有限公司 Method and system for splicing 3D visual point cloud data
CN111223048B (en) * 2019-12-27 2023-09-12 中铭谷智能机器人(广东)有限公司 3D visual point cloud data splicing method and system
WO2023199626A1 (en) * 2022-04-14 2023-10-19 株式会社Nttドコモ Display control device

Similar Documents

Publication Publication Date Title
JP6171079B1 (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
KR102164471B1 (en) System for creating a mixed reality environment, etc.
JP7145221B2 (en) Caching and Updating Dense 3D Reconstruction Data
KR101835434B1 (en) Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
KR101861313B1 (en) Three-dimensional environment reconstruction
JP2022539314A (en) Caching and Updating Dense 3D Reconstruction Data
JP2018106661A (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
CN105190703A (en) Using photometric stereo for 3D environment modeling
CN105103542A (en) Handheld portable optical scanner and method of using
WO2016184255A1 (en) Visual positioning device and three-dimensional mapping system and method based on same
CN102622762A (en) Real-time camera tracking using depth maps
JP7423683B2 (en) image display system
CN106873300B (en) Virtual space projection method and device for intelligent robot
EP3566178A1 (en) Tracking image collection for digital capture of environments, and associated systems and methods
JP6295296B2 (en) Complex system and target marker
WO2022127572A1 (en) Method for displaying posture of robot in three-dimensional map, apparatus, device, and storage medium
KR20220039101A (en) Robot and controlling method thereof
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
JP6134874B1 (en) System for creating a mixed reality environment
JP7465133B2 (en) Information processing device and information processing method
JP7293057B2 (en) Radiation dose distribution display system and radiation dose distribution display method
WO2021166751A1 (en) Information-processing device, information-processing method, and computer program
JP2022021009A (en) Site video management system and site video management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20201109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211122