JP2018106262A - 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 - Google Patents

不整合検出システム、複合現実システム、プログラム及び不整合検出方法 Download PDF

Info

Publication number
JP2018106262A
JP2018106262A JP2016249429A JP2016249429A JP2018106262A JP 2018106262 A JP2018106262 A JP 2018106262A JP 2016249429 A JP2016249429 A JP 2016249429A JP 2016249429 A JP2016249429 A JP 2016249429A JP 2018106262 A JP2018106262 A JP 2018106262A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
virtual object
user
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016249429A
Other languages
English (en)
Other versions
JP6171079B1 (ja
Inventor
修一 倉林
Shuichi Kurabayashi
修一 倉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2016249429A priority Critical patent/JP6171079B1/ja
Application granted granted Critical
Publication of JP6171079B1 publication Critical patent/JP6171079B1/ja
Priority to KR1020197018856A priority patent/KR102255031B1/ko
Priority to PCT/JP2017/043332 priority patent/WO2018116790A1/ja
Priority to CN201780087085.3A priority patent/CN110383343B/zh
Publication of JP2018106262A publication Critical patent/JP2018106262A/ja
Priority to US16/450,041 priority patent/US10896497B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複合現実システムにおいて、幾何学的不整合を検出することができるシステムを提供する。
【解決手段】本発明は、透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを表示部に描画してユーザに視認させる複合現実システムにおける不整合検出システムであって、複合現実システムは、3次元空間データを記憶する手段と、ユーザ環境を決定する手段と、ユーザ環境に基づいて表示部に仮想オブジェクトを描画する手段とを備えるものであり、肉眼視野画像に仮想オブジェクトを重畳表示することで得られる合成画像から第1の点群データを生成し、決定されたユーザ環境における3次元空間の点群データ及び仮想オブジェクトの点群データを用いて第2の点群データを生成し、第1の点群データ及び第2の点群データの比較結果に基づいて不整合を検出する不整合検出システムである。
【選択図】図1

Description

本発明は、不整合検出システム等に関し、特に所定の実空間内にいるユーザに対して複合現実感を体感させることができる複合現実システムにおける不整合検出システム等に関する。
近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術は、これを体験するユーザに対して、あたかもその場に仮想の物体が存在するかのような体験を行わせることができ、様々な分野で注目を集めている。ユーザは、光学シースルー型HMD(Head Mounted Display)やビデオシースルー型HMDを装着することにより、HMDに重畳表示された複合現実画像を確認することができ、複合現実感を体験することができる。
現実世界を3D空間として認識する技術としては、ユーザ視点の高精度なカメラを搭載する手法と、観測対象空間を取り囲むようにカメラを設置する手法の2つが知られている。
ユーザ視点の高精度なカメラを搭載する手法としては、赤外線プロジェクタと赤外線カメラを用いる手法がある。例えば、ユーザ視点の高精度なカメラを搭載する手法としては、赤外線を照射し、その反射パターンの歪みから、物体の深度を計測する手法がある。また、Time of Flight法(TOF法)と呼ばれる手法では、赤外線などの不可視光を照射し、その反射結果を計測することにより、対象物までの往復の距離を算出する手法がある。これらの方式は、3次元化できる空間が、赤外線の到達範囲に限定され、また、太陽効果で使用できないという問題点がある。
また、極めて高精度な3次元情報を撮影する手法としては、3Dレーザスキャナを用いる方式がある。本方式は、高い測定精度を実現できるが、360度の測定を行うために、最低でも10分程度、標準画質で30分間程度の時間を要する。したがって、リアルタイムの用途には適用できない。また、3Dレーザスキャナは、1台が数百〜数千万円と非常に高価であり、広域に大量配備するには適さない。3Dレーザスキャナは以上のような特性から、土木における測量や工場内のレイアウト確認などの、長時間かけて高精度な3D化を行う用途に用いられている。例えば特許文献1は、3Dイメージスキャナでスキャンして作成した点群データに対して、カメラで撮影した画像の色を付与することで、現実世界を3D空間として認識する技術を実現している。
観測対象空間を取り囲むようにカメラを設置する手法としては、非特許文献1に示すStructure−from−Motion(SfM)と呼ばれる技術を用いて、複数の、ばらばらに撮影された画像から、元の3次元情報を復元する方式が挙げられる。この方式を採用する代表的な製品としては、Microsoft Photosynth(登録商標)がある。SfMが実現する精度は、MR技術が要求する精度との比較においては相対的に低いものの、安価に3Dモデルを構築できる方式である。しかしながら、リアルタイム性は低く、そのままではMR環境の実現に適用することはできない。
上述のとおり、これらの手法では、リアルタイム性と高精度な測定を同時に実現できない。
特開2013−69235号公報
Sameer Agarwal, Yasutaka Furukawa, Noah Snavely, Ian Simon, Brian Curless, Steven M. Seitz, and Richard Szeliski. 2011. Building Rome in a day. Commun. ACM 54, 10 (October 2011), 105-112. DOI=http://dx.doi.org/10.1145/2001269.2001293
上述のとおり、現実世界の構造や環境をリアルタイムかつ高精度に認識してそれを仮想空間に反映する方法は、未だ確立されていない。このような状況において、本出願人は、特願2016−121928において、複合現実環境において実空間の環境をリアルタイムに認識することができる複合現実システムを提案している。
当該複合現実システムは、実空間と極めて高い精度で一致する構造及び色彩を有する高精度の3次元仮想空間を生成し、これにより、現実世界の光の状態を利用したグローバルイルミネーションを実現し、またユーザの高精度なポジショントラッキングを実現する。
ここで、当該複合現実システムの主目的の1つは、仮想空間の物体(仮想オブジェクト)と実空間の地面や建物などの物体(実オブジェクト)とがほぼ正確に接触する、継ぎ目の無い複合現実空間をユーザに提供することである。
上記のような複合現実システムを実現するためには、仮想オブジェクトと、実オブジェクトとを正しく重畳させる幾何学的整合性を、HMDの現在位置や移動に合わせてリアルタイムに維持することが必要となる。特に、仮想的なキャラクタ(仮想オブジェクト)として、地面に立ったり物に触れたりする人間や動物を表示するときの、境界線処理(アラインメント処理)の完全性、すなわち幾何学的整合性は、仮想オブジェクトにリアリティを与えるうえで、極めて重要である。
しかしながら、光学シースルー型HMDでは、仮想オブジェクトを重畳する対象としての実オブジェクトを映像(画像)処理の対象にすることはできず、単純な光学的な重畳しかできないため、アラインメント処理の完全性を担保することは極めて難しい。アラインメント処理の完全性(幾何学的整合性)はユーザのポジショントラッキングの精度に依存するものであるが、仮想オブジェクトと、実オブジェクトとの幾何学的不整合は、ポジショントラッキングの誤差の累積などにより発生するものである。しかしながら、複合現実システムにおけるポジショントラッキングに使用される自己位置推定技術単体では、幾何学的不整合を発生させる、数センチ単位の認識誤差を自己検出(自己診断)することはできないという問題があった。
本発明は、このような課題を解決するためになされたものであり、光学シースルー型HMDを用いた複合現実システムにおいて、仮想空間の物体と、実空間の物体との幾何学的整合性に矛盾が発生したときに不整合を検出することができる不整合検出システムを提供することを主目的とする。
上記の目的を達成するために、本発明の一態様としての不整合検出システムは、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出システムであって、上記複合現実システムは、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、を備えることを特徴とする。
また、本発明において好ましくは、上記撮影部は、実空間をステレオ画像として取得するものであり、第1の点群データ生成手段は、上記ステレオ画像として取得された2つの実空間画像からそれぞれ生成された上記表示部を通してユーザが視認する各実空間画像に上記描画手段により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像から、上記第1の点群データを生成する。
また、本発明において好ましくは、上記第1の点群データ生成手段は、上記撮影された実空間画像を、上記表示部と上記撮像部の位置関係に基づいて射影変換することにより上記表示部を通してユーザが視認する実空間画像を生成する。
また、本発明において好ましくは、上記不整合検出手段は、上記第1の点群データ及び上記第2の点群データの差が所定量を超えた場合に不整合を検出する。
また、本発明において好ましくは、上記不整合検出手段は、上記ユーザ環境に基づいて描画される仮想オブジェクトを含む所定の3次元空間領域において上記第1の点群データ及び上記第2の点群データの差が所定量を超えた場合に不整合を検出する。
また、上記の目的を達成するために、本発明の一態様としての複合現実システムは、サーバと、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置とを備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムであって、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、の各手段を上記サーバ又は上記表示装置が備えることを特徴とする。
また、上記の目的を達成するために、本発明の一態様としてのプログラムは、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおいて不整合を検出するためのプログラムであって、上記複合現実システムは、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、上記プログラムは、上記表示装置に、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出するステップと、を実行させることを特徴とする。
また、上記の目的を達成するために、本発明の一態様としての不整合検出方法は、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを上記表示部に描画することで上記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出方法であって、上記複合現実システムは、予め取得された上記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、上記表示装置が備えるセンサから取得されたデータ及び上記3次元空間データに基づいて上記表示装置の位置及び上記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、上記ユーザ環境に基づいて上記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、上記撮影された実空間画像から生成された上記表示部を通してユーザが視認する実空間画像に上記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、上記ユーザ環境決定手段により決定された上記視界領域における上記3次元空間データ記憶手段により記憶された点群データ及び上記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、上記第1の点群データ及び上記第2の点群データの比較結果に基づいて不整合を検出するステップと、を有することを特徴とする。
本発明によれば、光学シースルー型HMDを用いた複合現実システムにおいて、仮想空間の物体と、実空間の物体との幾何学的整合性に矛盾が発生したときに不整合を検出することができる。
本発明の一実施形態によるMRシステムの全体構成図である。 本発明の一実施形態によるポジショントラッキングの概要を示す図である。 本発明の一実施形態によるMRシステムにおいて現実世界の壁に仮想世界のキャラクタがもたれかかる状況を示す図である。 本発明の一実施形態によるMRシステムにおいて現実世界の壁に仮想世界のキャラクタがもたれかかる状況を示す図である。 本発明の一実施形態によるサーバのハードウェア構成を示すブロック図である。 本発明の一実施形態による表示装置のハードウェア構成を示すブロック図である。 本発明の一実施形態によるHMDの概略構成図の一実施例である。 本発明の一実施形態による実空間の概観図である。 図8の実空間を上から見た平面図である。 図8の実空間において取得された点群データにより表現された3次元空間データである。 図10の点群データから作成されたボクセルにより表現された3次元空間データである。 本発明の一実施形態によるMRシステムの機能ブロック図である。 本発明の一実施形態による第1の点群データ及び第2の点群データの生成を説明する概略図である。 本発明の一実施形態による第1の点群データ及び第2の点群データの生成を説明する概略図である。 本発明の一実施形態による不整合検出システムの機能ブロック図である。 本発明の一実施形態による、MRシステムにおける不整合を検出する情報処理を示すフローチャートである。 本発明の一実施形態による実空間の概観図である。
以下、図面を参照して、ユーザに対して仮想空間と現実空間とを融合した複合現実空間を提供する複合現実(MR)システム、及び当該MRシステムにおける不整合検出システムについて説明する。なお各図において同一の符号は、特に言及が無い限り同一又は相当部分を示すものとする。
本発明の実施形態によるMRシステムの技術的特徴の1つは、当該MRシステムは予め定められた実空間(所定の実空間)において実現するものであり、実空間と極めて高い精度で一致する構造及び色彩を有する高精度の3次元仮想空間を生成することである。これにより、ユーザの高精度なポジショントラッキングを実現することが可能となる。
図2は、ユーザがいる現実世界21と、3次元空間データ(DB)により構築される仮想世界22と、これらをマッチングして生成されたMRシステムにおける複合現実世界(MR環境)23とを示す。MR環境23において、一般的にユーザはHMD等の表示部を有する装置を装着する。HMDには各種センサ機器が搭載されているが、現実世界21の構造を高精度に認識してそれを仮想空間22に反映するMR環境23を実現するためには、従来使用されるセンサの計測精度では十分ではない。
そこで、本実施形態のMRシステムは、従来使用される各種センサから得られる大まかな位置情報と高精度の仮想空間22とのマッチングを行い、実空間21と仮想空間22におけるユーザの位置やユーザの向いている方向のずれをリアルタイムに補正する。従来使用される各種センサは、例えば、距離センサ、画像センサ、方向センサ、GPSセンサ、Bluetooth(登録商標)ビーコンなどである。これにより、現実と高精度にリンクするMR環境23を実現し、ユーザのポジショントラッキングを実現する。このようなMR環境23においては、仮想世界22の台26の上にキャラクタ24を立たせる場合、ユーザは現実世界21の台25の上に違和感なくキャラクタ24が立っていることを視認することができる。なお台26は、MR環境23において仮想オブジェクトとして表示されるものではない。
前述のとおり、本実施形態のMRシステムにおいては、仮想オブジェクトを表示するときの実オブジェクト(建物、ベンチなど)との幾何学的整合性(衝突関係、前後関係、オクルージョンなど)は、仮想オブジェクトにリアリティを与えるうえで、極めて重要である。例えば、図3及び図4は、現実世界21の壁に仮想世界22のキャラクタ24がもたれかかる状況を示すものである。図3においては、仮想的なキャラクタ(仮想オブジェクト)24の腕が過剰に壁(実オブジェクト)27に埋没しており、図4においては、仮想的なキャラクタ24の一部が不必要に削れてしまっている。このような表示は、リアリティを著しく損なうため防止する必要がある。しかしながら、上記のポジショントラッキングに使用される自己位置推定技術は、3次元空間の認識エラーを自己検出することはできない。
本発明の実施形態による不整合検出システムは、例えば図3及び図4のように、仮想オブジェクトと、実オブジェクトとの幾何学的整合性に矛盾が発生したときに不整合を検出するものである。以下に具体的な構成を説明するが、説明の便宜上、最初に不整合検出システムを包含するMRシステムについて説明する。
図1は、本発明の実施形態によるMRシステム10の全体構成図の一例である。図1に示すように、MRシステム10は、サーバ100と、1又は複数の表示装置200と、1又は複数の画像取得装置300とを含む。サーバ100、表示装置200、及び画像取得装置300は、インターネットなどのネットワーク50に接続され、互いに通信可能である。なお、画像取得装置300は、MRシステム10において、実オブジェクトの陰影と、仮想オブジェクトとが違和感なく表示される光学的整合性をリアルタイムに維持するために必要な装置である。そのため、本発明の実施形態によるMRシステム10は、画像取得装置300を含まなくてもよい。
MRシステム10は、サーバ‐クライアントシステムを想定しており、好ましくは、表示装置200と画像取得装置300は、サーバ100とのみ通信を行う。ただし、PtoPのようなサーバのないシステムで構成することもできる。
MRシステム10は、所定の実空間内にいるユーザに対して、複合現実感を体感させることができるものである。所定の実空間は、予め定められた屋内又は屋外の実空間であり、該空間内には、現実世界におけるオブジェクトである実オブジェクトが存在する。実オブジェクトは、例えば建物、ベンチ、壁などの構造物であり、実空間内に固定されたものである。ただし、移動可能な物を実オブジェクトに含めてもよい。
図5は本発明の実施形態によるサーバ100のハードウェア構成を示すブロック図である。サーバ100は、処理部101、表示部102、入力部103、記憶部104及び通信部105を備える。これらの各構成部はバス110によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。
処理部101は、サーバ100が備える各部を制御するプロセッサ(例えばCPU)を備えており、記憶部104をワーク領域として各種処理を行う。サーバ100が仮想オブジェクトを描画する場合、処理部101は、CPUとは別に、描画処理を行うGPUを備えるのが好ましい。
表示部102はサーバ使用者に情報を表示するものであり、入力部103は、サーバ100に対するユーザからの入力を受け付けるものであり、例えば、タッチパネル、タッチパッド、キーボード、又はマウスである。
記憶部104は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラムが記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部104には、プログラムや当該プログラムの実行に伴って参照され得る各種データが記憶される。処理部101がGPUを備える場合、記憶部104はビデオメモリを含むことができる。
記憶部104は各種データベース用のデータ(例えばテーブル)やプログラムを記憶することができる。処理部101の動作などにより、各種データベースは実現される。例えば、サーバ100は、データベースサーバ機能を備えることもできるし、データベースサーバを含むこともできるし、又は他のサーバを含む若しくは備えることもできる。1つの例では、サーバ100は、仮想空間を構築する3次元空間データについてのデータベースを備え、記憶部104は、当該データベース用のデータ及びプログラムを記憶する。
通信部105はイーサネット(登録商標)ケーブル等を用いた有線通信や移動体通信、無線LAN等の無線通信を行い、ネットワーク50へ接続する。
サーバ100は、プログラムが実行されることによって様々な機能が実現されるが、これらの機能の一部は電子回路等を構成することによっても実現できる。
1つの例では、サーバ100は、機能やエリアごとに設置された複数のサーバを組み合わせて構成される。例えば、所定の実空間を複数のエリアに分割し、各エリアに1台のサーバを設置するとともに、それらのサーバを統合するサーバを設置する構成とすることもできる。
1つの例では、サーバ100が仮想オブジェクトを描画する場合、CPUはメインメモリに描画コマンドを書き込み、GPUは描画コマンドを参照してビデオメモリ上のフレームバッファに描画データを書き込む。その後、フレームバッファから読み取ったデータをそのまま表示装置200に送信する。
図6は本発明の実施形態による表示装置200のハードウェア構成を示すブロック図である。表示装置200は、処理部201と、表示部202と、撮影部203と、記憶部204と、通信部205と、センサ206とを備える。これらの各構成部はバス210によって接続されるが、それぞれが必要に応じて個別に接続される形態であってもかまわない。
表示装置200は、ユーザが携帯可能なものであり、好ましくは、頭部に装着可能な頭部搭載型画像表示装置(HMD)である。以下、本発明の実施形態においては、表示装置200としてHMD200を用いるものとする。
処理部201は、HMD200が備える各部を制御するプロセッサ(例えばCPU)を備えており、記憶部204をワーク領域として各種処理を行う。1つの例では、HMD200はサーバ100から描画コマンドを受信し、描画処理を行う。この場合、処理部201は、CPUとは別に、描画処理を行うGPUを備える。
記憶部204は、ハードディスク、メインメモリ、及びバッファメモリを含む。ハードディスクにはプログラムが記憶される。ただしハードディスクは、情報を格納できるものであればいかなる不揮発性ストレージ又は不揮発性メモリであってもよく、着脱可能なものであっても構わない。記憶部204には、プログラムや当該プログラムの実行に伴って参照され得る各種データが記憶される。処理部201がGPUを備える場合、記憶部204はビデオメモリを含むことができる。更に記憶部204は各種データベース用のデータやプログラムを記憶することができ、この場合、処理部201の動作などにより各種データベースは実現される。
表示部202は、ユーザに対して仮想オブジェクトを表示可能な透過型ディスプレイである。すなわち本発明の実施形態において、HMD200は光学シースルー型HMDである。HMD200は、HMD200を装着するユーザに対して表示部202を通して実空間を視認させるとともに、仮想オブジェクトを表示部202に描画する場合、表示部202を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させることができる。
本発明の実施形態において、MRシステム10は、描画する仮想オブジェクトを生成する際に、ユーザの右目に視認させるための右目用画像と、ユーザの左目に視認させるための左目用画像とを生成する。したがって、表示部202は、右目用画像を表示する右目用透過型ディスプレイと、左目用画像を表示する左目用透過型ディスプレイとを含む。或いは、表示部202は、1つの透過型ディスプレイを備え、当該ディスプレイの表示領域は、右目用画像表示領域及び左目用画像表示領域を含んで構成されてもよい。
撮影部203は、実空間を撮影するステレオカメラを備え、実空間をステレオ画像として取得する。撮影部203は、撮影した各フレームの画像(現実世界の画像)を記憶部204に格納する。1つの例では、撮影部203は、ユーザの右目が視認する実空間を撮影するための右目用カメラと、ユーザの左目が視認する実空間を撮影するための左目用カメラとを含んで構成される。ただし、撮影部203は単眼カメラを備え、既知の手法を用いて、実空間をステレオ画像として取得するように構成されてもよい。
図7は、HMD200の一実施例による概略構成図である。図7に示すように、HMD200は、右目用画像を表示する右目用透過型ディスプレイ202a及び左目用画像を表示する左目用透過型ディスプレイ202bを有する表示部202を備える。またHMD200は、右目用透過型ディスプレイ202bの近傍に設置される右目用カメラ203a及び左目用透過型ディスプレイの近傍に設置される左目用カメラ203bを有する撮影部203を備える。
右目用透過型ディスプレイ202aは、右目用の透過型ディスプレイであり、MRシステム10が生成する右目用画像を表示することができる。透過型ディスプレイの場合、画像を表示していない領域は、現実世界の像がそのまま目に映るため、結果として、仮想世界の画像(仮想オブジェクト)と現実世界の像(実オブジェクト)とが光学的に合成されることになる。左目用透過型ディスプレイ203についても同様である。
右目用カメラ203aは、右目用透過型ディスプレイ202aを透過して閲覧される現実世界の像を撮影するためのカメラである。後述するように、本発明の実施形態においては、MRシステム10は、右目用カメラ203aで撮影した画像から右目用透過型ディスプレイ202aを通してユーザが視認する実空間画像(肉眼視野画像)を生成する。したがって、右目用カメラ203aの画角、視野範囲等の内部パラメータは、右目用透過型ディスプレイ202aが表示する空間とキャリブレーション済となっている必要がある。具体的には、右目用カメラ203aから得られる画像に、内部パラメータから算出された射影行列を適用することにより、右目用透過型ディスプレイ203aを通してユーザが視認する(閲覧する)画像を得ることができる。左目用カメラ203bについても同様である。
センサ206は、自己位置推定技術を利用するために必要な各種センサである。1つの例では、センサ206は、加速度センサと、ジャイロセンサと、赤外線デプスセンサと、カメラとを含む。赤外線デプスセンサは、赤外線投影によるデプスセンサであるが、RGB−Dカメラにより同機能が実現されてもよい。カメラは、撮影部203が備えるステレオカメラとは異なるカメラ(単眼カメラ等)であるが、撮影部203が備えるステレオカメラをセンサ206として含むこともできる。またセンサ206は、GPSセンサ、Bluetooth(登録商標)ビーコン、Wifiなど従来使用される他の各種センサを含むことができる。他の例では、画像取得装置300をセンサ206として含むこともできる。
通信部205は移動体通信、無線LAN等の無線通信を行い、ネットワーク50へ接続する。1つの例では、通信部205は、サーバ100から3次元空間データを受信する。1つの例では、通信部205は、撮影部203が撮影した画像データを、ネットワーク50を介してサーバ100に送信する。
画像取得装置300は、実空間の映像(画像)を取得し、取得された画像データを、ネットワーク50を介してサーバ100や表示装置200に送信する。また画像取得装置300は、所定の実空間を取り囲み、所定の実空間内にいるユーザが視認可能な領域を撮影可能な定点に固定して設置される。1つの例では、画像取得装置300は、定点に設置される固定カメラである。また1つの例では、画像取得装置300は1秒間に30コマの画像を取得し、サーバ100に送信する。
ここで本発明の実施形態によるMRシステム10が複合現実空間33をユーザに提供する現実世界の空間(所定の実空間)として、図8に示すような壁36に覆われた屋内の空間である実空間31を想定する。図8は実空間31の概観図、図9は実空間31を上から見た平面図である。実空間31内には、現実世界の光源34及び現実世界の実オブジェクトである建物35が存在する。図8に示すように、実空間31においては、観測対象となる空間、すなわち実空間31内にいるユーザが視認可能な空間を撮影できるように、複数の画像取得装置300が設置される。ただし、本発明の実施形態においては、画像取得装置300は設置されなくてもよい。
図10は、実空間31において取得された点群データの例を示す。本発明の実施形態においては、例えば高精度な3Dレーザスキャナ(図示せず)を用いることにより、実空間31内の実オブジェクトの3次元形状を示す点群データを予め取得する。なお、画像取得装置300が設置される場合、点群データの取得は、実空間31内に画像取得装置300が設置された後に行われるのが好適である。
図10に示すように、点群データのそれぞれは、3次元座標(x、y、z)を有し、実空間31に対応付けられた仮想空間32内に配置される。また点群データのそれぞれは、色情報を有する色付き点群データである。色付き点群データは、レーザスキャナが備えるカメラを用いて点群データ取得とは別に撮影された画像から求めた色情報を、撮影時のカメラの位置や姿勢に応じて点群の各座標点(x、y、z)にマッピングすることにより、作成される。
このように実空間31に対応付けされた仮想空間32において実オブジェクトの3次元形状を表すものとして、点群データを基本単位(基本構成要素)として用いることができる。本明細書においては、この基本単位を3次元形状要素と表現する。
本発明の実施形態では、説明を簡単にするため、取得された点群データを、例えばOctoMap("OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees" in Autonomous Robots, 2013; A.Hornung,. K.M. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard (http://dx.doi.org/10.1007/s10514-012-9321-0) DOI: 10.1007/s10514-012-9321-0.)等の既知の手法を用いて、ボクセルと呼ばれるデータ構造へ変換する。ボクセルは、2次元空間のピクセルに対応する3次元空間の単位構成要素であり、3次元空間上の座標を用いて識別される一定の大きさを持つ立方体である。
以下、本発明の実施形態においては、実空間31に対応付けされた仮想空間32において実オブジェクトの3次元形状を表す基本単位をボクセルとする。つまり、ボクセルが3次元形状要素である。図11は、図10の点群データから作成されたボクセルを示す。MRシステム10は、3次元空間データとして点群データ及びボクセルデータを記憶部104又は204に記憶する。ただし、3次元形状要素としてメッシュ(3Dメッシュ)を用いることもできる。この場合、MRシステム10は、3次元空間データとして点群データ及び3Dメッシュデータを記憶部104又は204に記憶する。点群データそのものを3次元形状要素として用いることもできる。この場合、MRシステムは、3次元空間データとして点群データを記憶する。
1つの例では、実空間を1cm3のボクセル枠に分割し、ボクセル空間(ボクセルにより表現された3次元空間)を設定する。1つのボクセルVは、位置情報x、y、zに加え、画像取得装置300から見たときの1又は複数の色情報cを持つ。
Figure 2018106262
色情報cは、RGBやHSV等のフォーマットで表現される。例えばHSVのフォーマットで表現される場合、色情報は、色相、彩度、及び明度を有する。
本発明の実施形態においては、仮想空間32を実空間31内に対応付けされた領域(0≦X≦X1、0≦Y≦Y1、0≦Z≦Z1)に限定して考えるものとする。ただし、仮想空間32をより小さい領域に設定して、複数の仮想空間をそれぞれ実空間31と対応付けることもできるし、仮想空間32をより大きい領域に設定することもできる。仮想空間32をより小さい領域に設定する場合、それぞれの仮想空間32に対応する実空間31内において、ユーザが視認可能な領域を撮影可能な複数の定点にそれぞれ画像取得装置300を設置することができる。
1つの例では、実空間31が広域の空間である場合、仮想空間32を複数のエリアごとに設定し、サーバ100も複数のエリアごとに設置するのが好適である。例えば、サーバ100の記憶部104がボクセルデータを記憶する場合、式(1)の1つのボクセルVは、1 voxel = (int16 x, int16 y, int16 z, int32 rgb)とすると、10 byteとなる。例えば実空間を10mm3のボクセルの集合としてモデル化する。テーマパークのように広域の空間を高精度ボクセル空間に変換する場合は、このテーマパーク領域を、10m=10,000mmのグリッドに分割すると、1グリッドは1,000m3なので、約10億voxelとなる。これを、高さ5mまでの空間に縮退させると、約5億voxelとなる。すなわち、5億voxelをそのままナイーブにメモリ上に確保しても、5GByteで格納できるため、グリッドごとにサーバ100を割り当て、オンメモリ化することは容易である。
図12は本発明の実施形態によるMRシステム10の機能ブロック図を示す。MRシステム10は、記憶手段11と、ユーザ環境決定手段12と、描画手段13と、第1の点群データ生成手段14と、第2の点群データ生成手段15と、不整合検出手段16とを備える。
これらの機能は、プログラムをサーバ100に実行させることで実現されるか、プログラムをHMD200に実行させることで実現されるか、又はプログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現される。このように各種機能がプログラム読み込みにより実現されるため、1つの手段の一部の機能を他の手段が有していてもよい。このように、サーバ100及びHMD200の少なくとも一方が図12に示す各種機能を備えることにより、MRシステム10は実現される。
記憶手段11は、サーバ100及びHMD200の双方が備え、プログラムやデータ等を記憶部104又は204に記憶する機能を有する。1つの例では、サーバ100が備える記憶手段11は、仮想空間32に配置される仮想オブジェクトの位置や動きに関するデータや仮想オブジェクトの3次元データを記憶部104へ記憶する。1つの例では、HMD200が備える記憶手段11は、仮想オブジェクトを描画するために、サーバ100から受信する描画コマンドを一時的に記憶部204へ記憶する。他の例では、記憶手段11は、各種データベースへのデータ入出力を行う。
サーバ100が備える記憶手段11は、3次元空間データを記憶部104へ記憶する3次元空間データ記憶手段を含む。前述のとおり、3次元空間データは点群データ及びボクセルデータを含む。ここで点群データは、予め取得された実空間31に対応付けされた仮想空間32において実オブジェクトの3次元形状を示すものであり、ボクセルデータは、点群データから既知の手法を用いて変換されるものである。
なお点群データは色付き点群データであるため、作成されるボクセルは色付きボクセルとなる。またそれぞれのボクセルは、3次元位置情報を有する。例えば、仮想空間32に設定された3次元座標の原点から最も近い立方体の頂点の3次元座標(x、y、z)を3次元位置情報として有する。
1つの例では、サーバ100はデータベースサーバ機能を有し、3次元位置情報に関する照会に応じて、サーバ100は記憶された3次元空間データを適宜出力する。HMD200が備える記憶手段11が、3次元空間データを記憶部204へ記憶する3次元空間データ記憶手段を含むこともできる。
ユーザ環境決定手段12は、センサ206から取得されたデータ及び3次元空間データに基づいて、HMD200の位置及び表示部202を通してユーザが視認する視界領域(ユーザ視界領域)を含むユーザ環境を決定する。ユーザ環境決定手段12により、ユーザの高精度なポジショントラッキングを実現する。
ユーザ環境決定手段12は、好ましくは、自己位置推定技術を利用する。1つの例では、ユーザ環境決定手段12は、(1)初期位置合わせと、(2)相対的な移動量計算と、を実行することにより、HMD200の位置及びユーザ視界領域を決定する。
(1)初期位置合わせとして、ユーザ環境決定手段12は、センサ206から取得されるデータと、予め取得された3次元空間データとを用いて、実空間31と仮想空間32を対応付けて照合する。これにより、初期位置としてのHMD200の位置及びユーザ視界領域を決定する。
1つの例では、ユーザ環境決定手段12は、以下のとおり初期位置合わせを行う。ユーザ環境決定手段12は、カメラにより画像データを取得し、デプスセンサにより形状データを取得し、ユーザ視界領域においてユーザが視認可能な実オブジェクトの形状を決定する。一方、ユーザ環境決定手段12は、GPSセンサ、Bluetooth(登録商標)ビーコン、Wifiなどを用いて大まかなユーザ環境である暫定ユーザ環境を決定する。暫定ユーザ環境を決定した後、当該暫定ユーザ環境から所定範囲の位置及び方向においてユーザが視認可能なボクセルの位置情報及び色情報などの3次元空間データを記憶部104又は記憶部204から取得する。
ユーザ環境決定手段12は、画像データや形状データから決定されたユーザ視界領域における実オブジェクトの形状と、暫定ユーザ環境に基づいて取得されたボクセルの位置情報及び色情報から導き出される実オブジェクトの形状とを比較して照合することにより、HMD200の位置及びユーザ視界領域を決定する。
(2)相対的な移動量計算として、ユーザ環境決定手段12は、センサ206から取得されるデータを用いて、上記のとおり決定された初期位置からの実空間31における相対的な移動量を計算することにより、HMD200の位置及びユーザ視界領域を決定する。1つの例では、ユーザ環境決定手段12は、ジャイロセンサや加速度センサ等から取得されるデータを用いて、6軸の相対的な移動量(例えば6DOF座標)を計算する。このとき、ユーザ環境決定手段12は、カメラから取得された画像データの変化量も用いることができる。また1つの例では、ユーザ環境決定手段12は、SLAM技術を利用して、6軸の相対的な移動量を計算する。
このように、初期位置合わせの後は相対的な移動量を計算するようにユーザ環境決定手段12を構成することにより、システム全体の情報処理量を低減しつつ、精度よくユーザ環境を決定することが可能となる。
描画手段13は、ユーザ環境決定手段12により決定されたユーザ環境に対応する仮想オブジェクトをHMD200の表示部202に描画する。描画手段13は、ユーザの右目に視認させるための右目用画像(仮想オブジェクト)と、ユーザの左目に視認させるための左目用画像(仮想オブジェクト)とを生成し、描画する。
1つの例では、サーバ100が備えるCPUがメインメモリに描画コマンドを書き込んでHMD200へ送信する。HMD200が備えるGPUは、受信した描画コマンドを参照してビデオメモリ上のフレームバッファ等に描画データを書き込み、フレームバッファから読み取った内容をそのまま表示部202に描画する(レンダリングする)。描画コマンドを作成するにあたって、描画手段13は、ユーザ環境決定手段12により決定されたHMD200の位置及びユーザ視界領域を用いて、表示部202上に表示される仮想オブジェクトの位置や向きを決定する。
このように、描画手段13は、サーバ100とHMD200が分担して実行することにより実現されるが、描画手段13は、HMD200において描画処理すべてを実行することで実現されてもよい。或いは、描画手段13は、サーバ100において描画処理すべてを実行した後、画像データをHMD200へ送信し、HMD200が受信した画像データを表示することで実現されてもよい。
第1の点群データ生成手段14は、表示部202を通してユーザが視認する実空間画像に描画手段13により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データを生成する。本明細書においては当該点群データを第1の点群データと呼ぶが、第1の点群データは、仮想オブジェクトが重畳表示される実空間画像を用いた実際のレンダリング結果から得られる点群であるため、アクチュアル・ポイントクラウドと呼ぶこともできる。
ここで、通常は表示部202と撮影部203は同じ場所に位置しないため、撮影部203が撮影する実空間画像は、表示部202を通してユーザが視認する実空間画像、すなわち肉眼視野画像、ではない。第1の点群データ生成手段14は、撮影部203により撮影された実空間画像に対して、内部パラメータから算出された射影行列を適用して射影変換することにより、肉眼視野画像を生成する。内部パラメータは、対象の撮影部203及び表示部202の位置関係から算出されたカメラの画角や視野範囲等のパラメータである。
例えば、図7に示すHMD200において、右目用カメラ203aは、右目用透過型ディスプレイ202aを通してユーザの右目に視認させる実空間の像を取得するためのカメラである。第1の点群データ生成手段14は、右目用カメラ203aから得られた画像に対して、内部パラメータから算出された射影行列を適用して射影変換することにより、右目用透過型ディスプレイ202aを通してユーザの右目に視認させる実空間画像(右目用肉眼視野画像)を生成する。内部パラメータは、右目用カメラ203aと右目用透過型ディスプレイ202aの位置関係から算出されたカメラの画角や視野範囲等のパラメータである。左目用透過型ディスプレイ202b及び左目用カメラ203bについても、右目用透過型ディスプレイ202a及び右目用カメラ203aと同様である。
また表示部202を通してユーザが視認する実空間画像(肉眼視野画像)は、撮影部203により撮影されたステレオ画像である。第1の点群データ生成手段14は、ステレオ画像として取得された2つの実空間画像からそれぞれ生成された各肉眼視野画像に描画手段13により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像を用いる。第1の点群データ生成手段14は、上記のとおり合成した(右目用と左目用の)2つの肉眼視野画像を用いて、ステレオマッチング法により各ピクセルの深度(depth)を計算し、実オブジェクト及び仮想オブジェクトの点群データを含む第1の点群データを生成する。なおステレオマッチング法においては、右目用カメラと左目用カメラの映像(画像)の視差情報から各ピクセルの深度を計算し、3次元空間上の点群に変換する。点群に変換するときに、色情報をマッピングすることもできる。
第2の点群データ生成手段15は、ユーザ環境決定手段12により決定されたHMD200の位置及びユーザ視界領域における3次元空間データ記憶手段により記憶された点群データ及び描画手段13により描画される仮想オブジェクトの点群データを用いて点群データを生成する。本明細書においては当該点群データを第2の点群データと呼ぶが、第2の点群データは、レーザスキャナを用いて予め取得された点群データと、描画手段13により描画される仮想オブジェクトの点群データとを用いた、仮想空間32における理想的な点群データであるため、イデアル・ポイントクラウドと呼ぶこともできる。仮想オブジェクトの点群データは、キャラクタなどの動く仮想映像(画像)を描画した後の映像(画像)から生成することができる。或いは、仮想オブジェクトをレンダリングするために用いた点群データを、第2の点群データ生成手段15が利用することができるように構成することもできる。
好ましくは、第2の点群データ生成手段15は、描画手段13により描画される仮想オブジェクトの点群データを、3次元空間データ記憶手段により予め取得されて記憶された点群データに追加することにより第2の点群データを生成する。
上記のとおり、第2の点群データ生成の際に用いるデータは、仮想空間32上に仮想オブジェクトを重畳させた仮想空間32におけるデータであるため、第2の点群データにおいては、原理的に幾何学的不整合は発生しない。第2の点群データは、この点において、仮想オブジェクトが重畳表示される実空間31の画像から生成される第1の点群データと異なる。
図13及び図14は、本発明の実施形態による第1の点群データ及び第2の点群データの生成を説明する概略図である。図13及び図14は、複合現実空間33内にいるユーザが、表示部202を通して、実オブジェクトである壁36及び壁36の前に重畳されて描画された仮想オブジェクト37を視認する様子を示すとともに、この状態において生成される第1の点群データ及び第2の点群データを示している。
図13においては、ユーザは、壁36に接触する仮想オブジェクト37を視認する。この場合、実空間31における壁36(実オブジェクト)と仮想オブジェクト37との幾何学的整合性がとれた状態にあり、図13に示すとおり、生成される第1の点群データと第2の点群データは、実質的に同じである。
図14においては、ユーザは、壁36に一部埋没した仮想オブジェクト37を視認する。この場合、実空間31における壁36(実オブジェクト)と仮想オブジェクト37との幾何学的整合性がとれていない状態にあり(整合性に矛盾が発生しており)、図14に示すとおり、生成される第1の点群データと第2の点群データには差分があることが理解される。
不整合検出手段16は、上記のような第1の点群データ及び第2の点群データの比較結果に基づいて不整合を検出する。
好ましくは、不整合検出手段16は、不整合検出の対象の仮想オブジェクトが描画手段13により描画される前に不整合検出を行う。この場合、第1の点群データ生成手段14及び第2の点群データ生成手段15も同様に、不整合検出の対象の仮想オブジェクトが描画手段13により描画される前に、第1の点群データ及び第2の点群データを生成する。このような構成とすることにより、幾何学的整合性がとれていない仮想オブジェクトを表示部202に描画する前に、すなわちユーザに視認させる前に、不整合検出を行うことが可能となる。これにより、MRシステム10が、幾何学的整合性がとれていない仮想オブジェクトを描画する前に、例えばポジショントラッキングに補正情報を送ることが可能となる。1つの例では、仮想オブジェクトの描画処理を中止したり、当該オブジェクトの描画位置を移動させたりすることにより、リアリティを著しく損なう仮想オブジェクトの表示を防止することができる。ただし、不整合検出の対象の仮想オブジェクトが描画手段13により描画されたとき又は描画後極めて短時間内に、上記の各手段を実行するように構成することもできる。
1つの例では、不整合検出手段16は、第1の点群データ及び第2の点群データの差が所定量を超えた場合に不整合を検出する。すなわち不整合検出手段16は、第1の点群データと第2の点群データの対応する位置において、一方には点データが存在するものの他方には点データが存在しない点データの数量(点群データ差分量)により、不整合の有無を判定し、不整合を検出する。例えば、点群データ差分量は、対応する3次元位置において第1の点群データと第2の点群データが衝突する箇所を消去することにより算出する。この場合、撮影部203から得られた画像を用いて生成される第1の点群データは、仮想空間32上で生成される第2の点群データよりも通常は疎なデータであり、第2の点群データよりも数倍〜10倍程度少ない点データを有する可能性が高い。したがって、この場合好ましくは、点群データ差分量は、第1の点群データの各点の大きさを第2の点群データの各点の大きさよりも数倍〜10倍程度大きくした後に、対応する3次元位置における第1の点群データと第2の点群データが衝突する箇所を消去することにより算出する。
1つの例では、不整合検出手段16は、描画手段13により描画される仮想オブジェクト37を含む所定の3次元空間領域において、第1の点群データ及び第2の点群データの差が所定量を超えた場合に不整合を検出する。このような構成とすることにより、ユーザに対して視認させた場合に違和感を与える仮想オブジェクト周辺の不整合のみを検出し、仮想オブジェクト周辺以外の不整合の検出を排除することが可能となる。
このようにして、仮想オブジェクトが重畳表示される実空間31の画像を用いた実際のレンダリング結果から得られる第1の点群データと、仮想空間32上で生成された第2の点群データとを比較することにより、例えば差分を求めることにより、不整合を検出することができる。すなわち、「あるべき点群が無い」又は「あってはならない点群が有る」という状況を検出することが可能となる。
第1の点群データ生成手段14、第2の点群データ生成手段15、及び不整合検出手段16は、HMD200が備えるのが好ましい。このような構成とすることにより、MRシステム10における不整合検出の処理において、HMD200がネットワーク50を介して画像データを送信すること等が不要となる。これにより、システム全体の情報処理量を低減することが可能となる。
これまで、不整合検出システムを包含するMRシステム10について説明したが、本発明の実施形態による不整合検出システム1は、MRシステム10とは別のシステムとすることが好ましい。この場合、不整合検出システム1は、サーバ100と、1又は複数のHMD200とを含み、サーバ100及びHMD200は、インターネットなどのネットワーク50に接続され、互いに通信可能である。不整合検出システム1は、MRシステム10とは異なるサーバ(ハードウェア)及びネットワークを用いて、実現することもできる。この場合、不整合検出システム1は、MRシステム10と通信可能に構成される。
図15は本発明の実施形態による不整合検出システム1の機能ブロック図を示す。不整合検出システム1は、第1の点群データ生成手段14と、第2の点群データ生成手段15と、不整合検出手段16とを備える。第1の点群データ生成手段14、第2の点群データ生成手段15、及び不整合検出手段16は、HMD200が備えるのが好ましい。この場合、これらの機能は、プログラムをHMD200に実行させることで実現され、HMD200は必要に応じてサーバ100から情報を取得する。ただし、プログラムをサーバ100に実行させることで実現されてもよいし、プログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現されてもよい。また、このように各種機能がプログラム読み込みにより実現されるため、1つの手段の一部の機能を他の手段が有していてもよい。
前述のとおり、図16は、本発明の実施形態による、MRシステム10における不整合を検出する情報処理を示すフローチャートである。本情報処理は、プログラムをサーバ100に実行させることで実現されるか、プログラムをHMD200に実行させることで実現されるか、又はプログラムをサーバ100に実行させ、かつプログラムをHMD200に実行させることで実現される。好ましくは、本情報処理は、プログラムをHMD200に実行させることで実現され、HMD200は必要に応じてサーバ100からデータを取得する。なおユーザは、HMD200を装着し、実空間31(複合現実環境33)内にいるものとする。また、MRシステム10は複合現実空間33をユーザに提供するのにユーザ環境を逐次把握する必要があるため、MRシステム10は、定期的に又は必要に応じてユーザ環境を決定している。
最初に、決定されたユーザ環境において、MRシステム10が描画する仮想オブジェクトが有るかどうかを判定する(ステップ1601)。描画する仮想オブジェクトが無い場合、MRシステム10がユーザに対して複合現実環境33を提供し続ける限り(ステップ1607)、ステップ1601へ戻る。このようにして、描画する仮想オブジェクトが無い場合は不整合検出を行わないように構成することにより、システム全体の情報処理量を低減するとともに消費電力量を低減することができる。ただし、本ステップは省略することもできる。
描画される仮想オブジェクトが有る場合、HMD200の物理的な移動量又は描画する仮想オブジェクトの移動量が所定の閾値以上であるかどうかを判定する(ステップ1602)。HMD200の移動量又は描画する仮想オブジェクトの移動量が所定の閾値以上であった場合、実オブジェクトに対する描画される仮想オブジェクトの幾何学的整合性が失われる可能性が高いため、ステップ1603へ進む。一方、HMD200の移動量又は描画する仮想オブジェクトの移動量が所定の閾値未満であった場合、MRシステム10がユーザに対して複合現実環境33を提供し続ける限り(ステップ1607)、ステップ1601へ戻る。このようにして、幾何学的不整合が発生する可能性が低い場合は不整合検出を行わないように構成することにより、システム全体の情報処理量を低減するとともに消費電力量を低減することができる。ただし、本ステップは省略することもできる。
続いて、HMD200の撮影部203から実空間のステレオ画像を取得し、当該ステレオ画像に射影行列を適用することにより仮想的に肉眼視野画像を生成する(ステップ1603)。このようにして、撮影部203からの画像を用いて、ユーザが視認する映像(画像)を機械的に再現する。
続いて、ステップ1604において、生成された肉眼視野画像に対して描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する。第1の点群データの生成と同時に、描画される仮想オブジェクトの点群データに、レーザスキャナを用いて予め取得された実空間31における点群データを追加することで、仮想空間32における理想的な点群データである第2の点群データを生成する。
なお本情報処理において、好ましくは、第1の点群データの生成と第2の点群データの生成を実質的に同時に行うが、直列的にいずれかの処理を先に行ってもよいし、並列的に同時に処理を行ってもよい。第2の点群データの生成処理については、ステップ1603の処理より前に、又は処理と同時に開始してもよい。
続いて、第1の点群データと第2の点群データとの差分を抽出する(ステップ1605)。具体的には、対応する3次元位置において、第1の点群データと第2の点群データが衝突する箇所を消去することにより、一方には点データが存在するものの他方には点データが存在しない点データの数量を抽出する。この差分計算により、ユーザの肉眼から見たときに感じられる形状と、MRシステム10が想定している理想的な形状との差分の有無を認識することが可能となる。
続いて、抽出された差分を用いて、幾何学的不整合を検出する(ステップ1606)。抽出した差分として、イデアル・ポイントクラウドに対応するアクチュアル・ポイントクラウドが存在しない空間、すなわち「あるべき点群がない」空間と、アクチュアル・ポイントクラウドに対応するイデアル・ポイントクラウドが存在しない空間、すなわち「あってはならない点群がある」状況を検出し、幾何学的な不整合として検出する。1つの例では、抽出された差分が所定量を超えた場合に不整合を検出する。他の例では、描画される仮想オブジェクトを含む所定の3次元空間領域において抽出された差分が所定量を超えた場合に不整合を検出する。
その後、MRシステム10がユーザに対して複合現実環境33を提供し続ける限り(ステップ1607)、ステップ1601へ戻る。
次に、本発明の実施形態によるMRシステム10及び不整合検出システム1の作用効果について説明する。まず本実施形態では、実空間31内の実オブジェクトの3次元形状を示す点群データを予め取得し、MRシステム10は、取得された点群データを、既知の手法を用いて、ボクセルと呼ばれるデータ構造へ変換し、3次元空間データとして点群データ及びボクセルデータを記憶部104又は204に記憶する。MRシステム10は、このように予め取得されて記憶された3次元空間データと、ユーザが装着するHMD200のセンサ206から取得されるデータとに基づいて、実空間31と仮想空間32とを対応付ける。これにより、ユーザの高精度なポジショントラッキングを実現することが可能となる。
本実施形態では、HMD200が備えるカメラから得られる実空間31のステレオ画像へ仮想空間32の仮想オブジェクトの画像を重畳させた合成画像から生成できる点群データと、高精度なレーザスキャナを用いて予め取得した実空間31の点群データへ仮想空間32の仮想オブジェクトの点群データを追加した点群データとを比較する。このように比較するで、HMD200装着者であるユーザの視点から見たときに、実空間31の像と、その上に透過型ディスプレイ202を通して重畳表示される仮想空間32の画像との幾何学的整合性の有無を検出する。このような構成とすることにより、実際にユーザが目にする画像上での、仮想オブジェクトと現実世界との矛盾した関係を検出し、従来自己検出することができなかったMRシステム10におけるポジショントラッキングのエラーを検出することが可能となる。これにより、例えば、矛盾のある画像を画面に表示せずに、ポジショントラッキングに補正情報を送ることが可能となる。なお現在の技術水準では、誤差が生じないポジショントラッキングの実現は不可能であるため、ユーザが目にする画像から矛盾を検出し、その結果に応じて位置情報等を補正することが可能となる、本発明の実施形態の技術的意義は大きいといえる。
また本実施形態では、カメラから得た画像をそのまま利用するのではなく、メモリ内で合成された画像を対象として深度計算を行い、MRシステム10によるレンダリング結果を検証することができる。これにより、MRシステム10による「矛盾したレンダリング」、すなわちMRシステム10による幾何学的整合性が取れていない描画処理を、仮想オブジェクトの描画前に又は描画後極めて短時間で検出することが可能となる。
本発明の他の実施形態によるMRシステム10が複合現実環境33をユーザに提供する現実世界の空間(所定の実空間)は、図17に示すような屋外の空間である実空間41であってもよい。実空間41は、天井と一対の横壁が無い点、太陽光を含む光源22が実空間内ではなく実空間外に有する点以外は、実空間31と同じである。この場合においても、仮想空間42を実空間41内に対応付けされた領域(0≦X≦X1、0≦Y≦Y1、0≦Z≦Z1)に限定して考えるものとする。
本発明の他の実施形態では、ボクセルの位置情報と、画像取得装置300により取得された画像のそれぞれのピクセルの位置情報とを関連付けたテーブルを用いることにより、ボクセルの色情報を画像取得装置300により取得された画像のピクセルの色情報から決定し、また更新する。このようにテーブルを用いることにより、画像取得装置300から得られる色情報をボクセルのそれぞれにリアルタイムに反映することが可能となる。これにより、高精度に実空間の形状が再現された複合現実環境において、実空間31の色彩を、高精度かつリアルタイムに認識し、仮想空間32に反映することが可能となる。
この場合、リアルタイムに反映されるボクセルの色情報を、ユーザ環境決定手段12が用いるボクセルの色情報として用いることができる。
また本発明の他の実施形態では、上記のとおり実空間31の色彩を反映させたボクセルのそれぞれを、描画される仮想オブジェクトの仮想的な間接照明(光源)として用いる。これにより、実空間31の光の状態を利用したグローバルイルミネーションを実現することが可能となり、実空間31の環境に極めて近い色彩や陰影を持つ仮想オブジェクトを描画することが可能となる。
また本発明の他の実施形態では、実空間31においては、実空間31を仮想空間32であるかのように利用することが可能となる。例えばゲーム開発者は、現実空間を、ゲームエンジン内のゲーム空間(仮想空間)と同様に取り扱うことが可能になる。
以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。
1 不整合検出システム
10 複合現実(MR)システム
11 記憶手段
17 ユーザ環境取得手段
18 描画手段
21 光源
22 建物
23 影
24 キャラクタ(仮想オブジェクト)
25、26 台
27 壁
31、41 現実世界(実空間)
32、42 仮想世界(仮想空間)
33、43 複合現実世界(複合現実環境)
34 光源
35 建物
36 壁
37 仮想オブジェクト
50 ネットワーク
100 サーバ
101、201 処理部
102、202 表示部
103 入力部
104、204 記憶部
105、205 通信部
110、210 バス
200 表示装置
202a 右目用透過型ディスプレイ
202b 左目用透過型ディスプレイ
203 撮影部
203a 右目用カメラ
203b 左目用カメラ
206 センサ
300 画像取得装置

Claims (8)

  1. ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出システムであって、
    前記複合現実システムは、
    予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
    前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
    前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
    前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、
    前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、
    前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、
    を備える、不整合検出システム。
  2. 前記撮影部は、実空間をステレオ画像として取得するものであり、
    第1の点群データ生成手段は、前記ステレオ画像として取得された2つの実空間画像からそれぞれ生成された前記表示部を通してユーザが視認する各実空間画像に前記描画手段により描画される仮想オブジェクトをそれぞれ重畳表示することで得られる各合成画像から、前記第1の点群データを生成する、請求項1に記載の不整合検出システム。
  3. 前記第1の点群データ生成手段は、前記撮影された実空間画像を、前記表示部と前記撮像部の位置関係に基づいて射影変換することにより前記表示部を通してユーザが視認する実空間画像を生成する、請求項1又は2に記載の不整合検出システム。
  4. 前記不整合検出手段は、前記第1の点群データ及び前記第2の点群データの差が所定量を超えた場合に不整合を検出する、請求項1から3のいずれか1項に記載の不整合検出システム。
  5. 前記不整合検出手段は、前記ユーザ環境に基づいて描画される仮想オブジェクトを含む所定の3次元空間領域において前記第1の点群データ及び前記第2の点群データの差が所定量を超えた場合に不整合を検出する、請求項1から3のいずれか1項に記載の不整合検出システム。
  6. サーバと、ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置とを備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムであって、
    予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
    前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
    前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、
    前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成する第1の点群データ生成手段と、
    前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成する第2の点群データ生成手段と、
    前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出する不整合検出手段と、
    の各手段を前記サーバ又は前記表示装置が備える、複合現実システム。
  7. ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおいて不整合を検出するためのプログラムであって、
    前記複合現実システムは、
    予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
    前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
    前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
    前記プログラムは、前記表示装置に、
    前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、
    前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、
    前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出するステップと、
    を実行させる、プログラム。
  8. ユーザに対して仮想オブジェクトを表示するための透過型の表示部及び実空間を撮影する撮影部を有する携帯可能な表示装置を備え、所定の実空間内において仮想オブジェクトを前記表示部に描画することで前記表示部を通して実空間に対して仮想オブジェクトを重畳してユーザに視認させる複合現実システムにおける不整合検出方法であって、
    前記複合現実システムは、
    予め取得された前記所定の実空間内にある実オブジェクトの点群データであって、それぞれが3次元位置情報を有する点群データを含む3次元空間データを記憶する3次元空間データ記憶手段と、
    前記表示装置が備えるセンサから取得されたデータ及び前記3次元空間データに基づいて前記表示装置の位置及び前記表示部を通してユーザが視認する視界領域を含むユーザ環境を決定するユーザ環境決定手段と、
    前記ユーザ環境に基づいて前記表示部に仮想オブジェクトを描画する描画手段と、を備えるものであり、
    前記撮影された実空間画像から生成された前記表示部を通してユーザが視認する実空間画像に前記描画手段により描画される仮想オブジェクトを重畳表示することで得られる合成画像から、実オブジェクト及び仮想オブジェクトの点群データである第1の点群データを生成するステップと、
    前記ユーザ環境決定手段により決定された前記視界領域における前記3次元空間データ記憶手段により記憶された点群データ及び前記描画手段により描画される仮想オブジェクトの点群データを用いて第2の点群データを生成するステップと、
    前記第1の点群データ及び前記第2の点群データの比較結果に基づいて不整合を検出するステップと、
    を有する方法。
JP2016249429A 2016-12-22 2016-12-22 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 Active JP6171079B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016249429A JP6171079B1 (ja) 2016-12-22 2016-12-22 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
KR1020197018856A KR102255031B1 (ko) 2016-12-22 2017-12-01 부정합 검출 시스템, 복합 현실 시스템, 프로그램 및 부정합 검출 방법
PCT/JP2017/043332 WO2018116790A1 (ja) 2016-12-22 2017-12-01 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
CN201780087085.3A CN110383343B (zh) 2016-12-22 2017-12-01 不一致检测系统、混合现实系统、程序和不一致检测方法
US16/450,041 US10896497B2 (en) 2016-12-22 2019-06-24 Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016249429A JP6171079B1 (ja) 2016-12-22 2016-12-22 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017130358A Division JP2018106661A (ja) 2017-07-03 2017-07-03 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Publications (2)

Publication Number Publication Date
JP6171079B1 JP6171079B1 (ja) 2017-07-26
JP2018106262A true JP2018106262A (ja) 2018-07-05

Family

ID=59384341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016249429A Active JP6171079B1 (ja) 2016-12-22 2016-12-22 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Country Status (5)

Country Link
US (1) US10896497B2 (ja)
JP (1) JP6171079B1 (ja)
KR (1) KR102255031B1 (ja)
CN (1) CN110383343B (ja)
WO (1) WO2018116790A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505998A (ja) * 2019-10-15 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの提示方法、装置、電子機器及び記憶媒体
WO2023068087A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 ヘッドマウントディスプレイ、情報処理装置および情報処理方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
JP2018106661A (ja) * 2017-07-03 2018-07-05 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
GB2564402B (en) * 2017-07-06 2021-03-17 Sony Interactive Entertainment Inc System and method of 3D print modelling
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
US11516453B2 (en) * 2018-07-06 2022-11-29 Sony Corporation Information processing apparatus, information processing method, and program for point cloud sample processing
JP2020098381A (ja) * 2018-12-17 2020-06-25 未來市股▲ふん▼有限公司 測位方法及び現実感提示装置
JP7203692B2 (ja) * 2019-06-12 2023-01-13 本田技研工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP7289746B2 (ja) * 2019-07-11 2023-06-12 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US20220327787A1 (en) * 2019-10-03 2022-10-13 Sony Group Corporation Information processing device, method, and program
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
JP2021177157A (ja) * 2020-05-08 2021-11-11 株式会社トプコン アイウェア表示システム
CN111640179B (zh) * 2020-06-26 2023-09-01 百度在线网络技术(北京)有限公司 宠物模型的显示方法、装置、设备以及存储介质
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
US11657578B2 (en) 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
CN113206989A (zh) * 2021-03-31 2021-08-03 聚好看科技股份有限公司 一种三维通信系统中人物模型的定位方法及设备
CN113379884B (zh) * 2021-07-05 2023-11-17 北京百度网讯科技有限公司 地图渲染方法、装置、电子设备、存储介质以及车辆
WO2024070602A1 (ja) * 2022-09-29 2024-04-04 日本電気通信システム株式会社 情報表示システム、情報表示方法、プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103399B2 (en) * 2003-09-08 2006-09-05 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US20120120201A1 (en) * 2010-07-26 2012-05-17 Matthew Ward Method of integrating ad hoc camera networks in interactive mesh systems
JP5147980B1 (ja) 2011-09-26 2013-02-20 アジア航測株式会社 対象物複数画像対応付け装置、そのデータ再生装置、画像処理システム
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
EP2880635B1 (en) * 2012-07-30 2018-10-10 Zinemath Zrt. System and method for generating a dynamic three-dimensional model
US9720505B2 (en) 2013-01-03 2017-08-01 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US9836885B1 (en) * 2013-10-25 2017-12-05 Appliance Computing III, Inc. Image-based rendering of real spaces
KR102113812B1 (ko) * 2014-09-19 2020-05-22 한국전자통신연구원 Rgb-d 영상을 이용한 실감형 증강현실 구현 장치 및 방법
WO2016084142A1 (ja) * 2014-11-26 2016-06-02 株式会社日立製作所 作業支援システム、及び、作業支援方法
US9652896B1 (en) * 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
JP6088094B1 (ja) 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505998A (ja) * 2019-10-15 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの提示方法、装置、電子機器及び記憶媒体
WO2023068087A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 ヘッドマウントディスプレイ、情報処理装置および情報処理方法

Also Published As

Publication number Publication date
KR102255031B1 (ko) 2021-05-24
US10896497B2 (en) 2021-01-19
US20190311471A1 (en) 2019-10-10
JP6171079B1 (ja) 2017-07-26
WO2018116790A1 (ja) 2018-06-28
CN110383343B (zh) 2023-01-10
KR20190089957A (ko) 2019-07-31
CN110383343A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
JP6171079B1 (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
KR102164471B1 (ko) 복합 현실 환경을 작성하기 위한 시스템 등
JP7145221B2 (ja) 稠密3d再構成データのキャッシュおよび更新
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
KR101835434B1 (ko) 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
KR101861313B1 (ko) 삼차원 환경 재구성
JP2022539314A (ja) 稠密3d再構築データのキャッシュおよび更新
CN102622762B (zh) 使用深度图的实时相机跟踪
CN105190703A (zh) 使用光度立体来进行3d环境建模
JP7423683B2 (ja) 画像表示システム
CN105103542A (zh) 手持型便携式光学扫描仪和使用的方法
WO2016184255A1 (zh) 一种视觉定位装置及基于该装置的三维测绘系统及方法
CN106873300B (zh) 面向智能机器人的虚拟空间投影方法和装置
WO2018144396A1 (en) Tracking image collection for digital capture of environments, and associated systems and methods
JP6295296B2 (ja) 複合システム及びターゲットマーカ
WO2022127572A1 (zh) 机器人三维地图位姿显示方法、装置、设备及存储介质
KR20220039101A (ko) 로봇 및 그의 제어 방법
JP6134874B1 (ja) 複合現実環境を作成するためのシステム等
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
JP7465133B2 (ja) 情報処理装置、情報処理方法
JP7293057B2 (ja) 放射線量分布表示システムおよび放射線量分布表示方法
WO2021166751A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2022021009A (ja) 現場映像管理システムおよび現場映像管理方法
JP2024072072A (ja) 情報処理装置
CN115552468A (zh) 用于计算3d环境的合成表示的计算高效方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170608

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6171079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250