JP2004234253A - 複合現実感呈示方法 - Google Patents
複合現実感呈示方法 Download PDFInfo
- Publication number
- JP2004234253A JP2004234253A JP2003021033A JP2003021033A JP2004234253A JP 2004234253 A JP2004234253 A JP 2004234253A JP 2003021033 A JP2003021033 A JP 2003021033A JP 2003021033 A JP2003021033 A JP 2003021033A JP 2004234253 A JP2004234253 A JP 2004234253A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- real
- image
- mixed reality
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】現実空間に仮想空間物体を重畳して提示する複合現実感装置において、想定されていない現実物体がユーザの視野内に出現した場合であっても、当該現実物体によるオクルージョン問題を回避可能な複合現実感装置を提供すること。
【解決手段】障害物検出部1035により障害物の存在する位置を検出する。そして、その障害物によってオクルージョン問題が発生する領域を障害範囲設定手段1036で求め、障害範囲に存在するCGオブジェクトについて表示位置又は方法を変更する。
【選択図】 図1
【解決手段】障害物検出部1035により障害物の存在する位置を検出する。そして、その障害物によってオクルージョン問題が発生する領域を障害範囲設定手段1036で求め、障害範囲に存在するCGオブジェクトについて表示位置又は方法を変更する。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、複合現実感呈示方法に関し、特に実写画像とコンピュータグラフィックス(CG)を代表とする仮想空間画像とのオクルージョン(隠れ)が問題となる複合現実感呈示方法に関するものである。
【0002】
【従来の技術】
近年、コンピュータの性能向上や位置検出技術等の発達により、複合現実感(MR:Mixed Reality)技術を用いたアプリケーションが各種提案されてきている。複合現実感(MR)技術とは、現実空間又は現実空間画像上に仮想空間画像を合成した複合現実空間をユーザに体験させるための技術である。
【0003】
MR技術を利用したアプリケーションとしては、例えば現在空き地となっている場所に仮想のビルをCGにより実現したり、テーブル(現実空間)の上で体長15センチの怪獣(仮想空間画像)を動かす、等を挙げることができる。
【0004】
このような複合現実空間を実現するには、現実空間も仮想空間も3次元空間であるため、現実空間座標系内に静止したワールド座標系を想定し、このワールド座標系内でビルや怪獣といった3次元仮想空間画像を配置、表示することになる。ただし、現実空間画像を仮想空間画像と合成する場合には、合成表示する現実空間画像(実写映像)と仮想空間画像(CG画像)は同じ点(視点)から同じ画角で観察される画像でなくてはならない。
【0005】
例えば、ビデオシースルータイプの頭部装着型表示装置(HMD)を用いてユーザが複合現実感を体験する場合、現実空間画像はHMDに取り付けられたビデオカメラで撮影されることが多く、またカメラの画角は固定であることが多いので、カメラの位置と向きをリアルタイムで計測し、カメラの位置に対応付けられたワールド座標系内の点から見た仮想空間画像を合成表示する。
【0006】
しかしながら、上述のように現実空間及び仮想空間は3次元空間であるため、奥行きが存在する。そのため、実写映像とCGの合成にはオクルージョン問題(隠れ問題)が存在する。これは本来、現実空間にある物体(現実物体)の裏側に隠れて見えないはずの仮想空間の物体(仮想物体(CGオブジェクト))が見えてしまうという問題である。
【0007】
この問題を防ぐためには、それ自体は透明だが、それに遮られ裏側に隠れたCGオブジェクトは見えない、という特徴を持った仮想物体を、現実空間画像中に存在する現実物体と全く同じように仮想空間に配置すればよい。
【0008】
しかし、この方法で完全にオクルージョン問題を解決するには、透明仮想物体の位置と、対応する現実物体との位置合わせを正確に行う必要がある。そのためには、現実空間を精密に三次元計測必要があり、実際には非常に困難であるか不可能であり、非現実的である。
【0009】
たとえば、MR技術を用いたボードゲームを考える。ここでいうボードゲームとは、ゲームの進行はボード上で行われ、ボード外の場所は使わないか、あるいはプレイヤーの持ち札、持ち駒、また全員で使用する山札、銀行にあるお札等の単なる「置き場」としてしか使用しないゲームを指す。このようなボードゲームでは、CGオブジェクトが表示される範囲は限定的で、ボード上のみである。
【0010】
そして、その範囲内においてはオクルージョン問題が発生しないか、予め透明なCGオブジェクトを用意することにより、前述の方法でオクルージョン問題を回避できるものとする。実際、遊戯用カードを用いたMRゲームや、CGオブジェクトそのものをコマとする双六ゲーム等、多くのボードゲームにおいては妥当な仮定である。
【0011】
【発明が解決しようとする課題】
ところがこのような仮定をおいても、プレイヤーが手をボード上に出した場合など、想定されていない現実物体がボード上の空間に現れた場合、本来、隠れて見えないはずのCGオブジェクトが見えてしまうというオクルージョン問題が発生する。
【0012】
本発明はこのような従来技術の問題点に鑑みなされたものであり、その目的は、現実空間に仮想空間物体を重畳して提示する複合現実感呈示方法において、想定されていない現実物体がユーザの視野内に出現した場合であっても、当該現実物体によるオクルージョン問題を回避可能な複合現実感呈示方法を提供することにある。
【0013】
【課題を解決するための手段】
上述の目的を達成するため、本発明による複合現実感呈示方法は、所定の視点位置から観察される現実空間に、所定の視点位置から観察される仮想物体の画像を合成して提示する複合現実感呈示方法において、現実空間中に出現した現実物体を検出する障害物検出ステップと、現実物体によって少なくとも一部が隠される仮想物体を検出する隠れ仮想物体検出ステップと、隠れ仮想物体検出ステップが検出した仮想物体の画像の表示位置又は表示方法を変更する変更ステップを有することを特徴とする。
【0014】
【発明の実施の形態】
本発明は、現実空間中に出現した現実物体を検出し、現実物体によって少なくとも一部が隠される仮想物体を検出して、この仮想物体の画像の表示位置又は表示方法を変更することを特徴とする複合現実感呈示方法である。
このような本発明は、具体的に願書に添付する図面に示す構成及び処理において、以下の実施形態と対応して実現できる。
【0015】
以下、添付図面を参照して本発明をその好適な実施形態に基づいて詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る複合現実感システム(MRシステム)の構成例を示す図である。
【0016】
この例では、ゲームボード101の上でゲームが進行する。プレイヤーが装着するシースルー型のHMD102は図示しない位置姿勢センサを備えており、ユーザの視点情報を取得できる。ここではビデオシースルー型を想定して説明するが、光学シースルータイプのHMDでも本発明は適用可能である。また位置姿勢センサ付きHMDでなくとも、固定されたカメラとディスプレイでもよい。この場合、視点位置は設置されたカメラの位置に固定で、この位置から見た映像がディスプレイに表示されることになる。
【0017】
ゲームコンソールまたはPC103はHMD102と接続され、ゲームの進行状態等さまざまな情報を処理する。なお、ゲームコンソール又はPC103は、CPU、ROM、RAM、外部記憶装置(HDD、FD、CD/DVDドライブ等)及び、各種入出力インタフェースを有する汎用的なコンピュータ機器であり、ROM及び/又は外部記憶装置に記憶されたソフトウェアプログラムをCPUが実行し、機器内部の構成要素を制御することによって以下に説明する処理を実現する。なお、処理の一部又は全部をハードウェアによって実現しても良い。
【0018】
HMD102に設けられたカメラで撮影された実写映像は、ビデオキャプチャカード等を用いて実写映像取得部1031によって、ゲームコンソールまたはPC103に取り込まれる。同時にプレイヤーの視点情報はHMD102の位置姿勢センサに接続された視点位置検出部1034により取得され、CG生成部1032によりプレイヤーの視点から見た仮想物体(CGオブジェクト)がレンダリングされる。レンダリングされたCGオブジェクト画像は、実写・CG合成表示部1033により、さきに実写映像取得部1031によって得られた、現実空間画像である実写映像と合成され、HMD102に表示される。
【0019】
なお、説明を簡単にするため詳細な説明は行わないが、実写、CG合成表示部1033は、プレイヤーがHMD102で立体視できるよう、右目用と左目用の合成画像を生成する。
【0020】
プレイヤーは、合成画像を見ることにより、ゲームボード101上にCGオブジェクト104が存在しているかのように見える。また、ゲームボード101上に存在する現実物体105に位置及び形状が対応する透明仮想物体を仮想空間に配置することにより、現実物体105と仮想物体104とのオクルージョン問題は精度良く解決される。
ここまでが一般的なMRシステム(複合現実感システム)の構成である。
【0021】
しかしこのままでは、前述の課題のとおり、ゲームボード101上にプレイヤーが手をかざしたときに本来手の後ろ側にあって見えないはずのCGオブジェクト104が見えてしまうという、オクルージョン問題が発生する。
【0022】
そこで、本実施形態に係るMRシステムでは、ゲームコンソール又はPC103に、障害物検知部1035、障害範囲設定部1036、障害回避戦略設定部1037を設け、このオクルージョン問題を解決している。
【0023】
まず障害物検知部1035で障害物(位置が不特定な現実物体)のある部分を特定する。これにはたとえば、ボード101の真上からボード101を撮影するカメラ1040を設け、このカメラ1040で撮影した画像を用いて実現することができる。具体的には、プレイヤーの手について考えると、手がボード101上の空間に存在していないときの撮影画像と、手が存在している状態の撮影画像のの差分絶対値画像を作ると、人の手が入ってきた部分のみが大きな値を示す。そして、そこで適当な閾値によってこの差分画像を二値化してやることにより、ボード101上の手のある範囲(障害物)201を特定できる。図2は得られた範囲を示す図である。この検出方法はプレイヤーの手に限らず、任意の障害物検出に適用できる。
【0024】
次いで障害範囲設定部1036では、検出された障害物によってオクルージョン問題が起きうる範囲(障害範囲)を求める。図3は、障害範囲設定部1036が設定する障害範囲の例を示したものである。視点位置検出部1034によって得られたプレイヤーの視点位置301に点光源を配置し、障害物に投影した場合にできる影のある範囲が求める障害範囲302である。障害範囲302は視点301から障害物のある範囲201へ外接する線を求めることで得られる。障害範囲は障害物のある範囲201も含む。
【0025】
障害回避戦略設定部1037は、CG生成部1032から障害範囲302内に存在するCGオブジェクトの情報を得、そのCGオブジェクトに対する指示をCG生成部1032に出す。なお、本実施形態において障害範囲302に「存在する」とは、少なくとも一部が含まれることを意味するものとするが、アプリケーションの内容によっては全てが含まれる場合のみを意味するものとしても良い。
【0026】
指示の内容としては、例えば対象となるCGオブジェクトの位置を障害範囲302の外に出す、非表示にする、半透明表示する等のいずれかであって良い。どの方法を採用するかはアプリケーションの内容等に応じて適宜定めればよい。また、ここでは指示の内容の例として3つ挙げたが、障害範囲に存在するCGオブジェクトに対する指示であればこれら3つに限定されるものではない。
【0027】
こうして生成されたCGと実写取得部1031で得られた実写とを実写・CG合成表示部1033で合成してHMD102に表示すると、オクルージョン問題のない複合現実映像が得られる。
【0028】
(第2の実施形態)
第1の実施形態では、オクルージョン問題を起こすと考えられるCGオブジェクトを判断するための障害範囲302を、ボード101上の2次元平面として求めたが、より精度の良い判断を行うためには、障害範囲302を空間として求めることが好ましい。特に、視点位置から発し、障害物201に外接してボード101の存在する面と交差する直線群と、ボード101の4辺に垂直な平面とで切り取られる3次元空間として障害範囲302を求めることが最も好ましい。
【0029】
しかし、特に主としてCGキャラクタが2次元上を動くボードゲーム等のアプリケーションにおいては、上述の障害範囲302を鉛直上方に掃引した立体を代用することにより、容易な処理で十分な効果を上げることができる。
【0030】
すなわち、厳密な演算により求まる障害範囲は、上述の障害範囲302を鉛直方向に掃引した立体の範囲に含まれ、またボードゲームではオクルージョン問題を引き起こすCGオブジェクトの存在範囲はボード表面からせいぜい数十センチ上方までの限られた範囲であり、プレイヤーの視点の高さもボード上数十センチでほぼ一定である。このような条件下では、3次元座標上で正確に求めた障害範囲と、上述の障害範囲302を鉛直方向に掃引して得た障害範囲とで比較した場合、障害範囲に存在するCGキャラクタを障害範囲の外に移動させるという観点から見ると、どちらも結果としては大差ない。対象となるCGキャラクタを半透明表示や透明表示(又は非表示)にする場合においても、同様である。
【0031】
しかしながら、障害範囲の鉛直方向の詳細な値が必要な場合は、障害物の鉛直方向の位置及び厚みを検出することにより、値を得ることができる。検出方法は任意であるが、本実施形態においては、ゲームボード101対向する2辺の各々に垂直でかつ上方に向かう2つの面にフォトインタラプタを配置した構成により検出を行う。このフォトインタラプタアレイは、障害物検知部1035に接続される。
【0032】
図4に具体的な構成例を示す。フォトインタラプタアレイは指向性のあるLEDアレイ401と、対応する位置に設置した指向性のあるフォトトランジスタアレイ402で構成される。隣接するLED(またはフォトトランジスタ)の間隔は障害物(ここでは手)の最小厚みに比べて十分に狭いものとする。ここでフォトインタラプタアレイの間に手を差し出すと、手に光が遮られ、手の存在範囲がわかる。つまり手は光が遮られたセンサ(フォトトランジスタ)と対応するLEDによって定まる柱状空間の内部にあることになる。ただし実際には柱の外側(光が遮られたフォトインタラプタアレイのうち、最上に位置するものと、その上に位置するものの間及び、最下に位置するものと、その下に位置するものの間)に手は少しはみだすので、障害物検知部1035はフォトインタラプタアレイ上下1間隔分だけ拡張処理を行う。
【0033】
こうして得られた柱状空間と、(カメラ1040で撮影した画像から前述の手法で得られた)障害物のある範囲201を鉛直方向に掃引した空間との論理積をることにより、より詳細に手がボード101上の空間中に占める領域(障害物)を特定できる。
【0034】
そして、このように検出された障害物を用いて障害範囲設定部1036が障害範囲を求めればよい。求め方は第1の実施形態の方法でも良いし、第1の実施形態の方法で求めた障害範囲(平面)を鉛直上方に掃引した空間する方法でも、視点位置301に点光源を置いた際に障害物で隠される空間を厳密に求める方法でも良い。障害範囲が求まった後の処理は第1の実施形態と同様でよいため、説明は省略する。
【0035】
【他の実施形態】
上述の実施形態においては、1つの機器から構成されるゲームコンソール又はPC103を用いる複合現実感システムについてのみ説明したが、PC103と同等の機能を複数の機器で構成したシステムであっても良い。
【0036】
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
【0037】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
【0038】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
【0039】
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
【0040】
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
【0041】
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
【0042】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0043】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0044】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0045】
本発明の実施態様を以下に列挙する。
【0046】
[実施態様1] 所定の視点位置から観察される現実空間に、前記所定の視点位置から観察される仮想物体の画像を合成して呈示する複合現実感呈示方法において、
前記現実空間中に出現した現実物体を検出する障害物検出ステップと、
前記現実物体によって少なくとも一部が隠される仮想物体を検出する隠れ仮想物体検出ステップと、
前記隠れ仮想物体検出ステップが検出した仮想物体の画像の表示位置又は表示方法を変更する変更ステップを有することを特徴とする複合現実感呈示方法。
【0047】
[実施態様2] 前記障害物検出ステップが、
前記現実空間を上方から撮影する撮像ステップと、
前記撮像ステップが撮影した画像から前記現実物体の出現を判定する判定ステップを有することを特徴とする実施態様1記載の複合現実感呈示方法。
【0048】
[実施態様3] 前記判定ステップが、出現した現実物体が前記画像中に占める領域を求めることを特徴とする実施態様2記載の複合現実感呈示方法。
【0049】
[実施態様4] 前記隠れ仮想物体検出ステップが、前記判定ステップが求めた前記領域と、前記所定の視点位置とを用いて、前記現実物体によって少なくとも一部が隠される仮想物体を検出することを特徴とする実施態様3記載の複合現実感呈示方法。
【0050】
[実施態様5] 前記障害物検出ステップが、さらに前記現実物体の鉛直上方位置に関する情報を取得する位置検出ステップを有することを特徴とする実施態様2乃至実施態様4のいずれか1項に記載の複合現実感呈示方法。
【0051】
[実施態様6] 前記判定ステップが、出現した現実物体が前記画像中に占める領域を求め、
前記隠れ仮想物体検出ステップが、前記判定ステップが求めた前記領域と、前記位置検出ステップが検出した前記鉛直上方位置に関する情報と、前記所定の視点位置とを用いて、前記現実物体によって少なくとも一部が隠される仮想物体を検出することを特徴とする実施態様5記載の複合現実感呈示方法。
【0052】
[実施態様7] 前記変更ステップが、前記隠れ仮想物体検出ステップが検出した仮想物体の画像表示位置を、前記現実物体によって隠されない位置に変更するか、位置を変更せずに半透明又は透明表示とすることを特徴とする実施態様1乃至実施態様6のいずれか1項に記載の複合現実感呈示方法。
【0053】
【発明の効果】
以上説明したように、本発明によれば、仮想物体を配置すべき空間に存在する障害物を検出し、この障害物によりオクルージョン問題が発生する領域に存在する仮想物体の表示位置又は方法を変更することにより、位置が不特定な現実物体に起因するオクルージョン問題を回避することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る複合現実感システムの構成例を示す図である。
【図2】本発明の第1の実施形態において、差分画像により検出される障害物の範囲の例を表す図である。
【図3】図2の障害物から求められる障害範囲の例を表す図である。
【図4】本発明の第2の実施形態において、障害物の高さ方向の情報を取得する際の構成例を示す図である。
【発明の属する技術分野】
本発明は、複合現実感呈示方法に関し、特に実写画像とコンピュータグラフィックス(CG)を代表とする仮想空間画像とのオクルージョン(隠れ)が問題となる複合現実感呈示方法に関するものである。
【0002】
【従来の技術】
近年、コンピュータの性能向上や位置検出技術等の発達により、複合現実感(MR:Mixed Reality)技術を用いたアプリケーションが各種提案されてきている。複合現実感(MR)技術とは、現実空間又は現実空間画像上に仮想空間画像を合成した複合現実空間をユーザに体験させるための技術である。
【0003】
MR技術を利用したアプリケーションとしては、例えば現在空き地となっている場所に仮想のビルをCGにより実現したり、テーブル(現実空間)の上で体長15センチの怪獣(仮想空間画像)を動かす、等を挙げることができる。
【0004】
このような複合現実空間を実現するには、現実空間も仮想空間も3次元空間であるため、現実空間座標系内に静止したワールド座標系を想定し、このワールド座標系内でビルや怪獣といった3次元仮想空間画像を配置、表示することになる。ただし、現実空間画像を仮想空間画像と合成する場合には、合成表示する現実空間画像(実写映像)と仮想空間画像(CG画像)は同じ点(視点)から同じ画角で観察される画像でなくてはならない。
【0005】
例えば、ビデオシースルータイプの頭部装着型表示装置(HMD)を用いてユーザが複合現実感を体験する場合、現実空間画像はHMDに取り付けられたビデオカメラで撮影されることが多く、またカメラの画角は固定であることが多いので、カメラの位置と向きをリアルタイムで計測し、カメラの位置に対応付けられたワールド座標系内の点から見た仮想空間画像を合成表示する。
【0006】
しかしながら、上述のように現実空間及び仮想空間は3次元空間であるため、奥行きが存在する。そのため、実写映像とCGの合成にはオクルージョン問題(隠れ問題)が存在する。これは本来、現実空間にある物体(現実物体)の裏側に隠れて見えないはずの仮想空間の物体(仮想物体(CGオブジェクト))が見えてしまうという問題である。
【0007】
この問題を防ぐためには、それ自体は透明だが、それに遮られ裏側に隠れたCGオブジェクトは見えない、という特徴を持った仮想物体を、現実空間画像中に存在する現実物体と全く同じように仮想空間に配置すればよい。
【0008】
しかし、この方法で完全にオクルージョン問題を解決するには、透明仮想物体の位置と、対応する現実物体との位置合わせを正確に行う必要がある。そのためには、現実空間を精密に三次元計測必要があり、実際には非常に困難であるか不可能であり、非現実的である。
【0009】
たとえば、MR技術を用いたボードゲームを考える。ここでいうボードゲームとは、ゲームの進行はボード上で行われ、ボード外の場所は使わないか、あるいはプレイヤーの持ち札、持ち駒、また全員で使用する山札、銀行にあるお札等の単なる「置き場」としてしか使用しないゲームを指す。このようなボードゲームでは、CGオブジェクトが表示される範囲は限定的で、ボード上のみである。
【0010】
そして、その範囲内においてはオクルージョン問題が発生しないか、予め透明なCGオブジェクトを用意することにより、前述の方法でオクルージョン問題を回避できるものとする。実際、遊戯用カードを用いたMRゲームや、CGオブジェクトそのものをコマとする双六ゲーム等、多くのボードゲームにおいては妥当な仮定である。
【0011】
【発明が解決しようとする課題】
ところがこのような仮定をおいても、プレイヤーが手をボード上に出した場合など、想定されていない現実物体がボード上の空間に現れた場合、本来、隠れて見えないはずのCGオブジェクトが見えてしまうというオクルージョン問題が発生する。
【0012】
本発明はこのような従来技術の問題点に鑑みなされたものであり、その目的は、現実空間に仮想空間物体を重畳して提示する複合現実感呈示方法において、想定されていない現実物体がユーザの視野内に出現した場合であっても、当該現実物体によるオクルージョン問題を回避可能な複合現実感呈示方法を提供することにある。
【0013】
【課題を解決するための手段】
上述の目的を達成するため、本発明による複合現実感呈示方法は、所定の視点位置から観察される現実空間に、所定の視点位置から観察される仮想物体の画像を合成して提示する複合現実感呈示方法において、現実空間中に出現した現実物体を検出する障害物検出ステップと、現実物体によって少なくとも一部が隠される仮想物体を検出する隠れ仮想物体検出ステップと、隠れ仮想物体検出ステップが検出した仮想物体の画像の表示位置又は表示方法を変更する変更ステップを有することを特徴とする。
【0014】
【発明の実施の形態】
本発明は、現実空間中に出現した現実物体を検出し、現実物体によって少なくとも一部が隠される仮想物体を検出して、この仮想物体の画像の表示位置又は表示方法を変更することを特徴とする複合現実感呈示方法である。
このような本発明は、具体的に願書に添付する図面に示す構成及び処理において、以下の実施形態と対応して実現できる。
【0015】
以下、添付図面を参照して本発明をその好適な実施形態に基づいて詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る複合現実感システム(MRシステム)の構成例を示す図である。
【0016】
この例では、ゲームボード101の上でゲームが進行する。プレイヤーが装着するシースルー型のHMD102は図示しない位置姿勢センサを備えており、ユーザの視点情報を取得できる。ここではビデオシースルー型を想定して説明するが、光学シースルータイプのHMDでも本発明は適用可能である。また位置姿勢センサ付きHMDでなくとも、固定されたカメラとディスプレイでもよい。この場合、視点位置は設置されたカメラの位置に固定で、この位置から見た映像がディスプレイに表示されることになる。
【0017】
ゲームコンソールまたはPC103はHMD102と接続され、ゲームの進行状態等さまざまな情報を処理する。なお、ゲームコンソール又はPC103は、CPU、ROM、RAM、外部記憶装置(HDD、FD、CD/DVDドライブ等)及び、各種入出力インタフェースを有する汎用的なコンピュータ機器であり、ROM及び/又は外部記憶装置に記憶されたソフトウェアプログラムをCPUが実行し、機器内部の構成要素を制御することによって以下に説明する処理を実現する。なお、処理の一部又は全部をハードウェアによって実現しても良い。
【0018】
HMD102に設けられたカメラで撮影された実写映像は、ビデオキャプチャカード等を用いて実写映像取得部1031によって、ゲームコンソールまたはPC103に取り込まれる。同時にプレイヤーの視点情報はHMD102の位置姿勢センサに接続された視点位置検出部1034により取得され、CG生成部1032によりプレイヤーの視点から見た仮想物体(CGオブジェクト)がレンダリングされる。レンダリングされたCGオブジェクト画像は、実写・CG合成表示部1033により、さきに実写映像取得部1031によって得られた、現実空間画像である実写映像と合成され、HMD102に表示される。
【0019】
なお、説明を簡単にするため詳細な説明は行わないが、実写、CG合成表示部1033は、プレイヤーがHMD102で立体視できるよう、右目用と左目用の合成画像を生成する。
【0020】
プレイヤーは、合成画像を見ることにより、ゲームボード101上にCGオブジェクト104が存在しているかのように見える。また、ゲームボード101上に存在する現実物体105に位置及び形状が対応する透明仮想物体を仮想空間に配置することにより、現実物体105と仮想物体104とのオクルージョン問題は精度良く解決される。
ここまでが一般的なMRシステム(複合現実感システム)の構成である。
【0021】
しかしこのままでは、前述の課題のとおり、ゲームボード101上にプレイヤーが手をかざしたときに本来手の後ろ側にあって見えないはずのCGオブジェクト104が見えてしまうという、オクルージョン問題が発生する。
【0022】
そこで、本実施形態に係るMRシステムでは、ゲームコンソール又はPC103に、障害物検知部1035、障害範囲設定部1036、障害回避戦略設定部1037を設け、このオクルージョン問題を解決している。
【0023】
まず障害物検知部1035で障害物(位置が不特定な現実物体)のある部分を特定する。これにはたとえば、ボード101の真上からボード101を撮影するカメラ1040を設け、このカメラ1040で撮影した画像を用いて実現することができる。具体的には、プレイヤーの手について考えると、手がボード101上の空間に存在していないときの撮影画像と、手が存在している状態の撮影画像のの差分絶対値画像を作ると、人の手が入ってきた部分のみが大きな値を示す。そして、そこで適当な閾値によってこの差分画像を二値化してやることにより、ボード101上の手のある範囲(障害物)201を特定できる。図2は得られた範囲を示す図である。この検出方法はプレイヤーの手に限らず、任意の障害物検出に適用できる。
【0024】
次いで障害範囲設定部1036では、検出された障害物によってオクルージョン問題が起きうる範囲(障害範囲)を求める。図3は、障害範囲設定部1036が設定する障害範囲の例を示したものである。視点位置検出部1034によって得られたプレイヤーの視点位置301に点光源を配置し、障害物に投影した場合にできる影のある範囲が求める障害範囲302である。障害範囲302は視点301から障害物のある範囲201へ外接する線を求めることで得られる。障害範囲は障害物のある範囲201も含む。
【0025】
障害回避戦略設定部1037は、CG生成部1032から障害範囲302内に存在するCGオブジェクトの情報を得、そのCGオブジェクトに対する指示をCG生成部1032に出す。なお、本実施形態において障害範囲302に「存在する」とは、少なくとも一部が含まれることを意味するものとするが、アプリケーションの内容によっては全てが含まれる場合のみを意味するものとしても良い。
【0026】
指示の内容としては、例えば対象となるCGオブジェクトの位置を障害範囲302の外に出す、非表示にする、半透明表示する等のいずれかであって良い。どの方法を採用するかはアプリケーションの内容等に応じて適宜定めればよい。また、ここでは指示の内容の例として3つ挙げたが、障害範囲に存在するCGオブジェクトに対する指示であればこれら3つに限定されるものではない。
【0027】
こうして生成されたCGと実写取得部1031で得られた実写とを実写・CG合成表示部1033で合成してHMD102に表示すると、オクルージョン問題のない複合現実映像が得られる。
【0028】
(第2の実施形態)
第1の実施形態では、オクルージョン問題を起こすと考えられるCGオブジェクトを判断するための障害範囲302を、ボード101上の2次元平面として求めたが、より精度の良い判断を行うためには、障害範囲302を空間として求めることが好ましい。特に、視点位置から発し、障害物201に外接してボード101の存在する面と交差する直線群と、ボード101の4辺に垂直な平面とで切り取られる3次元空間として障害範囲302を求めることが最も好ましい。
【0029】
しかし、特に主としてCGキャラクタが2次元上を動くボードゲーム等のアプリケーションにおいては、上述の障害範囲302を鉛直上方に掃引した立体を代用することにより、容易な処理で十分な効果を上げることができる。
【0030】
すなわち、厳密な演算により求まる障害範囲は、上述の障害範囲302を鉛直方向に掃引した立体の範囲に含まれ、またボードゲームではオクルージョン問題を引き起こすCGオブジェクトの存在範囲はボード表面からせいぜい数十センチ上方までの限られた範囲であり、プレイヤーの視点の高さもボード上数十センチでほぼ一定である。このような条件下では、3次元座標上で正確に求めた障害範囲と、上述の障害範囲302を鉛直方向に掃引して得た障害範囲とで比較した場合、障害範囲に存在するCGキャラクタを障害範囲の外に移動させるという観点から見ると、どちらも結果としては大差ない。対象となるCGキャラクタを半透明表示や透明表示(又は非表示)にする場合においても、同様である。
【0031】
しかしながら、障害範囲の鉛直方向の詳細な値が必要な場合は、障害物の鉛直方向の位置及び厚みを検出することにより、値を得ることができる。検出方法は任意であるが、本実施形態においては、ゲームボード101対向する2辺の各々に垂直でかつ上方に向かう2つの面にフォトインタラプタを配置した構成により検出を行う。このフォトインタラプタアレイは、障害物検知部1035に接続される。
【0032】
図4に具体的な構成例を示す。フォトインタラプタアレイは指向性のあるLEDアレイ401と、対応する位置に設置した指向性のあるフォトトランジスタアレイ402で構成される。隣接するLED(またはフォトトランジスタ)の間隔は障害物(ここでは手)の最小厚みに比べて十分に狭いものとする。ここでフォトインタラプタアレイの間に手を差し出すと、手に光が遮られ、手の存在範囲がわかる。つまり手は光が遮られたセンサ(フォトトランジスタ)と対応するLEDによって定まる柱状空間の内部にあることになる。ただし実際には柱の外側(光が遮られたフォトインタラプタアレイのうち、最上に位置するものと、その上に位置するものの間及び、最下に位置するものと、その下に位置するものの間)に手は少しはみだすので、障害物検知部1035はフォトインタラプタアレイ上下1間隔分だけ拡張処理を行う。
【0033】
こうして得られた柱状空間と、(カメラ1040で撮影した画像から前述の手法で得られた)障害物のある範囲201を鉛直方向に掃引した空間との論理積をることにより、より詳細に手がボード101上の空間中に占める領域(障害物)を特定できる。
【0034】
そして、このように検出された障害物を用いて障害範囲設定部1036が障害範囲を求めればよい。求め方は第1の実施形態の方法でも良いし、第1の実施形態の方法で求めた障害範囲(平面)を鉛直上方に掃引した空間する方法でも、視点位置301に点光源を置いた際に障害物で隠される空間を厳密に求める方法でも良い。障害範囲が求まった後の処理は第1の実施形態と同様でよいため、説明は省略する。
【0035】
【他の実施形態】
上述の実施形態においては、1つの機器から構成されるゲームコンソール又はPC103を用いる複合現実感システムについてのみ説明したが、PC103と同等の機能を複数の機器で構成したシステムであっても良い。
【0036】
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
【0037】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
【0038】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
【0039】
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
【0040】
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
【0041】
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
【0042】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0043】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0044】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0045】
本発明の実施態様を以下に列挙する。
【0046】
[実施態様1] 所定の視点位置から観察される現実空間に、前記所定の視点位置から観察される仮想物体の画像を合成して呈示する複合現実感呈示方法において、
前記現実空間中に出現した現実物体を検出する障害物検出ステップと、
前記現実物体によって少なくとも一部が隠される仮想物体を検出する隠れ仮想物体検出ステップと、
前記隠れ仮想物体検出ステップが検出した仮想物体の画像の表示位置又は表示方法を変更する変更ステップを有することを特徴とする複合現実感呈示方法。
【0047】
[実施態様2] 前記障害物検出ステップが、
前記現実空間を上方から撮影する撮像ステップと、
前記撮像ステップが撮影した画像から前記現実物体の出現を判定する判定ステップを有することを特徴とする実施態様1記載の複合現実感呈示方法。
【0048】
[実施態様3] 前記判定ステップが、出現した現実物体が前記画像中に占める領域を求めることを特徴とする実施態様2記載の複合現実感呈示方法。
【0049】
[実施態様4] 前記隠れ仮想物体検出ステップが、前記判定ステップが求めた前記領域と、前記所定の視点位置とを用いて、前記現実物体によって少なくとも一部が隠される仮想物体を検出することを特徴とする実施態様3記載の複合現実感呈示方法。
【0050】
[実施態様5] 前記障害物検出ステップが、さらに前記現実物体の鉛直上方位置に関する情報を取得する位置検出ステップを有することを特徴とする実施態様2乃至実施態様4のいずれか1項に記載の複合現実感呈示方法。
【0051】
[実施態様6] 前記判定ステップが、出現した現実物体が前記画像中に占める領域を求め、
前記隠れ仮想物体検出ステップが、前記判定ステップが求めた前記領域と、前記位置検出ステップが検出した前記鉛直上方位置に関する情報と、前記所定の視点位置とを用いて、前記現実物体によって少なくとも一部が隠される仮想物体を検出することを特徴とする実施態様5記載の複合現実感呈示方法。
【0052】
[実施態様7] 前記変更ステップが、前記隠れ仮想物体検出ステップが検出した仮想物体の画像表示位置を、前記現実物体によって隠されない位置に変更するか、位置を変更せずに半透明又は透明表示とすることを特徴とする実施態様1乃至実施態様6のいずれか1項に記載の複合現実感呈示方法。
【0053】
【発明の効果】
以上説明したように、本発明によれば、仮想物体を配置すべき空間に存在する障害物を検出し、この障害物によりオクルージョン問題が発生する領域に存在する仮想物体の表示位置又は方法を変更することにより、位置が不特定な現実物体に起因するオクルージョン問題を回避することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る複合現実感システムの構成例を示す図である。
【図2】本発明の第1の実施形態において、差分画像により検出される障害物の範囲の例を表す図である。
【図3】図2の障害物から求められる障害範囲の例を表す図である。
【図4】本発明の第2の実施形態において、障害物の高さ方向の情報を取得する際の構成例を示す図である。
Claims (1)
- 所定の視点位置から観察される現実空間に、前記所定の視点位置から観察される仮想物体の画像を合成して提示する複合現実感呈示方法において、
前記現実空間中に出現した現実物体を検出する障害物検出ステップと、
前記現実物体によって少なくとも一部が隠される仮想物体を検出する隠れ仮想物体検出ステップと、
前記隠れ仮想物体検出ステップが検出した仮想物体の画像の表示位置又は表示方法を変更する変更ステップを有することを特徴とする複合現実感呈示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003021033A JP2004234253A (ja) | 2003-01-29 | 2003-01-29 | 複合現実感呈示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003021033A JP2004234253A (ja) | 2003-01-29 | 2003-01-29 | 複合現実感呈示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004234253A true JP2004234253A (ja) | 2004-08-19 |
Family
ID=32950497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003021033A Withdrawn JP2004234253A (ja) | 2003-01-29 | 2003-01-29 | 複合現実感呈示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004234253A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006107437A (ja) * | 2004-09-07 | 2006-04-20 | Canon Inc | 情報処理方法及び装置 |
JP2012010302A (ja) * | 2010-06-23 | 2012-01-12 | Michiyoshi Nagashima | 画像表示装置および画像表示方法 |
JP2012226766A (ja) * | 2007-09-25 | 2012-11-15 | Metaio Gmbh | 現実環境内にバーチャルオブジェクトを描写する方法および装置 |
WO2013038923A1 (ja) * | 2011-09-14 | 2013-03-21 | 株式会社バンダイナムコゲームス | プログラム、記憶媒体、ゲーム装置及びコンピュータ |
WO2014021326A1 (ja) * | 2012-07-30 | 2014-02-06 | 国立大学法人横浜国立大学 | 画像合成装置、画像合成システム、画像合成方法およびプログラム |
JP2014526157A (ja) * | 2011-06-23 | 2014-10-02 | マイクロソフト コーポレーション | ヘッドマウントディスプレイの全視野の分類 |
US9390560B2 (en) | 2007-09-25 | 2016-07-12 | Metaio Gmbh | Method and device for illustrating a virtual object in a real environment |
JP2017191378A (ja) * | 2016-04-11 | 2017-10-19 | 富士通テン株式会社 | 拡張現実情報表示装置および拡張現実情報表示方法 |
WO2021192589A1 (ja) * | 2020-03-24 | 2021-09-30 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム |
WO2021241110A1 (ja) * | 2020-05-25 | 2021-12-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2022163651A1 (ja) * | 2021-01-29 | 2022-08-04 | 株式会社Nttドコモ | 情報処理システム |
-
2003
- 2003-01-29 JP JP2003021033A patent/JP2004234253A/ja not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006107437A (ja) * | 2004-09-07 | 2006-04-20 | Canon Inc | 情報処理方法及び装置 |
JP4724476B2 (ja) * | 2004-09-07 | 2011-07-13 | キヤノン株式会社 | 情報処理方法及び装置 |
US10366538B2 (en) | 2007-09-25 | 2019-07-30 | Apple Inc. | Method and device for illustrating a virtual object in a real environment |
US9165405B2 (en) | 2007-09-25 | 2015-10-20 | Metaio Gmbh | Method and device for illustrating a virtual object in a real environment |
US11080932B2 (en) | 2007-09-25 | 2021-08-03 | Apple Inc. | Method and apparatus for representing a virtual object in a real environment |
US10665025B2 (en) | 2007-09-25 | 2020-05-26 | Apple Inc. | Method and apparatus for representing a virtual object in a real environment |
JP2012226766A (ja) * | 2007-09-25 | 2012-11-15 | Metaio Gmbh | 現実環境内にバーチャルオブジェクトを描写する方法および装置 |
US10043315B2 (en) | 2007-09-25 | 2018-08-07 | Apple Inc. | Method and apparatus for representing a virtual object in a real environment |
JP2014238883A (ja) * | 2007-09-25 | 2014-12-18 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 現実環境内にバーチャルオブジェクトを描写する方法および装置 |
US9390560B2 (en) | 2007-09-25 | 2016-07-12 | Metaio Gmbh | Method and device for illustrating a virtual object in a real environment |
JP2012010302A (ja) * | 2010-06-23 | 2012-01-12 | Michiyoshi Nagashima | 画像表示装置および画像表示方法 |
JP2014526157A (ja) * | 2011-06-23 | 2014-10-02 | マイクロソフト コーポレーション | ヘッドマウントディスプレイの全視野の分類 |
US9155967B2 (en) | 2011-09-14 | 2015-10-13 | Bandai Namco Games Inc. | Method for implementing game, storage medium, game device, and computer |
JP2013059541A (ja) * | 2011-09-14 | 2013-04-04 | Namco Bandai Games Inc | プログラム、情報記憶媒体、ゲーム装置及びコンピュータ |
WO2013038923A1 (ja) * | 2011-09-14 | 2013-03-21 | 株式会社バンダイナムコゲームス | プログラム、記憶媒体、ゲーム装置及びコンピュータ |
US9449394B2 (en) | 2012-07-30 | 2016-09-20 | National University Corporation Yokohama National University | Image synthesis device, image synthesis system, image synthesis method and program |
WO2014021326A1 (ja) * | 2012-07-30 | 2014-02-06 | 国立大学法人横浜国立大学 | 画像合成装置、画像合成システム、画像合成方法およびプログラム |
JP2017191378A (ja) * | 2016-04-11 | 2017-10-19 | 富士通テン株式会社 | 拡張現実情報表示装置および拡張現実情報表示方法 |
WO2021192589A1 (ja) * | 2020-03-24 | 2021-09-30 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム |
WO2021241110A1 (ja) * | 2020-05-25 | 2021-12-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2022163651A1 (ja) * | 2021-01-29 | 2022-08-04 | 株式会社Nttドコモ | 情報処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10229541B2 (en) | Methods and systems for navigation within virtual reality space using head mounted display | |
JP7008730B2 (ja) | 画像に挿入される画像コンテンツについての影生成 | |
US9084938B2 (en) | Handheld device for spectator viewing of an interactive application | |
EP3241088B1 (en) | Methods and systems for user interaction within virtual or augmented reality scene using head mounted display | |
TWI567659B (zh) | 照片表示視圖的基於主題的增強 | |
US8411092B2 (en) | 2D imposters for simplifying processing of plural animation objects in computer graphics generation | |
US8303411B2 (en) | Methods and systems for enabling depth and direction detection when interfacing with a computer program | |
JP6340017B2 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
US20130141419A1 (en) | Augmented reality with realistic occlusion | |
US20130328927A1 (en) | Augmented reality playspaces with adaptive game rules | |
Pucihar et al. | Exploring the evolution of mobile augmented reality for future entertainment systems | |
KR20140033144A (ko) | 용적 방식 비디오 표현 기법 | |
CN110832442A (zh) | 注视点渲染系统中的优化的阴影和自适应网状蒙皮 | |
KR20140081840A (ko) | 모션으로 제어되는 리스트 스크롤 방법 | |
JP2004234253A (ja) | 複合現実感呈示方法 | |
WO2007129476A1 (ja) | 画像処理プログラムおよび画像処理装置 | |
JP2019017755A (ja) | ゲームプログラム及びゲームシステム | |
JP4447896B2 (ja) | 画像処理装置および方法 | |
JP2005157610A (ja) | 画像処理装置および方法 | |
JP7116410B2 (ja) | プログラム及び画像生成システム | |
JP2012105200A (ja) | 3dコンテンツ表示装置、および3dコンテンツ表示方法 | |
JP6959682B1 (ja) | 画像合成装置、画像合成方法、及びプログラム | |
WO2022145414A1 (ja) | 画像合成装置、画像合成方法、及びプログラム | |
Hamadouche | Augmented reality X-ray vision on optical see-through head mounted displays | |
KR20240038728A (ko) | 정보 처리 장치, 정보 처리 방법 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060404 |