JP5664215B2 - 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム - Google Patents

拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム Download PDF

Info

Publication number
JP5664215B2
JP5664215B2 JP2010285143A JP2010285143A JP5664215B2 JP 5664215 B2 JP5664215 B2 JP 5664215B2 JP 2010285143 A JP2010285143 A JP 2010285143A JP 2010285143 A JP2010285143 A JP 2010285143A JP 5664215 B2 JP5664215 B2 JP 5664215B2
Authority
JP
Japan
Prior art keywords
sound
specific sound
video
augmented reality
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010285143A
Other languages
English (en)
Other versions
JP2012133591A (ja
Inventor
尋史 津田
尋史 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010285143A priority Critical patent/JP5664215B2/ja
Publication of JP2012133591A publication Critical patent/JP2012133591A/ja
Application granted granted Critical
Publication of JP5664215B2 publication Critical patent/JP5664215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラムに係り、特に、現実の空間をカメラで撮影した映像中に拡張現実感用CG(コンピュータグラフィック)を追加表示するとき、表示位置が同カメラで撮影できない場合や同表示位置に高精度が要求される場合に用いて好適な拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラムに関する。
拡張現実感システムでは、現実の空間をカメラで撮影した映像中に拡張現実感用CG(コンピュータグラフィック)が追加表示される。現実の空間を撮影した映像(以下、「現実空間映像」という)中における拡張現実感用CGの追加表示位置を決定する場合、現実の空間内に特定の目印(以下、「マーカ」という)を配置し、現実空間映像中のマーカ部分を画像認識技術によって抽出し、この抽出した位置が拡張現実感用CGの表示位置とされる。ところが、この場合、現実空間を撮影するカメラからマーカが隠れてしまい、同マーカを撮影できない状況では、拡張現実感用CGを表示する位置を決定することができなくなるという問題点がある。
また、拡張現実感用CGの表示位置を決定する場合、他の方法では、GPS(Global
Positioning System 、汎世界測位システム)を用いて現実空間の任意の座標を認識し、この座標が拡張現実感用CGの表示位置とされる。しかしながら、GPSを用いた拡張現実感システムでは、GPSによる位置捕捉の精度が低いことにより、指定した座標と実際に拡張現実感用CGを表示する位置とが数十センチから数メートルずれることがあり、拡張現実感用CGの表示位置の精度が十分ではないという問題点がある。また、GPSは室内では使用できないので、同システムが室内では使用できないという問題点がある。
また、この種の関連技術としては、たとえば非特許文献1に記載された拡張現実感システムがある。
この拡張現実感システムでは、入力された画像からマーカの領域が抽出され、このマーカの理想スクリーン座標系における4頂点座標値が求められ、さらにパターン認識によりマーカが識別される。次に、得られた4頂点座標値から、マーカの3次元位置情報、具体的には、マーカ座標系からカメラ座標系への座標変換行列が求められる。そして、得られた座標変換行列を用いて、HMD(Head Mounted Display、頭部搭載型ディスプレイ)の左右のスクリーンの適切な位置に仮想物体が描画される。
また、特許文献1に記載された実マーカオブジェクトを識別する拡張現実システムでは、実環境から画像データが収集され、同画像データから仮想画像データが生成される。上記画像データに基づいて実環境の既定マーカオブジェクトが識別され、同既定マーカオブジェクトに対応する仮想画像の位置において、オブジェクト画像データに上記仮想画像データが重ね合わせられる。
また、特許文献2に記載された複合現実感表示システムでは、画像合成処理部により、撮像ユニットで得た、指標を含む現実空間画像と、仮想空間画像生成装置で生成された仮想空間画像とが合成され、合成された画像情報が表示装置に表示される。表示装置では、撮像ユニットからの画像情報のうちの一部であって、現実空間画像内の指標の位置情報を認識するのに必要な画像データを仮想空間画像生成装置に送信する。仮想空間画像生成装置では、上記指標の位置情報が認識され、認識された指標の位置情報を利用して、仮想空間画像が生成され、生成した画像情報を表示装置に送信する。
また、特許文献3に記載された複合現実感システムでは、位置検出部により、現実空間における操作者の位置及び方向が検出される。音響センサにより、現実空間で発生した音響が検出される。音響認識手段により、音響センサで検出された音響の操作者から見た音源方向、及び、当該音響が操作者による操作指示か否かが認識される。起動手段により、音響認識手段で認識された所定の音源方向からの操作指示に基づいて仮想空間に対する処理が起動される。操作者が装着した表示部に、現実空間と仮想空間とが重畳されてリアルタイムで表示される。
また、特許文献4に記載された画像処理装置では、現実物体の位置情報、仮想物体の位置情報及び視点の位置情報を用いて、現実物体、仮想物体及び視点のそれぞれの位置関係が求められ、求められた位置関係が予め定められた条件を満たすか否かが判断される。満たすと判断された場合には、音データが示す音を調整すべく、音データが調整され、調整後の音データに基づいた音信号が生成されて出力される。これにより、音源としての現実物体が発する現実音が、仮想物体の配置位置を鑑みて適宜変更されて提示される。
特開2006−313549号公報 特開2007−219082号公報 特開2008−065675号公報 特開2009−116690号公報
加藤博一他、「マーカ追跡に基づく拡張現実感システムとそのキャリブレーション」、日本バーチャルリアリティ学会論文誌、1999、Vol.4、No.4、p.607-616
しかしながら、上記関連技術では、次のような課題があった。
すなわち、非特許文献1に記載された拡張現実感システムでは、マーカとなる目印がカメラで認識されない限り、拡張現実感の映像が表示されないので、上記の問題点を改善するものではない。
また、特許文献1に記載された拡張現実システムでは、仮想オブジェクトの追跡、及び、仮想オブジェクトへの特定の実環境の挿入の際に柔軟性が高められ、忠実性が向上するが、この発明とは構成や処理方法が異なり、上記の問題点は改善されない。
特許文献2に記載された複合現実感表示システムでは、現実空間画像の中から指標が短い処理時間で検出され、現実空間画像と仮想空間画像とが迅速に合成されるが、この発明とは構成や処理方法が異なり、上記の問題点は改善されない。
特許文献3に記載された複合現実感システムでは、操作者の位置と音源の方向の情報が使用され、音源との距離は取得していないため、距離に合わせて、表示する拡張現実感の映像のサイズを変更するといった処理は不可能であるという課題がある。
特許文献4に記載された画像処理装置では、操作者の位置と音源の位置とが取得されていることが前提とされ、操作者と音源との位置に合わせて、音源から発生される音響の音量が変更されるものであり、上記の問題点を改善するものではない。
この発明は、上述の事情に鑑みてなされたもので、マーカを撮影できない状況でも拡張現実感用CGを表示する位置を高精度で決定することができ、室内でも使用可能な拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラムを提供することを目的としている。
上記課題を解決するために、この発明の第1の構成は、撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想的に作成された拡張現実感用の仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システムに係り、特定の音を収集し、該特定の音の収集位置を起点として、該特定の音の発生位置までの距離と該発生位置の方向とを算出することで、空間座標系上での前記発生位置を解析し、該発生位置を含む範囲の映像が前記撮影手段により取得された場合に、この撮影された映像内における前記特定の音の発生位置を表示位置として前記仮想空間映像を追加すると共に、前記特定の音の収集位置から発生位置までの前記距離に応じて、表示する前記仮想空間映像のサイズを変更制御する追加表示位置決定手段が設けられていることを特徴としている。
この発明の第2の構成は、撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システムに用いられる拡張現実感表示方法に係り、追加表示位置決定手段が、特定の音を収集し、該特定の音の収集位置を起点として、該特定の音の発生位置までの距離と該発生位置の方向とを算出することで、空間座標系上での前記発生位置を解析し、該発生位置を含む範囲の映像が前記撮影手段により取得された場合に、この撮影された映像内における前記特定の音の発生位置を表示位置として前記仮想空間映像を追加すると共に、前記特定の音の収集位置から発生位置までの前記距離に応じて、表示する前記仮想空間映像のサイズを変更制御する追加表示位置決定処理を行うことを特徴としている。
この発明の構成によれば、仮想空間映像の表示位置を示すマーカが撮影手段から隠れていても、同仮想空間映像の表示位置を高精度で検知することができ、拡張現実感の映像を表示することができる。
加えて、特定の音の収集位置から発生位置までの距離に応じて、仮想空間映像の表示サイズを変更制御することができるので、現実感の拡張を一段と効果的に図ることができる。
この発明の一実施形態である拡張現実感表示システムの要部の電気的構成を示すブロック図である。 図1の張現実感表示システムにおける提供者の作業を示すフローチャートである。 図1の張現実感表示システムの動作を示すフローチャートである。 利用者に向けて表示する映像の例を示す図である。
上記追加表示位置決定手段は、上記特定の音(マーカ用音)のパターン及び同パターンに対応する上記仮想空間映像(拡張現実感用CG)を設定するための特定音及び仮想空間映像設定手段(マーカ用音設定装置)と、同特定音及び仮想空間映像設定手段(マーカ用音設定装置)による設定に基づいて、上記特定の音(マーカ用音)を発生する特定音発生手段(マーカ用音発生装置)と、同特定音発生手段(マーカ用音発生装置)から発生する上記特定の音(マーカ用音)を収集して上記特定の音(マーカ用音)の上記発生位置(空間座標、マーカ位置)を解析する特定音発生位置解析手段(マーカ位置通知装置)と、同特定音発生位置解析手段(マーカ位置通知装置)で解析された上記特定の音(マーカ用音)の上記発生位置(空間座標、マーカ位置)を上記仮想空間映像(拡張現実感用CG)の上記表示位置として決定する表示位置決定手段(拡張現実感映像表示装置)とから構成されている拡張現実感表示システムを実現する。
また、上記特定音及び仮想空間映像設定手段(マーカ用音設定装置)は、上記特定の音(マーカ用音)の上記パターンを登録する特定音登録手段(マーカ用音データベース)と、上記仮想空間映像(拡張現実感用CG)を登録する仮想空間映像登録手段(拡張現実感用CGデータベース)と、上記特定音登録手段(マーカ用音データベース)及び仮想空間映像登録手段(拡張現実感用CGデータベース)を参照して、上記特定の音(マーカ用音)及び同特定の音(マーカ用音)に対応する上記仮想空間映像(拡張現実感用CG)を選択するための音及び映像設定手段(マーカ用音設定部)とから構成されている。
また、上記特定音発生手段(マーカ用音発生装置)は、特定音振り分け手段(マーカ用音振り分け部)と、複数の音発生手段(マーカ用音発生部)とを有し、上記音及び映像設定手段(マーカ用音設定部)は、上記特定の音のパターン、及び同特定の音のパターンと上記各音発生手段(マーカ用音発生部)との組み合わせの情報を出力する構成とされ、上記特定音振り分け手段(マーカ用音振り分け部)は、上記音及び映像設定手段(マーカ用音設定部)から出力される上記特定の音のパターン、及び同特定の音のパターンと上記各音発生手段(マーカ用音発生部)との組み合わせの情報に基づいて、上記各音発生手段(マーカ用音発生部)へ該当する上記特定の音のパターンを送信する構成とされ、上記各音発生手段(マーカ用音発生部)は、上記特定音振り分け手段(マーカ用音振り分け部)から上記特定の音のパターンを受信し、指定されたパターンの上記特定の音を発生する構成とされている。
また、上記特定音発生位置解析手段(マーカ位置通知装置)は、特定音収集手段(音収集部)と、表示位置解析手段(マーカ位置解析部)とを有し、上記特定音収集手段(音収集部)は、上記各音発生手段(マーカ用音発生部)から発生した上記特定の音を含む周囲の音を収集する構成とされ、上記音及び映像設定手段(マーカ用音設定部)は、上記特定の音のパターンの情報を、上記表示位置解析手段(マーカ位置解析部)へ送信する構成とされ、上記表示位置解析手段(マーカ位置解析部)は、上記特定音収集手段(音収集部)で収集された上記周囲の音、及び上記音及び映像設定手段(マーカ用音設定部)から送信される上記特定の音のパターンの情報を受信し、上記周囲の音の中から上記特定の音のパターンを抽出して解析し、上記特定の音(マーカ用音)の発生位置(空間座標、マーカ位置)を算出する構成とされている。
また、上記表示位置決定手段(拡張現実感映像表示装置)は、映像内表示位置判別手段(映像内マーカ位置判別部)と、拡張現実感映像作成手段(拡張現実感映像作成部)とを有し、上記映像内表示位置判別手段(映像内マーカ位置判別部)は、上記撮影手段(映像取得部)の撮影方向を検知し、上記表示位置解析手段(マーカ位置解析部)で算出された上記特定の音(マーカ用音)の発生位置(空間座標、マーカ位置)の情報及び上記撮影手段(映像取得部)の撮影方向に基づいて、現実空間映像内に上記特定の音(マーカ用音)の発生位置(空間座標、マーカ位置)が含まれるか否かを表す映像内発生位置の有無の情報を算出し、上記現実空間映像内に上記発生位置(空間座標、マーカ位置)が含まれている場合には映像内発生位置を算出すると共に、映像内発生位置の有無、及び映像内発生位置の情報を上記拡張現実感映像作成手段(拡張現実感映像作成部)へ送信する構成とされ、上記音及び映像設定手段(マーカ用音設定部)は、選択された上記特定の音(マーカ用音)及び同特定の音(マーカ用音)に対応する上記仮想空間映像(拡張現実感用CG)の情報を上記拡張現実感映像作成手段(拡張現実感映像作成部)へ送信する構成とされ、上記表示位置解析手段(マーカ位置解析部)は、上記発生位置(空間座標、マーカ位置)に対応した上記特定の音(マーカ用音)のパターンの情報を上記拡張現実感映像作成手段(拡張現実感映像作成部)へ送信する構成とされ、上記拡張現実感映像作成手段(拡張現実感映像作成部)は、上記音及び映像設定手段(マーカ用音設定部)から送信される上記特定の音(マーカ用音)及び同特定の音(マーカ用音)に対応する上記仮想空間映像(拡張現実感用CG)の情報、上記表示位置解析手段(マーカ位置解析部)から送信される上記発生位置(空間座標、マーカ位置)に対応する上記特定の音(マーカ用音)のパターンの情報、上記撮影手段(映像取得部)で得られた上記現実空間映像、及び、上記映像内表示位置判別手段(映像内マーカ位置判別部)から送信される上記特定の音(マーカ用音)の発生位置(空間座標、マーカ位置)の情報及び映像内発生位置の有無の情報を受信し、上記映像内発生位置の有無の情報が有を示す場合、上記発生位置(空間座標、マーカ位置)に対応した上記特定の音(マーカ用音)のパターンの情報、及び上記特定の音(マーカ用音)に対応する上記仮想空間映像(拡張現実感用CG)の情報に基づいて、上記映像内発生位置に追加表示するための上記仮想空間映像(拡張現実感用CG)を決定し、同映像内発生位置に該当する上記仮想空間映像(拡張現実感用CG)を追加した上記拡張現実感映像を作成する構成とされている。
実施形態
図1は、この発明の一実施形態である拡張現実感表示システムの要部の電気的構成を示すブロック図である。
この形態の拡張現実感表示システムは、同図に示すように、拡張現実感映像表示装置10と、マーカ用音発生装置20と、マーカ位置通知装置30と、マーカ用音設定装置40とから構成されている。マーカ用音設定装置40は、マーカ用音(特定の音)のパターン及び同パターンに対応する拡張現実感用CG(仮想的に作成された拡張現実感用の仮想空間映像)を設定するためのものであり、特に、この実施形態では、マーカ用音設定部41と、マーカ用音データベース42と、拡張現実感用CGデータベース43とを備えている。マーカ用音データベース42は、マーカ用音のパターンを登録する。拡張現実感用CGデータベース43は、上記拡張現実感用CGを登録する。マーカ用音設定部41は、マーカ用音データベース42及び拡張現実感用CGデータベース43を参照して、マーカ用音及び同マーカ用音に対応する拡張現実感用CGを提供者の操作により選択する。
マーカ用音発生装置20は、マーカ用音設定装置40による設定に基づいて、上記マーカ用音を発生するためのものであり、特に、この実施形態では、マーカ用音振り分け部21と、マーカ用音発生部221 ,222 ,…,22n とを備えている。また、マーカ用音設定装置40のマーカ用音設定部41は、マーカ用音のパターン、及び同マーカ用音のパターンとマーカ用音発生部221 ,222 ,…,22n との組み合わせの情報を出力する。マーカ用音振り分け部21は、マーカ用音設定部41から出力される上記マーカ用音のパターン、及び同マーカ用音のパターンとマーカ用音発生部221 ,222 ,…,22n との組み合わせの情報に基づいて、各マーカ用音発生部221 ,222 ,…,22n へ該当するマーカ用音のパターンを送信する。マーカ用音発生部221 ,222 ,…,22n は、マーカ用音振り分け部21から上記マーカ用音のパターンを受信し、指定されたパターンのマーカ用音を発生する。
マーカ位置通知装置30は、マーカ用音発生装置20から発生するマーカ用音を収集して同マーカ用音の発生位置(空間座標)を解析するためのものであり、特に、この実施形態では、音収集部31と、マーカ位置解析部32とを備えている。また、マーカ用音設定装置40のマーカ用音設定部41は、マーカ用音のパターンの情報を、マーカ位置解析部32へ送信する。音収集部31は、マイクロホンなどで構成され、各マーカ用音発生部221 ,222 ,…,22n から発生したマーカ用音を含む周囲の音を収集する。マーカ位置解析部32は、音収集部31で収集された周囲の音、及びマーカ用音設定部41から送信されるマーカ用音のパターンの情報を受信し、周囲の音の中からマーカ用音のパターンを抽出して解析し、マーカ用音の発生位置(空間座標)を算出する。この場合、マーカ位置解析部32は、音源分離技術を用いて音源の方向及び距離を求めることにより、マーカ用音の発生位置(空間座標)を算出する。
拡張現実感映像表示装置10は、マーカ位置通知装置30で解析されたマーカ用音の発生位置(空間座標)を拡張現実感用CGの表示位置として決定するためのものであり、特に、この実施形態では、映像表示部11と、拡張現実感映像作成部12と、映像取得部(カメラ)13と、映像内マーカ位置判別部14とを備えている。映像内マーカ位置判別部14は、映像取得部(カメラ)13の撮影方向を検知し、マーカ位置解析部32で算出されたマーカ用音の発生位置(空間座標)の情報及び同映像取得部(カメラ)13の撮影方向に基づいて、現実空間映像内にマーカ用音の発生位置(空間座標)が含まれるか否かを表す映像内発生位置の有無の情報を算出し、上記現実空間映像内に上記発生位置(空間座標)が含まれている場合には映像内発生位置を算出すると共に、映像内発生位置の有無、及び映像内発生位置の情報を拡張現実感映像作成部12へ送信する。
また、マーカ用音設定装置40のマーカ用音設定部41は、選択されたマーカ用音及び同マーカ用音に対応する拡張現実感用CGの情報を拡張現実感映像作成部12へ送信する。また、マーカ位置通知装置30のマーカ位置解析部32は、上記発生位置(空間座標)に対応したマーカ用音のパターンの情報を拡張現実感映像作成部12へ送信する。拡張現実感映像作成部12は、マーカ用音設定部41から送信されるマーカ用音及び同マーカ用音に対応する拡張現実感用CGの情報、マーカ位置解析部32から送信される上記発生位置(空間座標)に対応するマーカ用音のパターンの情報、映像取得部(カメラ)13で得られた現実空間映像、及び、映像内マーカ位置判別部14から送信されるマーカ用音の発生位置(空間座標)の情報及び映像内発生位置の有無の情報を受信する。そして、拡張現実感映像作成部12は、上記映像内発生位置の有無の情報が有を示す場合、上記発生位置(空間座標)に対応したマーカ用音のパターンの情報、及びマーカ用音に対応する拡張現実感用CGの情報に基づいて、上記映像内発生位置に追加表示するための拡張現実感用CGを決定し、同映像内発生位置に、該当する拡張現実感用CGを追加した拡張現実感映像を作成して映像表示部11へ送出する。映像表示部11は、たとえば液晶表示装置などで構成されている。この拡張現実感表示システムは、拡張現実感表示プログラムに基づいて機能するコンピュータで構成されている。
図2は、図1の張現実感表示システムにおける提供者の作業を示すフローチャート、図3は、図1の張現実感表示システムの動作を示すフローチャート、及び図4が、利用者に向けて表示する映像の例を示す図である。
これらの図を参照して、この形態の張現実感表示システムに用いられる拡張現実感表示方法の処理内容について説明する。
この張現実感表示システムでは、マーカ用音の発生位置(空間座標)が解析され、同発生位置を含む範囲の映像が映像取得部(カメラ)13により取得された場合に、この撮影された映像内におけるマーカ用音の発生位置を表示位置として、現実空間映像内に拡張現実感用CG(仮想空間映像)が追加される(追加表示位置決定処理)。
すなわち、この拡張現実感表示システムを使用するための準備として、提供者は、マーカ用音のパターンと対応する拡張現実感用CGをマーカ用音設定装置40にて設定する。この場合、図2に示すように、提供者は、マーカ用音設定装置40のマーカ用音データベース42に、マーカ用音として使用する音のパターンを任意の数だけ登録する(ステップA1)。また、提供者は、マーカ用音設定装置40の拡張現実感用CGデータベース43に、拡張現実感用として使用するコンピュータグラフィック(CG)を任意の数だけ登録する(ステップA2)。提供者は、マーカ用音設定装置40のマーカ用音設定部41を通してマーカ用音データベース42から、今回使用する音を一つ選択すると共に、マーカ用音設定装置40のマーカ用音設定部41を通して拡張現実感用CGデータベース43から、選択したマーカ用音に対応して表示する拡張現実感用CGを選択する(ステップA3,A4、特定音及び仮想空間映像設定処理)。
提供者は、マーカ用音設定装置40のマーカ用音設定部41にて、選択したマーカ用音を発生させるマーカ用音発生部をマーカ用音発生部221 ,222 ,…,22n の中から選択する(ステップA5)。使用するマーカ用音と拡張現実感用CGの組み合わせを複数設定する場合は、マーカ用音(ステップA3)、マーカ用音発生部(ステップA4)及び拡張現実感用CG(ステップA5)の選択を繰り返し実施する(ステップA6)。
設定の終了後、マーカ用音設定装置40のマーカ用音設定部41にて、拡張現実感映像作成部12へのマーカ用音のパターン、マーカ用音のパターンに対応した拡張現実感用CGの情報、マーカ用音振り分け部21へのマーカ用音のパターンと同マーカ用音のパターンとマーカ用音発生部の組み合わせの情報、及び、マーカ位置解析部32へのマーカ用音のパターンの情報の送信を行う(ステップA7)。この送信後、拡張現実感表示装置10では、拡張現実感映像作成部12にて、マーカ用音のパターンと同マーカ用音のパターンに対応した拡張現実感用CGの情報がセットで登録される(ステップA8a)。マーカ用音発生装置20では、マーカ用音振り分け部21にて、それぞれのマーカ用音発生部へ指定されたマーカ用音のパターンが送信され、それぞれのマーカ用音発生部ではマーカ用音が登録される(ステップA8b)。マーカ位置通知装置30では、マーカ位置解析部32にて、マーカ位置の解析時に抽出すべきマーカ用音のパターンが登録される(ステップA8c)。
次に、利用者が拡張現実感の映像を得る場合、図3に示すように、マーカ用音、拡張現実感用CG、及びマーカ用音を発生するマーカ用音発生部の設定が完了済み、かつマーカ用音発生装置20のマーカ用音発生部がマーカ用音を発生させている状態で(特定音発生処理)、マーカ位置通知装置30では、音収集部31にて、同マーカ位置通知装置30の周囲の音を収集する(ステップB1a)。この周囲の音には、マーカ用音発生装置20の各マーカ用音発生部から発生しているマーカ用音が含まれている(ステップB1b)。マーカ位置通知装置30では、マーカ位置解析部32にて、音収集部31が収集した周囲の音の中から、マーカ位置解析部32に登録されているマーカ用音のパターンに基づいて、マーカ用音が抽出及び解析され、マーカ位置が算出される。マーカ位置解析部32では、抽出したマーカ用音のパターンの情報を拡張現実感映像作成部12へ、及び、マーカ位置の情報を映像内マーカ位置判別部14へ送信する(ステップB2、特定音発生位置解析処理)。
拡張現実感表示装置10では、映像取得部(カメラ)13にて、現実空間映像が取得され、拡張現実感映像作成部12へ送信される(ステップB3)。また、拡張現実感映像表示装置10では、映像内マーカ位置判別部14にて、映像取得部(カメラ)13が取得する現実空間映像内にマーカが含まれるかの映像内マーカの有無の判定と(ステップB4a)、マーカが含まれている場合([YES])、映像内マーカ位置を算出し(表示位置決定処理)、拡張現実感映像作成部12へ送信する。一方、現実空間映像内にマーカが含まれていない場合([NO])、映像内マーカの有無の情報のみ拡張現実感映像作成部12へ送信する(ステップB4b)。この後、拡張現実感表示装置10では、拡張現実感映像作成部12にて、映像取得部(カメラ)13から受信した現実空間映像、映像内マーカ位置判別部14から受信したマーカ位置、マーカ位置解析部32から受信したマーカ用音のパターン、及び、拡張現実感映像作成部12に登録されているマーカ用音のパターンに対応した拡張現実感用CGに基づいて拡張現実感の映像が作成され、映像表示部11へ送信する(ステップB5)。映像表示部11にて、利用者に向けて拡張現実感の映像が表示される(ステップB6)。
映像表示部11では、図4中の映像Eに示すように、張現実感表示システムが停止状態のとき、“マーカ音発生源”が表示され、同マーカ音発生源に対して距離Xの位置にいる利用者に提示される。また、映像Sに示すように、同システムが稼働状態(1)のとき、“表示オブジェクト”が表示され、マーカ音発生源に対して距離Xの位置にいる利用者に提示される。また、映像Lに示すように、同システムが稼働状態(2)のとき、マーカ音発生源に対して距離X/2の位置にいる利用者に対して、稼働状態(1)の場合よりも大きい“表示オブジェクト”が表示されて提示され、距離に合わせて、表示する拡張現実感の映像のサイズが変更される。
以上のように、この実施形態では、マーカ用音の発生位置が解析され、同発生位置を含む範囲の映像が映像取得部(カメラ)13により取得された場合に、この撮影された映像内におけるマーカ用音の発生位置を表示位置として、現実空間映像内に拡張現実感用CGが追加されるので、拡張現実感用CGの表示位置を示すマーカが映像取得部13から隠れていても、拡張現実感用CGの表示位置が検知され、拡張現実感の映像が表示される。また、マーカ位置解析部32により、音源分離技術を用いて音源の方向及び距離を求めることにより、マーカ用音の発生位置(空間座標)が算出されるので、拡張現実感用CGの表示位置が高精度で求められる。また、この張現実感表示システムは、音を発信する設備があれば動作が可能なので、屋外、屋内共に同等精度で拡張現実感の映像を提供することができる。
以上、この発明の実施形態を図面により詳述してきたが、具体的な構成は同実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計の変更などがあっても、この発明に含まれる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
(付記1)
撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想的に作成された拡張現実感用の仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システムであって、
特定の音の発生位置を解析し、該発生位置を含む範囲の映像が前記撮影手段により取得された場合に、この撮影された映像内における前記特定の音の発生位置を表示位置として前記仮想空間映像を追加する追加表示位置決定手段が設けられている拡張現実感表示システム。
(付記2)
前記追加表示位置決定手段は、
前記特定の音のパターン及び該パターンに対応する前記仮想空間映像を設定するための特定音及び仮想空間映像設定手段と、
該特定音及び仮想空間映像設定手段による設定に基づいて、前記特定の音を発生する特定音発生手段と、
該特定音発生手段から発生する前記特定の音を収集して前記特定の音の前記発生位置を解析する特定音発生位置解析手段と、
該特定音発生位置解析手段で解析された前記特定の音の前記発生位置を前記仮想空間映像の前記表示位置として決定する表示位置決定手段とから構成されている付記1記載の拡張現実感表示システム。
(付記3)
前記特定音及び仮想空間映像設定手段は、
前記特定の音の前記パターンを登録する特定音登録手段と、
前記仮想空間映像を登録する仮想空間映像登録手段と、
前記特定音登録手段及び仮想空間映像登録手段を参照して、前記特定の音及び該特定の音に対応する前記仮想空間映像を選択するための音及び映像設定手段とから構成されている付記2記載の拡張現実感表示システム。
(付記4)
前記特定音発生手段は、
特定音振り分け手段と、複数の音発生手段とを有し、
前記音及び映像設定手段は、
前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報を出力する構成とされ、
前記特定音振り分け手段は、
前記音及び映像設定手段から出力される前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報に基づいて、前記各音発生手段へ該当する前記特定の音のパターンを送信する構成とされ、
前記各音発生手段は、
前記特定音振り分け手段から前記特定の音のパターンを受信し、指定されたパターンの前記特定の音を発生する構成とされている付記3記載の拡張現実感表示システム。
(付記5)
前記特定音発生位置解析手段は、
特定音収集手段と、表示位置解析手段とを有し、
前記特定音収集手段は、前記各音発生手段から発生した前記特定の音を含む周囲の音を収集する構成とされ、
前記音及び映像設定手段は、
前記特定の音のパターンの情報を、前記表示位置解析手段へ送信する構成とされ、
前記表示位置解析手段は、
前記特定音収集手段で収集された前記周囲の音、及び前記音及び映像設定手段から送信される前記特定の音のパターンの情報を受信し、前記周囲の音の中から前記特定の音のパターンを抽出して解析し、前記特定の音の発生位置を算出する構成とされている付記4記載の拡張現実感表示システム。
(付記6)
前記表示位置決定手段は、
映像内表示位置判別手段と、拡張現実感映像作成手段とを有し、
前記映像内表示位置判別手段は、
前記撮影手段の撮影方向を検知し、前記表示位置解析手段で算出された前記特定の音の発生位置の情報及び前記撮影手段の撮影方向に基づいて、現実空間映像内に前記特定の音の発生位置が含まれるか否かを表す映像内発生位置の有無の情報を算出し、
前記現実空間映像内に前記発生位置が含まれている場合には映像内発生位置を算出すると共に、映像内発生位置の有無、及び映像内発生位置の情報を前記拡張現実感映像作成手段へ送信する構成とされ、
前記音及び映像設定手段は、
選択された前記特定の音及び該特定の音に対応する前記仮想空間映像の情報を前記拡張現実感映像作成手段へ送信する構成とされ、
前記表示位置解析手段は、
前記発生位置に対応した前記特定の音のパターンの情報を前記拡張現実感映像作成手段へ送信する構成とされ、
前記拡張現実感映像作成手段は、
前記音及び映像設定手段から送信される前記特定の音及び該特定の音に対応する前記仮想空間映像の情報、前記表示位置解析手段から送信される前記発生位置に対応する前記特定の音のパターンの情報、前記撮影手段で得られた前記現実空間映像、及び、前記映像内表示位置判別手段から送信される前記特定の音の発生位置の情報及び映像内発生位置の有無の情報を受信し、前記映像内発生位置の有無の情報が有を示す場合、前記発生位置に対応した前記特定の音のパターンの情報、及び前記特定の音に対応する前記仮想空間映像の情報に基づいて、前記映像内発生位置に追加表示するための前記仮想空間映像を決定し、該映像内発生位置に該当する前記仮想空間映像を追加した前記拡張現実感映像を作成する構成とされている付記5記載の拡張現実感表示システム。
(付記7)
撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システムに用いられる拡張現実感表示方法であって、
追加表示位置決定手段が、特定の音の発生位置を解析し、該発生位置を含む範囲の映像が前記撮影手段により取得された場合に、この撮影された映像内における前記特定の音の発生位置を表示位置として前記仮想空間映像を追加する追加表示位置決定処理を行う拡張現実感表示方法。
(付記8)
前記追加表示位置決定処理では、
特定音及び仮想空間映像設定手段が、前記特定の音のパターン及び該パターンに対応する前記仮想空間映像を設定する特定音及び仮想空間映像設定処理と、
特定音発生手段が、前記特定音及び仮想空間映像設定手段による設定に基づいて、前記特定の音を発生する特定音発生処理と、
特定音発生位置解析手段が、該特定音発生手段から発生する前記特定の音を収集して前記特定の音の前記発生位置を解析する特定音発生位置解析処理と、
表示位置決定手段が、該特定音発生位置解析手段で解析された前記特定の音の前記発生位置を前記仮想空間映像の前記表示位置として決定する表示位置決定処理とを行う付記7記載の拡張現実感表示方法。
(付記9)
前記特定音及び仮想空間映像設定処理では、
前記特定の音の前記パターンを登録する特定音登録手段と、
前記仮想空間映像を登録する仮想空間映像登録手段とを設けておき、
音及び映像設定手段が、前記特定音登録手段及び仮想空間映像登録手段を参照して、前記特定の音及び該特定の音に対応する前記仮想空間映像を選択する付記8記載の拡張現実感表示方法。
(付記10)
前記特定音発生処理では、
特定音振り分け手段と、複数の音発生手段とを設けておき、
前記音及び映像設定手段が、前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報を出力し、
前記特定音振り分け手段が、前記音及び映像設定手段から出力される前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報に基づいて、前記各音発生手段へ該当する前記特定の音のパターンを送信し、
前記各音発生手段が、前記特定音振り分け手段から前記特定の音のパターンを受信し、指定されたパターンの前記特定の音を発生する付記9記載の拡張現実感表示方法。
(付記11)
前記特定音発生位置解析処理では、
特定音収集手段と、表示位置解析手段とを設けておき、
前記特定音収集手段が、前記各音発生手段から発生した前記特定の音を含む周囲の音を収集し、
前記音及び映像設定手段が、前記特定の音のパターンの情報を、前記表示位置解析手段へ送信し、
前記表示位置解析手段が、前記特定音収集手段で収集された前記周囲の音、及び前記音及び映像設定手段から送信される前記特定の音のパターンの情報を受信し、前記周囲の音の中から前記特定の音のパターンを抽出して解析し、前記特定の音の発生位置を算出する付記10記載の拡張現実感表示方法。
(付記12)
前記表示位置決定処理では、
映像内表示位置判別手段と、拡張現実感映像作成手段とを設けておき、
前記映像内表示位置判別手段が、前記撮影手段の撮影方向を検知し、前記表示位置解析手段で算出された前記特定の音の発生位置の情報及び前記撮影手段の撮影方向に基づいて、現実空間映像内に前記特定の音の発生位置が含まれるか否かを表す映像内発生位置の有無の情報を算出し、前記現実空間映像内に前記発生位置が含まれている場合には映像内発生位置を算出すると共に、映像内発生位置の有無、及び映像内発生位置の情報を前記拡張現実感映像作成手段へ送信し、
前記音及び映像設定手段が、選択された前記特定の音及び該特定の音に対応する前記仮想空間映像の情報を前記拡張現実感映像作成手段へ送信し、
前記表示位置解析手段が、前記発生位置に対応した前記特定の音のパターンの情報を前記拡張現実感映像作成手段へ送信し、
前記拡張現実感映像作成手段が、前記音及び映像設定手段から送信される前記特定の音及び該特定の音に対応する前記仮想空間映像の情報、前記表示位置解析手段から送信される前記発生位置に対応する前記特定の音のパターンの情報、前記撮影手段で得られた前記現実空間映像、及び、前記映像内表示位置判別手段から送信される前記特定の音の発生位置の情報及び映像内発生位置の有無の情報を受信し、
前記映像内発生位置の有無の情報が有を示す場合、前記発生位置に対応した前記特定の音のパターンの情報、及び前記特定の音に対応する前記仮想空間映像の情報に基づいて、前記映像内発生位置に追加表示するための前記仮想空間映像を決定し、該映像内発生位置に該当する前記仮想空間映像を追加した前記拡張現実感映像を作成する付記11記載の拡張現実感表示方法。
(付記13)
コンピュータを、付記1乃至6のいずれか一に記載の拡張現実感表示システムとして機能させる拡張現実感表示プログラム。
この発明は、カメラなどの撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想的に作成された拡張現実感用の仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システム全般に適用できる。また、この発明は、音を自由に発生することが可能な環境があれば、たとえば家庭用メディアやアミューズメント施設など、娯楽に関する用途に適用できる。また、この発明は、たとえば水中など、視界が限定される場合での用途に適応できる。また、この発明は、画像を配置できる壁や柱などがなく、画像マーカを配置できないような空間における用途に適用できる。
10 拡張現実感映像表示装置(拡張現実感表示システムの一部)
11 映像表示部(拡張現実感映像表示装置の一部)
12 拡張現実感映像作成部(拡張現実感映像作成手段)
13 映像取得部(カメラ)(撮影手段)
14 映像内マーカ位置判別部(映像内表示位置判別手段)
20 マーカ用音発生装置(特定音発生手段)
21 マーカ用音振り分け部(特定音振り分け手段)
221 ,222 ,…,22n マーカ用音発生部(音発生手段)
30 マーカ位置通知装置(特定音発生位置解析手段)
31 音収集部(特定音収集手段)
32 マーカ位置解析部(表示位置解析手段)
40 マーカ用音設定装置(仮想空間映像設定手段)
41 マーカ用音設定部(音及び映像設定手段)
42 マーカ用音データベース(特定音登録手段)
43 拡張現実感用CGデータベース(仮想空間映像登録手段)

Claims (10)

  1. 撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想的に作成された拡張現実感用の仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システムであって、
    特定の音を収集し、該特定の音の収集位置を起点として、該特定の音の発生位置までの距離と該発生位置の方向とを算出することで、空間座標系上での前記発生位置を解析し、該発生位置を含む範囲の映像が前記撮影手段により取得された場合に、この撮影された映像内における前記特定の音の発生位置を表示位置として前記仮想空間映像を追加すると共に、前記特定の音の収集位置から発生位置までの前記距離に応じて、表示する前記仮想空間映像のサイズを変更制御する追加表示位置決定手段が設けられていることを特徴とする拡張現実感表示システム。
  2. 前記追加表示位置決定手段は、
    前記特定の音のパターン及び該パターンに対応する前記仮想空間映像を設定するための特定音及び仮想空間映像設定手段と、
    該特定音及び仮想空間映像設定手段による設定に基づいて、前記特定の音を発生する特定音発生手段と、
    該特定音発生手段から発生する前記特定の音を収集して空間座標系上での前記特定の音の前記発生位置を解析する特定音発生位置解析手段と、
    該特定音発生位置解析手段で解析された前記特定の音の前記発生位置を前記仮想空間映像の前記表示位置として決定する表示位置決定手段とから構成されていることを特徴とする請求項1記載の拡張現実感表示システム。
  3. 前記特定音及び仮想空間映像設定手段は、
    前記特定の音の前記パターンを登録する特定音登録手段と、
    前記仮想空間映像を登録する仮想空間映像登録手段と、
    前記特定音登録手段及び仮想空間映像登録手段を参照して、前記特定の音及び該特定の音に対応する前記仮想空間映像を選択するための音及び映像設定手段とから構成されていることを特徴とする請求項2記載の拡張現実感表示システム。
  4. 前記特定音発生手段は、
    特定音振り分け手段と、複数の音発生手段とを有し、
    前記音及び映像設定手段は、
    前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報を出力する構成とされ、
    前記特定音振り分け手段は、
    前記音及び映像設定手段から出力される前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報に基づいて、前記各音発生手段へ該当する前記特定の音のパターンを送信する構成とされ、
    前記各音発生手段は、
    前記特定音振り分け手段から前記特定の音のパターンを受信し、指定されたパターンの前記特定の音を発生する構成とされていることを特徴とする請求項3記載の拡張現実感表示システム。
  5. 前記特定音発生位置解析手段は、
    特定音収集手段と、表示位置解析手段とを有し、
    前記特定音収集手段は、前記各音発生手段から発生した前記特定の音を含む周囲の音を収集する構成とされ、
    前記音及び映像設定手段は、
    前記特定の音のパターンの情報を、前記表示位置解析手段へ送信する構成とされ、
    前記表示位置解析手段は、
    前記特定音収集手段で収集された前記周囲の音、及び前記音及び映像設定手段から送信される前記特定の音のパターンの情報を受信し、前記周囲の音の中から前記特定の音のパターンを抽出して解析し、空間座標系上での前記特定の音の発生位置を算出する構成とされていることを特徴とする請求項4記載の拡張現実感表示システム。
  6. 前記表示位置決定手段は、
    映像内表示位置判別手段と、拡張現実感映像作成手段とを有し、
    前記映像内表示位置判別手段は、
    前記撮影手段の撮影方向を検知し、前記表示位置解析手段で算出された前記特定の音の発生位置の情報及び前記撮影手段の撮影方向に基づいて、現実空間映像内に前記特定の音の発生位置が含まれるか否かを表す映像内発生位置の有無の情報を算出し、
    前記現実空間映像内に前記発生位置が含まれている場合には映像内発生位置を算出すると共に、映像内発生位置の有無、及び映像内発生位置の情報を前記拡張現実感映像作成手段へ送信する構成とされ、
    前記音及び映像設定手段は、
    選択された前記特定の音及び該特定の音に対応する前記仮想空間映像の情報を前記拡張現実感映像作成手段へ送信する構成とされ、
    前記表示位置解析手段は、
    前記発生位置に対応した前記特定の音のパターンの情報を前記拡張現実感映像作成手段へ送信する構成とされ、
    前記拡張現実感映像作成手段は、
    前記音及び映像設定手段から送信される前記特定の音及び該特定の音に対応する前記仮想空間映像の情報、前記表示位置解析手段から送信される前記発生位置に対応する前記特定の音のパターンの情報、前記撮影手段で得られた前記現実空間映像、及び、前記映像内表示位置判別手段から送信される前記特定の音の発生位置の情報及び映像内発生位置の有無の情報を受信し、前記映像内発生位置の有無の情報が有を示す場合、前記発生位置に対応した前記特定の音のパターンの情報、及び前記特定の音に対応する前記仮想空間映像の情報に基づいて、前記映像内発生位置に追加表示するための前記仮想空間映像を決定し、該映像内発生位置に該当する前記仮想空間映像を追加した前記拡張現実感映像を作成する構成とされていることを特徴とする請求項5記載の拡張現実感表示システム。
  7. 撮影手段により現実の空間を撮影して得られた現実空間映像内に、仮想空間映像を追加することにより拡張現実感映像を作成して表示する拡張現実感表示システムに用いられる拡張現実感表示方法であって、
    追加表示位置決定手段が、特定の音を収集し、該特定の音の収集位置を起点として、該特定の音の発生位置までの距離と該発生位置の方向とを算出することで、空間座標系上での前記発生位置を解析し、該発生位置を含む範囲の映像が前記撮影手段により取得された場合に、この撮影された映像内における前記特定の音の発生位置を表示位置として前記仮想空間映像を追加すると共に、前記特定の音の収集位置から発生位置までの前記距離に応じて、表示する前記仮想空間映像のサイズを変更制御する追加表示位置決定処理を行うことを特徴とする拡張現実感表示方法。
  8. 前記追加表示位置決定処理では、
    特定音及び仮想空間映像設定手段が、前記特定の音のパターン及び該パターンに対応する前記仮想空間映像を設定する特定音及び仮想空間映像設定処理と、
    特定音発生手段が、前記特定音及び仮想空間映像設定手段による設定に基づいて、前記特定の音を発生する特定音発生処理と、
    特定音発生位置解析手段が、前記特定音発生手段から発生する前記特定の音を収集して空間座標系上での前記特定の音の前記発生位置を解析する特定音発生位置解析処理と、
    表示位置決定手段が、前記特定音発生位置解析手段で解析された前記特定の音の前記発生位置を前記仮想空間映像の前記表示位置として決定する表示位置決定処理とを行うことを特徴とする請求項7記載の拡張現実感表示方法。
  9. 前記特定音及び仮想空間映像設定処理では、
    前記特定の音の前記パターンを登録する特定音登録手段と、
    前記仮想空間映像を登録する仮想空間映像登録手段とを設けておき、
    音及び映像設定手段が、前記特定音登録手段及び仮想空間映像登録手段を参照して、前記特定の音及び該特定の音に対応する前記仮想空間映像を選択することを特徴とする請求項8記載の拡張現実感表示方法。
  10. 前記特定音発生処理では、
    特定音振り分け手段と、複数の音発生手段とを設けておき、
    前記音及び映像設定手段が、前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報を出力し、
    前記特定音振り分け手段が、前記音及び映像設定手段から出力される前記特定の音のパターン、及び該特定の音のパターンと前記各音発生手段との組み合わせの情報に基づいて、前記各音発生手段へ該当する前記特定の音のパターンを送信し、
    前記各音発生手段が、前記特定音振り分け手段から前記特定の音のパターンを受信し、指定されたパターンの前記特定の音を発生することを特徴とする請求項9記載の拡張現実感表示方法。
JP2010285143A 2010-12-21 2010-12-21 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム Active JP5664215B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010285143A JP5664215B2 (ja) 2010-12-21 2010-12-21 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010285143A JP5664215B2 (ja) 2010-12-21 2010-12-21 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム

Publications (2)

Publication Number Publication Date
JP2012133591A JP2012133591A (ja) 2012-07-12
JP5664215B2 true JP5664215B2 (ja) 2015-02-04

Family

ID=46649118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010285143A Active JP5664215B2 (ja) 2010-12-21 2010-12-21 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム

Country Status (1)

Country Link
JP (1) JP5664215B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494158B2 (en) 2018-05-31 2022-11-08 Shure Acquisition Holdings, Inc. Augmented reality microphone pick-up pattern visualization

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6299145B2 (ja) * 2013-10-28 2018-03-28 大日本印刷株式会社 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム
KR101729073B1 (ko) 2015-08-13 2017-04-21 주식회사 넥스트이온 디스플레이 장치에 표시되는 영상의 방향 변화에 따라 소리의 위상을 전환시키는 방법 및 시스템
WO2017188863A1 (ru) * 2016-04-30 2017-11-02 Виталий Витальевич АВЕРЬЯНОВ Устройство для воздействия на виртуальные объекты дополненной реальности
JP2018077644A (ja) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 情報処理システム及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191800A (ja) * 1993-12-27 1995-07-28 Yamatake Honeywell Co Ltd 空間動作インターフェイス
JP5013398B2 (ja) * 2006-09-08 2012-08-29 学校法人立命館 複合現実感システムとそのイベント入力方法
JP2008041107A (ja) * 2007-09-10 2008-02-21 Sanyo Electric Co Ltd 撮像装置及び画像合成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494158B2 (en) 2018-05-31 2022-11-08 Shure Acquisition Holdings, Inc. Augmented reality microphone pick-up pattern visualization

Also Published As

Publication number Publication date
JP2012133591A (ja) 2012-07-12

Similar Documents

Publication Publication Date Title
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
KR101295714B1 (ko) 3차원 증강 현실 제공 장치 및 방법
KR101306286B1 (ko) X-레이 뷰 기반의 증강 현실 제공 장치 및 방법
WO2014016986A1 (ja) 3次元環境共有システム及び3次元環境共有方法
US20130135295A1 (en) Method and system for a augmented reality
JP5664215B2 (ja) 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
RU2015131134A (ru) Моделирование сцены в реальном времени, объединяющее формирование трехмерного ультразвукового и двумерного рентгеновского изображений
WO2016032899A1 (en) Remote sensor access and queuing
US20110109628A1 (en) Method for producing an effect on virtual objects
JP2006059136A (ja) ビューア装置及びそのプログラム
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
US20110149042A1 (en) Method and apparatus for generating a stereoscopic image
CN104252712A (zh) 图像生成装置及图像生成方法
EP3445249A1 (en) Ultrasound imaging probe positioning
JP5831151B2 (ja) 制御処理プログラム、画像表示装置、および画像表示方法
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
EP3422145B1 (en) Provision of virtual reality content
EP3665656B1 (en) Three-dimensional video processing
JP7109395B2 (ja) 作業支援システム、作業支援装置、及び作業支援方法
KR101902131B1 (ko) 시뮬레이션 파노라마 실내영상 제작 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R150 Certificate of patent or registration of utility model

Ref document number: 5664215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150