JP5888372B2 - 情報処理システムとその処理方法及びプログラム - Google Patents

情報処理システムとその処理方法及びプログラム Download PDF

Info

Publication number
JP5888372B2
JP5888372B2 JP2014155945A JP2014155945A JP5888372B2 JP 5888372 B2 JP5888372 B2 JP 5888372B2 JP 2014155945 A JP2014155945 A JP 2014155945A JP 2014155945 A JP2014155945 A JP 2014155945A JP 5888372 B2 JP5888372 B2 JP 5888372B2
Authority
JP
Japan
Prior art keywords
image
acceleration
imaging device
virtual object
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014155945A
Other languages
English (en)
Other versions
JP2015064868A (ja
Inventor
唯仁 八尾
唯仁 八尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014155945A priority Critical patent/JP5888372B2/ja
Publication of JP2015064868A publication Critical patent/JP2015064868A/ja
Application granted granted Critical
Publication of JP5888372B2 publication Critical patent/JP5888372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

実写画像と、仮想空間の仮想画像とを合成して表示する情報処理システムとその処理方法及びプログラムに関する。
従来より、現実空間の画像(実写画像)に三次元モデリングされたCG(ComputerGraphics)による画像を重畳した画像を生成し、観察者に提示することで、この観察者にあたかも現実空間中にCGで表現された物体(仮想物体)が存在しているかのように見せることができる、複合現実感や拡張現実感と呼ばれる技術が存在する。
複合現実感、拡張現実感を提示するシステムでは映像の表示装置として、据え置き型ディスプレイ、スマートフォンやタブレットなどのモバイルデバイス、光学シースルー型HMD、ビデオシースルー型HMDなどが利用される。
近年、複合現実感、拡張現実感を提示するシステムやアプリケーションが多数発表され、一般に目にする機会が多くなっているが、一般ユーザーの体験における転倒、酔いなどに対する安全性対策が課題になっている。
特にビデオシースルー型HMDを使用するシステムにおいては、HMD本体が全視界を覆っており、また光学シースルーHMDと違いCGを完全に不透明な形で描画することが可能なため、壁や机にぶつかってよろめいた場合、体験者は手や足を安全なところにつこうとするが、複合現実の体験中は現実世界の一部がCGによって隠蔽されており、体験者はHMDを外さなければ現実世界の障害物を確認することができず、そこで発生するタイムラグが安全に影響する。
一方で現実物体が見えるようにCGを非表示にしたり半透明にしたりすると没入感が損なわれるという問題がある。
CGに隠された領域にどのような障害物があるかわからない問題への対策として、特許文献1には、手をつくことができる現実物体がある場所に手が近付いた場合にそれを隠蔽している仮想物体の表示を変化させ、ユーザーに提示すという手法が記載されている。
特開2009−169622号公報
しかしながら、特許文献1に記載のシステムにおいては、手をつく場所を特定して、手をつく一の仮想物体を変化させ、一部の現実物体を見せることができるものの、よろめいた時の緊急避難動作においては、現実物体の全体が把握できないため、緊急避難時に適用するには難しい側面があった。
また、手をつく際に、現実物体を見せるのでは、手をつく場所に現実物体がなかった場合には、緊急避難時の判断が遅れ、急なよろめきなどには対応が難しい側面があった。
さらに手をつくことが緊急的に手をつくものなのか、単に触るため手をつくものなのかを判断することは難しく、仮に手をついたときに現実物体(現実の画像)全体を見せてしまうと、没入感が損なわれ、複合現実感システムのメリットが失われてしまう。
そこで、本発明は、撮像装置の加速度により体験者の急な動きによる危険な動作となる場合に、実写画像を視認させることで体験者が迅速な回避行動をとれる仕組みを提供することを目的とする。
本発明の目的を達成するための、撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、撮像装置よる速度を取得する速度取得手段と、前記速度取得手段で取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、透過制御する仮想物体を特定する特定手段と、前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定手段により特定された仮想物体を透過制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段とを備えることを特徴とする。
また、撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、撮像装置よる速度を取得する速度取得手段と、前記速度取得手段で取得された速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、非表示制御する仮想物体を特定する特定手段と、前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定手段により特定された仮想物体を非表示制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段とを備えることを特徴とする。
また、撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、クリッピング平面の値を記憶する記憶手段と、前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段と、撮像装置よる速度を取得する速度取得手段と、前記速度取得手段で取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記記憶手段に記憶されているクリッピング平面の値を所定の範囲後退させたクリッピング平面の値に変更する変更手段とを備え、前記描画制御手段は、前記変更手段により体験者の急な動きによる危険な動作である場合に変更されたクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御することを特徴とする。
本発明によれば、撮像装置の加速度により体験者の急な動きによる危険な動作となる場合に、実写画像を視認させることで体験者が迅速な回避行動をとることができる。
複合現実感システム構成および、各ハードウェアのハードウェア構成の一例を示す図である 機能構成図の一例を示す図である アプリケーション構成図の一例を示す図である 第1の実施形態における複合現実感システムの詳細な処理のフローチャートである 透過されない仮想画像が合成された画像の表示の一例を示すイメージ図である 透過された仮想画像が合成された画像の表示の一例を示すイメージ図である 透過率の推移を示すグラフである 透過率を算出する計算式の一例を示す図である モデルの情報を管理するデータの一例を示す図である。 第2の実施形態における複合現実感システムの詳細な処理のフローチャートである 所定距離内のモデルが透過表示される一例を示す図。 第2の実施形態における各モデル(仮想物体としての3次元モデル)の情報を管理するデータの一例を示す図である クリッピング平面の概念を示した図である。 モデルの情報を管理するデータの一例を示す図である。 距離nearに位置する前方クリッピング平面をdist分移動させた場合の視錐台のパラメータを求めるための計算式である。 第3の実施形態の詳細を示す、複数の非表示制御方式を採用した場合の表示制御のフローチャートである。 第3の実施形態における複合現実アプリケーションで制御されたHMD120で表示される映像の一例を示す図である。 体験者がよろめいた際にHMD120で表示される映像の一例である。 本発明における機能ブロック図を示す図である。
〔第1の実施形態〕
以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、本発明におけるシステム構成および、各ハードウェアのハードウェア構成の一例を示す図である。すなわち、撮像装置としてのHMD120で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムの一例を示す図である。
本実施形態は、PC100(情報処理装置)とHMD120が通信可能な構成となっている。HMDは、ヘッドマウントディスプレイで、PC100で現実の映像と3次元(3D)CGモデルを合成した画像を表示する装置である。また、HMD120は現実の映像を撮像する装置である。
図1において、101はCPUで、システムバス104に接続される各デバイスやコントローラを統括的に制御する。また、ROM102あるいは補助記憶装置113には、CPU101の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCで実行する機能を実現するために必要なプログラム等が記憶されている。
103はRAMで、CPU101の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際して必要なプログラム等をROM102あるいは補助記憶装置113からRAM103にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。
また、105は入力コントローラで、キーボード(KB)110やマウス111等のポインティングデバイス等からの入力を制御する。106はビデオコントローラで、ディスプレイ121およびHMD120に内蔵されるディスプレイ121等の表示器への表示を制御する。なおディスプレイ121へは、外部出力端子(例えば、Digital Visual Interface)を用いて出力される。ディスプレイ121は、右目ディスプレイ、左目ディスプレイで構成されている。
ディスプレイ121は体験者が使用するものであり、ディスプレイ121は主にオペレータが使用する液晶ディスプレイである。
107は汎用バスで、HMD120に内蔵されたカメラ122からの映像を取り込むために使用される。カメラ122からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。カメラ122は、右目ビデオカメラ、左目ビデオカメラで構成されている。
なお、本実施形態では。HMD120とPC100を有線で接続する構成としているが、無線通信によって画像の送受信を行ってもよい。
108はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ,ユーザファイル,編集ファイル,各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の補助記憶装置113へのアクセスを制御する。
109はネットワークコントローラで、ネットワーク(例えば、図1に示したネットワーク114)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。
本発明を実現するための後述する各種プログラムは、補助記憶装置113に記録されており、必要に応じてRAM103にロードされることによりCPU101によって実行されるものである。さらに、上記プログラムの実行時に用いられる各種モデルデータ等も、補助記憶装置113に格納されており、これらについての詳細な説明も後述する。
次に、図2を用いて、本発明のおける機能構成図の説明をする。図2は、本発明における機能構成図の一例を示す図である。
位置姿勢計測部201は、体験者がHMD120の現実世界における位置姿勢を計測する。位置姿勢を計測する手法としては、二次元マーカーを現実空間に配置し、マーカーの位置姿勢と大きさに関する情報をあらかじめ位置姿勢計測部201に与えておき、カメラ122に写りこんだ二次元マーカーを認識して、その画像上での大きさや歪みからHMD120の位置姿勢を求める。なお、上記の位置姿勢の求め方以外に、HMD120に磁気や赤外線マーカーを用いた位置姿勢センサーを取り付ける手法、またそれらを複合させて使う手法などがあり、いずれも既知の技術で実現可能である。位置姿勢の計測は、特開2005−83826号公報などに開示されている。すなわち、位置姿勢の特定は実写画像のマーカーを用いずに実現することも可能である。
加速度計測部202は、現実空間におけるHMD120の移動中の加速度を計測し、当該加速度が一定の閾値を超えた際に画面表示制御部203に通知する機能を持つ。加速度を計測する手法としては、位置姿勢計測部から得られたHMD120の三次元位置姿勢の時系列データを2階微分することによって加速度を求めてもよいし、HMD120に直接加速度センサーを取り付け、その値を取得してもよい。
画面表示制御部203は、ディスプレイ121に表示する映像(合成画像)を生成、制御する役割を持つ。
具体的には、カメラ122が撮影した現実空間の画像の描画を実写画像描画部204に依頼する。次に、位置姿勢計測部201からその時点でのHMD120の位置姿勢を受け取り、CG画像描画部205に、当該の位置姿勢から見たCG(モデル画像)の描画を依頼する。次に、実写画像描画部204とCG画像描画部205が描画した画像を重ね合わせて合成する。このとき加速度計測部202から加速度が閾値を超えた通知があるかどうか確認をし、閾値を超えている場合は、CG画像描画部205が描画したCG(モデル画像)を半透明にして重ね合わせを行う。この時の透明度は閾値を超えてからの時間によって変化するよう制御され、CG(モデル画像)がフェードアウトした後半透明な状態が数秒続き、その後不透明な状態にフェードインするという制御をする。これにより、体験者にとって突然CGが消えたという驚きが少ないようにする。この制御の詳細は後述する。
また、キャリブレーション部206を備えている。このキャリブレーション部206は、基準マーカーを用いて、現実空間における仮想空間に対する原点を決定し、現実空間と仮想空間の位置を関連付ける。この原点を基準に、予め3次元モデルの位置、姿勢を記憶させる。これにより、現実空間の実写画像に対して、HMD120から見た方向での仮想物体の仮想画像を合成して、現実空間上に仮想物体が存在するように見せる。この原点および、3次元モデルの位置、姿勢をグラフィックエンジン302に記憶させることによって、実写画像にHMD120から見た仮想物体の仮想画像を合成することが可能となる。このキャリブレーション部206でのキャリブレーションは、システムを起動する初めに行うものとする。
次に、図3を用いて、本発明のおけるアプリケーション構成図の説明をする。図3は、本発明におけるアプリケーション構成図の一例を示す図である。
PC100は、オペレーティングシステム301、グラフィックエンジン302、複合現実感プラットフォーム303(MRプラットフォームともいう)、複合現実感アプリケーション304(MRアプリケーションやビューアアプリケーションともいう)で構成され、CPU101により制御されている。
オペレーティングシステム301は、HMD120の入出力を制御し
カメラ122から入力インターフェースを介して得られた実写画像を複合現実感プラットフォーム303受け渡す。またグラフィックエンジン302で描画された合成画像を出力インターフェースを介して、ディスプレイ121へ出力する。
グラフィックエンジン302は、3次元モデルから描画する画像を生成し、実写画像と合成する。描画に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。
複合現実感プラットフォーム303は、実写画像のマーカーを検出し、マーカーをもとにHMD120の位置・姿勢を特定し、現実空間と仮想空間の位置合わせを行う。なお、位置姿勢や位置合わせの技術は、既知の技術として開示されている、特開2002−32784、特開2006−072903、特開2007−166427を用いて実現するものとするが、なおマーカーを使用せずに、HMD120に位置センサーを備え、この位置センサーを用いて三角測量により計測された位置をもとに、HMD120の位置や姿勢を特定して実現することも可能である。
また複合現実感プラットフォーム303は、マーカーからHMD120の加速度を算出して、3次元モデルの透過率を決定する。なお、加速度の算出については、HMD120に加速度センサーを備えて、マーカーを使用せずに加速度を算出してもよい。
複合現実感アプリケーション304は、複合現実感プラットフォーム303から位置、姿勢、透過率を受け付け、グラフィックエンジン302に対して3次元モデルの描画命令を発行する。この時、OpenGLのAPIを用いて、モデル情報、位置情報、姿勢情報、透過率を設定した命令を発行する。
次に、本実施形態における複合現実感システムの詳細な処理について図4を用いて説明する。図4は、複合現実感システムの詳細な処理のフローチャートである。
ステップS401では、HMD120のカメラ122で、実写画像(映像)を撮像する。
ステップS402では、HMD120のカメラ122で撮像した画像をPC100に送信する。
ステップS403では、HMD120の撮影が終了したか否かを判定して、終了するまで、撮像と画像送信を繰り返す。すなわち、HMD120は撮像するとPC100に画像を繰り返し送信する。
ステップS404では、オペレーティングシステム301を介して複合現実感プラットフォーム303が画像を受信する。
ステップS405では、複合現実感プラットフォーム303では、変数「t」にPC100のシステム時間を代入する。この変数「t」は後述の透明度の制御で用いる。
ステップS406では、複合現実感プラットフォーム303の位置姿勢計測部201によりHMD120の位置・姿勢を計測する。
ステップS407では、複合現実感プラットフォーム303の加速度計測部202により、加速度を計算する。なお、上述したように加速度は加速度センサーにより求められるものであってもよい。
ステップS408では、複合現実感プラットフォーム303が、複合現実感プラットフォーム303で管理している透過率制御のフラグがTrue、すなわち透過率を制御している状態化を判定する。透過率を制御している場合(True)には、ステップS413へ処理を移し、透過率を制御していない場合(False)には、ステップS409へ処理を移す。
ステップS409では、複合現実感プラットフォーム303は、ステップS407で計測された加速度を取得する。すなわち、撮像装置の加速度を取得する加速度取得処理の一例を示すステップである。
ステップS410では、複合現実感プラットフォーム303が管理している加速度の閾値と比較する。加速度が閾値以上であった場合に、ステップS412へ処理を移し、加速度が閾値未満であった場合には、ステップS411へ処理を移す。なお、加速度が閾値以上である場合とは、HMD120を装着している体験者がつまずくなどして人が転倒する可能性がある場合であり、加速度が閾値未満である場合とは、人の通常の動作である場合である。
本実施形態では、加速度の閾値として「60m/s^2」を用いて判定するように構成したが、あくまでも一例でありこれに限ることはない。なお、図7のグラフは、加速度閾値を「60m/s^2」としてあらわしたグラフである。
ステップS411では、複合現実感プラットフォーム303は透過率に「0」を代入する。透過率を「0」とすることは、CG画像を透過させずに実写画像に合成(重畳)することになる。透過率「0」として実写画像と仮想画像を重畳し、ディスプレイ121で表示された例が図5である。図5の説明は後述する。
ステップS412では、加速度が閾値を超えたため、複合現実感プラットフォーム303が、透過率制御のフラグに「True」を設定し、変数「t」にPC100のシステムの現在時刻を設定する。これにより、透過制御が開始される。すなわち、加速度が所定値を超えた場合に、透過設定する処理の一例を示すステップである。
ステップS413では、複合現実感プラットフォーム303が、現在時刻「t」における透過率を計算する。透過率の計算は、図8の計算式を用いて算出する。なお、図8の計算式は、一例を示すものであってこれに限ることはない。また、ここで透過率が「0」になる場合(加速度が閾値を超えた直後、すなわち透過率制御フラグを「True」に設定した後のステップS413の計算の場合)には、透過率に所定の値をプラスして、透過を始めるように制御する。ステップS413は、加速度取得処理で取得された加速度が所定値を超えた場合に、現実空間の画像を体験者に視認させるべく仮想画像の透過値を取得する透過値取得の一例を示すステップである。
また、ステップS413は、透過設定中(透過率制御が「True」)の場合、図8の計算式により、前回の透過値より高い透過値を決定する処理の一例を示すステップである。そして、後述のステップS418にて、前回の透過値より高い透過値を用いて、仮想画像を透過制御する。
図8の計算式を用いた場合の透過率を表すグラフ(透過率の推移を示すグラフ)が図7となる。
ここで、図7について説明する。なお、上述したように、加速度の閾値として「60m/s^2」を用いている。
変数「p」は時刻「t」における透過率を表している。また、変数「t0」はHMD120の加速度が閾値を超えた時刻を表している。また、定数「a」は透過率の立ち上がり、立ち下がりの傾きを表している。「a」の傾きに従って透過率が変化することで、突然CGが消えて、体験者の転倒時の混乱につながらないようにすることが可能となる。
また定数「d」は最大透過率を維持する時間を表している。また、定数「pMax」は最大透過率を表している。なお、CGを完全に消してしまうと体験者に混乱をもたらすので、「pMax」の値は100%未満とし、透過率制御中でもCGが完全には消えないようにすることが望ましい。
なお、「d」の間に再度、HMD120の加速度が閾値を超えた場合には、加速度が閾値を超えた時間から再度「d」の時間分、「pMax」の最大透過率で透過制御するようにしてもよい。また、「a」の立ち下り時に、HMD120の加速度が閾値を超えた場合には、現在の透過率を基準に、「pMax」まで透過率が立ち上がるように制御してもよい。
ステップS414では、複合現実感プラットフォーム303が、透過率が「0」か否かを判断する。透過率が「0」の場合、ステップS415へ処理を移す。すなわち、透過率が「0」になった場合とは、透過が終わった場合である。また透過率が「0」でない場合には、ステップS416へ処理を移す。すなわち、透過率が「0」でない場合とは、透過中の場合である。
ステップS415では、複合現実感プラットフォーム303が、透過率制御フラグを「False」に設定し、透過制御を終了させる。すなわち、透過設定中(透過率制御フラグ「True」)、且つ、透過率(値)が基準値(例えば、「0」)に戻った場合に、仮想画像を透過させないよう透過設定を解除する処理の一例を示すステップである。
ステップS416では、複合現実感プラットフォーム303が、複合現実感アプリケーション304に、位置情報、姿勢情報、透過率を受け渡す。複合現実感アプリケーション304は、位置情報、姿勢情報をもとに、実写画像に合成するモデルを特定する。本実施形態の場合、特定されるモデルは901と902である。位置情報と姿勢情報に従って描画するモデルを特定する技術は、既知の技術であるため説明を省略する。
なお、図9は、各モデル(仮想物体としての3次元モデル)の情報を管理するデータの一例を示す図である。各モデルに対して、3次元モデル名、位置情報、透過フラグを関しておき、描画するモデルを特定する、あるいは透過するモデルか否かを判定するために用いられる。この図9のデータは、復号現実感システムを運用するユーザーが予め記憶させるものとする。
なお、図9のデータは、複合現実感アプリケーション304が参照するデータとしたが、複合現実感プラットフォーム303が参照するようにし、複合現実感プラットフォーム303で描画するモデルを判定するようにすることも可能である。複合現実感プラットフォーム303で実現するか、複合現実感アプリケーション304で実現するかは適宜設計によって変更できてもよい。
ステップS417では、複合現実感アプリケーション304が、描画させるモデルが透過するモデルか否かを透過フラグ903に従って判定する。すなわち、速度が所定値を超えた場合に、HMD120(撮像装置)の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する処理の一例を示すステップである。
透過フラグが「ON」のモデルは、人が転倒し、手をつく場合に影響するモデルであり、透過フラグが「OFF」のモデルは、人が転倒した場合に、影響しないモデルである。この透過するモデルと透過させないモデルを設定しておくことで、より没入感を損ねることなく、複合現実感システム上での転倒を回避させることが可能となる。なお、すべてのモデルに対して透過制御させる構成をとることも可能であることは言うまでもない。
透過フラグが「ON」のモデルの場合には、ステップS418へ処理を移し、透過フラグが「OFF」のモデルの場合には、ステップS419へ処理を移す。
すなわち、ステップS417は、透過させる仮想画像か否かを判定する透過判定処理の一例を示すステップである。
なお、合成するモデルそれぞれに対してフラグを判定し、それぞれのモデルに対して、ステップS419又はステップS420の処理を実行するものとする。
ステップS418では、複合現実感アプリケーション304がグラフィックエンジン302のAPIを用いてモデル情報と、位置情報、姿勢情報、透過率(ステップS413で計算され、取得した透過率)を含む描画命令をグラフィックエンジン302に発行して、グラフィックエンジン302がモデルと透過率から合成する仮想画像を生成する。より詳細には、グラフィックエンジン302が位置情報と姿勢情報に従って、描画命令のあったモデルの仮想空間上での位置姿勢を決定し、この位置姿勢になるようにモデルを制御して、モデルの仮想画像を生成する。この生成される仮想画像に対して、透過率が設定される。
なお、グラフィックエンジン302は、CADアプリケーションで生成された3次元モデルを参照可能なように管理している。3次元モデルは、補助記憶装置113に記憶されているものとするが、別筐体のサーバに管理する構成であってもよい。
ステップS419では、透過させるモデルでないため、複合現実感アプリケーション304がグラフィックエンジン302のAPIを用いてモデル情報と、位置情報、姿勢情報、透過率(0)を含む描画命令をグラフィックエンジン302に発行して、グラフィックエンジン302がモデルと透過率から合成する仮想画像を生成する。
すなわち、ステップS419は、透過判定で透過させない仮想画像である場合には、仮想画像を透過させることなく、ステップS418は、透過判定で透過させる仮想画像と判定された場合に、決定された透過率に従って仮想画像を透過制御する処理の一例を示すステップである。
ステップS420では、複合現実感アプリケーション304が合成する全てのモデルの仮想画像を生成したか否かを判定する。具体的には、複合現実感アプリケーション304が仮想画像を生成するモデルに対して、描画命令をグラフィックエンジン302に発行したか否かを判定する。なお。グラフィックエンジン302は、位置情報、姿勢情報をもとに、合成するモデルを特定して、仮想画像を生成し、実写画像に仮想画像を描画することが可能であるため、グラフィックエンジン302にすべてのモデルの描画命令を発行し、グラフィックエンジン302が仮想画像を生成したか否かを判定するようにしてもよい。
ステップS418とステップS419で生成された仮想画像と実写画像を重畳し、ディスプレイ121で表示された例が図6である。図56説明は後述する。
ステップS421では、複合現実感プラットフォーム303が、複合現実感アプリケーション304に、位置情報、姿勢情報、透過率を受け渡す。複合現実感アプリケーション304は、位置情報、姿勢情報をもとに、実写画像に合成するモデル(CG)を特定する。本実施形態の場合、特定されるモデル(CG)は901と902である。位置情報と姿勢情報に従って描画するモデルを特定する技術は、既知の技術であるため説明を省略する。
ステップS422では、透過させるモデルでないため、複合現実感アプリケーション304がグラフィックエンジン302のAPIを用いてモデル情報と、位置情報、姿勢情報、透過率(0)を含む描画命令をグラフィックエンジン302に発行して、グラフィックエンジン302がモデルと透過率から合成する仮想画像を生成する。より詳細には、位置情報、姿勢情報から、仮想空間におけるモデルの位置と姿勢を制御し、その位置・姿勢を制御したモデルに対して透過率を設定し、仮想空間上の仮想画像を生成する。なお、HMD120の位置、姿勢から、仮想空間上の位置姿勢が特定でき、この位置姿勢から見えるモデルの仮想画像が生成される。
ステップS423では、グラフィックエンジン302は、位置情報、姿勢情報に従って、ステップS404で受信した実写画像と仮想画像を合成(重畳)し、HMD120のカメラ122に表示する合成画像を生成する。すなわち、ステップS423は、透過された仮想画像と、透過されていない仮想画像と、実写画像を合成する描画制御処理の一例を示すステップである。
また、ステップS418とステップS423は、撮像装置の位置と姿勢に従って決定された仮想物体に対する、透過率(値)により透過された仮想画像と現実空間の実写画像を描画制御する描画制御処理の一例を示すステップである。
ステップS424では、グラフィックエンジン302は、オペレーティングシステム301を介して、生成された合成画像をHMD120へ送信する。すなわち、合成された画像を撮像装置としてのHMD120で表示すべく出力する出力処理の一例を示すステップである。
ステップS425では、HMD120は、合成画像をPC100から受信する。
ステップS426では、HMD120のディスプレイ121により、受信した合成画像を表示する。
なお、透過率「0」として仮想画像が生成され、ディスプレイ121で表示された例が図5である。また、加速度が閾値を超え仮想画像が透過制御され、ディスプレイ121で表示された例が図6である。
図5の501のモデルAは、透過率「0」として実写画像に仮想画像を合成して表示しており、502のモデルBは、透過率「0」として実写画像に仮想画像を合成して表示している。
図6の601のモデルAが、透過させるモデル(透過フラグON)であり、ステップS413で計算された透過率に従って生成された仮想画像と実写画像を合成して表示しており、602のモデルBが、透過させないモデル(透過フラグOFF)であり、透過率「0」ディスプレイ121で表示された例が図5である。図5の説明は後述する。
〔第2の実施形態〕
次に、第2の実施形態について説明する。第2の実施形態では、加速度に応じて、近いモデルを非表示にさせる仕組みである。
まず初めに、本実施形態での想定されるケースについて説明する。
複合現実感アプリケーション304において、第1の実施形態のようにCGを透過させることで現実物体を可視化させる手法を用いると、CGの透過処理が視界全体に影響を及ぼしてしまう場合がある。これは、複合現実感において、現実画像と多くの仮想画像を重畳させて表示していることから、体験者から遠いさまざまな仮想物体の画像まで透過表示され、体験している画像が大きく変化することで逆に体験者を混乱させることにつながるためである。
このように、第1の実施形態の透過処理に加え、より危険回避をするためには、視界への影響を最小限にすることが望まれる。
具体的には、体験者の周囲数メートルの現実空間が視認できれば十分であり、その範囲内に存在するCGモデルを非表示にすることが考えられる。
本実施形態では、体験者のHMD120の位置とCGモデルの位置と、加速度により、非表示または透過制御とするCGモデルを決定し、必要なオブジェクトを決定する。
以下、第2の実施形態の詳細について説明する。なお、第1の実施形態と同様の箇所については説明を省略する。
第2の実施形態における複合現実感システムの詳細な処理について図10を用いて説明する。図10は、第2の実施形態における複合現実感システムの詳細な処理のフローチャートである。
ステップS1001では、ステップS416で特定されたモデルの位置が、HMD120と所定距離内かを判定する。具体的には、特定されたモデルの位置情報(空間上の座標)と、HMD120の位置から直線距離を算出し、算出された距離が、図12の透過範囲1204の距離内かを判定する。1201はPC100に保持している設定ファイル等に記述されているものとする。なおHMD120とモデルの距離を算出する計算方法は既知の計算方法であるため、説明を省略する。
ステップS1001で所定距離内のモデルと判定された場合には、ステップS418へ処理を写し、所定距離外のモデルと判定された場合には、ステップS419へ処理を移す。これにより、所定距離内のモデルは、透過表示され、所定距離外のモデルは透過表示されずに、通常表示される。
所定距離内のモデルが透過表示される例を示す図が図11である。この図11を用いて説明すると、加速度が閾値を超える前は、モデルA1001、モデルB1002、モデルC1003が現実画像に重畳表示されている。加速度が閾値を超えた場合には、モデルA1004、モデルB1005、モデルC1006のように重畳表示される。
モデルC1006は、所定距離外のため透過制御されずに表示され、モデルAは所定距離内のため透過制御されて表示されている。モデルB1005は、透過フラグ1200がOFFであるため、透過制御されないで表示される。
なお、上述した所定距離内は、距離以内/未満は何れであってもよいことは言うまでもない。
図12は、第2の実施形態における各モデル(仮想物体としての3次元モデル)の情報を管理するデータの一例を示す図である。
第2の実施形態によれば、近いCGモデルについて透過させ、遠いCGモデル(よろめいた際にユーザーに影響をおよぼさないCGモデル)は通常表示することで、体験中の映像を大きく変化させることなく、体験者のよる危険回避を行わせることが可能となる。
〔第3の実施形態〕
次に、第3の実施形態について説明する。第3の実施形態では、加速度に応じて、近いモデルをクリッピングによって非表示にさせる仕組みである。
第3の実施形態は、第2の実施形態のような仮想物体が小さい場合に加え、仮想物体が大きい場合により効果を奏する仕組みである。
複合現実感アプリケーション304においては、仮想物体として建物や大型の家具、プラントの配管など、体験者の周囲を覆う巨大なオブジェクトを配置するケースが考えられる。これらのオブジェクトは単一のCGデータである場合には、仮想物体全体が透過や非表示となり、視界全体に影響を及ぼしてしまう。
また、例えば、建物のようなモデルの場合、オリジナルのCADデータから複合現実感アプリケーションで表示できるモデル形式に変換する過程で部材の情報が失われ、単一の巨大なオブジェクトとして取り扱われるケースが多い。そのため、体験者の近くの部材だけ非表示にするという制御が困難であるという場合もある。
そこで、第3の実施形態では、モデルの表示状態を制御するための方式としてクリッピング平面の操作による制御を用いて、非表示制御をおこない危険を回避させる仕組みについて説明する。
まず初めに、図13を用いて、クリッピング平面について説明する。
図13は、クリッピング平面の概念を示した図である。具体的には、カメラ122の視線方向と垂直になる2つの平面を定義し、カメラ122から近い方(near)に位置する平面を前方クリッピング平面、遠い方(far)に位置する平面を後方クリッピング平面と呼ぶ。この2つの平面と、画面の四辺(top,bottom,left,right)によって切り取られる平面に囲まれた空間内に位置する物体のみ描画し、その外側に位置する物体は切り取って描画対象から除外して表示する。なお、前述の6つの平面に囲まれた空間を視錐台と呼ぶ。
なお、描画において、OpenGLやDirectXなどのグラフィックエンジンを用いる際には、計算アルゴリズム上の制約から、描画する対象の仮想空間を有限な空間に限定されるものとする。
OpenGLにおいては、視錐体の形状はnear,far,top,bottom,left,rightの6つのパラメータによって決定される。
なお、クリッピング平面の技術については、例えば、「3次元コンピュータ・アニメーションの原理 第2版 P77〜P79(株式会社トッパン/発行・M.オローク/著作)」に記載の技術が用いることで実現可能である。
本実施形態では、このクリッピング平面の技術を用い、よろめいた体験者が危険回避行動をとる間、カメラから前方クリッピング平面の距離を遠ざけることによって、体験者の近くのCGを非表示にする。
図14の計算式は、図13において、距離nearに位置する前方クリッピング平面をdist分移動させた場合の視錐台のパラメータを求めるための計算式の一例である。
ここで体験者がよろめいている状況において急激な風景の変化を緩和するため、ニアクリップ面はアニメーションで段階的に後退し、一定時間経過後はアニメーションで元のクリップ面に戻るようにする。ここで時間によるニアクリップ面の後退率を「p」とすると、視錐台を定義するパラメータは図14の計算式で算出される。
なお、「p」「a」「t」「d」などの変数は、透過するCGモデルが透過されるタイミングでクリッピングによる非表示制御をするため、同様の値を用いるものとするが、「a」「d」などの変数の値は、任意の値を用いることも可能である。
また、「dMax」は、ニアクリッピング平面を移動させる最大距離を表すための変数であり、体験者から見て最大「near+dMax」の距離の範囲を非表示にすることが可能となる。ニアクリッピング平面はファークリッピング平面より後ろに設定することはできないため、dMaxはdMax<far−nearを満たす正の数が任意に設定される。
なお、本実施形態では、nearは通常10cmに設定されており、CGモデルの描画がストップされる位置である。
また、算出されたnear’によりnearが決定されると、それまで表示していたものが非表示(near’の範囲が非表示)になり、現実画像が見えることになる。
図14の計算式は、画角を維持したまま、クリッピング平面を後ろずらすための式である。
図15は、本実施形態におけるモデルの情報を管理するデータの一例を示す図である。第1の実施形態の図9や第2の実施形態の図12の透過フラグに変え、非表示制御方式を定義する構成としている。非表示制御方式1504の属性として、透過、なし、クリッピングが定義可能である。
第1の実施形態または第2の実施形態では、透過フラグ903は非表示にする制御を行う(ON)/行わない(OFF)の二値であったが、本実施形態では非表示の制御方式を第1の実施形態で説明した透過(第1の非表示)に加え、クリッピング(第2の非表示)、透過を行わない(通常表示)の三値をとる。この三値の他に新たに表示制御方式を定義してもよい。
図16は、第3の実施形態の詳細を示す、複数の非表示制御方式を採用した場合の表示制御のフローチャートである。
ステップS1601では、複合現実感プラットフォーム303では、変数「t」にPC100のシステム時間を代入する。この変数「t」は後述の非表示の制御で用いる。なお、ステップS1601は、図4のステップS405に相当する処理である。
ステップS1602では、オペレーティングシステム301を介して複合現実感プラットフォーム303が画像を受信する。図4のステップS404に相当する処理である。
ステップS1603では、複合現実感プラットフォーム303の位置姿勢計測部201によりHMD120の位置・姿勢を計測する。これにより、HMD120の位置・姿勢が決定され、HMD120の位置・姿勢にしたがって、描画するCGモデルが決定される。すなわち、速度が所定値を超えた場合に、HMD120(撮像装置)の位置と姿勢に従って、所定の範囲で非表示となる(透過またはクリッピングする)仮想物体が特定される処理に相当する。図4のステップS406とステップS416に相当する処理である。
ステップS1604では、複合現実感プラットフォーム303の加速度計測部202により、加速度を計算する。なお、加速度は加速度センサーにより求められるものであってもよい。図4のステップS407に相当する処理である。
以下、ステップS1605からS1622まで、登録されている仮想物体の数(図15の3次元モデル分)だけループする。なお、ここでループする仮想物体は、HMD120の位置姿勢から描画する仮想物体に対して行うものとする。
ステップS1606では、複合現実感プラットフォーム303が、複合現実感プラットフォーム303で管理している非表示制御のフラグがTrue、すなわち非表示を制御している状態かを判定する。非表示を制御している場合(True)には、ステップS1610へ処理を移し、非表示を制御していない場合(False)には、ステップS1607へ処理を移す。
ステップS1607では、複合現実感プラットフォーム303が管理している加速度の閾値と比較する。加速度が閾値以上であった場合に、ステップS1609へ処理を移し、加速度が閾値未満であった場合には、ステップS1608へ処理を移す。なお、加速度が閾値以上である場合とは、HMD120を装着している体験者がつまずくなどして人が転倒する可能性がある場合であり、加速度が閾値未満である場合とは、人の通常の動作である場合である。
ステップS1608では、非表示の制御を行わず、仮想物体のCGモデルを通常の状態で描画する。なお、加速度の閾値は、第1の実施形態と第2の実施形態と同様に、「60m/s^2」を用いるように構成するが、あくまでも一例でありこれに限ることはない。
ステップS1609では、非表示制御のフラグに「True」を設定し、変数「t0」にPC100のシステムの現在時刻を設定する。これにより、透過制御が開始される。すなわち、加速度が所定値を超えた場合に、透過設定する処理の一例を示すステップである。
ステップS1610からステップS1614は、透過による非表示を行う処理である。以下、透過により非表示を行う処理について説明するが、第1の実施形態と第2の実施形態の透過制御は同様である。
ステップS1610では、図15を参照し、現在処理の対象としているモデルに対応する非表示制御方式1504に応じて分岐する。本実施形態では、透過方式の場合はステップS1611に、クリッピング方式の場合はステップS1615に、非表示制御をしない通常表示の場合はステップS1621に処理を移す。
ステップS1611では、複合現実感プラットフォーム303が、現在時刻「t」における透過率を計算する。透過率の計算は、図8の計算式を用いて算出する。なお、図8の計算式は、一例を示すものであってこれに限ることはない。また、ここで透過率が「0」になる場合(加速度が閾値を超えた直後、すなわち透過率制御フラグを「True」に設定した後のステップS1611の計算の場合)には、透過率に所定の値をプラスして、透過を始めるように制御する。
ステップS1612では、複合現実感プラットフォーム303が、透過率が「0」か否かを判断する。透過率が「0」の場合、ステップS1613へ処理を移す。すなわち、透過率が「0」になった場合とは、透過が終わった場合である。また透過率が「0」でない場合には、ステップS1614へ処理を移す。すなわち、透過率が「0」でない場合とは、透過中の場合である。
ステップS1613では、複合現実感プラットフォーム303が、透過率制御フラグを「False」に設定し、透過制御を終了させる。すなわち、透過設定中(透過率制御フラグ「True」)、且つ、透過率(値)が基準値(例えば、「0」)に戻った場合に、仮想画像を透過させないよう透過設定を解除する処理の一例を示すステップである。
ステップS1614では、ステップS1611で算出した透過率を反映させて仮想物体のCGモデルを描画する。CGモデルを透過させて描画する処理は、複合現実感アプリケーション304がグラフィックエンジンに描画命令を発行することにより制御する。
ステップS1615からステップS1620は、クリッピングにより非表示を行う処理である。
ステップS1615では、複合現実感プラットフォーム303における、図13に示した視錐体の情報(near,far,top,bottom,left,right)を一時領域(例えば、RAM)に退避する。これはクリッピング平面変更の影響を現在処理中のモデルに限定するためのものである。
ステップS1616では、図14の計算式に基づいて前方クリッピング平面までの距離(near’)を求める。
ステップS1617では、複合現実感プラットフォーム303が、図14の計算方法における「p」が「0」か否かを判断する。pが「0」の場合、ステップS1618へ処理を移す。すなわち、pが「0」になった場合とは、クリッピングによる非表示制御が終わった場合である。またpが「0」でない場合には、ステップS1614へ処理を移す。すなわち、pが「0」でない場合とは、クリッピングによる非表示制御中の場合である。
ステップS1618では、複合現実感プラットフォーム303が、非表示制御フラグを「False」に設定し、非表示制御を終了させる。すなわち、クリッピング設定中(非表示制御フラグ「True」)、且つ、pが基準値(例えば、「0」)に戻った場合に、仮想画像をクリッピングさせないようクリッピング平面を通常の状態に戻す処理の一例を示すステップである。
ステップS1619では、ステップS1616で求めた視錐体の情報(near’,far’,top’,bottom’,left’,right’)を反映させて仮想物体のCGモデルを描画する。この描画は、グラフィックエンジン302へ描画命令を出力することで実現する。
ステップS1620では、ステップS1615で退避した視錐体の情報を複合現実感プラットフォーム303に反映させ、元の視錐体を復元する。これにより、次のモデルは通常のクリッピング平面で表示される。
ステップS1621は、透過、クリッピングなどの非表示処理を行わず、通常通りにCGを描画する処理である。これにより遠方や高所にある仮想物体で、体験者がよろめいた際に手や足をつく可能性のない場所にあるモデルは非表示処理を行わないこととなる。
ステップS1623では、これまで描画してきた仮想物体をグラフィックエンジン302を介してディスプレイ121に表示する。
図17は、第3の実施形態における複合現実アプリケーションで制御されたHMD120で表示される映像の一例を示す図である。現実空間の部屋1701の中に、仮想物体のティーポット1501、窓1502、長机1503が配置されている。これは、体験者がよろめいていない状態(加速度が所定値未満/以下)の場合の通常の表示状態である。
図18は、複合現実アプリケーションにおいて体験者がよろめいた際にHMD120で表示される映像の一例である。前述の図16のフローチャートで説明したように、ティーポット1501は透過表示され(ステップS1614)、長机1503は前方クリッピング平面1801によって断面を切り取られて表示され(ステップS1619)、窓1502は影響を受けずに通常通りに表示される(ステップS1621)。
第3の実施形態によれば、CGモデルの近い位置について非表示にすることで体験中の映像を大きく変化させることなく、体験者のよる危険回避を行わせることが可能となる。
また、CGモデルごとに非表示制御方式を定義することで、モデルごとに透過させたり、クリッピングによる一部分の非表示にさせたりでき、モデルにあった危険回避時の描画制御を容易にさせることが可能となる。
第1の実施形態〜第3の実施形態に基づくと、本発明における非表示処理は、透過表示および非表示を含む処理である。
また、第1の実施形態〜第3の実施形態では、体験者がよろめいた場合を想定して説明したが、体験者が走った場合にも適用可能である。例えば、所定時間内に所定の範囲以上の距離を移動した場合に(所定の移動速度になった場合に)、非表示制御させる。すなわち、加速度は、移動速度を含むものである。
HMD120を装着して走ることは危険行動につながるため、近くのCGモデルを非表示(透過含む)することで、危険回避ができるように表示を制御することは、回避行動を行う際に効果がある。
次に、第1の実施形態〜第3の実施形態に対応する本発明における機能ブロック図について、図19を用いて説明する。
速度取得部1901は、撮像装置が移動したことによる速度を取得する機能部である。
特定部1902は、速度が所定値を超えた場合に、前記撮像装置の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する機能部である。
描画制御部1903は、特定部1902により特定された仮想物体に対する仮想画像が非表示とし、前記現実空間の画像を体験者に視認させるように、撮像装置の位置と姿勢に応じて決定される仮想物体の仮想画像と前記現実空間の実写画像を用いて描画制御する機能部である。また、描画制御の非表示処理は、透過処理である。
また、描画制御部1903は、速度取得部1901で取得した速度に応じて決定された透過値に従って仮想画像を透過させる機能部である。
また、描画制御部1903は、判定部1904で透過させない仮想物体である場合には、仮想物体に対応する仮想画像を透過させることなく、判定部1904で透過させる仮想物体と判定された場合に、透過値に従って仮想物体に対応する仮想画像を透過制御する機能部である。
また、描画制御部1903は、透過設定部1905で透過設定されている場合、
前回の透過値より高い透過値を用いて、仮想画像を透過制御する機能部である。
また、描画制御部1903は、透過された仮想画像と、透過されていない仮想画像と、実写画像を合成する機能部である。
また、描画制御部1903は、クリッピング平面決定部1906により決定されたクリッピング平面にしたがって、非表示とする仮想物体を描画制御する機能部である。
また、描画制御部1903は、判定部1904により、クリッピングにより非表示する仮想物体と判定された場合に、所定の範囲後退させたクリッピング平面を用いて、仮想画像を描画制御する機能部である。
判定部1904は、描画制御部1903で透過させる仮想物体か否かを判定する機能部である。
また、判定部1904は、クリッピングにより非表示する仮想物体か否かを判定する機能部である。
透過設定部1905は、速度取得部1901で取得された速度が所定値を超えた場合に、透過設定する機能部である。また、透過設定中、且つ、透過値が基準値に戻った場合に、仮想画像を透過させないよう透過設定を解除する。
クリッピング平面決定部1906は、所定の範囲後退させたクリッピング平面を決定する機能部である。
出力部1907は、描画制御部1903で合成された画像を撮像装置で表示すべく出力する機能部である。
以上、本実施形態によれば、体験者がよろめいた場合などの緊急時に、実写画像を視認させることで体験者が迅速な回避行動をとれる。また、表示するモデルデータに特別な加工を施す必要がなく、非表示制御の仕組みを容易に導入することができる。
特に、複合現実感システムでは、HMDを利用し、実写画像に小さな仮想物体だけでなく、実写画像の大部分を仮想画像で合成してHMDで表示するため、現実の状態と仮想の状態の区別が困難である。よって、体験者がふらつき、よろめいて転倒を回避する際に、とっさに仮想物体に対して手をつくことがある。そのため、仮想物体の画像のみを透過/非表示させ、より現実を認識させることで、体験者の回避行動が容易になる。なお、手をつくタイミングで非表示にしても遅く、加速度が所定値になった際に迅速に非表示にすることが必要であり、加速度を取得して、所定値以上になった場合に、近くのCGモデルを非表示にすることは技術的な意義を有するものである。
また、複合現実感システムは、実写画像と仮想画像を合成し、体験者に実際の場所で仮想物体が現実にあるように見せることから、仮想画像を急に消すと見ていた状態が大きく変化してしまうため、転倒時などには特に体験者に混乱をきたす。よって加速度が所定値を超えた場合に、一定の速度で仮想画像を透過することで体験者の混乱を避けつつ、体験者の転倒回避行動を迅速にとらせることが可能となる。
なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。
以上、一実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明におけるプログラムは、図4、図10、図16に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図4、図10、図16の処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは図4、図10、図16の各装置の処理方法ごとのプログラムであってもよい。
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
100 PC
120 HMD
121 ディスプレイ
122 カメラ
201 位置姿勢計測部
202 加速度計測部
203 画面表示制御部
204 実写画像描画部
205 CG画像描画部
206 キャリブレーション部

Claims (16)

  1. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、
    撮像装置よる速度を取得する速度取得手段と、
    前記速度取得手段で取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、透過制御する仮想物体を特定する特定手段と、
    前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定手段により特定された仮想物体を透過制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段と
    を備えることを特徴とする情報処理システム。
  2. 前記描画制御は、前記速度取得手段で取得した速度に応じて決定された透過値に従って前記仮想物体に対応する仮想画像を透過させることを特徴とする請求項1に記載の情報処理システム。
  3. 前記描画制御手段で透過させる仮想物体か否かを判定する判定手段を更に備え
    前記描画制御手段は、前記判定手段で透過させない仮想物体である場合には、仮想物体に対応する仮想画像を透過させることなく、前記判定手段で透過させる仮想物体と判定された場合に、仮想物体に対応する仮想画像を透過制御することを特徴とする請求項1又は2に記載の情報処理システム。
  4. 前記速度取得手段で取得された速度が所定値を超えた場合に、透過設定する透過設定手段を更に備え、
    前記透過設定手段で透過設定されている場合、前記描画制御手段は、前回の透過値より高い透過値を用いて、前記仮想画像を透過制御することを特徴とする請求項2又は3に記載の情報処理システム。
  5. 前記透過設定手段は、前記透過設定がされ、且つ、前記透過値が基準値に戻った場合に、前記仮想画像を透過させないよう透過設定を解除することを特徴とする請求項4に記載の情報処理システム。
  6. 前記描画制御手段は、透過された仮想画像と、透過されていない仮想画像と、実写画像を合成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。
  7. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、
    撮像装置よる速度を取得する速度取得手段と、
    前記速度取得手段で取得された速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、非表示制御する仮想物体を特定する特定手段と、
    前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定手段により特定された仮想物体を非表示制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段と
    を備えることを特徴とする情報処理システム。
  8. 前記描画制御手段で非表示または非表示させる仮想物体か否かを判定する判定手段を更に備え
    前記描画制御手段は、前記判定手段で非表示させない仮想物体である場合には、仮想物体に対応する仮想画像を非表示させることなく、前記判定手段で非表示させる仮想物体と判定された場合に、仮想物体に対応する仮想画像を非表示制御することを特徴とする請求項7に記載の情報処理システム。
  9. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、
    クリッピング平面の値を記憶する記憶手段と、
    前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段と、
    撮像装置よる速度を取得する速度取得手段と、
    前記速度取得手段で取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記記憶手段に記憶されているクリッピング平面の値を所定の範囲後退させたクリッピング平面の値に変更する変更手段と
    を備え、
    前記描画制御手段は、前記変更手段により体験者の急な動きによる危険な動作である場合に変更されたクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御することを特徴とする情報処理システム。
  10. 前記描画制御手段で合成された画像を前記撮像装置で表示すべく出力する出力手段を更に備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理システム。
  11. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムの処理方法であって、
    撮像装置よる速度を取得する速度取得ステップと、
    前記速度取得ステップで取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、透過制御する仮想物体を特定する特定ステップと、
    前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定ステップにより特定された仮想物体を透過制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御ステップとを含むことを特徴とする処理方法。
  12. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムの処理方法であって、
    撮像装置よる速度を取得する速度取得ステップと、
    前記速度取得ステップで取得された速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、非表示制御する仮想物体を特定する特定ステップと、
    前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定ステップにより特定された仮想物体を非表示制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得ステップで取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御ステップと
    を含むことを特徴とする処理方法。
  13. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成するクリッピング平面の値を記憶する記憶手段を備える情報処理システムの処理方法であって、
    前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御ステップと、
    撮像装置よる速度を取得する速度取得ステップと、
    前記速度取得ステップで取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記記憶手段に記憶されているクリッピング平面の値を所定の範囲後退させたクリッピング平面の値に変更する変更ステップと
    を含み、
    前記描画制御ステップは、前記変更ステップにより体験者の急な動きによる危険な動作である場合に変更されたクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得ステップで取得した加速度が所定値を超えない安全な動作である場合には、前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御することを特徴とする処理方法。
  14. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムのプログラムであって、
    前記情報処理システムを、
    撮像装置よる速度を取得する速度取得手段と、
    前記速度取得手段で取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、透過制御する仮想物体を特定する特定手段と、
    前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定手段により特定された仮想物体を透過制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段
    として機能させることを特徴とするプログラム。
  15. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムのプログラムであって、
    前記情報処理システムを、
    撮像装置よる速度を取得する速度取得手段と、
    前記速度取得手段で取得された速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示される仮想物体であって、非表示制御する仮想物体を特定する特定手段と、
    前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記特定手段により特定された仮想物体を非表示制御し、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段
    として機能させることを特徴とするプログラム。
  16. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムのプログラムであって、
    前記情報処理システムを、
    クリッピング平面の値を記憶する記憶手段と、
    前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御する描画制御手段と、
    撮像装置よる速度を取得する速度取得手段と、
    前記速度取得手段で取得した速度が所定値を超えた体験者の急な動きによる危険な動作である場合に、前記現実空間の画像を前記撮像装置の体験者に視認させるように、前記記憶手段に記憶されているクリッピング平面の値を所定の範囲後退させたクリッピング平面の値に変更する変更手段
    として機能させ、
    前記描画制御手段は、前記変更手段により体験者の急な動きによる危険な動作である場合に変更されたクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御し、前記加速度取得手段で取得した加速度が所定値を超えない安全な動作である場合には、前記記憶手段に記憶されているクリッピング平面の値に基づき、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて合成した合成画像の描画を制御することを特徴とするプログラム。
JP2014155945A 2013-08-29 2014-07-31 情報処理システムとその処理方法及びプログラム Active JP5888372B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014155945A JP5888372B2 (ja) 2013-08-29 2014-07-31 情報処理システムとその処理方法及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013178714 2013-08-29
JP2013178714 2013-08-29
JP2014155945A JP5888372B2 (ja) 2013-08-29 2014-07-31 情報処理システムとその処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016028452A Division JP6119889B2 (ja) 2013-08-29 2016-02-18 情報処理システムとその処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015064868A JP2015064868A (ja) 2015-04-09
JP5888372B2 true JP5888372B2 (ja) 2016-03-22

Family

ID=52832663

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014155945A Active JP5888372B2 (ja) 2013-08-29 2014-07-31 情報処理システムとその処理方法及びプログラム
JP2016028452A Active JP6119889B2 (ja) 2013-08-29 2016-02-18 情報処理システムとその処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016028452A Active JP6119889B2 (ja) 2013-08-29 2016-02-18 情報処理システムとその処理方法及びプログラム

Country Status (1)

Country Link
JP (2) JP5888372B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611501B2 (ja) * 2015-07-17 2019-11-27 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
WO2017022769A1 (ja) 2015-08-04 2017-02-09 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、表示制御方法及びプログラム
US10139902B2 (en) 2015-09-16 2018-11-27 Colopl, Inc. Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
JP5869177B1 (ja) * 2015-09-16 2016-02-24 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
US20180364488A1 (en) * 2015-12-28 2018-12-20 Sony Corporation Display device
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
JP2018005676A (ja) * 2016-07-05 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6689694B2 (ja) 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6719308B2 (ja) * 2016-07-13 2020-07-08 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
DE102016119640A1 (de) * 2016-10-14 2018-04-19 Uniqfeed Ag System zur Erzeugung angereicherter Bilder
JP6524124B2 (ja) * 2017-02-03 2019-06-05 Kddi株式会社 コンピュータプログラム、端末および方法
WO2018173159A1 (ja) * 2017-03-22 2018-09-27 マクセル株式会社 映像表示装置
JP6503407B2 (ja) * 2017-04-28 2019-04-17 株式会社スクウェア・エニックス コンテンツ表示プログラム、コンピュータ装置、コンテンツ表示方法、及びコンテンツ表示システム
JP6559870B1 (ja) * 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09211382A (ja) * 1996-02-07 1997-08-15 Canon Inc 光学装置
JP2003337963A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
JP4724476B2 (ja) * 2004-09-07 2011-07-13 キヤノン株式会社 情報処理方法及び装置
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
JP2009169622A (ja) * 2008-01-15 2009-07-30 Canon Inc 画像処理装置、画像処理方法
JP5512378B2 (ja) * 2010-04-28 2014-06-04 株式会社Nttドコモ オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP5704313B2 (ja) * 2010-11-16 2015-04-22 セイコーエプソン株式会社 映像表示装置及び映像表示方法
JP2012164157A (ja) * 2011-02-07 2012-08-30 Toyota Motor Corp 画像合成装置
JP2012194501A (ja) * 2011-03-18 2012-10-11 Brother Ind Ltd ヘッドマウントディスプレイ及び虚像提示方法

Also Published As

Publication number Publication date
JP2016139416A (ja) 2016-08-04
JP6119889B2 (ja) 2017-04-26
JP2015064868A (ja) 2015-04-09

Similar Documents

Publication Publication Date Title
JP6119889B2 (ja) 情報処理システムとその処理方法及びプログラム
JP6246914B2 (ja) 未知の対象物に対する拡張現実コンテンツの生成
EP3855288B1 (en) Spatial relationships for integration of visual images of physical environment into virtual reality
EP3437075B1 (en) Virtual object manipulation within physical environment
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US10055888B2 (en) Producing and consuming metadata within multi-dimensional data
US10373392B2 (en) Transitioning views of a virtual model
US9639987B2 (en) Devices, systems, and methods for generating proxy models for an enhanced scene
US8878846B1 (en) Superimposing virtual views of 3D objects with live images
KR101227255B1 (ko) 마커 크기 기반 인터렉션 방법 및 이를 구현하기 위한 증강 현실 시스템
JP2020024752A (ja) 情報処理装置及びその制御方法、プログラム
US11189057B2 (en) Provision of virtual reality content
CN106980378B (zh) 虚拟显示方法和系统
KR20110104676A (ko) 복수의 마커를 이용하여 가상 객체간 인터렉션을 구현하는 증강현실 시스템 및 방법
US20220172439A1 (en) Head-mounted information processing apparatus and head-mounted display system
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6011567B2 (ja) 情報処理装置、その制御方法、及びプログラム
JP2017084215A (ja) 情報処理システム、その制御方法、及びプログラム
JP2020074108A (ja) 情報処理システム、その制御方法、及びプログラム
JP2006277618A (ja) 画像生成装置及び方法
JP6638326B2 (ja) 情報処理システム、その制御方法、及びプログラム
JP6473872B2 (ja) 映像構築装置、擬似視覚体験システム、および映像構築プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R150 Certificate of patent or registration of utility model

Ref document number: 5888372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250