JP4909176B2 - 複合現実感提示装置及びその制御方法、コンピュータプログラム - Google Patents

複合現実感提示装置及びその制御方法、コンピュータプログラム Download PDF

Info

Publication number
JP4909176B2
JP4909176B2 JP2007137014A JP2007137014A JP4909176B2 JP 4909176 B2 JP4909176 B2 JP 4909176B2 JP 2007137014 A JP2007137014 A JP 2007137014A JP 2007137014 A JP2007137014 A JP 2007137014A JP 4909176 B2 JP4909176 B2 JP 4909176B2
Authority
JP
Japan
Prior art keywords
space image
real space
image
virtual space
orientation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007137014A
Other languages
English (en)
Other versions
JP2008293209A (ja
JP2008293209A5 (ja
Inventor
憲司 守田
朋彦 下山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007137014A priority Critical patent/JP4909176B2/ja
Priority to US12/114,007 priority patent/US20080291219A1/en
Priority to KR1020080048193A priority patent/KR100958511B1/ko
Priority to EP08156848.7A priority patent/EP1995694A3/en
Priority to CN2008100983159A priority patent/CN101311893B/zh
Publication of JP2008293209A publication Critical patent/JP2008293209A/ja
Publication of JP2008293209A5 publication Critical patent/JP2008293209A5/ja
Application granted granted Critical
Publication of JP4909176B2 publication Critical patent/JP4909176B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置及びその制御方法、コンピュータプログラムに関するものである。
複合現実感システムでは、操作者の視点位置と視線方向及び空間中にある物体の位置を計測する必要がある。
位置姿勢の計測システムとしては、米国Polhemus社製のFASTRAK(商品名)に代表されるような位置姿勢計測装置を使うのが一般的な手法の一つである。また、ジャイロ等の計測機器で姿勢のみを計測し、位置情報及び姿勢のドリフト誤差を画像から計測する方法も取られている。
ここで、例えば、特許文献1に示されるような、一般的な複合現実感提示装置のハードウェアの構成、及び一般的な複合現実感提示装置の処理のフローについて、図1及び図2を用いて説明する。
本例では、現実空間物体111の現実空間画像に仮想空間画像110(仮想空間物体の画像)を重畳表示することにより、現実空間物体111に仮想空間画像110で示される仮想物体があたかもそこに存在するかのように表示することができる。このような機能は、デザインの検証やエンターテイメントに応用することが可能である。
ステップS201で、HMD(ヘッドマウントディスプレイ)101に内蔵された撮像部102から、PC(パーソナルコンピュータ)103が現実空間画像を取得する。
次に、ステップS202で、HMD101に固定されたHMD計測センサ105の位置姿勢の計測値、及び現実空間物体111に固定された現実空間物体計測センサ106の位置姿勢を計測する。これらの計測した計測値は、位置姿勢計測部104で収集され、位置姿勢情報として、シリアル通信等の通信部でPC103が取り込む。
ステップS203で、現実空間物体111の現実空間画像を、PC103は、PC103内のメモリ上に描画する。
ステップS204で、ステップS202で取得した撮像部102の位置姿勢の計測値及び現実空間物体111の位置姿勢の計測値に応じた仮想空間画像を、現実空間画像に重畳するように、PC103のメモリ上に描画する。これにより、メモリ上には、現実空間画像と仮想空間画像の合成画像である複合現実感画像が生成される。
ステップS205で、PC103のメモリ上に描画された合成画像(複合現実感画像)を、PC103がHMD101に送信することで、合成画像(複合現実感画像)をHMD101上で表示する。
以上、ステップS201からステップS205が1フレーム分の処理である。そして、ステップS206で、PC103はから観察者の操作に基づく処理の終了通知があるか否かを判定する。終了通知がない場合(ステップS206でNO)、ステップS201に戻る。一方、終了通知がある場合(ステップS206でYES)、処理を終了する。
次に、上記の処理によって得られる合成画像の一例について、図3を用いて説明する。
図3において、画像501から画像505は、撮像部102から得られる現実空間画像を時系列に並べたものである。画像511〜画像514は、現実空間画像と仮想空間画像の合成処理の様子を時系列に並べたものである。
この例では、ステップS201で取得した現実空間画像は、画像501であるとする。その後、ステップS202及びステップS203の処理を行う間にも、時間は経過し、現実空間画像は、画像501から画像502の状態になっている。
ステップS204で現実空間画像に2つの仮想空間画像を順次重畳して描画した例が、画像513及び画像514となる。
最終的に得られる画像(合成画像)514は、ステップS205で出力されるが、この時には、既に現実空間画像の状態は、画像504もしくは、画像505の状態となっている。
特開2005−107968号公報
上述のような一般的な複合現実感提示装置の構成では、ステップ201で取得した現実空間画像が、HMD101で表示されるまでには多くのステップが存在する。特に、ステップS204の仮想空間画像の重畳描画では、高画質なCG画像によってその描画を実現するために、時間がかかる場合が多い。
そのため、HMD101で表示されるときには、図3で示したように、実際に観察者に提示される合成画像中の現実空間画像が、その時点の現実空間画像に対して時間的に遅れたものになっており、観察者に違和感を生じさせる原因となっていた。
本発明は上記の課題を解決するためになされたものであり、より観察者に違和感を感じさせない複合現実感画像を提示することができる複合現実感提示装置及びその制御方法、コンピュータプログラムを提供することを目的とする。
上記の目的を達成するための本発明による複合現実感提示装置は以下の構成を備える。即ち、
現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置であって、
観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得手段と
前記位置姿勢情報取得手段で取得した位置姿勢情報に基づいて、仮想空間画像を生成して、メモリ上に描画する描画手段と、
前記仮想空間画像を生成した後に撮像された、前記現実空間物体の現実空間画像を取得する取得手段と、
前記取得手段で取得した現実空間画像を、前記仮想空間画像が描画されている前記メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する合成手段と、
前記合成手段によって得られる合成画像を出力する出力手段と
を備える。
また、好ましくは、前記仮想空間画像の奥行き情報を記憶する奥行きバッファを更に備え、
前記合成手段は、前記奥行きバッファに記憶されている奥行き情報を利用して、前記メモリ上の前記仮想空間画像が描画されていない部分に前記現実空間画像を描画することで、該現実空間画像と該仮想空間画像とを合成する。
また、好ましくは、前記仮想空間画像への画像の上書きの可否を制御するための制御情報を記憶するステンシルバッファを更に備え、
前記合成手段は、前記ステンシルバッファに記憶されている制御情報を利用して、前記メモリ上の前記仮想空間画像が前記現実空間画像で上書きされないように該メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する。
また、好ましくは、前記合成手段は、前記現実空間画像と前記仮想空間画像とをアルファブレンド合成する。
また、好ましくは、前記描画手段による前記仮想空間画像の描画に利用する位置姿勢情報を、前記位置姿勢情報取得手段で取得した位置姿勢情報に基づいて予測する予測手段を更に備える。
上記の目的を達成するための本発明による複合現実感提示装置の制御方法は以下の構成を備える。即ち、
現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置の制御方法であって、
位置姿勢情報取得手段が、観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得工程と
描画手段が、前記位置姿勢情報取得工程で取得した位置姿勢情報に基づいて、仮想空間画像を生成して、メモリ上に描画する描画工程と、
取得手段が、前記仮想空間画像を生成した後に撮像された、前記現実空間物体の現実空間画像を取得する取得工程と、
合成手段が、前記取得工程で取得した現実空間画像を、前記仮想空間画像が描画されている前記メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する合成工程と、
出力手段が、前記合成工程によって得られる合成画像を出力する出力工程と
を備える。
上記の目的を達成するための本発明によるコンピュータプログラムは以下の構成を備える。即ち、
現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置の制御をコンピュータに実行させるためのコンピュータプログラムであって、
観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得工程と
前記位置姿勢情報取得工程で取得した位置姿勢情報に基づいて、仮想空間画像を生成して、メモリ上に描画する描画工程と、
前記仮想空間画像を生成した後に撮像された、前記現実空間物体の現実空間画像を取得する取得工程と、
前記取得工程で取得した現実空間画像を、前記仮想空間画像が描画されている前記メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する合成工程と、
前記合成工程によって得られる合成画像を出力する出力工程と
をコンピュータに実行させる。
本発明によれば、より観察者に違和感を感じさせない複合現実感画像を提示することができる複合現実感提示装置及びその制御方法、コンピュータプログラムを提供できる。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
実施形態1においては、予め前処理として、現実空間画像を取得した撮像部(カメラ)の内部パラメータを取得しておき、画像調整処理を一切を行わない場合に現実空間画像と仮想空間画像の幾何学的整合がとれていることを前提として説明する。
正確な現実空間画像と仮想空間画像の幾何学的整合のためには、アスペクト比や歪みパラメータも算出して、現実空間画像の調整の処理中で同時に処理する必要がある。しかしながら、本願発明には、この点については、本質的のものではないので、歪みやアスペクト比の誤差に関しては説明を省略する。
以下は、撮像部(カメラ)の内部パラメータの校正や、位置姿勢計測部の校正が完了していることを前提として、本発明に特徴的な画像合成部分に関して説明する。
本発明を実現するための複合現実感提示装置の基本的な構成は、図1に示す構成と同様であるが、その内部処理が異なるものである。
実施形態1の位置姿勢計測システムとしては、米国Polhemus社製のFASTRAK(商品名)に代表されるような位置姿勢計測装置を使用することが可能である。但し、ジャイロ等の計測機器で、姿勢のみを計測し、位置情報及び、姿勢のドリフト誤差を撮影画像から計測する方法でも実施可能である。
次に、実施形態1の複合現実感提示装置による画像合成に関して、図1、図4及び図5を用いて説明する。ここで、図4は本発明の実施形態1の複合現実感提示装置として機能するPCのハードウェア構成を示す図である。また、図5は本発明の実施形態1の複合現実感提示装置が実行する処理を示すフローチャートである。
尚、図5に示すフローチャートは、例えば、図4の複合現実感提示装置のCPU301が、メインメモリに記憶されている制御プログラムを実行することで実現される。
まず、ステップS401で、CPU301は、HMD101に固定されたHMD計測センサ105の位置姿勢の計測値、及び現実空間物体111に固定された現実空間物体計測センサ106の位置姿勢の計測値から位置姿勢情報を取得する。即ち、各センサで計測された計測値(位置姿勢情報)は、位置姿勢計測部104で収集され、得られる2種類の位置姿勢情報から、観察者の視点と、現実空間中に配した現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を算出する。そして、位置姿勢計測部104は、シリアル通信等の通信部でPC103に算出した結果を送信する。
これにより、PC103内部では、通信デバイス307を通じて、メインメモリ302に計測データが送られ、蓄積される。このように、PC103は、位置姿勢計測部104から、観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得部として機能する。
次に、ステップS402で、CPU301は、既に取得している位置姿勢情報に基づいて、所定座標系に従う仮想空間画像をメインメモリ302に描画する。通常は、背景となる現実空間画像の上に、仮想空間画像を重畳することで画像合成を行うが、本発明では、仮想空間画像の描画を先に行う。
尚、アプリケーションの形態によっては、高精細で高画質な仮想空間画像を描画する必要がある。そして、その場合には、描画においては、ビデオレートにして数フレーム以上の時間を要する場合がある。また、所定座標系とは、現実空間画像と仮想空間画像とを共通の座標系で表示するための3次元座標系であり、その座標系を規定するための起点となる原点は適宜設定することが可能である。
本発明では、仮想空間画像を先に描画することにより、合成に利用する現実空間画像に関して、仮想空間画像を描画している間に、合成対象として意図する時点の現実空間画像が、その時点よりも後の現実空間画像に変わってしまうことを防ぐことができる。
この時、PC103内では、CPU301がメインメモリ302に蓄積されている仮想空間画像を利用して、グラフィックスアクセラレータ303は、その仮想空間画像をフレームメモリ304に描画する。その際、グラフィックスアクセラレータ303は、奥行きバッファ308の仮想空間画像の奥行き情報も同時に更新する。
ここで、ステップS402の描画に2フレーム程度時間がかかる場合、図6の仮想空間画像613、614では、現実空間画像の状態が、画像601から画像604のような状態まで進んでしまっていることを示している。ここで、合成対象となる仮想空間画像の状態は、画像611〜614となっている。
ステップS403で、HMD101に内蔵された撮像部102からPC103に現実空間画像を取得する。このとき、PC103内部では、HMD101から受信する現実空間画像が、画像入力デバイス306によって所定の形式に変換され、メインメモリ302に蓄積される。図6の場合では、画像605を取得することになる。
ステップS404で、CPU301は、取得した現実空間画像をメインメモリ302に描画する。PC103内部では、メインメモリ302上の現実空間画像は、CPU301によって、フレームメモリ304に描画する。この時、CPU301は、グラフィックスアクセラレータ303を制御することで、奥行きバッファ308の奥行き情報を利用し、フレームメモリ304上で仮想空間画像が描画されていない部分のみに現実空間画像を重畳描画する。この場合、図6の画像615を得ることが可能である。これにより、仮想空間画像に現実空間画像が上書きされないようにすることができる。
尚、仮想空間画像に現実空間画像が上書きされないようにする方法としては、仮想空間画像への画像の上書きの可否を制御するための制御情報を記憶するステンシルバッファ309を利用して、上書き可能、禁止を制御することも可能である。
ステップS405で、CPU301は、ステップS404で生成した合成画像を、画像出力デバイス305によってHMD101に出力する。
以上の処理によって、観察者は、HMD101に表示される画像を見て、あたかも現実空間に仮想物体が存在しているかのような画像を観察することができる。また、本処理によって、観察者が意図する時点の現実空間画像と、表示される現実空間画像との時間的な遅れ(差)は非常に少ないものとなる。
以上、ステップS401からステップS405が1フレーム分の処理である。そして、ステップS406で、CPU301は観察者の指示に基づく処理の終了通知があるか否かを判定する。終了通知がない場合(ステップS406でNO)、ステップS401に戻る。一方、終了通知がある場合(ステップS406でYES)、処理を終了する。
以上説明したように、実施形態1によれば、仮想空間画像を描画した後に、ユーザが意図する合成対象の現実空間画像を取得して、それを仮想空間画像に重畳描画して合成画像を生成する。これにより、画像処理に伴う画像出力時間の遅延に起因する、現実空間画像の内容の違いを極力軽減して、よりユーザが意図する時点の現実空間画像の内容を有する合成画像を提示することができる。
<実施形態2>
実施形態2は、実施形態1の応用例を説明する。複合現実感提示装置においては、出力画像を半透明表示にすることが、観察者の視認性を向上させるために有効である場合が多い。そこで、実施形態2では、この半透明表示を実現する場合の構成について説明する。
尚、実施形態2の複合現実感提示装置の構成は、実施形態1の複合現実感提示装置で実現可能なため、その詳細については省略する。
次に、実施形態2の複合現実感提示装置による画像合成に関して、図7を用いて説明する。
図7は本発明の実施形態2の複合現実感提示装置が実行する処理を示すフローチャートである。
尚、図7において、実施形態1の図5と同一の処理については、同一のステップ番号を付加し、その詳細については省略する。
図7では、ステップS403の処理後、ステップS704で、CPU301は、グラフィックスアクセラレータ303を制御することで、現実空間画像をアルファブレンド合成する。
ここで、具体的な処理例を図8に示す。
図8は本発明の実施形態2の画像合成の具体例を説明するための図である。
尚、図8において、実施形態1の図6と共通の画像については、同一の参照番号を付加している。
図8では、仮想空間画像813及び仮想空間画像814は、黒を背景の描画を行っている。そして、仮想空間画像814に対して、現実空間画像である画像605を、加算等のアルファブレンディング処理を用いて合成することにより、半透明効果を出すことが可能になる。その結果、半透明処理された合成画像815を得ることができる。
尚、合成画像815は、模式的に白黒で表現しているが、実際には半透明の合成を行うことが可能になる。
以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、用途に応じて、出力画像を半透明表示することが可能となる。
<実施形態3>
実施形態3は、実施形態1の応用例である。実施形態1や2では、観察者が観察している現時点の現実空間画像の状態と、最終的にHMD101に出力される現実空間画像の状態の時間的な遅れを軽減する構成について説明した。ここで、この構成では、仮想空間画像を生成するためのステップS401で取得する位置姿勢情報は、現実空間画像の取得時の実際の現実空間物体111の位置姿勢に対して時間的な遅れが発生する可能性がある。そこで、実施形態3では、取得した位置姿勢姿勢情報の時間的な遅れを軽減するための画像合成について説明する。
まず、実施形態3の複合現実感提示装置による画像合成に関して、図9を用いて説明する。
図9は本発明の実施形態3の複合現実感提示装置が実行する処理を示すフローチャートである。
尚、図9において、実施形態1の図5と同一の処理については、同一のステップ番号を付加し、その詳細については省略する。
特に、図9では、実施形態1の図5のステップS401の処理の後に、ステップS903で、CPU301は、現実空間画像の位置姿勢予測を実行する。そして、ステップS402aで、CPU301は、ステップS903で得られる予測値(位置姿勢情報)に基づいて、仮想空間画像をメインメモリ302に描画する。
この処理の詳細について、図10を用いて説明する。
図10は本発明の実施形態3の現実空間画像の位置姿勢予測の詳細を示すフローチャートである。
ステップS1001で、CPU301は、位置姿勢情報を取得する。ステップS1002で、CPU301は、位置姿勢情報中の位置姿勢成分をクオータニオンに変換する。ここで、位置姿勢情報の線形予測等の予測計算を行うには、クオータニオンに変換することが有効であることが一般的に知られているが、その予測計算方法は線形予測を用いるものに制限されるものではない。つまり、予測計算ができる方法であれば、どのようなものでも良い。
ステップS1003で、CPU301は、位置成分を示す値と、ステップS1002にクオータニオンに変換された位置姿勢成分を示す値をメインメモリ302に蓄積する。このステップS1003では、過去2フレーム分に対応する位置姿勢情報(位置成分及び位置姿勢成分を示す値)を蓄積するものとする。より正確でノイズの少ない予測が必要な場合には、3フレーム分以上のフレーム分に対応する位置姿勢情報(位置及び位置姿勢を示す値)を蓄積することも有効である。このフレーム数は、用途や目的に応じて設定すれば良く、その数が制限されるものではない。
ステップS1004で、CPU301は、2フレーム分の位置姿勢情報(位置及び位置姿勢を示す値)から、現実空間物体の速度を計算する。ここでの速度は、例えば、等速度移動、等速度回転を前提とすれば、2フレーム分の位置姿勢情報(位置及び位置姿勢を示す値)から線形予測で簡単に予測値を求めることが可能である。
ステップS1005で、CPU301は、計算した速度に基づいて、現実空間物体の位置姿勢の予測値を計算する予測計算を実行する。この予測計算方法は、特定の予測計算モデルに当てはめて予測値の推定を行う方法として、様々な方法が知られており、本発明はどのような予測計算方法を用いても構わない。
ステップS1006で、計算した予測値を出力する。ステップS1007で、PC103から処理の終了通知があるか否かを判定する。終了通知がない場合(ステップS1007でNO)、ステップS100101に戻る。一方、終了通知がある場合(ステップS1007でYES)、処理を終了する。
以上の処理方式によって得られる予測値を用いて仮想空間画像を描画することで、現実空間画像と後に合成する場合でも、現実空間画像の取得時の状態から時間的に遅延が少ない仮想空間画像による画像合成を実現することができる。
以上説明したように、実施形態3によれば、実施形態1や2で説明した効果に加えて、仮想空間画像の描画を、後に取得する現実空間画像の取得時の予測値(位置を示す値及び位置姿勢を示す値)に基づいて行う。これにより、現実空間画像の取得時の状態(位置及び位置姿勢)に近い仮想空間画像と現実空間画像とを合成することが可能となる。
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給する。そして、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスクがある。また、更に、記録媒体としては、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、その接続先のホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。また、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。
一般的な複合現実感提示装置のハードウェアの構成を示す図である。 一般的な複合現実感提示装置の処理を示すフローチャートである。 一般的な画像合成処理の具体例を示す図である。 本発明の実施形態1の複合現実感提示装置として機能するPCのハードウェア構成を示す図である。 本発明の実施形態1の複合現実感提示装置が実行する処理を示すフローチャートである。 本発明の実施形態1の画像合成処理の具体例を示す図である。 本発明の実施形態2の複合現実感提示装置が実行する処理を示すフローチャートである。 本発明の実施形態2の画像合成の具体例を説明するための図である。 本発明の実施形態3の複合現実感提示装置が実行する処理を示すフローチャートである。 本発明の実施形態3の現実空間画像の位置姿勢予測の詳細を示すフローチャートである。
符号の説明
101 HMD
102 撮像部
103 PC
104 位置姿勢計測部
105 HMD計測センサ
106 現実空間物体計測センサ
110 仮想空間画像
111 現実空間物体

Claims (8)

  1. 現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置であって、
    観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得手段と
    前記位置姿勢情報取得手段で取得した位置姿勢情報に基づいて、仮想空間画像を生成して、メモリ上に描画する描画手段と、
    前記仮想空間画像を生成した後に撮像された、前記現実空間物体の現実空間画像を取得する取得手段と、
    前記取得手段で取得した現実空間画像を、前記仮想空間画像が描画されている前記メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する合成手段と、
    前記合成手段によって得られる合成画像を出力する出力手段と
    を備えることを特徴とする複合現実感提示装置。
  2. 前記取得手段が、前記仮想空間画像を生成して前記メモリ上に描画した後に撮像された、前記現実空間物体の現実空間画像を取得する
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  3. 前記仮想空間画像の奥行き情報を記憶する奥行きバッファを更に備え、
    前記合成手段は、前記奥行きバッファに記憶されている奥行き情報を利用して、前記メモリ上の前記仮想空間画像が描画されていない部分に前記現実空間画像を描画することで、該現実空間画像と該仮想空間画像とを合成する
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  4. 前記仮想空間画像への画像の上書きの可否を制御するための制御情報を記憶するステンシルバッファを更に備え、
    前記合成手段は、前記ステンシルバッファに記憶されている制御情報を利用して、前記メモリ上の前記仮想空間画像が前記現実空間画像で上書きされないように該メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  5. 前記合成手段は、前記現実空間画像と前記仮想空間画像とをアルファブレンド合成する
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  6. 前記描画手段による前記仮想空間画像の描画に利用する位置姿勢情報を、前記位置姿勢情報取得手段で取得した位置姿勢情報に基づいて予測する予測手段を更に備える
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  7. 現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置の制御方法であって、
    位置姿勢情報取得手段が、観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得工程と
    描画手段が、前記位置姿勢情報取得工程で取得した位置姿勢情報に基づいて、仮想空間画像を生成して、メモリ上に描画する描画工程と、
    取得手段が、前記仮想空間画像を生成した後に撮像された、前記現実空間物体の現実空間画像を取得する取得工程と、
    合成手段が、前記取得工程で取得した現実空間画像を、前記仮想空間画像が描画されている前記メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する合成工程と、
    出力手段が、前記合成工程によって得られる合成画像を出力する出力工程と
    を備えることを特徴とする複合現実感提示装置の制御方法。
  8. 現実空間画像と仮想空間画像とを合成して提示する複合現実感提示装置の制御をコンピュータに機能させるためのコンピュータプログラムであって、
    前記コンピュータを、
    観察者の視点と、現実空間中の現実空間物体との相対的な位置姿勢関係を示す位置姿勢情報を取得する位置姿勢情報取得手段と
    前記位置姿勢情報取得手段で取得した位置姿勢情報に基づいて、仮想空間画像を生成して、メモリ上に描画する描画手段と、
    前記仮想空間画像を生成した後に撮像された、前記現実空間物体の現実空間画像を取得する取得手段と、
    前記取得手段で取得した現実空間画像を、前記仮想空間画像が描画されている前記メモリ上に描画することで、該現実空間画像と該仮想空間画像とを合成する合成手段と、
    前記合成手段によって得られる合成画像を出力する出力手段と
    して機能させることを特徴とするコンピュータプログラム。
JP2007137014A 2007-05-23 2007-05-23 複合現実感提示装置及びその制御方法、コンピュータプログラム Expired - Fee Related JP4909176B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007137014A JP4909176B2 (ja) 2007-05-23 2007-05-23 複合現実感提示装置及びその制御方法、コンピュータプログラム
US12/114,007 US20080291219A1 (en) 2007-05-23 2008-05-02 Mixed reality presentation apparatus and control method thereof, and computer program
KR1020080048193A KR100958511B1 (ko) 2007-05-23 2008-05-23 복합 현실감 제시 장치 및 그 제어 방법, 및 컴퓨터판독가능한 매체
EP08156848.7A EP1995694A3 (en) 2007-05-23 2008-05-23 Mixed reality presentation apparatus and control method
CN2008100983159A CN101311893B (zh) 2007-05-23 2008-05-23 混合真实呈现设备及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007137014A JP4909176B2 (ja) 2007-05-23 2007-05-23 複合現実感提示装置及びその制御方法、コンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2008293209A JP2008293209A (ja) 2008-12-04
JP2008293209A5 JP2008293209A5 (ja) 2010-07-08
JP4909176B2 true JP4909176B2 (ja) 2012-04-04

Family

ID=39739916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007137014A Expired - Fee Related JP4909176B2 (ja) 2007-05-23 2007-05-23 複合現実感提示装置及びその制御方法、コンピュータプログラム

Country Status (5)

Country Link
US (1) US20080291219A1 (ja)
EP (1) EP1995694A3 (ja)
JP (1) JP4909176B2 (ja)
KR (1) KR100958511B1 (ja)
CN (1) CN101311893B (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
JP5047090B2 (ja) * 2008-07-31 2012-10-10 キヤノン株式会社 システム
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
JP2011159163A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5728159B2 (ja) 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR20110099414A (ko) * 2010-03-02 2011-09-08 삼성전자주식회사 휴대용 단말기에서 애니메이션 효과를 제공하기 위한 장치 및 방법
CN102004552A (zh) * 2010-12-06 2011-04-06 深圳泰山在线科技有限公司 一种基于跟踪点识别的加强用户现场运动体验的方法和系统
JP5734080B2 (ja) * 2011-05-10 2015-06-10 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
CA2840397A1 (en) 2011-06-27 2013-04-11 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
CN103020065B (zh) * 2011-09-22 2016-09-07 北京神州泰岳软件股份有限公司 一种基于Web页面的签名板实现方法和一种Web系统
CN103028252B (zh) * 2011-09-29 2014-12-31 泉阳兴业株式会社 观览车
US9129429B2 (en) 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2014175324A1 (ja) 2013-04-24 2014-10-30 川崎重工業株式会社 ワーク加工作業支援システムおよびワーク加工方法
JP6344890B2 (ja) 2013-05-22 2018-06-20 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
JP6653103B2 (ja) * 2014-09-08 2020-02-26 国立大学法人 東京大学 画像処理装置および画像処理方法
US20160077166A1 (en) * 2014-09-12 2016-03-17 InvenSense, Incorporated Systems and methods for orientation prediction
CN105635745B (zh) * 2015-12-23 2019-10-22 广州华多网络科技有限公司 基于在线直播应用而生成签名照的方法及客户端
JP2017123050A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及びサーバ
CN107277495B (zh) * 2016-04-07 2019-06-25 深圳市易瞳科技有限公司 一种基于视频透视的智能眼镜系统及其透视方法
KR101724360B1 (ko) * 2016-06-30 2017-04-07 재단법인 실감교류인체감응솔루션연구단 혼합현실 디스플레이 장치
KR20190070423A (ko) 2017-12-13 2019-06-21 주식회사 투스라이프 실제 움직임의 감지가 가능한 가상현실을 기반으로 하는 부착형 트래커
CN110412765B (zh) * 2019-07-11 2021-11-16 Oppo广东移动通信有限公司 增强现实图像拍摄方法、装置、存储介质及增强现实设备
EP4075393A4 (en) 2020-01-14 2023-05-17 Ntt Docomo, Inc. IMAGE DISPLAY DEVICE
KR102442715B1 (ko) * 2020-12-02 2022-09-14 한국전자기술연구원 분할 렌더링 영상 기반의 증강현실 영상을 재생하는 장치 및 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09245192A (ja) * 1996-03-08 1997-09-19 Canon Inc 仮想環境生成実現方法およびその装置
JP3724117B2 (ja) * 1997-05-23 2005-12-07 ソニー株式会社 画像生成装置および画像生成方法
JP3490983B2 (ja) * 2001-05-30 2004-01-26 コナミ株式会社 画像処理方法及び画像処理用プログラム
JP3584229B2 (ja) * 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
JP2003346190A (ja) 2002-05-29 2003-12-05 Canon Inc 画像処理装置
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2007512854A (ja) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ 手術用ナビゲーションシステム(カメラプローブ)
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4366165B2 (ja) * 2003-09-30 2009-11-18 キヤノン株式会社 画像表示装置及び方法並びに記憶媒体
JP4393169B2 (ja) * 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
JP3779717B2 (ja) 2004-08-31 2006-05-31 コナミ株式会社 ゲームプログラム及びゲーム装置
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
WO2006053271A1 (en) * 2004-11-12 2006-05-18 Mok3, Inc. Method for inter-scene transitions
JP2006215939A (ja) 2005-02-07 2006-08-17 Kumamoto Univ 自由視点画像合成方法および自由視点画像合成装置
JP4144888B2 (ja) * 2005-04-01 2008-09-03 キヤノン株式会社 画像処理方法、画像処理装置
JP2007004714A (ja) * 2005-06-27 2007-01-11 Canon Inc 情報処理方法、情報処理装置
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
JP5196729B2 (ja) * 2006-04-11 2013-05-15 任天堂株式会社 通信ゲームシステム

Also Published As

Publication number Publication date
KR100958511B1 (ko) 2010-05-17
CN101311893B (zh) 2011-08-31
CN101311893A (zh) 2008-11-26
EP1995694A3 (en) 2017-02-15
EP1995694A2 (en) 2008-11-26
JP2008293209A (ja) 2008-12-04
US20080291219A1 (en) 2008-11-27
KR20080103469A (ko) 2008-11-27

Similar Documents

Publication Publication Date Title
JP4909176B2 (ja) 複合現実感提示装置及びその制御方法、コンピュータプログラム
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
JP4857196B2 (ja) 頭部装着型表示装置、及びその制御方法
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
JP5074777B2 (ja) 撮像機能付表示装置、画像処理装置、画像処理方法、および、画像表示システム
JP4218952B2 (ja) データ変換方法及び装置
JP4847203B2 (ja) 情報処理方法、情報処理装置
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
JP2009123018A (ja) 画像処理装置、画像処理方法
JP2008293209A5 (ja)
US20140016913A1 (en) Moving image generation device
JP2005038321A (ja) ヘッドマウントディスプレイ装置
JP2008146497A (ja) 画像処理装置、画像処理方法
JP4144888B2 (ja) 画像処理方法、画像処理装置
JP6452808B2 (ja) 方向予測を利用した低レイテンシーシミュレーション装置及び方法と、そのためのコンピュータプログラム
JP5161544B2 (ja) 画像表示システム
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2005157611A (ja) 画像処理装置および方法
JP2006277618A (ja) 画像生成装置及び方法
JP7175715B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2023120257A (ja) 方向提示装置、方向提示方法、プログラム
JP2005063004A (ja) 複合現実感システム
JP5207941B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007004716A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4909176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees