JP4393169B2 - 複合現実感提示方法および装置 - Google Patents

複合現実感提示方法および装置 Download PDF

Info

Publication number
JP4393169B2
JP4393169B2 JP2003406143A JP2003406143A JP4393169B2 JP 4393169 B2 JP4393169 B2 JP 4393169B2 JP 2003406143 A JP2003406143 A JP 2003406143A JP 2003406143 A JP2003406143 A JP 2003406143A JP 4393169 B2 JP4393169 B2 JP 4393169B2
Authority
JP
Japan
Prior art keywords
measurement
user
mixed reality
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003406143A
Other languages
English (en)
Other versions
JP2005165848A (ja
JP2005165848A5 (ja
Inventor
俊広 小林
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003406143A priority Critical patent/JP4393169B2/ja
Priority to EP04257436A priority patent/EP1538512B1/en
Priority to DE602004029753T priority patent/DE602004029753D1/de
Priority to US11/002,074 priority patent/US7330197B2/en
Priority to CNB2004100965595A priority patent/CN1312555C/zh
Publication of JP2005165848A publication Critical patent/JP2005165848A/ja
Publication of JP2005165848A5 publication Critical patent/JP2005165848A5/ja
Application granted granted Critical
Publication of JP4393169B2 publication Critical patent/JP4393169B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、複合現実感方法および複合現実感装置に関する。特に、複合現実感の提示中において、複合現実感装置の使用者をセンサ装置で計測可能な領域の外に移動させないよう、適切に誘導するのに好適な技術に関する。
現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した装置が盛んに提案されている。これらの複合現実感装置は、カメラなどの撮像装置によって撮影した現実世界の画像に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像を合成し、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)などの表示装置に表示することで、複合現実感を装置の使用者に提示している。
これらの複合現実感装置は、現実世界の画像の変化に追従させて仮想世界の画像を生成するために、装置の使用者の視点位置・姿勢をリアルタイムで取得する必要がある。使用者の視点位置・姿勢を取得するためのセンサ装置は広く知られている。複合現実感装置では、センサ装置によって計測した使用者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像をCGにより描画して、現実世界の画像と合成する。これにより、複合現実感装置の使用者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができる。
上述のセンサ装置は、位置・姿勢を計測する方式によって、光学式・磁気式・超音波式、機械式などに分類されるが、いずれの方式においても、無制限に位置・姿勢を計測できるわけではなく、その計測範囲に制約を受けている。
例えば、光学式センサ装置の場合は、発光ダイオード(LED:Light Emitting Diode)などの素子を用いた発光部をセンサ制御装置の制御によって発光させ、カメラやラインセンサなどの受光部がその発光部からの光を捉え、その受光情報に基づいて計測対象の視点位置・姿勢を決定する。そのため、発光部が発する光を受光部が認識できない状況、例えば、発光部と受光部との距離が離れすぎていたり、発光部と受光部との間に遮蔽物が存在するような状況においては、センサ装置は計測対象の位置・姿勢を計測することができない。
また、例えば、磁気式センサ装置の場合には、センサ制御ユニットの制御によって、トランスミッタから磁界を発生させ、レシーバはトランスミッタが発生した磁界の強さを計測する。トランスミッタが発生させた磁界の方向と、レシーバが計測した磁界の強さに基づいて、計測対象の視線位置・姿勢が決定される。そのため、トランスミッタが発生させた磁界をレシーバが正しく感知できない状況、例えば、トランスミッタとレシーバとの距離が離れすぎているような状況では、センサ装置は計測対象の位置・姿勢を計測することができない。また、トランスミッタとレシーバとの距離が離れていない場合においても、計測する空間の近傍に金属や磁性体が存在するような場合には、トランスミッタが発生させる磁界が歪むため、計測される位置・姿勢に著しい誤差が生じる。
一般的な複合現実感装置では、現実世界と仮想世界とを違和感なく結合するために、センサ装置に厳密な精度を要求することが多い。このため、位置・姿勢に関して計測誤差が生じるような状況下では、現実問題として、複合現実感装置を使用することはできなくなってしまう。
以上の理由により、複合現実感装置を使用する際には、センサ装置が計測対象の位置・姿勢を正確に計測できる範囲に基づいて、複合現実感装置の使用者が移動できる領域をあらかじめ定め、使用者の移動をその領域(移動可能領域)内に制限する必要があることがわかる。例えば、特許文献1では、位置・姿勢を計測するセンサが測定可能な有効領域を外れた場合にはCG描画を停止する処理を行なう。
しかし、複合現実感装置の使用者は、必ずしも移動可能領域を意識しながら複合現実感装置を使用するとは限らない。複合現実感装置の使用中において、複合現実感装置の使用者が無意識のうちに移動可能領域の外に移動したために、センサ装置が複合現実感装置の使用者の視点位置・姿勢を正しく計測できなくなり、仮想のCGが正しく描画されなくなった時点で、はじめて複合現実感装置の使用者が異常を認識することが多い。また、この時点で複合現実感装置の使用者は、何らかの異常を感じつつも、その原因が移動可能領域の外側に出てしまったことであると認識できない場合も多い。そのため、複合現実感装置の使用者は異常の発生原因と対処方法がわからず、複合現実感装置の使用者に不安感を生じさせているという問題があった。
センサ装置として磁気式センサを用いた場合には、移動可能領域の限界付近において、位置・姿勢の計測誤差が大きくなるため、複合現実感装置の使用者が移動可能領域から出てしまうことをある程度予見できる場合もある。しかし、センサ装置に光学式センサを用いた場合には、移動可能領域の限界付近においても移動可能領域内である限りは高精度に位置・姿勢の計測が行われ、移動可能領域の外側に出た瞬間に位置・姿勢の計測が全く行われなくなる。つまり、複合現実感装置の使用者にとっては、何の前兆もなく、突然、仮想世界の画像が乱れてしまうため、不安感をより一層増長してしまうこととなる。
特開2002−269593号公報
上記の問題を解決するために、従来は、あらかじめ現実世界中での移動可能領域の境界付近にテープなどの目印を設ける、物理的な障壁を設置する、あるいは複合現実感装置の使用者に対して専属の補助者が逐一誘導するなどの手段により、複合現実感装置の使用者を移動可能領域の外側に移動させないように誘導するための処置が行われている。
しかしながら、一般的な複合現実感装置では、撮像装置や表示装置の性能による要因から装置の使用者が観察することのできる現実世界は、画像の解像度や視野の広さの点で制約を受ける。さらに、現実世界の画像に仮想世界の画像を重畳することによって、現実世界画像の一部が仮想世界画像に遮蔽されてしまうため、複合現実感装置の使用者は現実世界の全てを観察することはできない。すなわち、現実世界中に目印を設けても、目印を見落とし易く、また、仮想世界画像に遮蔽されてしまうことにより、複合現実感装置の使用者は目印を観察できない場合もある。さらに、物理的な障壁を設置する場合においても、先述した理由から、複合現実感装置の使用者が物理的な障壁が観察できない場合があり、状況によっては、複合現実感装置の使用者に危険を及ぼす可能性すらある。従来の複合現実感装置は上記の点から、改良が求められていた。
一方、専属の補助者が複合現実感装置の使用者を誘導する場合には、上記の問題点は解決されるものの、複合現実感装置を使用するたびに専属の補助者を割り当てる必要があるため、運用上の手間や負担が大きくなるという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、複合現実感の提示中において、複合現実感装置の使用者をセンサ装置で計測可能な領域の外に移動させないようにするための、使用者への適切な誘導を簡便かつ合理的に実現することを目的とする。
上記の目的を達成するための本発明による複合現実感提示方法は、
ユーザの視点位置および方向から観測される現実世界画像と、計測手段により計測された前記視点位置および方向に基づく仮想世界画像を合成して得られる合成画像を提示する複合現実感提示装置による複合現実感提示方法であって、
記憶手段に記憶された前記計測手段の計測領域に関する情報に基づき、前記計測領域に関する予め定められた報知を行なわない第1領域を、設定手段が設定する設定工程と、
前記ユーザの視点位置および方向を、前記計測手段が計測する計測工程と、
前記計測工程で計測された前記ユーザの視点位置が、前記設定工程で設定された前記第1領域内に存在するか否かを、判定手段が判定する判定工程と、
前記視点位置が前記第1領域内でないと判定された場合、前記ユーザに前記予め定められた報知を報知手段が行なう報知工程と
前記計測手段から得られる実測値が不自然に変化する直前の位置、或いは計測不能となる直前の位置を前記計測領域の境界位置として、記憶制御手段が前記記憶手段に記憶させる記憶制御工程とを備え
前記合成画像を前記ユーザに提示中に、前記記憶制御工程と前記設定工程を実行することにより、前記第1領域が随時更新される。
また、上記の目的を達成するための本発明による複合現実感提示装置は以下の構成を備える。すなわち、
ユーザの視点位置および方向から観測される現実世界画像と、前記視点位置および方向に基づく仮想世界画像を合成して得られる合成画像を提示する複合現実感提示装置であって、
前記ユーザの視点位置および方向を計測する計測手段と、
前記計測手段の計測領域に関する情報を記憶する記憶手段と、
前記記憶手段に記憶された情報に基づき、前記計測領域に関する予め定められた報知を行わない領域を設定する設定手段と、
前記計測手段で計測された前記ユーザの視点位置が、前記設定された領域に存在するか否かを判定する判定手段と、
前記視点位置が前記設定された領域外であると判定された場合、前記ユーザに前記予め定められた報知を行なう報知手段と
前記計測手段から得られる実測値が不自然に変化する直前の位置、或いは計測不能となる直前の位置を前記計測領域の境界位置として、前記記憶手段に記憶させる記憶制御手段とを備え、
前記合成画像を前記ユーザに提示中に、前記記憶制御手段と前記設定手段が機能することにより、前記設定された領域が随時更新される。
本発明によれば、複合現実感装置の使用者を移動可能領域の外側に移動させないように簡便かつ合理的な手段で誘導することが可能となる。
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
まず、図5〜図8を参照して、本実施形態の複合現実感装置が使用される空間について説明する。図5は、本実施形態の複合現実感装置(以降、「本装置」と表記する)で使用されるセンサ装置およびセンサ装置の計測領域について説明している図である。
図5において、センサ装置10は、センサ計測領域20によって示される領域(図5の斜線の台形で示された領域)中で、計測対象である本装置の使用者の視点位置・姿勢を計測することができる。一方、センサ計測領域20の外側の領域では、センサ装置010は視点位置・姿勢を計測するとはできない。また、センサ計測領域20およびその境界線を肉眼で観測することはできない。
図6は、境界計測点について説明している図である。図6中の(A)では、本装置の使用者はセンサ計測領域20の内側にいる。すなわち、(A)の状態では、センサ装置10から本装置の使用者の視点位置・姿勢が計測されている。これに対し、(B)では、本装置の使用者がセンサ計測領域020の内側から外側に移動している。すなわち、(B)の状態では、センサ装置10によって本装置の使用者の視点位置・姿勢を計測することはできない。図6の(A)の状態から(B)の状態に移行したときに(計測対象がセンサ計測領域20から外れたときに)、(A)の状態で位置・姿勢が計測された点、すなわち、センサ計測領域20の内側で最後に位置・姿勢が計測された点を境界計測点30と呼ぶ。
図7は境界計測点30の収集について説明している図である。本装置を利用する空間内、特にセンサ計測領域20の境界付近の多数の個所においてセンサ装置10で境界計測点の位置を測定する。このようにして、数多くの境界計測点を測定し、収集・蓄積することによって、センサ計測領域とみなすことのできる領域を求めることができる。
図8は計測領域20内の安全領域、警告領域、移動可能領域について説明している図である。収集した境界計測点30を順に線で結ぶことによって一つの閉領域を作ることができる。境界計測点30の数が十分大きいときには、この閉領域はセンサ計測領域20にほぼ等しいと考えることができ、この領域を移動可能領域60とする。なお、移動可能領域60はセンサ計測領域20とは厳密には等しくないが、移動可能領域60はセンサ計測領域20に内包される領域であり、その領域内ではセンサ装置10で位置・姿勢を計測できることが保証される。また、図8に示すように、移動可能領域60の内側周辺の領域を警告領域50とする。警告領域50はセンサ装置10で計測することのできる領域ではあるが、センサ計測領域20の境界が近傍にあり、センサ計測領域20の外側に出てしまい、位置姿勢の計測が行えなくなる可能性が高い領域である。また、移動可能領域60内で警告領域50以外の領域は、センサ計測領域20の境界からある程度離れており、センサ装置10で確実に計測が行うことができる領域とみなすことができる。この領域を安全領域40とする。
以下に説明する各実施形態では、複合現実感装置の使用者に対し、本装置の使用中に警告領域50内に立ち入ったときに境界計測点の位置を示し警告を発するものである。以下、各実施形態について詳細に説明する。
[第1実施形態]
図1は第1実施形態による複合現実感装置の概略構成を示すブロック図である。図1において、演算処理部100はコンピュータなどの計算機から構成される。演算処理部100はその内部にCPU101、RAM102、音声出力装置103、画像出力装置104、システムバス105、ディスク装置106、入力装置107、画像入力装置108を備える。
CPU101は、不図示のROM又はRAM102に格納された複合現実感プログラムに基づき、複合現実感処理を制御する。CPU101はシステムバス105に接続され、RAM102、音声出力装置103、画像出力装置104、ディスク装置106、入力装置107、画像入力装置108と相互に通信することが可能である。RAM102は、メモリ等の主記憶装置によって実現される。RAM102は、システムバス105を介して、複合現実感プログラムのプログラムコードやプログラムの制御情報、CGデータや計測領域データ、センサの計測値等の各種データを一時的に保持する。音声出力装置103は、サウンドカードなどの機器によって実現される。システムバス105を介して、CPU101上で実行されるプログラムによって生成された音声情報を入力し、音声情報を適切な音声信号に変換してスピーカ装置203に送出する。
画像出力装置104は、グラフィックスカードなどの機器によって実現される。一般的に、画像出力装置104は図示しないグラフィックスメモリを保持している。CPU101上で実行されるプログラムによって生成された画像情報は、システムバス105を介して、画像出力装置104が保持するグラフィックスメモリに書き込まれる。画像出力装置104は、グラフィックスメモリに書き込まれた画像情報を適切な画像信号に変換して表示装置201に送出する。グラフィックスメモリは必ずしも画像出力装置104が保持する必要はなく、RAM102によってグラフィックスメモリの機能を実現してもよい。
システムバス105は、演算処理部100を構成する各機器が接続され、上記機器が相互に通信するための通信路である。
ディスク装置106は、ハードディスク等の補助記憶装置によって実現される。ディスク装置106は、複合現実感プログラムのプログラムコードやプログラムの制御情報、仮想世界のCGオブジェクトデータ、境界計測点データ、領域情報などを保持する。入力装置107は、各種インタフェース機器によって実現される。例えば、演算処理部100の外部に接続された機器からの信号をデータとして入力し、システムバス105を介して、RAM102にデータを書き込む等の機能を実現する。画像入力装置108は、キャプチャカードなどの機器によって実現される。撮像装置202から送出される画像信号を入力し、システムバス105を介して、RAM102またはグラフィックスメモリに画像データを書き込む。なお、表示装置201に光学シースルー型の表示装置を用いる場合には、画像入力装置108は具備しなくてもよい。
頭部装着部200は、本実施形態の複合現実感装置を体験するために、本装置の使用者が装着する。頭部装着部200は表示装置201、撮像装置202、スピーカ203、計測対象301から構成される。本実施形態では、頭部装着部200を構成する装置を使用者が装着しているが、使用者が複合現実感を体験できる形態であれば、必ずしも頭部装着部200の形態である必要はなく、据え置き型のディスプレイ装置を用いてもよい。
表示装置201は、ビデオシースルー型HMDなどのディスプレイによって実現される。表示装置201は画像出力装置104から送出される画像信号を表示し、本装置の使用者に複合現実感を提示するために用いられる。表示装置201は頭部装着部200を構成する装置であるが、必ずしも使用者が装着する必要はない。使用者が画像を確認することができる手段であれば、例えば表示装置201として据え置き型のディスプレイ装置を用いてもよい。
撮像装置202は、CCDカメラなどの1つ以上の撮像装置によって実現される。撮像装置202は本装置の使用者の視点から見た現実世界の画像を撮像するために用いられる。そのため、撮像装置202は使用者の頭部の中でも視点位置に近い場所に装着することが望ましいが、使用者の視点から見た画像が取得できる手段であればこれに限定されない。撮像装置202が撮像した画像は画像信号として画像入力装置108に送出される。なお、表示装置201に光学シースルー型の表示装置を用いる場合には、本装置の使用者は表示装置201を透過する現実世界を直接観察することになるため、撮像装置202は具備しなくてもよい。
スピーカ装置203は、音声出力装置103が送出した音声信号を、本装置の使用者に提示するために用いられる。本実施形態では、スピーカ装置203は頭部装着部200を構成する装置であるが、使用者が音声を確認することができれば、必ずしも使用者が装着する必要はない。また、音声を用いない場合には、スピーカ装置203は具備しなくても構わない。
センサ部300は、本装置の使用者の視点位置・姿勢を計測する。センサ部300は、計測対象301、計測装置302、センサ制御装置303から構成される。計測対象301は、センサ装置が計測する対象であり、本装置の使用者が装着する頭部装着部200に設けられる。すなわち、計測対象302は、頭部装着部200、センサ部300双方の構成要素となる。計測装置302は、計測対象301の位置・姿勢を計測する。計測装置302は本装置の使用者によって装着されることはなく、計測対象301を計測できる位置に設置される。センサ制御装置303は、計測対象301、計測装置302に制御命令を送出し、また、計測対象301、計測装置302から観測データを取得する。センサ制御装置303は、取得した観測データをもとに、計測対象301の位置・姿勢情報を算出し、それを計測値として入力装置107に送出する。
なお、計測対象301、計測装置302、センサ制御装置303は、センサ装置によって構成が異なる場合がある。
例えば、Northern Digital社の光学式のセンサOPTOTRAK 3020の場合は、計測対象301は発光装置によって構成され、センサ制御装置303の指令によって発光する。計測装置302は受光装置によって構成され、計測対象301の発光装置から発した光を観測する。センサ制御装置303は計測装置302の観測データをもとに、計測対象301の位置・姿勢を算出する。
また、例えば、3rdTech社の光学式センサHiBallの場合は、計測対象301は受光装置によって構成され、計測装置302は発光装置によって構成される。計測装置302は、センサ制御装置303の指令によって発光する。計測対象301は計測装置302の発光装置が発する光を観測する。センサ制御装置303は計測対象301の観測データ、計測装置302の配置データをもとに、計測対象301の位置・姿勢を算出する。
更に、例えば、Polhemus社の磁気センサFastrakの場合は、計測対象301はレシーバによって構成され、計測装置302のトランスミッタが発する磁界を観測し、観測データを生成する。計測装置302はトランスミッタによって構成され、センサ制御装置303の指令によって、磁界を発生する。センサ制御装置303は計測対象301の観測データをもとに、計測対象301の位置・姿勢を算出する。
また、本装置の使用者が不図示のマーカを装着し、撮像装置202とは別に、外部に設置した不図示の撮像装置によって撮像された画像に対して画像処理を行って画像中からマーカを抽出し、マーカの画像中の位置から本装置の使用者の位置・姿勢を算出する手法を用いることもできる。この場合は、計測対象301をマーカに、計測装置302を外部の撮像装置に、センサ制御装置303を上記画像処理を行う計算機とすればよい。また、本装置の使用者が明示的なマーカを装着せずに、撮像装置が本装置の使用者を撮像し、本装置の使用者の画像特徴から本装置の使用者の位置・姿勢を算出する手法を用いることもできる。この場合は、計測対象301が本装置の使用者となる。
更に、本装置を使用する空間中にランドマークとなる複数の不図示のマーカを設置し、撮像装置202によって撮像された画像に対して画像処理を行い、画像中のマーカの位置から本装置の使用者の位置・姿勢を算出する方法を用いることもできる。この場合は、計測対象301を本装置の使用者、計測装置302をマーカ、センサ制御装置303を上記画像処理を行う計算機に置き換えればよい。また、本装置を使用する空間中にランドマークとして明示的なマーカを設置せずに、撮像装置202が撮像した画像から画像特徴を抽出することによって、本装置の使用者の位置・姿勢を算出するようにしてもよい。この場合には、計測装置302は本装置を使用している空間そのものということになる。
また、複数のセンサ装置や計測手法を組み合わせることによって、本装置の使用者の位置・姿勢を計測する場合においても、全体としてセンサ部300を構成するとみなすことができる。すなわち、センサ部300は、計測装置302が計測対象301を観測し、観測データをもとにセンサ制御装置303が計測対象301の位置・姿勢を出力する装置であり、位置・姿勢を算出する原理や手法については、これを問わない。
また、本実施形態において、センサ部300は本装置の使用者の位置・姿勢を計測しているが、位置のみを計測するようにしても構わない。
以上のような構成を備えた第1実施形態の制御について、以下説明する。図2は、本実施形態の複合現実感装置が行う処理のフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内のディスク装置106やRAM102などの記憶装置内に格納され、CPU101により読み出され、実行される。
まず、ステップS100では、本装置での複合現実感の提示処理に先立ち、ステップS200で必要となる境界計測値収集処理を行う。境界計測値とは、センサ部300で計測された、図6、図7で説明した境界計測点30の位置である。境界計測値収集処理の詳細については図3のフローチャートにより後述する。次に、ステップS200では、本実施形態の複合現実感装置を使用することよって、本装置の使用者に対して複合現実感の提示を行う。複合現実感提示処理の詳細については図4のフローチャートにより後述する。
図3は、本実施形態の複合現実感装置において、ステップS100で行われる境界計測値収集処理の詳細を示すフローチャートである。
まず、ステップS101では、境界計測値収集処理に必要な初期化(基本的にはセンサのセットアップ)を行う。次に、ステップS102において、入力装置107は、センサ部300のセンサ制御装置303が出力した計測値を取得する。CPU101は、取得した計測値(計測対象301の位置、姿勢)を本装置の使用者の視点での位置・姿勢に変換する。ステップS103では、ステップS102において正確な計測値が得られたか否かを判定する。ここで、「正確」とは計測値の誤差が許容する値よりも小さいことを意味する。正確な計測値が得られた場合には、ステップS104に進み、その計測値をRAM102に保持する。
例えば、センサ部300に光学式センサを用いた場合、センサ計測領域の外部に出てしまうと計測値が全く得られなくなる。従って、ステップS103における判定処理は、計測値が得られたか得られないかにより行なうことができ、容易である。しかし、例えば、センサ部300に磁気式センサを用いた場合には、センサ計測領域の外部に出てしまったときでも、計測の誤差が拡大するのみであり、計測値自体は取得される。このような場合は、例えば、ステップS102において計測値を履歴として保持しておき、ステップS103において計測値の変化量が既定値を超えた場合に正確な計測値が得られなかったと判定することで対処することができる。この既定値は、本装置の使用者に対して想定することができる移動量(センサによる計測サンプリング間隔内の最大移動量)とセンサ装置が保証する誤差から算出することができる。例えば、“最大移動量+誤差”を既定値として用いることができる。
さて、ステップS104では、ステップS102で取得した計測値をRAM102に保持するが、既に計測値を保持している場合には、古い計測値は破棄される。すなわち、センサ計測部300によって計測された計測値のうち最も新しい計測値のみが保持されることになる。
一方、ステップS102で正確な計測値が得られなかった場合には、ステップS103からステップS105に進む。ステップS105では、RAM102に計測値が保持されているか否かを判定する。計測値が保持されている場合にはステップS106に進み、RAM102が保持している計測値を境界計測点30の計測値(境界計測値)としてディスク装置105に保存する。本実施形態では、センサ部300による直前の計測では正確な計測値が得られているが、今回の計測では正確な計測値が得られなかった場合にステップS106に到達する。これは、図6において(A)の状態から(B)の状態に遷移したことを表し、その時点でRAM102が保持している計測値が境界計測値となる。境界計測値の保存後はRAM102で保持している計測値を破棄してもよい。
なお、本実施形態では、計測された境界計測値はすべてディスク装置105に保存されるが、必ずしもすべての境界計測値を保存しなくてよい。例えば、保存されている境界計測値に対して、統計的な手法によって境界計測値を分析し、精度の低いと判断される境界計測値を除外するようにしてもよい。あるいは、境界計測値をディスク装置105に保存するときに、これまでに計測された境界計測値との連続性を比較して保存するか否かを判断するようにしてもよい。
ステップS107では、境界計測値収集処理を終了するか否かを判定する。境界計測値収集処理の終了の判定は、例えば、ユーザにより終了指示操作がなされたか否かを判定することにより行なう。境界計測値の収集を続ける場合には、ステップS102に戻り、そうでない場合には、境界計測値収集処理を終了する。
なお、本実施形態では、境界計測値を収集する過程において、ステップS106で境界計測値を逐一ディスク装置105に保存しているが、境界計測値を収集する過程では境界計測値をRAM102に保持しておき、境界計測値収集処理を終了する時点で一括してディスク装置105に保存するようにしてもよいことはいうまでもない。
次に、第1実施形態による複合現実感提示処理について説明する。図4は、第1実施形態の複合現実感装置において、ステップS200で行われる複合現実感提示処理の詳細を示すフローチャートである。
ステップS201では、複合現実感提示処理に必要な初期化を行う。例えば、CPU101は、仮想世界CGオブジェクトデータ、警告用CGオブジェクトデータ、境界計測値CGオブジェクトデータ、境界計測値収集処理(S100)で保存された境界計測値データ、警告用音声データやプログラム制御データなどの必要なデータをディスク装置105から読み出し、RAM102に書き込む。
ステップS202において、画像入力装置108は撮像装置202によって撮像された本装置の使用者の視点からの現実世界画像を入力し、RAM102に書き込む。CPU101はRAM102から画像を読み出し、必要に応じて補正処理を行った後に、画像出力装置104のグラフィックスメモリ上のフレーム・バッファに書き込む。なお、RAM102を介さずに、画像入力装置108が入力した画像を画像出力装置104のグラフィックスメモリ上のフレーム・バッファに直接書き込むようにしてもよい。なお、表示装置201に光学シースルー型の表示装置を用いる場合には、ステップS202の処理は行わなくてよい。
ステップS203において、入力装置107はセンサ部300のセンサ制御装置303が出力した計測値を取得する。CPU101は、取得した計測値を本装置の使用者の視点での位置・姿勢に変換し、RAM102に書き込む。ステップS204では、ディスク装置106からステップS100の境界計測値収集処理によって計測された境界計測値を読み込み、RAM102に格納する。CPU101は、ステップS203において変換した本装置の使用者の視点位置とRAM102に格納した複数の境界計測値群とを照合し、本装置の使用者の視点位置が、図8で説明した安全領域40内に存在するか否かを判定する。視点位置が安全領域40の内部に存在しない場合には警告音声を出力する。なお、図8に示した警告領域50にあるときと、安全領域40にも警告領域50にも存在しない(移動可能領域60の外)ときとで警告の内容を変更してもよい。
本装置の使用者の視点位置が安全領域40、警告領域50の内部に存在するか否かを判定するためには、例えば以下のようにして行う。ここでは、境界計測点30はすべて地平面上に存在する点群であるとし、その座標は2次元であるものとする。また、安全領域40は、移動可能領域60の内側に存在し、移動可能領域60と相似であるものとする。警告領域50は、移動可能領域60から安全領域40を除いた領域であるとする。また、安全領域40の大きさはある定数k(kは0から1までの任意の実数)によって定められる。安全領域40はk=0のときには大きさが0となり存在しないこととなる。また、k=1のときには移動可能領域60と一致し、警告領域50は存在しないこととなる。
まず移動可能領域、安全領域、警告領域の設定方法の一例を図11を参照して説明する。最初に、境界計測点群をP(P1、P2…)としたとき、これら境界計測点群Pの重心となる点Gを求める。次に、点Gと境界計測点群P中の任意の1点Pnとを結ぶ線分について、線分をk:(1−k)の比に分割する点Qnを求める。点Qnは安全領域40と警告領域50の境界上の点となる。すべての境界計測点群Pについて点Q1、Q2…を求め、その集合を警告領域境界点群Qとする。
次に、点群P及びQから安全領域40と警告領域50を定める。点群Pを構成する各点を順に結ぶことにより、または点群Qを構成する各点を順に線で結んでいくことによって、ある閉領域の輪郭線を構成することができる。点群Pから構成される閉領域が移動可能領域60、点群Qから構成される閉領域が安全領域40である。点群から三角形メッシュで各領域を分割することによって、これらの閉領域を求めることができる。
点群から三角形メッシュを構成して領域を分割するための手段には、デローニ(Delaunay)の領域分割法が広く知られている。デローニの分割法は、与えられた点群中の任意の3点を頂点とし、その外接円の内側に点群中の他のいずれの点も含まない三角形を、点群中のすべての点について構成する方法である。
点群P∪Qと、点群Qのそれぞれについて、デローニの領域分割法などの領域を分割する手段を適用して、三角形メッシュMおよびSを構成する。点群P∪Qについて構成された三角形メッシュMは移動可能領域60を構成し、点群Qについて構成された三角形メッシュSは安全領域40を構成する三角形メッシュである。三角形メッシュMからSを除いたものが、警告領域50を構成する三角形メッシュAである。
以上のようにして安全領域40と警告領域50を定めた後に、ステップS203において取得された本装置の使用者の視点位置Vを地平面上の点V’に射影し、この点V’が三角形メッシュSまたはAを構成する三角形のいずれかの内部に存在するか否かを調べる。点V’が三角形メッシュを構成する三角形のうちのいずれかの内部にあれば、点V’は三角形メッシュに対応する領域の内側に存在すると判定する。すなわち、三角形メッシュSの内部に存在すれば点V'は安全領域40の内側に存在し、三角形メッシュAの内部に存在すれば点V'は警告領域50の内側に存在すると判定する。また、点V’が安全領域40、警告領域50のいずれの内部にも存在しない場合には、視点位置Vは移動可能領域60の外に存在すると判定する。
なお、本実施形態では、境界計測点は地平面上に存在する2次元の点であると仮定したが、境界計測点を3次元の点として扱うことも可能である。その場合、安全領域40、警告領域50、移動可能領域60は3次元閉領域となり、本装置の使用者の視点位置Vが閉領域の内部に存在するか否かを判定することになる。すなわち、点群から閉領域の面をなす三角形メッシュを求め、この三角形メッシュの内部に視点位置Vが存在するか否かを判定すればよい。この場合、三角形メッシュを求める手順は、3次元コンピュータ・グラフィックスの分野において、3次元の点群からCGモデルのポリゴンを構成する手順と同等であり、デローニの領域分割法以外にもフリー・メッシュ法やバブル・メッシュ法など、数多くの方法が提案されており、それらを適用することが可能である。
本実施形態では、閉領域を定めるために境界測定点群から三角形メッシュを構成しているが、この方法に限られるものではない。本装置の使用者の視点位置が安全領域40および警告領域50に存在するか否かを境界測定点群から判定できる手段であれば、どのような方法を用いてもよい。
ステップS205では、ステップS204で判定された本装置の使用者の視点位置が含まれる領域の種類によって、その後の処理を制御する。本装置の使用者の視点位置が安全領域40内に存在する場合には、ステップS207に進む。使用者の視点位置が警告領域50内に存在する場合、または移動可能領域60外である場合には、ステップS206に進む。
ステップS206では、CPU101は警告領域50内または移動可能領域60外である旨の警告音声データをRAM102から読み出し、音声出力装置103に送出する。このようなステップS206の処理によって、本装置の使用者に対して、現在、移動可能領域60の限界付近である旨をより明確に通知することが可能となる。なお、警告音声を出力しない場合には、ステップS206の処理は行わなくてもよい。
ステップS207では、CPU101はRAM102から仮想世界のCGオブジェクトのデータを読み出し、ステップS203で算出した本装置の使用者の視点位置・姿勢からCGを描画して、グラフィックスメモリ上に出力する。画像出力装置104は、グラフィックスメモリ上の各種バッファに描画されたデータを合成し、表示装置201に対して画像信号を送出する。画像出力装置104がグラフィックスアクセラレータ等の描画専用の演算装置を具備している場合には、ステップS207のすべての処理を画像出力装置104が行う。
また、ステップS205において視点位置が警告領域50内に存在すると判定された場合には、CPU101はさらに境界計測値を地平面に射影した座標に境界計測値描画用CGを描画する。このことによって、本装置の使用者に対して、現在の使用者の位置が移動可能領域60の限界付近である旨を視覚的に通知することが可能となる。また、視点位置が警告領域50内に存在すると判定された場合には、境界計測値描画用CGの替わりに、警告領域50の地平面や領域の境界線をCGで描画することによって、本装置の使用者に対して、移動可能領域60の限界付近である旨を通知してもよい。なお、ステップS205において、視点位置が移動可能領域60の外であると判定された場合には、ステップS207の処理は行わないようにしてもよい。ステップS208では複合現実感提示処理を続けるか否か(終了指示の有無)を判定し、処理を続行する場合にはステップS202に戻る。一方、処理を終了する場合には本複合現実感提示処理を終了する。
図9には、表示部200に表示される画像の例を示している。図9の方形の枠内は表示部200に表示される合成画像90を表している。合成画像90は、現実世界の画像に対して仮想世界の画像を重畳した画像である。ステップS205において、使用者の視点位置が安全領域40の内部に存在すると判定された場合には、合成画像90は不図示の現実世界画像と仮想CGオブジェクト81とで構成される。これに対し、使用者の視点位置が警告領域50の内部に存在すると判定された場合には、合成画像90は、不図示の現実世界画像と仮想CGオブジェクト81に加えて、境界計測点CGオブジェクト31、移動可能領域CGオブジェクト61、インジケータCGオブジェクト71から構成されることになる。
仮想CGオブジェクト81は、本装置において使用者に対して提示される主たるCGオブジェクトであり、ステップS207において仮想画像としてCGで描画される。境界計測点CGオブジェクト31は、本装置の使用者に対して、現実世界では観測できない境界計測点の位置を示すためのCGオブジェクトである。また、インジケータCGオブジェクト71は、本装置の使用者に対して、境界計測点CGオブジェクト31が表示されている位置を補助的に示すためのCGオブジェクトである。境界計測点CGオブジェクト31およびインジケータCGオブジェクト71は、ステップS207において、ステップS100で収集した境界計測値の座標を示すように仮想画像としてCGで描画される。なお、図9では境界計測点CGオブジェクトを×印で、インジケータCGオブジェクト71を矢印で表現しているが、これらは一例であり、どのような形状のCGオブジェクトを描画してもよい。
移動可能領域CGオブジェクト61は、本装置の使用者に対して、現実世界では観測できない移動可能領域60を示すためのCGオブジェクトである。ステップS207において、例えば、地平面上の移動可能領域60に対応する部分を特定の色を持つポリゴンやワイヤフレームのCGで仮想画像として描画することによって、本装置の使用者に移動可能領域60の範囲を示すことができる。
なお、本実施形態では、移動可能領域60を示すためのCGオブジェクトを表示しているが、安全領域40、警告領域50を示すためのCGオブジェクトを表示させるようにしてもよい。
また、本実施形態では、境界計測点CGオブジェクト31、移動可能領域CGオブジェクト61、インジケータCGオブジェクト71をすべて表示しているが、これらのCGオブジェクトのうちの一部のみを表示するようにしたり、本装置の使用者のまたは図示しないオペレータの操作によって、夫々のCGオブジェクトの表示・非表示を切り替えられるようにしてもよい。
上述したように、ステップS207において、使用者の視点位置が安全領域40の内部に存在すると判定されたときには、合成画像90は図示しない現実世界画像と仮想CGオブジェクト81から構成され、境界計測点CGオブジェクト31、移動可能領域CGオブジェクト61、インジケータCGオブジェクト71は描画しない。なお、ステップS207において、使用者の視点位置が安全領域40の内部に存在すると判定されたときにおいても、境界計測点CGオブジェクト31、移動可能領域CGオブジェクト61、インジケータCGオブジェクト71のすべてあるいは一部を描画するようにしてもよい。または、本装置の使用者または図示しないオペレータの操作によって、夫々のCGオブジェクトの表示・非表示を切り替えられるようにしてもよい。
[第2実施形態]
第1実施形態では、複合現実感提示処理(図2のステップS200)を実行している間は、境界計測値収集処理は行なわない。第2実施形態の複合現実感装置では、ステップS100において境界計測値の収集を行うのに加えて、ステップS200で行われる複合現実感提示処理の中でも境界計測値の収集を行う。これにより、安全領域40、警告領域50、移動可能領域60をリアルタイムで更新可能とし、使用者を移動可能領域の外側に移動させないようにするためのガイドをより適切に行なえるようにする。
第2実施形態における複合現実感装置の概略構成、全体の処理の流れ、ステップS100で行われる境界計測値収集処理の詳細については第1実施形態と同じである。ただし、ステップS100の境界計測値収集処理は必ずしも行わなくてよい。
図10は、第2実施形態の複合現実感装置において、ステップS200で行われる複合現実感提示処理の詳細を示すフローチャートである。図10において、ステップS2010からステップS204までの処理およびステップS206からステップS208までの処理については、第1実施形態と同じである。また、ステップS211〜S215の処理は、第1実施形態のステップS103〜S106に準じた処理である。
ステップS205では、ステップS204で判定された本装置の使用者の視点位置が含まれる領域の種類によって、その後の処理を制御する。本装置の使用者の視点位置が安全領域40内に存在する場合には、ステップS211に進み、警告領域50内に存在する場合または移動可能領域60の外である場合にはステップS212に進む。
ステップS211では、ステップS203で取得した計測値をRAM102に保持する。既に計測値を保持している場合には、古い計測値は破棄する。すなわち、センサ部300によって計測された計測値のうち、最も新しい計測値のみを保持する。ステップS212では、正確な計測値が得られたか否かが判定され、正確な計測値が得られたかどうかを判定する。正確な計測値が得られたと判定された場合はステップS215へ進み、計測値をRAM102に保持し、ステップS206へ進む。一方、正確な計測値が得られなければ、ステップS213へ進み、RAM102に計測値が保持されているか否かを判定する。計測値が保持されている場合にはステップS214に進み、保持されていない場合にはステップS206に進む。ステップS214では、RAM102が保持している計測値を境界計測点30の計測値(境界計測値)として境界計測値データに追加する。なお、境界計測値データの追加(更新)に伴う各領域の三角形メッシュの更新は、上記複合現実感提示処理を終了した後に、オフラインで行なえばよい。あるいは、上記複合現実感提示処理中にバックグランドで処理し、領域のデータを更新するようにしてもよい。
第2実施形態では、ステップS200の複合現実感提示処理の最中に、使用者がセンサ計測領域20の外側に出てしまったときに、そのときの境界計測値を境界計測値データに追加している。このようにすることで、複合現実感を提示しながらにして、境界計測値データの精度を高めていくことができる。また、ステップS100の境界計測値収集処理において収集した境界計測値の数が不充分であることが、ステップS200の複合現実感提示処理の最中に判明した場合においても、対処することが可能となる。
[その他の実施形態]
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
第1実施形態における複合現実感装置の概略構成を示すブロック図である。 第1実施形態における複合現実感装置の全体の処理手順を示すフローチャートである。 第1実施形態における境界計測値収集処理の手順を示すフローチャートである。 第1実施形態における複合現実感提示処理の手順を示すフローチャートである。 第1実施形態による複合現実感装置で使用されるセンサ装置およびセンサ装置の計測領域について説明する図である。 境界計測点について説明する図である。 境界計測点の収集について説明する図である。 安全領域、警告領域、移動可能領域について説明する図である。 第1実施形態による複合現実感装置において表示される画像の例を示した図である。 第2実施形態における複合現実感提示処理の手順を示すフローチャートである。 安全領域、警告領域の設定を説明する図である。

Claims (9)

  1. ユーザの視点位置および方向から観測される現実世界画像と、計測手段により計測された前記視点位置および方向に基づく仮想世界画像を合成して得られる合成画像を提示する複合現実感提示装置による複合現実感提示方法であって、
    記憶手段に記憶された前記計測手段の計測領域に関する情報に基づき、前記計測領域に関する予め定められた報知を行なわない第1領域を、設定手段が設定する設定工程と、
    前記ユーザの視点位置および方向を、前記計測手段が計測する計測工程と、
    前記計測工程で計測された前記ユーザの視点位置が、前記設定工程で設定された前記第1領域内に存在するか否かを、判定手段が判定する判定工程と、
    前記視点位置が前記第1領域内でないと判定された場合、前記ユーザに前記予め定められた報知を報知手段が行なう報知工程と
    前記計測手段から得られる実測値が不自然に変化する直前の位置、或いは計測不能となる直前の位置を前記計測領域の境界位置として、記憶制御手段が前記記憶手段に記憶させる記憶制御工程とを備え
    前記合成画像を前記ユーザに提示中に、前記記憶制御工程と前記設定工程を実行することにより、前記第1領域が随時更新されることを特徴とする複合現実感提示方法。
  2. 前記設定工程により設定される前記第1領域は、水平面上に設定された2次元領域であることを特徴とする請求項1に記載の複合現実感提示方法。
  3. 前記設定工程により設定される前記第1領域は、現実空間中の3次元領域であることを特徴とする請求項1に記載の複合現実感提示方法。
  4. 前記設定工程において前記設定手段は、前記第1領域の周囲に、第2領域を更に設定し、
    前記報知工程において前記報知手段は、前記第2領域に前記視点位置が存在する場合に報知を行なうことを特徴とする請求項1に記載の複合現実感提示方法。
  5. 前記報知工程において前記報知手段は、音声により予め定められた報知を行うことを特徴とする請求項1乃至4のいずれか1項に記載の複合現実感提示方法。
  6. 前記報知工程において前記報知手段は、前記第2領域に前記視点位置が存在する場合に、前記計測手段の計測領域の境界を示す仮想画像を前記合成画像に加えることを特徴とする請求項4に記載の複合現実感提示方法。
  7. ユーザの視点位置および方向から観測される現実世界画像と、前記視点位置および方向に基づく仮想世界画像を合成して得られる合成画像を提示する複合現実感提示装置であって、
    前記ユーザの視点位置および方向を計測する計測手段と、
    前記計測手段の計測領域に関する情報を記憶する記憶手段と、
    前記記憶手段に記憶された情報に基づき、前記計測領域に関する予め定められた報知を行わない領域を設定する設定手段と、
    前記計測手段で計測された前記ユーザの視点位置が、前記設定された領域に存在するか否かを判定する判定手段と、
    前記視点位置が前記設定された領域外であると判定された場合、前記ユーザに前記予め定められた報知を行なう報知手段と
    前記計測手段から得られる実測値が不自然に変化する直前の位置、或いは計測不能となる直前の位置を前記計測領域の境界位置として、前記記憶手段に記憶させる記憶制御手段とを備え、
    前記合成画像を前記ユーザに提示中に、前記記憶制御手段と前記設定手段が機能することにより、前記設定された領域が随時更新されることを特徴とする複合現実感提示装置。
  8. 請求項1乃至のいずれか1項に記載の複合現実感提示方法をコンピュータに実行させるための制御プログラム。
  9. 請求項1乃至のいずれか1項に記載の複合現実感提示方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体。
JP2003406143A 2003-12-04 2003-12-04 複合現実感提示方法および装置 Expired - Fee Related JP4393169B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003406143A JP4393169B2 (ja) 2003-12-04 2003-12-04 複合現実感提示方法および装置
EP04257436A EP1538512B1 (en) 2003-12-04 2004-11-30 Mixed reality exhibiting method and apparatus
DE602004029753T DE602004029753D1 (de) 2003-12-04 2004-11-30 Verfahren und Gerät zur Darstellung von gemischter Realität
US11/002,074 US7330197B2 (en) 2003-12-04 2004-12-03 Mixed reality exhibiting method and apparatus
CNB2004100965595A CN1312555C (zh) 2003-12-04 2004-12-03 复合现实感展现方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003406143A JP4393169B2 (ja) 2003-12-04 2003-12-04 複合現実感提示方法および装置

Publications (3)

Publication Number Publication Date
JP2005165848A JP2005165848A (ja) 2005-06-23
JP2005165848A5 JP2005165848A5 (ja) 2007-01-25
JP4393169B2 true JP4393169B2 (ja) 2010-01-06

Family

ID=34464000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003406143A Expired - Fee Related JP4393169B2 (ja) 2003-12-04 2003-12-04 複合現実感提示方法および装置

Country Status (5)

Country Link
US (1) US7330197B2 (ja)
EP (1) EP1538512B1 (ja)
JP (1) JP4393169B2 (ja)
CN (1) CN1312555C (ja)
DE (1) DE602004029753D1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004265193A (ja) * 2003-03-03 2004-09-24 Canon Inc 情報処理方法、情報処理装置、サーバ装置の制御方法、サーバ装置
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP4594136B2 (ja) * 2005-03-09 2010-12-08 キヤノン株式会社 画像処理方法、画像処理装置
CN100355272C (zh) * 2005-06-24 2007-12-12 清华大学 一种交互式多视点视频系统中虚拟视点的合成方法
DE102005063217C5 (de) * 2005-12-22 2022-08-18 Pilz Gmbh & Co. Kg Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung
JP4834424B2 (ja) * 2006-03-03 2011-12-14 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2008017346A (ja) * 2006-07-07 2008-01-24 Matsushita Electric Works Ltd 映像表示装置、映像信号の歪み補正処理方法
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
KR20090067822A (ko) * 2007-12-21 2009-06-25 삼성전자주식회사 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법
JP5116513B2 (ja) * 2008-03-10 2013-01-09 キヤノン株式会社 画像表示装置及びその制御方法
JP4743305B2 (ja) * 2009-01-06 2011-08-10 ソニー株式会社 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
EP2402838A1 (en) * 2010-07-03 2012-01-04 Fachhochschule Dortmund Methods and device for the determination and/or feedback and/or control of the effective measurement space in motion capturing systems
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
WO2012023509A1 (ja) * 2010-08-18 2012-02-23 シャープ株式会社 キャリブレーションシステム
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) * 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20120113141A1 (en) * 2010-11-09 2012-05-10 Cbs Interactive Inc. Techniques to visualize products using augmented reality
US8937663B2 (en) * 2011-04-01 2015-01-20 Microsoft Corporation Camera and sensor augmented reality techniques
US9262950B2 (en) 2011-04-20 2016-02-16 Microsoft Technology Licensing, Llc Augmented reality extrapolation techniques
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
RU2666770C2 (ru) 2011-12-14 2018-09-12 Филипс Лайтинг Холдинг Б.В. Устройство для управления освещением
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
US9030495B2 (en) 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
TWI486629B (zh) * 2012-11-21 2015-06-01 Ind Tech Res Inst 穿透型頭部穿戴式顯示系統與互動操作方法
US9812046B2 (en) 2013-01-10 2017-11-07 Microsoft Technology Licensing, Llc Mixed reality display accommodation
US9566509B2 (en) * 2013-03-12 2017-02-14 Disney Enterprises, Inc. Adaptive rendered environments using user context
US10156548B2 (en) * 2013-07-31 2018-12-18 Olympus Scientific Solutions Americas Inc. System and method of non-destructive inspection with a visual scanning guide
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
GB201404732D0 (en) * 2014-03-17 2014-04-30 Sony Comp Entertainment Europe Virtual Reality
CN104216520B (zh) * 2014-09-09 2018-07-06 联想(北京)有限公司 一种信息处理方法及电子设备
WO2016073783A1 (en) 2014-11-05 2016-05-12 Valve Corporation Sensory feedback systems and methods for guiding users in virtual reality environments
US9851786B2 (en) * 2014-12-10 2017-12-26 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US9690367B2 (en) * 2014-12-10 2017-06-27 Sixense Entertainment, Inc. System and method for assisting a user in locating physical objects while the user is in a virtual reality environment
DE102014018425A1 (de) * 2014-12-11 2016-06-16 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und Anzeigesystem mit einer Virtual-Reality-Brille
JP6122459B2 (ja) * 2015-03-31 2017-04-26 株式会社コロプラ ポジショントラッキング領域表示システム、及び方法
US20170103574A1 (en) * 2015-10-13 2017-04-13 Google Inc. System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
JP2017099686A (ja) * 2015-12-02 2017-06-08 株式会社ブリリアントサービス ゲーム用ヘッドマウントディスプレイ、ゲーム用ヘッドマウントディスプレイのプログラム、およびゲーム用ヘッドマウントディスプレイの制御方法
JP6363587B2 (ja) 2015-12-14 2018-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および警告提示方法
DE102015226580A1 (de) * 2015-12-22 2017-06-22 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
JP6727807B2 (ja) * 2015-12-29 2020-07-22 株式会社バンダイナムコアミューズメント ゲーム装置及びプログラム
JP6675209B2 (ja) * 2016-01-20 2020-04-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびユーザガイド提示方法
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
CN109478769A (zh) * 2016-07-26 2019-03-15 三菱电机株式会社 缆线可动区域显示装置、缆线可动区域显示方法和缆线可动区域显示程序
JP6955351B2 (ja) * 2017-03-16 2021-10-27 ヤフー株式会社 保護装置、保護方法および保護プログラム
EP3416381A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
JP6403843B1 (ja) * 2017-07-13 2018-10-10 株式会社コロプラ 情報処理方法、情報処理プログラム及び情報処理装置
US10423241B1 (en) 2017-07-31 2019-09-24 Amazon Technologies, Inc. Defining operating areas for virtual reality systems using sensor-equipped operating surfaces
US20190033989A1 (en) * 2017-07-31 2019-01-31 Google Inc. Virtual reality environment boundaries using depth sensors
US10803663B2 (en) * 2017-08-02 2020-10-13 Google Llc Depth sensor aided estimation of virtual reality environment boundaries
JP6401841B1 (ja) * 2017-09-13 2018-10-10 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
WO2019193251A1 (en) * 2018-04-06 2019-10-10 Nokia Technologies Oy Method and apparatus for signaling of viewing extents and viewing space for omnidirectional content
JP6634654B2 (ja) * 2018-06-28 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および警告提示方法
WO2020035633A1 (en) 2018-08-13 2020-02-20 Nokia Technologies Oy An apparatus, a method and a computer program for viewing volume signalling for volumetric video
JP7073228B2 (ja) * 2018-08-23 2022-05-23 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
JP7331462B2 (ja) * 2019-05-24 2023-08-23 京セラドキュメントソリューションズ株式会社 ロボットシステム、ロボット制御方法及び電子装置
JP2022505999A (ja) * 2019-10-15 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの提示方法、装置、機器および記憶媒体
JP6867464B2 (ja) 2019-11-28 2021-04-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および警告提示方法
JP7085578B2 (ja) * 2020-03-10 2022-06-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
EP4118629A4 (en) * 2020-03-13 2024-04-10 Harmonix Music Systems, Inc. VIRTUAL REALITY BOUNDARIES TECHNIQUES, AND RELATED SYSTEMS AND METHODS
CN112509149B (zh) * 2020-12-08 2023-05-02 太原理工大学 基于混合现实的三面六点轴径测量工艺指导系统及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5633993A (en) * 1993-02-10 1997-05-27 The Walt Disney Company Method and apparatus for providing a virtual world sound system
US6690338B1 (en) * 1993-08-23 2004-02-10 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US5757361A (en) * 1996-03-20 1998-05-26 International Business Machines Corporation Method and apparatus in computer systems to selectively map tablet input devices using a virtual boundary
CN1093711C (zh) * 1998-02-06 2002-10-30 财团法人工业技术研究院 全景图象式虚拟现实播放系统和方法
US6833797B2 (en) * 2000-05-26 2004-12-21 Honeywell International Inc. Method, apparatus and computer program product for displaying terrain in rotary wing aircraft
JP3848092B2 (ja) * 2001-03-13 2006-11-22 キヤノン株式会社 画像処理装置及び方法、並びにプログラム
CN1230325C (zh) * 2001-08-13 2005-12-07 厦门雅迅网络股份有限公司 一种车辆越界报警的越界确定方法
JP3762309B2 (ja) * 2002-02-18 2006-04-05 キヤノン株式会社 位置方向測定装置および情報処理方法
EP1349114A3 (en) 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
JP2003283949A (ja) 2002-03-26 2003-10-03 Canon Inc 受信装置
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
JP4065507B2 (ja) 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP4227399B2 (ja) 2002-11-29 2009-02-18 キヤノン株式会社 情報処理方法及び装置
US20040110565A1 (en) * 2002-12-04 2004-06-10 Louis Levesque Mobile electronic video game

Also Published As

Publication number Publication date
EP1538512A2 (en) 2005-06-08
CN1312555C (zh) 2007-04-25
JP2005165848A (ja) 2005-06-23
EP1538512B1 (en) 2010-10-27
CN1627237A (zh) 2005-06-15
US7330197B2 (en) 2008-02-12
EP1538512A3 (en) 2007-01-17
DE602004029753D1 (de) 2010-12-09
US20050123171A1 (en) 2005-06-09

Similar Documents

Publication Publication Date Title
JP4393169B2 (ja) 複合現実感提示方法および装置
JP4642538B2 (ja) 画像処理方法および画像処理装置
JP4401727B2 (ja) 画像表示装置及び方法
US9928653B2 (en) Head mounted display presentation adjustment
JP4757142B2 (ja) 撮影環境校正方法及び情報処理装置
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
EP1404126B1 (en) Video combining apparatus and method
JP4926817B2 (ja) 指標配置情報計測装置および方法
EP1886281B1 (en) Image processing method and image processing apparatus
JP5777786B1 (ja) 情報処理装置、情報処理方法、プログラム
JP2007156561A (ja) 複合現実感提示方法および複合現実感提示システム
EP1437645A2 (en) Position/orientation measurement method, and position/orientation measurement apparatus
JP2004151085A (ja) 情報処理方法及び情報処理装置
JP2007064684A (ja) マーカ配置補助方法及び装置
JP2006048639A (ja) 情報処理方法および情報処理装置
JP2008040832A (ja) 複合現実感提示システム及びその制御方法
JP2006285788A (ja) 複合現実感情報生成装置および方法
US8154548B2 (en) Information processing apparatus and information processing method
US20200107004A1 (en) Information processing apparatus, information processing method, and storage medium
US11232568B2 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium
JP2006267879A (ja) 画像処理方法、画像処理装置、マーカ
JP2007233971A (ja) 画像合成方法及び装置
JP2005327204A (ja) 画像合成システムおよび画像合成方法、および画像合成装置
US11327292B2 (en) Method of operating observation device, observation device, and recording medium
US11055865B2 (en) Image acquisition device and method of operating image acquisition device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091013

R150 Certificate of patent or registration of utility model

Ref document number: 4393169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees