JP4777182B2 - 複合現実感提示装置及びその制御方法、プログラム - Google Patents

複合現実感提示装置及びその制御方法、プログラム Download PDF

Info

Publication number
JP4777182B2
JP4777182B2 JP2006210255A JP2006210255A JP4777182B2 JP 4777182 B2 JP4777182 B2 JP 4777182B2 JP 2006210255 A JP2006210255 A JP 2006210255A JP 2006210255 A JP2006210255 A JP 2006210255A JP 4777182 B2 JP4777182 B2 JP 4777182B2
Authority
JP
Japan
Prior art keywords
pointing
virtual
image
pointing device
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006210255A
Other languages
English (en)
Other versions
JP2008040556A5 (ja
JP2008040556A (ja
Inventor
太一 松井
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006210255A priority Critical patent/JP4777182B2/ja
Priority to US11/830,356 priority patent/US20080030461A1/en
Publication of JP2008040556A publication Critical patent/JP2008040556A/ja
Publication of JP2008040556A5 publication Critical patent/JP2008040556A5/ja
Application granted granted Critical
Publication of JP4777182B2 publication Critical patent/JP4777182B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置及びその制御方法、プログラムに関するものである。
近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した複合現実感提示システムが盛んに提案されている。これらの複合現実感提示システムは、カメラ等の撮像装置によって撮像した現実世界の画像(現実画像)に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像(仮想画像)を合成する。そして、得られる合成画像をヘッドマウントディスプレイ(HMD:Head−Mounted Display)等の表示装置に表示することで、複合現実感をシステムの体験者に提示している。
このような複合現実感提示システムは、現実世界の画像の変化に追従させて仮想世界の画像を生成し、複合現実感を高めるために、システムの体験者の視点位置・姿勢をリアルタイムで取得する必要がある。更には、体験者に対してHMDのような表示装置にリアルタイムに表示する必要がある。このようなシステムにおいて、仮想画像に含まれる仮想物体を指示する技術が提案されている(例えば、特許文献1)。
特開2003−296757号公報
しかしながら、仮想画像をポインティングするデバイスで、なおかつ現実物体をポインティングし、さらにそのポインティング位置を計測できるものはいままでなかった。
本発明は上記の課題を解決するためになされたものであり、仮想画像と現実画像間の間を1つのポインティング装置で操作することを可能にする複合現実感提示装置及びその制御方法、プログラムを提供することを目的とする。
上記の目的を達成するための本発明による複合現実感提示装置は以下の構成を備える。即ち、
撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置であって、
ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、当該ポインティング装置の位置姿勢情報に基づいて計測する第一計測手段と、
前記現実物体上の前記ポインティング位置を前記撮像装置が撮像して得られる撮像画像中の前記ポインティング位置と、該撮像装置の位置姿勢情報に基づいて、該ポインティング位置を計測する第二計測手段と、
前記第一計測手段と前記第二計測手段との計測結果に基づいて、前記ポインティング装置の指示する現実ポインティング位置を計測する現実ポインティング位置計測手段と、
前記ポインティング装置の位置姿勢情報に基づいて、当該ポインティング装置と同一の始点から同一の方向に、仮想物体を指示する仮想ポインティング装置を生成する生成手段と、
前記仮想ポインティング装置が指示する方向により前記仮想物体上を指している位置である仮想ポインティング位置を、当該仮想ポインティング装置の指示する始点及び方向と前記仮想物体の情報とに基づいて計測する仮想ポインティング位置計測手段と
を備える。
また、好ましくは、前記現実ポインティング位置計測手段と前記仮想ポインティング位置計測手段との計測結果に基づいて、前記現実画像と前記仮想画像を合成して表示する表示手段を更に備える。
また、好ましくは、前記表示手段は、更に、前記仮想ポインティング位置を示す指標を前記仮想画像上に表示する。
また、好ましくは、前記第二計測手段は、前記ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、複数の前記撮像装置それぞれが撮像して得られる撮像画像中の前記ポインティング位置と、該複数の撮像装置それぞれの位置姿勢情報に基づいて、計測する。
また、好ましくは、前記現実ポインティング位置を示す位置情報と、前記仮想ポインティング位置を示す位置情報とを取得して、両者間の距離を算出する算出手段を更に備える。
また、好ましくは、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在するか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて、前記ポインティング装置の駆動、及び前記仮想ポインティング位置を示す指標の表示を制御する制御手段と
を更に備える。
また、好ましくは、前記判定手段の判定の結果、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在する場合、前記ポインティング装置の駆動を停止し、及び前記仮想ポインティング位置を示す指標を前記仮想画像上に表示する。
また、好ましくは、前記判定手段の判定の結果、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在しない場合、前記ポインティング装置を駆動し、及び前記仮想ポインティング位置を示す指標の表示を禁止する。
また、好ましくは、前記判定手段の判定の結果、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在しない場合、前記ポインティング装置を駆動し、及び前記仮想ポインティング位置を示す指標の表示形態を、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在する場合の前記仮想ポインティング位置を示す指標の表示形態と異ならせて表示する。
上記の目的を達成するための本発明による複合現実感提示装置の制御方法は以下の構成を備える。即ち、
撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置の制御方法であって、
第一計測手段が、ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、当該ポインティング装置の位置姿勢情報に基づいて計測する第一計測工程と、
第二計測手段が、前記現実物体上の前記ポインティング位置を前記撮像装置が撮像して得られる撮像画像中の前記ポインティング位置と、該撮像装置の位置姿勢情報に基づいて、該ポインティング位置を計測する第二計測工程と、
現実ポインティング位置計測手段が、前記第一計測工程と前記第二計測工程との計測結果に基づいて、前記ポインティング装置の指示する現実ポインティング位置を計測する現実ポインティング位置計測工程と、
生成手段が、前記ポインティング装置の位置姿勢情報に基づいて、当該ポインティング装置と同一の始点から同一の方向に、仮想物体を指示する仮想ポインティング装置を生成する生成工程と、
仮想ポインティング位置計測手段が、前記仮想ポインティング装置が指示する方向により前記仮想物体上を指している位置である仮想ポインティング位置を、当該仮想ポインティング装置の指示する始点及び方向と前記仮想物体の情報とに基づいて計測する仮想ポインティング位置計測工程と
を備える。
上記の目的を達成するための本発明によるプログラムは以下の構成を備える。即ち、
撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置の制御をコンピュータに実行させるための、コンピュータ可読媒体に記憶されたプログラムであって、
前記コンピュータを
ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、当該ポインティング装置の位置姿勢情報に基づいて計測する第一計測手段と、
前記現実物体上の前記ポインティング位置を前記撮像装置が撮像して得られる撮像画像中の前記ポインティング位置と、該撮像装置の位置姿勢情報に基づいて、該ポインティング位置を計測する第二計測手段と、
前記第一計測手段と前記第二計測手段との計測結果に基づいて、前記ポインティング装置の指示する現実ポインティング位置を計測する現実ポインティング位置計測手段と、
前記ポインティング装置の位置姿勢情報に基づいて、当該ポインティング装置と同一の始点から同一の方向に、仮想物体を指示する仮想ポインティング装置を生成する生成手段と、
前記仮想ポインティング装置が指示する方向により前記仮想物体上を指している位置である仮想ポインティング位置を、当該仮想ポインティング装置の指示する始点及び方向と前記仮想物体の情報とに基づいて計測する仮想ポインティング位置計測手段と
して機能させる。
本発明によれば、仮想画像と現実画像間の間を1つのポインティング装置で操作することを可能にする複合現実感提示装置及びその制御方法、プログラムを提供できる。
複合現実感提示システムでは、センサ装置によって計測した体験者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像(仮想画像)をCGにより描画して、現実世界の画像(現実画像)と合成する。
また、HMD(ヘッドマウントディスプレイ)は、複合現実感の提示のため、複合現実感システムの体験者の視野には、HMDの表示装置の表示があり、かつ、HMDの表示装置の表示には仮想画像が描画された領域が含まれる。そのため、複合現実感提示システムの体験者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができる。さらに、複合現実感の世界では、現実画像に仮想画像を合成(重畳)して表示することができ、それによって仮想画像の見かけを持った現実画像を、体験者は仮想のポインティング装置を用いれば計測することができる。
このように、複合現実感提示システムでは、現実の画像を撮像するための現実画像撮像部と、現実画像撮像部の位置姿勢から見たように仮想画像を生成する仮想画像生成部と、両者を合成して表示する画像表示部を備える。更には、複合現実感提示システムでは、現実画像撮像部の視線の位置姿勢が変わる場合でも、仮想画像と現実画像との位置関係を正しく表示するために、現実画像撮像部の視線位置・視線方向を検出する視線位置姿勢検出部(例えば、位置姿勢センサ)を備える。
現実空間の画像を撮像する現実画像撮像部は、例えば、ビデオカメラであり、カメラの視線方向にある現実空間を撮像し、その撮像画像をメモリ中にキャプチャする。
仮想画像生成部は、仮想画像(例えば、三次元モデリングされたCG)を現実空間と同じスケール(基準)の仮想空間に置き、視線位置姿勢検出部によって検出された視線位置、視線方向から観察されたものとして仮想画像をレンダリングする。
この仮想画像と、現実画像撮像部によって撮像された現実画像とを合成すると、結果として、どの視線位置・視線方向から観察した場合でも、現実画像中に仮想画像(CGオブジェクト)が配置されているような画像を表示することができる。
仮想画像に用いるCGの種類や配置の変更、アニメーション等は、一般的なCGと同様の手法で、自由に行える。CGの位置姿勢を指定するためにさらなる位置姿勢センサを備えて位置姿勢センサの値が示す場所にCGを描画することも可能である。このような構成においては、観察者は位置姿勢センサを手に持ち、その位置姿勢センサによってCGを表示したい位置姿勢を指定しながら観察することが従来から行われている。
現実画像と仮想画像とを合成して表示する画像表示装置としては、上述のように、例えば、HMDが用いられる。通常のモニタでなく、HMDを装着し、さらに現実画像撮像部をHMDの視線方向に取り付けることにより、観察者が向いている方向の画像をHMDに映し出すことができる。また、その方向を向いたときの仮想画像の描画も行えるため、観察者の没入感を高めることができる。
視線位置姿勢検出部としては、例えば、磁気方式の位置姿勢センサ等が用いられる。このような位置姿勢センサを、現実画像撮像部であるビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付けることで、視線の位置姿勢情報を検出することができる。
このような構成により、観察者は、HMD等の画像表示部を通じて、現実画像と仮想画像が合成された画像を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実画像撮像装置(ビデオカメラ)が現実画像を撮像し、HMDに備え付けられた視線位置姿勢検出部(位置姿勢センサ)がビデオカメラの位置視線方向を検出する。これに応じて、仮想画像生成部がその視線位置・姿勢から見た仮想画像をレンダリングし、これを現実画像に合成して画像表示部に表示することが可能である。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
実施形態1では、体験者が複合現実世界の中で仮想物体と現実物体を一つのポインティング装置でシームレスにポインティングと計測を行う構成を実現するものである。
まず、複合現実感提示システムの構成について、図1を用いて説明する。
図1は本発明の実施形態1の複合現実感提示システムの構成を示す図である。
複合現実感提示システムは、システム制御部101、撮像装置121及びポインティング装置120で構成される。
システム制御部101は、システム全体をコントロールするユニットである。このシステム制御部101は、現実画像入力部102、撮像装置位置姿勢管理部103、現実ポインティング画像位置計測部104と現実ポインティング位置計測部105を備える。また、このシステム制御部101は、ポインティング装置位置姿勢管理部106、現実ポインティング空間位置計測部107、仮想ポインティング装置生成部108、仮想物体管理部109、仮想ポインティング位置計測部110と画像合成部111を備える。
尚、システム制御部101は、例えば、汎用コンピュータ等のパーソナルコンピュータで実現することができる。このパーソナルコンピュータは、汎用コンピュータに搭載される標準的な構成要素(例えば、CPU、RAM、ROM、ハードディスク、外部記憶装置、ネットワークインタフェース、ディスプレイ、キーボード、マウス等)を有している。そして、この汎用コンピュータのCPUが、RAMやROMに記憶されている制御プログラム等の各種プログラムを読み出し実行することによって、システム制御部101の各種構成要素を実現することが可能である。もちろん、システム制御部101の各種構成要素の全部あるいは少なくとも一部が専用のハードウェアで実現されても良い。
次に、現実物体のポインティング位置計測について説明する。
ポインティング装置120は、一定基準で現実物体をポインティングするものである。ポインティング装置120の位置姿勢は、予め決められた位置姿勢に置かれている状態にある。あるいは、移動可能であるがその位置姿勢は常に計測されているかのどちらかの状態にある。どちらの状態の場合でも、ポインティング装置120の位置姿勢を示す位置姿勢情報は、ポインティング装置位置姿勢管理部106によって管理されている。
尚、ポインティング装置120が移動可能である場合には、自身の位置姿勢情報を検出するための位置姿勢センサ120aが内蔵されていて、その位置姿勢情報は、ポインティング装置位置姿勢管理部106へ送信される。
ポインティング装置位置姿勢管理部106は、ポインティング装置120の位置姿勢情報を現実ポインティング空間位置計測部107に送信する。現実ポインティング空間位置計測部107では、ポインティング装置120の位置姿勢情報と、そのポインティング装置120が指し示す一定の基準(例えば、XYZ座標系)によってポイントしている位置を限定する。例えば、ポインティング装置120が、レーザポインタであれば直線上に限定する。これを一次計測工程と呼ぶ。現実ポインティング空間位置計測部107は、一次計測工程の結果を、現実ポインティング位置計測部105に送信する。
撮像装置121の位置姿勢は、予め決められた位置姿勢に置かれている状態にある。あるいは、移動可能であるがその位置姿勢は常に計測されているかのどちらかの状態にある。どちらの状態の場合でも、撮像装置121の位置姿勢を示す位置姿勢情報は、撮像装置位置姿勢管理部103によって管理されている。
尚、撮像装置121が移動可能である場合には、自身の位置姿勢情報を検出するための位置姿勢センサ121aが内蔵されていて、その位置姿勢情報は、撮像装置位置姿勢管理部103に送信される。
撮像装置位置姿勢管理部103は、撮像装置121の位置姿勢情報を現実ポインティング画像位置計測部104に送信する。撮像装置121は、ポインティング装置120がポイントしている位置を撮像し、得られる撮像画像は、現実画像入力部102に送信される。現実画像入力部102は、入力した撮像画像を現実画像として一旦現実画像メモリ(不図示)に記憶し、その撮像画像を現実ポインティング画像位置計測部104に送信する。
現実ポインティング画像位置計測部104は、撮像画像中からポインティング装置120のポインティング位置を計測する。計測方法は、例えば、ポインティング装置120から出力される色、形状、表示形態等の特徴量に基づいて行う。例えば、ポインティング装置が物体に赤い点をマークするものであれば、その赤い点を撮像画像中から検出する。ここで、撮像画像中から特定の色を検出する工程は既知の技術であるため、その詳細は省略する。
撮像画像中のポインティング位置と撮像装置121の位置姿勢情報から、そのポインティング位置は限定される。これを二次計測工程と呼ぶ。現実ポインティング画像位置計測部104は、二次計測工程の結果を、現実ポインティング位置計測部105に送信する。
現実ポインティング位置計測部105は、一次計測工程の結果と二次計測工程の結果を合わせ、三角測量法によりポインティング装置120の現実ポインティング位置を計測する。
次に、仮想物体のポインティング位置計測について説明する。
ポインティング装置位置姿勢管理部106は、仮想ポインティング装置生成部108にポインティング装置120の位置姿勢情報を送信する。
仮想ポインティング装置生成部108は、現実ポインティング装置(ポインティング装置120)と同一基準で仮想世界(仮想物体)を指す仮想ポインティング装置を生成する。同一基準とは、現実ポインティング装置がレーザポインティング装置であり、発射されるレーザが直線上の現実物体を指すとすると、仮想ポインティング装置も同様に現実ポインティング装置と同一の始点から同一の方向の仮想物体を指すことを意味する。
仮想ポインティング装置生成部108は、この仮想ポインティング装置を生成し、仮想ポインティング位置計測部110に、その仮想ポインティング装置の始点と仮想世界の中で指し示す方向を送信する。仮想物体管理部109は、仮想世界の構造(例えば、仮想物体を示す仮想画像)を管理していて、その管理構造を仮想ポインティング位置計測部110に送信する。
仮想ポインティング位置計測部110は、仮想世界の管理構造と仮想ポインティング装置の始点と方向から仮想ポインティング装置がどこを指しているか計測する。
次に、現実物体のポインティング位置計測結果と、仮想物体のポインティング位置計測結果に基づく複合現実画像の生成について説明する。
上述のように、現実ポインティング位置計測部105によって、撮像画像中の現実ポインティング位置が計測され、仮想ポインティング位置計測部110によって、仮想ポインティング位置が計測される。そして、これらのポインティング位置は、同一の基準(座標系)で管理されているので、表示部121bで表示されている現実画像と仮想画像を含む画像中のどの位置に、ポインティング位置が属しているかを画像合成部111は判定することができる。
そのため、ポインティング装置120が現実物体を指示している場合には、その現実ポインティング位置が表示部121bに表示される現実物体上に表示される。一方、ポインティング装置120が仮想物体を指示している場合には、仮想ポインティング装置に切り替わり、その仮想物体上の仮想ポインティング位置が表示部121bに表示される仮想物体上に表示される。
次に、具体的な操作例について、図2〜図4を用いて説明する。
図2〜図4は本発明の実施形態1の複合現実感提示システムの操作例を説明するための図である。
図2では、体験者200が、ポインティング装置120(例えば、レーザポインティング装置)を所持して、現実物体203を指している様子を示している。ポインティング装置120は、現実物体203上の点202を指示している。この場合、体験者200は、撮像装置121の表示部121bにおいて、図2の状態を観察していることになる。
図3は、図2の状態に仮想物体204を配置した状態である。仮想物体204は、体験者200と現実物体203の間に存在している。ポインティング装置120には、仮想ポインティング装置が実現されていて、仮想物体204上の点205を指示している。この場合、体験者200は、撮像装置121の表示部121bにおいて、図3の状態を観察していることになる。
図4では、体験者200がポインティング装置120を所持して、現実物体203上の点202を指示し、さらにポインティング装置120を動かして仮想物体204上の点205を指示する。この場合、体験者200は、撮像装置121の表示部121bにおいて、図4の状態を観察していることになる。
そして、体験者200は、この状態において、例えば、現実物体203から仮想物体204へ、そのポインティング位置を移動することが可能となる。つまり、例えば、現実物体203の点202から、仮想物体204の点205へ移動する場合には、現実ポインティング装置の現実ポインティング位置(点202)が仮想ポインティング装置の仮想ポインティング位置(点205)へ移動する。
より具体的には、システム制御部101は、ポインティング装置120の現実ポインティング位置が仮想物体を示す画像領域に進入する(属する)場合には、仮想ポインティング装置に切り替わる。そして、この仮想ポインティング装置による仮想ポインティング位置が仮想物体上に表示されることになる。
以上のように、実施形態1では、現実物体203の点(現実ポインティング位置)202と仮想物体204の点205(仮想ポインティング位置)を検出することができるので、両点間の距離206を算出することができる。具体的には、現実ポインティング位置202と仮想ポインティング位置205のそれぞれの位置情報をメモリに記憶して、それらの位置情報に基づいて、両者間の距離206を算出することができる。
尚、位置情報のメモリへの記憶は、例えば、ポインティング装置120に専用のスイッチ等の位置情報入力部を設け、この位置情報入力部に対する操作がある場合に、ポインティング装置120が指示している位置情報を入力する。
次に、実施形態1の複合現実感提示システムが実行する処理について、図5を用いて説明する。
図5は本発明の実施形態1の複合現実感提示システムが実行する処理を示すフローチャートである。
尚、図5の処理は、システム制御部101のCPUが、ROMに記憶されるプログラムを読み出し実行することによって実現される。
まず、ステップS101で、現実画像入力部102で、現実画像を入力する。ここで、現実画像入力部102は、撮像装置121を用いて画像を撮像して入力し、その撮像画像を現実画像として現実画像メモリ(不図示)に記憶する。
次に、ステップS102で、撮像装置位置姿勢管理部103及びポインティング装置位置姿勢管理部106から、撮像装置121及びポインティング装置120の位置姿勢情報をそれぞれ検出する。これらは、メモリ(不図示)に記憶される。
ステップS103で、仮想画像を更新する。これは、ポインティング装置120の位置姿勢情報に基づいて、仮想ポインティング装置の位置姿勢を更新する。
ステップS104で、仮想ポインティング位置計測部110で、仮想物体画像及び仮想ポインティング装置を含む仮想画像を仮想画像メモリ(不図示)に記憶する。ここでは、撮像装置121の位置姿勢情報が示す撮像装置121の位置姿勢から見たとおりに仮想画像をレンダリングして仮想画像メモリに記憶する。
特に、ポインティング装置120及び撮像装置121のそれぞれ位置姿勢情報に基づいて、ポインティング装置120が仮想画像を指示している場合には、仮想ポインティング装置を生成する。そして、その仮想画像上の仮想ポインティング位置を示す指標画像を生成して、仮想画像メモリに記憶する。
次に、ステップS105で、画像合成部111は、表示部121bで、現実画像メモリに記憶されている現実画像と、仮想画像メモリに記憶されている仮想画像とを合成した複合現実感画像(MR画像)を表示する。この処理は、従来の複合現実感提示システムで行われている処理と同様のものである。
次に、ステップS106で、処理を終了するか否かを判定する。処理を終了する場合(ステップS106でYES)、複合現実感画像の提示の処理を終了する。一方、処理を終了しない場合(ステップS106でNO)、ステップS101に戻る。これにより、MR画像を連続する動画として提示することが可能である。
尚、撮像装置121がステレオ表示可能な場合、図5の処理を左右の目の視点で繰り返すことでステレオ画像を生成することができる(その場合、撮像装置121は左右の表示に対してそれぞれ必要になる)。もちろん、構成によっては、2台以上の複数の撮像装置で構成されても良い。また、複数台の撮像装置が構成されている場合の処理は、図5の処理を各撮像装置に対して実行し、その処理結果を統合することになる。
以上説明したように、実施形態1によれば、複合現実感提示システムの体験者が複合現実感を体験中に、一つのポインティング装置で現実物体の位置計測と仮想物体の位置計測を同時に行える。これにより、現実物体の位置と仮想物体の位置に跨る距離を計測することができる。
<実施形態2>
実施形態2を説明するにあたり、図9を用いて、従来の複合現実感提示装置の利用例について説明する。
HMD1205を装着した観察者は、ペン状の位置姿勢センサ1201を手に持っている。このペン状の位置姿勢センサ1201には、スイッチがついており、このようなペン状でスイッチを持つ位置姿勢センサとしては、例えば、米国Polhemus社のスタイラスST8がある。
この複合現実感提示装置の例では、スイッチを押すと、ペン状の位置姿勢センサ1210の先端からビームCG1202が描画される。このビームCG1202は、現実のレーザポインティング装置のレーザビームを仮想CGとして模したものである。ビームCG1202は、空間内に配置された仮想のCGオブジェクト1203に当たるまで表示することにより、このビームCG1202によってCGオブジェクト1203を指し示したように見せることが可能である。
ここで、ビームCG1202とCGオブジェクト1203の当たり判定は、従来の技術によって可能である。ビームCG1202がCGオブジェクト1203と当たった場所がわかりやすいように、その位置に指示マーク(指票)CG1204(図9では、塗りつぶした円形)を描画することも可能である。また、ビームCG1202のような線状のCGは描画せずに、指示マークCG1204のみを描画することも可能である。
以上説明したようなシステムは、従来の複合現実感提示システムの技術で実現可能なものである。
また、現実物体をレーザビームによってポイント指示するような、レーザポインタと呼ばれる装置は一般に販売されている。
しかしながら、従来のシステムでは、図9に示す指示マークCG1204は、CGオブジェクト1203に当たる位置に表示される。そのため、ビームCG1202がCGオブジェクト1203に当たれば、指示マークCG1204によってオブジェクトCG1203を指し示すことができる。
しかしながら、複合現実感提示装置は、仮想のCGオブジェクトも現実のオブジェクト(部屋の壁・床や人間等)を合成して提示するものである。図9に示すビームCG1202や指示マークCG1204によれば、仮想のオブジェクトCGは指し示すことができるが、現実のオブジェクトを指し示すことはできない。
また、図10(A)に示すように、ビームCG1202がCGオブジェクト1203に当たらない場合は、どこまでビームCG1202を延長してよいかわからなかった。図10(A)の例では、現実オブジェクト1206とビームCG1202の当たり判定を行わない。そのため、図10(A)に示すように、ビームCG1202は現実オブジェクト1203を突き抜けたように描画されてしまっている。
この課題を解決するために、CGビーム1202と現実オブジェクト1206との当たり判定を可能な構成にすれば、図10(B)のように正しく現実オブジェクトを指し示すことが可能である。この当たり判定を可能にするためには、現実オブジェクトの形状や位置姿勢を検出する構成を加える必要がある。但し、現実オブジェクトは、壁のように固定されているものばかりと限らず移動するものがあるため(例えば、人間等が挙げられる)、現実オブジェクトの位置姿勢を動的に検出する必要があり、そのためには大掛かりな装置を要するという課題があった。
そこで、この課題を解決するために、実施形態1では、仮想ポインティング装置と現実ポインティング装置を合わせて持った構成について説明した。この構成では、仮想レーザポインティング装置は、CGオブジェクト上に指示マークCGのみを表示する(レーザビームは表示しない)。
このような構成によって、現実オブジェクトへは現実のレーザビームがポイントし、仮想オブジェクトへは仮想のレーザポインタが指示マークCGによってポイントすることが可能である。しかしながら、図11に示すように、CGオブジェクト1203には、指示マークCG1204が表示される。しかしながら、この状況の場合、現実ポインティング装置の現実ポインティング位置1207は、CGオブジェクト1203で遮蔽されないので、背後の現実オブジェクト1206に生成されることになる。このように、実施形態1の構成では、操作者の意図が正しく伝わらないという可能性がある。
そこで、実施形態2では、実施形態1の構成を改良した構成について説明する。
図6は本発明の実施形態2の複合現実感提示システムの構成を示す図である。
特に、図6の構成は、観察者一人分の複合現実感を提示する構成を示している。
図6に示す構成では、PC(パーソナルコンピュータ)1101に、ポインティング装置1102、位置姿勢センサコントローラ1103、HMD1104、撮像装置(例えば、ビデオカメラ)1105、メモリ1106、1107が接続されている。
PC1101は、HMD1104に画像を出力するためのビデオ出力デバイス(ビデオカード)と、撮像装置1105の画像をキャプチャするためのビデオキャプチャデバイス(ビデオキャプチャカード)を内部に有しているものとする。HMD1104はビデオ出力デバイスに、撮像装置1105はビデオキャプチャデバイスにそれぞれ接続されている。
位置姿勢センサコントローラ1103は、PC1101のインタフェースに接続されている。このインタフェースには、例えば、USBインタフェースやシリアルポートがある。位置姿勢センサ1108、1109は位置姿勢センサコントローラ1103に接続させられている。位置姿勢センサ1108はHMD1104に搭載され、HMD1104に搭載されている撮像装置1105の視線位置姿勢を検出するために用いられる。また、位置姿勢センサ1109は、ポインティング装置1102に取り付けられ、ポインティング装置1102の位置姿勢を検出するために用いられる。
メモリ1106、1107はPC1101のバスに接続されている。メモリ1106と1107は、物理的に異なる物理メモリであっても、1つの物理メモリ上に論理的に構成されていても構わない。
実施形態2で描画する仮想画像は、PC1101のメモリ1107中に仮想物体画像データ1125と仮想ポインティング装置データ1126として格納されている。仮想ポインティング装置データ1126は、レーザービームを模したレーザビームCGである。この仮想ポインティング装置データ1126は、ポインティング装置1102に搭載された位置姿勢センサ1109によって位置姿勢が制御され、常に、ポインティング装置1102の先端から前方に伸びるように位置姿勢が操作されるものとする。実施形態2が表示する仮想画像は、仮想物体画像データ1125と仮想ポインティング装置データ1126とである。
次に、図6におけるポインティング装置1102の詳細構成について、図7を用いて説明する。
図7は本発明の実施形態2のポインティング装置の詳細構成を示す図である。
ポインティング装置1102は、現実ポインティング部である現実のレーザポインタ402、位置姿勢センサ1009及びスイッチ401を備えている。スイッチ401は、PC1101に接続されており、ON/OFFの状態は、図6のスイッチ検出部1118によって検出することができる。このスイッチ検出部1118は、例えば、ゲーム用のコントローラ等として一般的に知られている技術であるため、ここではその詳細については説明しない。
レーザポインタ402は、PC1101に接続されており、図6の現実ポインティング装置制御部1117によって、その発光のON/OFFの制御をすることが可能である。レーザポインタ402の制御は、スイッチ401のON/OFFによって、その駆動が制御される。また、この制御についての技術は一般的なものであるため、ここではその詳細については説明しない。
次に、実施形態2の複合現実感提示システムが実行する処理について、図8を用いて説明する。
図8は本発明の実施形態2の複合現実感提示システムが実行する処理を示すフローチャートである。
尚、図8の処理は、PC1101のCPUが、ROMに記憶されるプログラムを読み出し実行することによって実現される。
まず、ステップS501で、現実画像入力部1111で、現実画像を入力する。ここで、現実画像入力部1111は、撮像装置1105を用いて画像を撮像して入力し、その撮像画像を現実画像として現実画像メモリ1121に記憶する。
次に、ステップS502で、位置姿勢検出部1112で、位置姿勢センサ1108、1109を用いて撮像装置1105とポインティング装置1102の位置姿勢情報をそれぞれ検出する。そして、それらを撮像装置位置姿勢情報1122とポインティング装置位置姿勢情報1123としてメモリ1107に記憶する。
ステップS503で、仮想画像を更新する。これは、ポインティング装置位置姿勢情報1123によって、仮想物体画像データ1125中の仮想ポインティング装置データ1126の位置姿勢を更新する。そして、ポインティング装置1102の先端から仮想ポインティング装置データ1126が伸びているように配置する。
尚、実施形態2では、仮想物体画像データ1125の位置姿勢を変更する具体的な構成については、ここでは言及しない。但し、通常は、般的な仮想現実感・複合現実感システムと同様に仮想物体画像データ125を操作するための構成を設けて、仮想物体画像データ1125を操作できるものとする。
ステップS504で、スイッチ検出部1118で、ポインティング装置1102のスイッチ401の押下状態(ON/OFF)を検出し、スイッチ401が押下されている(ONである)か否かを判定する。ONである場合(ステップS504でYES)、ステップS505に進む。一方、OFFである場合(ステップS504でNO)、ステップS510に進む。
ステップS510で、現実ポインティング装置制御部1117で、ポインティング装置1102のレーザポインタ(現実のレーザポインタ)402をOFFにし、レーザポインタ402の発光をOFFする。ステップS511で、仮想ポインティング装置データ1126のHMD1104への表示をOFFにする(既に、OFFである場合は、何もしない)。尚、仮想画像中の仮想オブジェクト(ここでは、仮想ポインティング装置)を動的に非表示状態/表示状態に変更することは、従来技術で容易に行えるものである。
ステップS504において、ポインティング装置1102のスイッチ401がONである場合、ステップS505で、仮想物体存在判定部115で、ポインティング装置11102が指し示す先に仮想物体画像データ1125が存在しているか否かを判定する。
仮想物体存在判定部115は、ポインティング装置位置姿勢情報1123を用いてポインティング装置1102の指し示す方向を判定することができる。また、仮想物体画像データ1125の位置姿勢も既知であるため、ポインティング装置1102が指し示している先に、仮想物体が存在するか否かを判定することは、従来技術で容易に行える。
ステップS505において、仮想物体が存在しない場合(ステップS505でNO)、ステップS506に進む。ステップS506で、現実ポインティング装置制御部1117で、ポインティング装置1102のレーザポインタ(現実のレーザポインタ)402をONにし、レーザポインタ402を発光する。ステップS507で、仮想ポインティング装置データ1126のHMD1104への表示をOFFにする(既に、OFFである場合は、何もしない)。
一方、ステップS505において、仮想物体が存在する場合(ステップS505でYES)、ステップS508に進む。ステップS508で、仮想ポインティング装置生成部1116で、仮想ポインティング装置データ1126によるレーザビームCGをメモリ1107上で描画する。次に、仮想ポインティング装置生成部1116は、仮想ポインティング装置データ1126のHMD1104への表示をONにする(既に、ONである場合、何もしない)。
このとき、仮想ポインティング装置データ1126は、仮想物体画像データ1125が示す仮想物体と交差しているはずである。ここで、仮想ポインティング装置生成部1116は、仮想ポインティング装置データ1126と仮想物体と交差したところから先の仮想ポインティング装置データ1126の表示を消去する処理を行う。交差点から先の表示を消去する手法は一般的に行われている技術で実現できる。
尚、仮想ポインティング装置生成部1116は、仮想ポインティング装置データ1126と仮想物体が交差する位置に、例えば、図9の指示マークCG1204のような指標を表示してもよい。これは、指示位置をわかりやすくするためのもので、例えば、適当な半径の円を描画するものである。仮想ポインティング装置データ1126によるレーザビームCGを描画せずに、このような指標のみのCGを描画してもよい。
ステップS509で、現実ポインティング装置制御部1117によって、ポインティング装置1102中にあるレーザポインタ(現実のレーザポインタ)402をOFFにし、レーザポインタ402の発光を停止させる。
ステップS512で、仮想画像生成部1113で、上述の処理結果に基づいて、仮想物体画像データ1125及び仮想ポインティング装置データ1126を含む仮想画像を仮想画像メモリ1124に記憶する。仮想画像生成部1113は、撮像装置位置姿勢情報1122が示す撮像装置の位置姿勢から見たとおりに仮想画像をレンダリングして仮想画像メモリ1124に記憶する。この処理は、従来の複合現実感提示システムで行われている処理と同様のものである。
次に、ステップS513で、画像表示部1114で、現実画像メモリ1121に記憶されている現実画像と、仮想画像メモリ1124に記憶されている仮想画像とを合成した複合現実感画像(MR画像)を表示部(ここでは、HMD1104)に表示する。この処理は、従来の複合現実感提示システムで行われている処理と同様のものである。
次に、ステップS514で、処理を終了するか否かを判定する。処理を終了する場合(ステップS514でYES)、複合現実感画像の提示の処理を終了する。一方、処理を終了しない場合(ステップS514でNO)、ステップS501に戻る。これにより、MR画像を連続する動画として提示することが可能である。
尚、HMD1104がステレオ表示可能な場合、図8の処理を左右の目の視点で繰り返すことでステレオ画像を生成することができる(その場合、撮像装置1105は左右の表示に対してそれぞれ必要になる)。もちろん、構成によっては、2台以上の複数の撮像装置で構成されても良い。また、複数台の撮像装置が構成されている場合の処理は、図8の処理を各撮像装置に対して実行し、その処理結果を統合することになる。
また、ステップS507及びステップS511で、仮想ポインティング装置データ1126のHMD1104への表示をOFFにする場合は、完全に表示をOFFにしなくても良い。例えば、仮想ポインティング装置データ1126によるレーザビームCGの表示長を所定長に短くする表示であっても良い。この所定長は、例えば、仮想物体に仮想ポインティング装置データ1126が到達しない程度の長さであればどのようなものでも良い。
つまり、実施形態2では、仮想ポインティング装置が指示する指示方向に仮想画像が存在しない場合、仮想ポインティング位置を示す指標の表示形態を、仮想画像が存在する場合の仮想ポインティング位置を示す指標の表示形態と異ならせて表示する。
これにより、ポインティング装置が仮想物体を指し示さなくなった時に、それまで指示方向に表示されていた仮想ポインティング装置データ1126によるレーザビームCGが急に消えてしまい指示方向が一瞬わかりづらくなるおそれを回避することができる。
以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、現実物体と仮想物体との両方に対して、一貫した操作でのポインティングをより効果的に提示することが可能となる。
尚、用途や目的に応じて、実施形態1と2の構成を任意に組み合わせた構成を実現することも可能である。
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給する。そして、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスクがある。また、更に、記録媒体としては、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、その接続先のホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。また、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。
本発明の実施形態1の複合現実感提示システムの構成を示す図である。 本発明の実施形態1の複合現実感提示システムの操作例を説明するための図である。 本発明の実施形態1の複合現実感提示システムの操作例を説明するための図である。 本発明の実施形態1の複合現実感提示システムの操作例を説明するための図である。 本発明の実施形態1の複合現実感提示システムが実行する処理を示すフローチャートである。 本発明の実施形態2の複合現実感提示システムの構成を示す図である。 本発明の実施形態2のポインティング装置の詳細構成を示す図である。 本発明の実施形態2の複合現実感提示システムが実行する処理を示すフローチャートである。 従来の複合現実感提示装置の利用例を説明するための図である。 従来の複合現実感提示装置の利用例を説明するための図である。 複合現実感提示装置の利用例を説明するための図である。
符号の説明
101 システム制御部
102 現実画像入力部
103 撮像装置位置姿勢管理部
104 現実ポインティング画像位置計測部
105 現実ポインティング位置計測部
106 ポインティング装置位置姿勢管理部
107 現実ポインティング位置計測部
108 仮想ポインティング装置生成部
109 仮想物体管理部
110 仮想ポインティング位置計測部
120 ポインティング装置
121 撮像装置

Claims (11)

  1. 撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置であって、
    ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、当該ポインティング装置の位置姿勢情報に基づいて計測する第一計測手段と、
    前記現実物体上の前記ポインティング位置を前記撮像装置が撮像して得られる撮像画像中の前記ポインティング位置と、該撮像装置の位置姿勢情報に基づいて、該ポインティング位置を計測する第二計測手段と、
    前記第一計測手段と前記第二計測手段との計測結果に基づいて、前記ポインティング装置の指示する現実ポインティング位置を計測する現実ポインティング位置計測手段と、
    前記ポインティング装置の位置姿勢情報に基づいて、当該ポインティング装置と同一の始点から同一の方向に、仮想物体を指示する仮想ポインティング装置を生成する生成手段と、
    前記仮想ポインティング装置が指示する方向により前記仮想物体上を指している位置である仮想ポインティング位置を、当該仮想ポインティング装置の指示する始点及び方向と前記仮想物体の情報とに基づいて計測する仮想ポインティング位置計測手段と
    を備えることを特徴とする複合現実感提示装置。
  2. 前記現実ポインティング位置計測手段と前記仮想ポインティング位置計測手段との計測結果に基づいて、前記現実画像と前記仮想画像を合成して表示する表示手段を更に備える
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  3. 前記表示手段は、更に、前記仮想ポインティング位置を示す指標を前記仮想画像上に表示する
    ことを特徴とする請求項2に記載の複合現実感提示装置。
  4. 前記第二計測手段は、前記ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、複数の前記撮像装置それぞれが撮像して得られる撮像画像中の前記ポインティング位置と、該複数の撮像装置それぞれの位置姿勢情報に基づいて、計測する
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  5. 前記現実ポインティング位置を示す位置情報と、前記仮想ポインティング位置を示す位置情報とを取得して、両者間の距離を算出する算出手段を更に備える
    ことを特徴とする請求項1に記載の複合現実感提示装置。
  6. 前記仮想ポインティング装置が指示する方向に前記仮想画像が存在するか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、前記ポインティング装置の駆動、及び前記仮想ポインティング位置を示す指標の表示を制御する制御手段と
    を更に備えることを特徴とする請求項1に記載の複合現実感提示装置。
  7. 前記判定手段の判定の結果、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在する場合、前記ポインティング装置の駆動を停止し、及び前記仮想ポインティング位置を示す指標を前記仮想画像上に表示する
    ことを特徴とする請求項6に記載の複合現実感提示装置。
  8. 前記判定手段の判定の結果、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在しない場合、前記ポインティング装置を駆動し、及び前記仮想ポインティング位置を示す指標の表示を禁止する
    ことを特徴とする請求項6に記載の複合現実感提示装置。
  9. 前記判定手段の判定の結果、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在しない場合、前記ポインティング装置を駆動し、及び前記仮想ポインティング位置を示す指標の表示形態を、前記仮想ポインティング装置が指示する方向に前記仮想画像が存在する場合の前記仮想ポインティング位置を示す指標の表示形態と異ならせて表示する
    ことを特徴とする請求項6に記載の複合現実感提示装置。
  10. 撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置の制御方法であって、
    第一計測手段が、ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、当該ポインティング装置の位置姿勢情報に基づいて計測する第一計測工程と、
    第二計測手段が、前記現実物体上の前記ポインティング位置を前記撮像装置が撮像して得られる撮像画像中の前記ポインティング位置と、該撮像装置の位置姿勢情報に基づいて、該ポインティング位置を計測する第二計測工程と、
    現実ポインティング位置計測手段が、前記第一計測工程と前記第二計測工程との計測結果に基づいて、前記ポインティング装置の指示する現実ポインティング位置を計測する現実ポインティング位置計測工程と、
    生成手段が、前記ポインティング装置の位置姿勢情報に基づいて、当該ポインティング装置と同一の始点から同一の方向に、仮想物体を指示する仮想ポインティング装置を生成する生成工程と、
    仮想ポインティング位置計測手段が、前記仮想ポインティング装置が指示する方向により前記仮想物体上を指している位置である仮想ポインティング位置を、当該仮想ポインティング装置の指示する始点及び方向と前記仮想物体の情報とに基づいて計測する仮想ポインティング位置計測工程と
    を備えることを特徴とする複合現実感提示装置の制御方法。
  11. 撮像装置が撮像した現実画像に仮想画像を合成して提示する複合現実感提示装置の制御をコンピュータに機能させるための、コンピュータ可読媒体に記憶されたプログラムであって、
    前記コンピュータを、
    ポインティング装置が指示する方向により現実物体上を指している位置であるポインティング位置を、当該ポインティング装置の位置姿勢情報に基づいて計測する第一計測手段と、
    前記現実物体上の前記ポインティング位置を前記撮像装置が撮像して得られる撮像画像中の前記ポインティング位置と、該撮像装置の位置姿勢情報に基づいて、該ポインティング位置を計測する第二計測手段と、
    前記第一計測手段と前記第二計測手段との計測結果に基づいて、前記ポインティング装置の指示する現実ポインティング位置を計測する現実ポインティング位置計測手段と、
    前記ポインティング装置の位置姿勢情報に基づいて、当該ポインティング装置と同一の始点から同一の方向に、仮想物体を指示する仮想ポインティング装置を生成する生成手段と、
    前記仮想ポインティング装置が指示する方向により前記仮想物体上を指している位置である仮想ポインティング位置を、当該仮想ポインティング装置の指示する始点及び方向と前記仮想物体の情報とに基づいて計測する仮想ポインティング位置計測手段と
    して機能させることを特徴とするプログラム。
JP2006210255A 2006-08-01 2006-08-01 複合現実感提示装置及びその制御方法、プログラム Expired - Fee Related JP4777182B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006210255A JP4777182B2 (ja) 2006-08-01 2006-08-01 複合現実感提示装置及びその制御方法、プログラム
US11/830,356 US20080030461A1 (en) 2006-08-01 2007-07-30 Mixed reality presentation apparatus and control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006210255A JP4777182B2 (ja) 2006-08-01 2006-08-01 複合現実感提示装置及びその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2008040556A JP2008040556A (ja) 2008-02-21
JP2008040556A5 JP2008040556A5 (ja) 2009-07-16
JP4777182B2 true JP4777182B2 (ja) 2011-09-21

Family

ID=39028649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006210255A Expired - Fee Related JP4777182B2 (ja) 2006-08-01 2006-08-01 複合現実感提示装置及びその制御方法、プログラム

Country Status (2)

Country Link
US (1) US20080030461A1 (ja)
JP (1) JP4777182B2 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US8397181B2 (en) * 2008-11-17 2013-03-12 Honeywell International Inc. Method and apparatus for marking a position of a real world object in a see-through display
KR101171660B1 (ko) * 2010-03-01 2012-08-09 이문기 증강현실의 포인팅 장치
WO2011156195A2 (en) * 2010-06-09 2011-12-15 Dynavox Systems Llc Speech generation device with a head mounted display unit
US20120005624A1 (en) 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8643569B2 (en) * 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
JP5769392B2 (ja) * 2010-08-26 2015-08-26 キヤノン株式会社 情報処理装置およびその方法
DE102011104524A1 (de) * 2011-06-15 2012-12-20 Ifakt Gmbh Verfahren und Vorrichtung zum Ermitteln und Wiedergeben virtueller ortsbezogener Informationen für einen Raumbereich
US8638320B2 (en) 2011-06-22 2014-01-28 Apple Inc. Stylus orientation detection
CN104024936A (zh) 2011-07-29 2014-09-03 惠普发展公司,有限责任合伙企业 投影捕获系统,程序和方法
CN103703763B (zh) 2011-07-29 2018-02-27 惠普发展公司,有限责任合伙企业 视觉分层的系统和方法
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
JP5762892B2 (ja) 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US8937725B2 (en) * 2012-06-14 2015-01-20 Nikon Corporation Measurement assembly including a metrology system and a pointer that directs the metrology system
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
JP6149403B2 (ja) * 2013-01-07 2017-06-21 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US9607584B2 (en) 2013-03-15 2017-03-28 Daqri, Llc Real world analytics visualization
JP6205189B2 (ja) * 2013-06-28 2017-09-27 オリンパス株式会社 情報提示システム及び情報提示システムの制御方法
JP2015037250A (ja) * 2013-08-14 2015-02-23 株式会社リコー 画像投影装置及びプレゼンテーションシステム
FR3011952B1 (fr) * 2013-10-14 2017-01-27 Suricog Procede d'interaction par le regard et dispositif associe
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
US10338687B2 (en) 2015-12-03 2019-07-02 Google Llc Teleportation in an augmented and/or virtual reality environment
EP3223208A1 (en) 2016-03-22 2017-09-27 Hexagon Technology Center GmbH Self control
CN109478288B (zh) * 2016-07-15 2021-09-10 武礼伟仁株式会社 虚拟现实系统及信息处理系统
KR101853190B1 (ko) * 2016-07-19 2018-04-27 동의대학교 산학협력단 증강현실을 이용한 침구실습장치 및 방법
KR101806864B1 (ko) * 2016-10-05 2017-12-08 연세대학교 산학협력단 증강 현실 환경에서 3d 객체를 제어하기 위한 장치 및 그 방법
US20180210561A1 (en) * 2017-01-24 2018-07-26 Semiconductor Energy Laboratory Co., Ltd. Input unit, input method, input system, and input support system
CN107065195B (zh) * 2017-06-02 2023-05-02 那家全息互动(深圳)有限公司 一种模块化mr设备成像方法
US10930075B2 (en) * 2017-10-16 2021-02-23 Microsoft Technology Licensing, Llc User interface discovery and interaction for three-dimensional virtual environments
JP7102173B2 (ja) * 2018-03-09 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019244437A1 (ja) * 2018-06-18 2019-12-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN110618753A (zh) * 2019-08-02 2019-12-27 常州锦瑟医疗信息科技有限公司 用于混合现实场景的指示设备、指示方法和混合现实系统
JP7425641B2 (ja) * 2020-03-25 2024-01-31 鹿島建設株式会社 測距装置およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3287312B2 (ja) * 1998-08-13 2002-06-04 日本電気株式会社 ポインティング装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2003296757A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche

Also Published As

Publication number Publication date
JP2008040556A (ja) 2008-02-21
US20080030461A1 (en) 2008-02-07

Similar Documents

Publication Publication Date Title
JP4777182B2 (ja) 複合現実感提示装置及びその制御方法、プログラム
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
US10506218B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP4795091B2 (ja) 情報処理方法および装置
KR101480994B1 (ko) 차량의 디스플레이를 이용한 증강 현실 발생 방법 및 시스템
JP2020024752A (ja) 情報処理装置及びその制御方法、プログラム
US7911468B2 (en) Storage medium storing a program for controlling the movement of an object
JP4500632B2 (ja) 仮想現実感提示装置および情報処理方法
JP4926826B2 (ja) 情報処理方法および情報処理装置
JP2008040556A5 (ja)
JP6920057B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
JP2005038008A (ja) 画像処理方法、画像処理装置
JP2012048456A (ja) 情報処理装置およびその方法
JP2005165776A (ja) 画像処理方法、画像処理装置
WO2019065846A1 (ja) プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
JP2005174021A (ja) 情報提示方法及び装置
JP2017187952A (ja) 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
JP6409861B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR101811809B1 (ko) 3d hmd를 활용한 아케이드 게임시스템
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP5831151B2 (ja) 制御処理プログラム、画像表示装置、および画像表示方法
JP2018063589A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2006252468A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110629

R150 Certificate of patent or registration of utility model

Ref document number: 4777182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees