JP4933164B2 - 情報処理装置、情報処理方法、プログラムおよび記憶媒体 - Google Patents

情報処理装置、情報処理方法、プログラムおよび記憶媒体 Download PDF

Info

Publication number
JP4933164B2
JP4933164B2 JP2006162577A JP2006162577A JP4933164B2 JP 4933164 B2 JP4933164 B2 JP 4933164B2 JP 2006162577 A JP2006162577 A JP 2006162577A JP 2006162577 A JP2006162577 A JP 2006162577A JP 4933164 B2 JP4933164 B2 JP 4933164B2
Authority
JP
Japan
Prior art keywords
information processing
video
processing apparatus
dimensional
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006162577A
Other languages
English (en)
Other versions
JP2007042073A5 (ja
JP2007042073A (ja
Inventor
その子 前田
和樹 武本
康生 片野
剛 黒木
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006162577A priority Critical patent/JP4933164B2/ja
Priority to US11/476,462 priority patent/US8139087B2/en
Publication of JP2007042073A publication Critical patent/JP2007042073A/ja
Publication of JP2007042073A5 publication Critical patent/JP2007042073A5/ja
Application granted granted Critical
Publication of JP4933164B2 publication Critical patent/JP4933164B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ユーザに映像を提示する第1の表示装置および前記第1の表示装置のユーザとは異なるユーザ(指示者)に映像を提示する第2の表示装置を用いる情報処理装置情報処理方法、該情報処理方法をコンピュータに実行させるためのプログラムおよび記憶媒体に関する。
VR(バーチャルリアリティ)システムは、コンピュータにより作り出された三次元C
G(Computer Graphic)映像をユーザに提示することにより、仮想空間をあたかも現実空
間であるかのように感じさせるシステムである。
また、近年、現実空間の映像に三次元CGアニメーションを合成することにより、現実
空間にはない情報をユーザに提示する技術が開発されており、このような技術は、MR(
Mixed Reality:複合現実感)システムと呼ばれている。このMRシステムは、現実空間
と切り離された状況のみにおいて体験することが可能であった仮想空間と現実空間との共
存を目的とし、仮想空間を増強する技術として注目されている。
仮想空間と現実空間とを共存させるためのシステム(VR/MRシステム)を実現する
代表的な装置として、ヘッドマウントディスプレイ(HMD)がある。VR/MRシステ
ムにおいては、HMDに仮想空間や現実空間を表示することにより、HMDを装着したユ
ーザに対して仮想空間および複合現実空間を提示することができる(例えば特許文献1参
照)。
このようなVR/MRシステムは、HMDを装着したユーザのみに対して仮想空間およ
び複合現実空間を提示する。そのため、HMDを装着するユーザに提示されている仮想空
間/複合現実空間を、HMDを装着していないユーザに対して提示するためには、HMD
に表示されている映像(主観映像)を分配し、別画面に表示する必要がある。
特開2002−159019号公報
HMD装着者が見ている主観映像を、別画面に表示し、HMD非装着者に提示する場面
、HMD非装着者がHMD装着者に対して指示をしたい場面がある。これは、例えば、H
MD非装着者が別画面上の一部分を指し、この部分をさらに詳しく見たいので、HMD装
着者に対して指した部分に近寄って見てほしい、などと指示する場面などである。しかし
、HMD非装着者が別画面の一部を指示しても、HMDに表示される映像には変化が生じ
ないため、HMD装着者は、それを感知することができない。また、HMD装着者が視線
を別画面の方向へ向けてHMD非装着者の指示内容を確認しようとしても、その瞬間に別
画面に表示される画面は変化し、HMD装着者が別画面を見てHMD非装着者の指示内容
を確認することはできない。
また、HMD装着者が見ている主観映像を、別画面に表示し、HMD非装着者に提示す
る場面において、HMD装着者の頭部が揺れると、これに合わせて別画面に表示されてい
る画面が揺れ、HMD非装着者にとっては見づらい画面になることがある。これを避ける
ためには、HMD装着者が頭部を静止させるなどとして視点を固定する必要があり、HM
D装着者に負担を強いることになる。
本発明の目的は、第1の表示装置の映像を観測しているユーザが、当該映像を観測しながら、第2の表示装置の映像を見ているユーザから第1の表示装置の映像を観測しているユーザに対して送られた指示を、認識することができる情報処理装置情報処理方法、該情報処理方法をコンピュータに実行させるためのプログラムおよび記憶媒体を提供することにある。
上記目的は以下の装置によって達成される。
指示者の指示を被指示者に提示するための情報処理装置であって、第1の視点で撮像した第1の撮像映像を入力する映像入力手段と、前記第1の視点の位置姿勢を入力する第1の位置姿勢入力手段と、前記第1の撮像映像を含む映像を、前記指示者用の表示装置に表示させる第1の表示制御手段と、前記指示者用の表示装置に表示された映像上で、前記指示者により指示された2次元座標を入力する2次元座標入力手段と、前記第1の視点の位置姿勢に基づいて、現実空間に対応する仮想空間の3次元位置であって、前記指示された2次元座標に投影される3次元位置を求める3次元位置算出手段と、前記仮想空間に、前記第1の視点と前記3次元位置とを結ぶ直線上の線分の仮想物体を含む指示仮想物体であって、前記求められた3次元位置を指示するための指示仮想物体を配置する仮想物体配置手段と、前記被指示者の第2の視点の位置姿勢を入力する第2の位置姿勢入力手段と、前記第2の視点の位置姿勢に基づいて、前記指示仮想物体が配置された仮想空間の仮想画像を生成する仮想画像生成手段と、前記生成された仮想画像を、前記被指示者用の表示装置に表示させる第2の表示制御手段とを有することを特徴とする。
上記目的を達成するために、本発明の映像提示方法をコンピュータに実行させるプログラムは、前記映像提示方法は、ユーザに映像を提示する第1の表示装置の位置および姿勢を検出する検出ステップと、前記検出ステップにより検出した位置および姿勢に基づいて仮想空間映像を描画する描画ステップと、前記仮想空間映像を前記第1の表示装置および前記ユーザに指示を出す指示者に映像を提示する第2の表示装置に表示する表示ステップと、前記第2の表示装置に表示されている前記仮想空間映像の位置を指示するための入力ステップとを備え、前記描画ステップで、前記第1の表示装置に表示する仮想空間映像を、前記入力ステップで入力された前記指示が反映された映像となるように描画することを特徴とする。
上記目的を達成するために、本発明の記憶媒体は、上記プログラムをコンピュータ読み取り可能に格納したことを特徴とする。
本発明によれば、第1の表示装置の映像を観測しているユーザが、当該映像を観測しな
がら、第2の表示装置の映像を見ているユーザ(指示者)から第1の表示装置の映像を観測しているユーザに対して送られた指示を、認識することができる。
以下、本発明の実施の形態について図面を参照しながら説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る映像提示システムの構成を示すブロック図で
ある。
映像提示システムは、図1に示すように、HMD101と、三次元CG描画装置102
と、映像合成装置103と、表示装置104と、入力装置105とを備える。
HMD101は、撮像部、1対の表示部、およびセンサ部(図示せず)を有する。撮像
部は、HMD装着者の視点から見た映像を撮影する。この撮影された映像は、映像合成装
置103に送出される。1対の表示部は、装着者の左右の目の前にそれぞれ配置され、映
像合成装置103から送出された映像を表示する。ここで、左右の表示部には、1つの撮
像部で撮影された同一の映像が表示されようにしてもよいし、また、2つの撮像部でそれ
ぞれ撮影された左右で視差の異なる映像が表示されるようにしてもよい。ここで、左右で
視差の異なる映像を表示する場合、左右の目のそれぞれ用として、2つの三次元CG描画
装置および2つの映像合成装置を設ける必要がある。
センサ部は、HMD101の位置および姿勢を検出し、検出された位置および姿勢を示
す位置姿勢情報を三次元CG描画装置102に送出する。センサ部は、HMD101の位
置および姿勢を検出可能なものであれば、その検出構成は、限定されることはない。例え
ば、センサ部として、磁気センサから構成されるものを用いることができる。また、HM
D101の外部に光学センサを設け、この光学センサの出力によりHMD101の位置お
よび姿勢を検出するようにしてもよい。また、映像合成装置103がHMD101から送
出された映像に基づいてHMD101の位置姿勢を計算することによって、HMD101
の位置および姿勢を検出するようにしてもよい。
三次元CG描画装置102は、内部に仮想世界の情報を保持し、HMD101から送出
される位置姿勢情報に基づいて、HMD101の位置から見える仮想世界のCG映像を描
画し、描画されたCG映像を映像合成装置103に送出する。三次元CG描画装置102
は、例えばコンピュータから構成される。
映像合成装置103は、HMD101から送出された映像と三次元CG描画装置102
から送出されたCG映像を合成し、合成映像を生成する。生成された合成映像は、HMD
101および表示装置104に送出される。なお、HMD101に視差の異なる映像が送
出される場合、表示装置104には、右眼用或は左眼用の映像の何れか一方が表示される
ことになる。映像合成装置103は、例えば映像キャプチャカードを備えたコンピュータ
から構成される。また、この映像合成装置103を構成するコンピュータは、三次元CG
描画装置102を構成するコンピュータと兼ねるようにしてもよい。
表示装置104は、映像合成装置103から送出された合成映像をHMD非装着者に提
示するために、当該合成映像を表示する。表示装置104は、例えば液晶ディスプレイか
ら構成される。
入力装置105は、HMD非装着者がHMD装着に指示するための入力操作を入力し、
この入力操作に応じた入力情報を三次元CG描画装置102に送出する。入力装置105
は、例えば表示装置104の画面上に貼り付けられたタッチパネルなどから構成される。
次に、本映像提示システムの処理について図2を参照しながら説明する。
図2は、図1の映像提示システムの処理手順を示すフローチャートである。図2に示す
フローチャートには、三次元CG描画装置102および映像合成装置103のそれぞれに
より、それぞれの内部に格納されているプログラムに従って実行される手順が含まれてい
る。
まず、本映像提示システムにおいては、まずステップS1において、三次元CG描画装
置102がHMD101の位置姿勢情報を取得する。続いて、ステップS2において、三
次元CG描画装置102は、入力装置105を介して入力されたHMD非装着者による入
力操作に対応する入力情報を受け取る。本実施の形態においては、入力装置105が表示
装置104の画面に付けられたタッチパネルから構成されるので、この入力操作は、HM
D非装着者の手によって表示装置104の画面上の所望の位置に触れることによって行わ
れる。この場合、三次元CG描画装置102は、画面上のHMD非装着者の手が触れた位
置の座標値を取得することになる。
次いで、ステップS3において、三次元CG描画装置102は、内部に保持する仮想世
界の情報およびHMD101から得られたHMD101の位置姿勢情報に基づいて、HM
D101の位置から見た仮想世界のCG映像をHMD101の画面に描画する。また、三
次元CG描画装置102は、入力装置105から得られた座標値に基づいて、その座標値
が示す位置に対応する仮想世界における三次元的な位置を求める。このとき、与えられた
座標値が示す位置に対応する仮想世界における三次元的な位置を求めるための方法として
は、次の通りである。例えば、視点位置を始点とし、得られた座標値の方向に向けて伸び
る仮想の光線を設定し、その光線が仮想世界に存在する物と最初に交差する点を、得られ
た座標値に対応する三次元的な位置として求める方法がある。そして、このようにして求
められた位置にCG映像が描画され、描画されたCG映像は、映像合成装置103に送出
される。
次いで、ステップS4において、映像合成装置103は、HMD101からその撮像部
が撮影した映像を取得し、この取得した映像と三次元CG描画装置102からのCG映像
とを合成する。この合成映像は、HMD101および表示装置104へ送出される。
続くステップS5において、HMD101および表示装置104は、上記合成映像を表
示する。これにより、HMD101の装着者は、HMD101の非装着者が指示した位置
を確認することができる。ここで、HMD101の表示部が左右で視差の異なる映像を表
示している場合、装着者はステレオ視によりポインタオブジェクト601(図6等参照、
詳細は後述する)の位置を三次元的に認識することができる。また、表示装置104を見
ているHMD非装着者は、自分の手で指した位置にオブジェクト例えばポインタオブジェ
クト601(図6等参照。詳細は後述する)が表示されているのを確認することができる
次に、本映像提示システムの表示例について図3〜図7を参照しながら説明する。図3
は、HMD装着者301が仮想の自動車302を観察している状態を示す図である。図4
は、表示装置104の画面401に表示されているHMD装着者の主観映像の一例を示す
図である。図5は、HMD非装着者による入力操作状態の一例を示す図である。図6は、
HMD101に表示される映像の一例を示す図である。図7は、表示装置104に表示される映像の一例を示す図である。
ここでは、図3に示すように、HMD101を装着したHMD装着者301が仮想の自
動車302の観察を行う場合を説明する。この場合、図4に示すように、HMD装着者3
01に提示される主観映像と同じ画像が表示装置104の画面401に表示される。そし
て、HMD非装着者は、画面401を見てHMD装着者に対して指示を出すことができる
例えば、HMD非装着者が表示装置104の画面401を見て、自動車302の所望の
部位を確認したいとき、図5に示すように、HMD非装着者は、画面401に表示されて
いる自動車302の確認したい部位を自分の手501で直接触れる。このHMD非装着者
の手501が触れた位置は、入力装置105を介して、座標値として、三次元CG描画装
置102に入力される(図2のステップS2)。三次元CG描画装置102は、入力装置
105から得られた座標値に基づいて、前述のように、その座標値が示す位置に対応する
仮想世界上の位置を求める。そして、三次元CG描画装置102は、保持する仮想世界の
情報、HMD101から得られたHMD101の位置姿勢情報に基づいて、例えば図6に
示すようなHMD101の位置から見た仮想世界のCG映像を描画する(図2のステップ
S3)。この描画されたCG映像は、仮想世界上の求められた位置にポイントオブジェク
ト601と、ポインタオブジェクト601の位置を始点とする引き出し線602と、引き
出し線602の末端にある注釈文字オブジェクト603とを含む。これらのオブジェクト
を含むCG映像は、映像合成装置103に送出される。
映像合成装置103は、HMD101の撮像部が撮影した映像と三次元CG描画装置1
02からのCG映像とを合成し(図2のステップS4)、この合成映像はHMD101お
よび表示装置104に送出される。
HMD101の表示部には、図6に示す映像が表示される(図2のステップS5)。こ
れにより、HMD装着者301は、上記映像を見て、HMD非装着者が指示する位置を確
認することができる。ここで、HMD101の表示部が左右で視差の異なる映像を表示す
る場合、HMD装着者301は、ステレオ視によりポインタオブジェクト601の位置を
三次元的に認識することができる。また、表示装置104には、図7に示すような映像が
表示される(図2のステップS5)。これにより、HMD非装着者は、自分の手501で
指した位置にポインタオブジェクト601が表示されていることを確認することができる
このように、本実施の形態によれば、HMD装着者が観察する映像を、HMD非装着者
が見ることができ、さらにその映像を観察するHMD装着者に対して指示を送ることがで
きる。さらに、HMD装着者は、視点を動かすことなく、観察する映像から、HMD非装
着者による指示内容を認識することができる。
なお、本実施の形態においては、表示装置104および入力装置105の設置数を1つ
としているが、複数の表示装置および入力装置を設置するようにしてもよい。この場合、
HMD装着者は、それぞれの入力装置で指示された位置が合成されて映像を確認すること
になる。なお、それぞれの表示装置は、対応する入力装置から入力した位置のみを表示し
ても、他の入力装置から入力された位置を合成表示してもよい。更に、これらを切り替え
られるようにしてもよい。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図8〜図12を参照しながら説明する。図8
は、本発明の第2の実施の形態に係る映像提示システムの構成を示すブロック図である。
図9は、図8の映像提示システムの処理手順を示すフローチャートである。図10は、H
MD装着者301が移動して仮想の自動車302に対する観察位置を変更した状態を示す
図である。図11は、表示装置104に表示される映像の一例を示す図である。図12は
、HMD101に表示される映像の一例を示す図である。
本実施の形態は、上記第1の実施の形態に対し、HMD装着者が観察している所望の時
点での映像を静止画としてキャプチャし、キャプチャされた静止画をHMD非装着者が見
ている画面に提示する機能を有する点で異なる。
本実施の形態には、図8に示すように、上記第1の実施の形態の構成に対して、キャプ
チャ決定ボタン801、キャプチャキャンセルボタン802および二次元CG描画装置8
03が追加されている。キャプチャ決定ボタン801は、表示装置104の画面に表示さ
れるタッチキーから構成されており、キャプチャ決定ボタン801が押下されると、キャ
プチャ決定信号が入力装置105に送られる。また、キャプチャ決定ボタン801をハー
ドキーから構成するようにしてもよい。キャプチャキャンセルボタン802は、表示装置
104の画面に表示されるタッチキーから構成されており、キャプチャキャンセルボタン
802が押下されると、キャプチャキャンセル信号が入力装置105に送られる。キャプ
チャキャンセルボタン802は、上記タッチキーに代えて、ハードキーからなるものでも
よい。
キャプチャ決定信号およびキャプチャキャンセル信号は、入力装置105を介して三次
元CG描画装置102および二次元CG描画装置803へ送出される。
二次元CG描画装置803は、入力装置105からの入力に応じた二次元CG映像を描
画するための装置である。また、二次元CG描画装置803は、映像合成装置103から
合成映像を取得し、表示装置104へ送出する。この二次元CG描画装置803は、例え
ばコンピュータから構成される。
次に、本実施の形態の映像提示システムの処理について図9を参照しながら説明する。
本実施の形態においては、上記第1の実施の形態の図2に示す処理に対して、ステップS
10〜S14が加えられており、また、二次元CG描画装置803による処理が加えられ
ている。また、図9中、図2に示すステップと同一のステップには、同一の符号が付され
ている。
本実施の形態においては、図9に示すように、ステップS10で、三次元CG描画装置
102がキャプチャ決定ボタン801、キャプチャキャンセルボタン802の押下の有無
を判定する。ここで、いずれのボタンも押下されていない場合、三次元CG描画装置10
2は、ステップS1へ進む。また、キャプチャ決定ボタン801が押下されている場合、
三次元CG描画装置102は、ステップS11へ進み、キャプチャキャンセルボタン80
2が押下されている場合、ステップS12へ進む。
また、二次元CG描画装置803は、キャプチャ決定ボタン801が押下されている場
合、ステップS31へ進み、キャプチャキャンセルボタン802が押下されている場合、
ステップS32へ進む。
キャプチャ決定ボタン801、キャプチャキャンセルボタン802のいずれのボタンも
押下されていない場合、動作モードがライブモードであるので、三次元CG描画装置10
2がステップS1,S2,S3を実行する。続いて映像合成装置103がステップS4を
実行した後にステップS5へ進む。このステップS5においては、映像合成装置103は
、上記ステップS4において生成された合成映像をHMD101および二次元CG描画装
置803へ送出する。二次元CG描画装置803は、映像合成装置103から送出された
合成映像を受け取ると、ステップS33において、動作モードの判別を行う。ここで、動
作モードがライブモードである場合、ステップS37に進み、二次元CG描画装置803
は、映像合成装置103から送出された合成映像をそのまま表示装置104へ送出し、表
示装置104には、上記合成映像が表示される。このように動作モードがライブモードで
ある場合、上記第1の実施の形態と同様の動作が行われる。
キャプチャ決定ボタン801が押下された場合、ステップS11及びステップS31に
進む。三次元CG描画装置102は、ステップS11において、キャプチャ決定ボタン8
01が押下された時点でのHMD101からの位置姿勢情報に基づいてHMD101の位
置および姿勢を記録するとともに、動作モードをキャプチャモードへ移行させる。二次元
CG描画装置803は、ステップS31において、キャプチャ決定ボタン801が押下さ
れた時点での、映像合成装置103からの合成映像を静止画として記録する。また、二次
元CG描画装置803は、その動作モードをキャプチャモードへ移行する。
次いで、三次元CG描画装置102は、ステップS1において、HMD101の位置姿
勢情報を取得し、続くステップS2において、入力装置105を介して、表示装置104
の表示画面上のHMD非装着者の手が触れた位置の座標値を取得する。そして、三次元C
G描画装置102は、ステップS13において、動作モードの判別を行う。ここでは、動
作モードがキャプチャモードであると判別されるので、三次元CG描画装置102は、ス
テップS14において、三次元CG映像を描画する。この際、仮想世界のCG映像が描画
されるとともに、上記ステップS11において記録されたHMD101の位置および姿勢
を表すためのCG映像が描画される。また、上記ステップS11において記録されたHM
D101の位置および姿勢と上記ステップS2で取得された座標値とに基づいて、ポイン
タオブジェクト、引き出し線、注釈文字オブジェクトなどが描画される。描画されたCG
映像は、映像合成装置103に送出される。
次いで、映像合成装置103は、ステップS4において、HMD101からその撮像部
が撮影した映像を取得し、この取得した映像と三次元CG描画装置102からのCG映像
と合成する。この合成映像は、ステップS5において、HMD101および二次元CG描
画装置803に送出される。これにより、HMD101には、上記合成映像が表示される
また、二次元CG描画装置803は、上記合成画像を受け取ると、ステップS33にお
いて、動作モードの判別を行う。ここでは、動作モードがキャプチャモードであると判別
されるので、二次元CG描画装置803は、ステップS34において、入力装置105を
介してHMD非装着者の入力操作によって得られた座標値を取得する。
次いで、二次元CG描画装置803は、ステップS35において、取得した座標値に基
づいて、ポインタオブジェクト、引き出し線、注釈文字オブジェクトを表す二次元CG映
像を描画する。そして、二次元CG描画装置803は、ステップS36において、上記ス
テップS31で記録された静止画と上記ステップS35で描画された二次元CG映像とを
合成し、その合成映像を表示装置104に送出する。これにより、表示装置104には、
キャプチャされた静止画と二次元CG映像との合成画像が表示される。
キャプチャキャンセルボタン802が押下された場合、三次元CG描画装置102は、
ステップS12において、記録されているHMD101の位置および姿勢をクリアし、動
作モードをライブモードへ移行する。二次元CG描画装置803は、ステップS32にお
いて、その動作モードをライブモードへ移行する。
その後、上述したように、三次元CG描画装置102は、ステップS1,2,3を実行
し、映像合成装置103は、ステップS4,5を実行する。また、二次元CG描画装置8
03は、ステップS37を実行する。
次に、本映像提示システムの表示例について図10〜図12を参照しながら説明する。
ここでは、図10に示すように、HMD装着者301が仮想の自動車302を地点P1
で観察している時点で、表示装置104を見ているHMD非装着者がキャプチャ決定ボタ
ン801を押し、その後HMD装着者が地点P2へ移動した場合を説明する。
具体的には、HMD装着者301が仮想の自動車302を地点P1で観察しているとき
、キャプチャ決定ボタン801が押下されると、表示装置104の画面401には、図1
1に示すような静止画が表示される。この静止画は、地点P1でHMD装着者が見ていた
画面を静止画にしたものである。この画面上で、HMD非装着者が自分の手501で表示
装置104の画面401上の位置を触れると、HMD非装着者が手501で指している位
置には、ポインタオブジェクト1101が描画される。また、ポインタオブジェクト11
01を始点とする引き出し線1102が、その末端には注釈文字オブジェクト1103が
それぞれ描画される。
HMD装着者301が地点P1から地点P2へ移動すると、HMD101の表示部には
、図12に示すような画面604が表示される。ここでは、仮想の自動車302に加えて
、ポインタオブジェクト1201、引き出し線1202、注釈文字オブジェクト1203
が描画されている。ここで、ポインタオブジェクト1201の位置は、HMD非装着者が
指定した位置と、予め記録されているHMD101の位置および姿勢とに基づいて計算さ
れている。そのため、図11のポインタオブジェクト1101と図12のポインタオブジ
ェクト1201は、仮想の自動車302の同じ位置を指し示すことになる。
また、図12に示す画面604には、キャプチャ決定時のHMD101の位置および姿
勢を表すためのCG映像P1が描画されている。このCG映像P1から、HMD装着者は
、表示装置104を見ているHMD非装着者が仮想の自動車302をどのような視点から
見ているのかを知ることができる。
以上より、本実施の形態によれば、表示装置104を見ているHMD非装着者が静止画
を見ながら、HMD装着者に対して指示を出すことができるため、HMD装着者の動きに
伴うHMD101の揺れに起因する画面の揺れに悩まされることがなくなる。また、HM
D装着者は、HMD101の揺れを気にせずに、自由に移動することができるとともに、
移動しながら、表示装置104を見ているHMD装着者の指示を受けることができる。
(第3の実施の形態)
次に、本発明の第3の実施の形態について図13および図14を参照しながら説明する
。図13は、本発明の第3の実施の形態に係る映像提示システムにおいてHMD装着者が
移動して仮想の自動車に対する観察位置を変更した状態を示す図である。図14は、図13の映像提示システムの表示装置に表示される映像の一例を示す図である。
本実施の形態においては、上記第2の実施の形態に対して、三次元CG描画装置102
に対して異なる時間におけるHMD101の位置および姿勢をそれぞれ記録する機能、二
次元CG描画装置803に対して画面を分割表示する機能をそれぞれ設けるとともに、ま
たシステム全体に注釈文字オブジェクトを自由に指定する機能が設けられている。
ここでは、例えば図13に示すように、HMD装着者が地点P11,P12,P13へ
順に移動した際に、地点P11,P12のそれぞれでキャプチャ決定ボタン801が押下
され、その後に、HMD装着者がある地点P13へ移動した場合を説明する。
この場合、表示装置104の画面401には、図14に示すように、各地点P11,P
12での静止画像1401,1402と、HMD装着者が現在見ている映像すなわち動画
像1403とが分割画面として表示される。HMD非装着者は、分割表示されている画面
1401,1402,1403のそれぞれに対して指示を出すことができ、また、表示す
る注釈文字オブジェクトを注釈文字オブジェクト1404,1405のように目的に応じ
て自由に変更することができる。この注釈文字オブジェクトは、予め用意された文字オブ
ジェクトを入力装置105により選択し、またはその都度、入力装置105により入力す
る構成としてもよい。
(第4の実施の形態)
次に、本発明の第4の実施の形態について図15〜図23を参照しながら説明する。図15は、本発明の第4の実施の形態に係る映像提示システムの構成を示すブロック図である。図16は、図15の映像提示システムの処理手順を示すフローチャートである。図17は、図15の映像提示システムにおいて、客観視点カメラ1501及びHMD装着者301が仮想の自動車302の観察を行っている状態を示す図である。図18は、入力操作が行われる前における、表示装置104の画面401に表示される映像の一例である。図19は、入力操作が行われる前における、表示装置1504の画面1801に表示される映像の一例である。図20は、非HMD装着者による入力操作状態を示した図である。図21は、入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。図22は、入力操作が行われた後における、HMD装着者の主観映像の一例ある。図23は、入力操作後が行われた後における、表示装置1504の画面1801に表示される映像の一例である。
本第4の実施の形態は、上記第1の実施の形態に対し、撮像部をHMD101から客観視点カメラ1501に変更した構成を追加し、非HMD装着者がHMD装着者301の主観映像に対して指示できるのと同様に、客観視点カメラ1501の映像に対しても指示を出すことができる。また、表示する指示オブジェクトはポインタオブジェクト、引き出し線602、注釈文字オブジェクト603に加えて、ポインタオブジェクトまでの線分、指示領域を示す領域オブジェクト等の指示オブジェクトを表示する機能が設けられている。
本第4の実施の形態には、図15に示すように、図1の構成に加えて、客観視点カメラ1501、三次元CG描画装置1502、映像合成装置1503、表示装置1504、入力装置1505、ポインティングデバイス1506が含まれる。なお、本実施形態は、映像合成装置103、1503ごとに表示装置104、1504を用意することに限定されるものではなく、複数の映像合成装置103、1503の入力を切り替えて表示する表示装置を用いても良い。また、画面の切り替えだけではなく、複数の映像合成装置103、1503の入力を画面分割により同時に表示しても良い。客観視点カメラ1501とは、撮像部とセンサ部(図示せず)が付属された装置であり、固定式であっても移動式であっても良い。なお、客観視点カメラについては、MRシステムを実現するために必要なカメラであり、その技術については既に公知であるため、その詳細については省略する。
また、入力装置105への入力情報は、三次元CG描画装置102に送出されると同時に三次元CG描画装置1502へも送出される。同様に、入力装置1505への入力情報は三次元CG描画装置1502へ送出されると同時に三次元CG描画装置102へも送出される。ポインティングデバイス1506はセンサ部(図示せず)が付属された装置であり、センサ部によって検出されたポインティングデバイス1506の位置姿勢情報は、三次元CG描画装置102及び1502へ送出される。
次に、図16のフローチャートを用いて、図15の映像提示システムの処理手順を説明する。
図16に示すフローチャートには、三次元CG描画装置1502および映像合成装置1503のそれぞれにより、それぞれの内部に格納されているプログラムに従って実行される手順が含まれている。
まず、本映像提示システムにおいては、まずステップS41において、三次元CG描画装置102がHMD101及びポインティングデバイス1506の位置姿勢情報を取得する。同様にして、三次元CG描画装置1502が客観視点カメラ1501及びポインティングデバイス1506の位置姿勢情報を取得する。
続いて、ステップS42において、三次元CG描画装置102、1502は、入力装置105を介して入力されたHMD非装着者による入力操作に対応する入力情報を受け取る。本第4の実施の形態においては、入力装置105が表示装置104の画面に付けられたタッチパネルから構成されるので、この入力操作は、HMD非装着者の手によって表示装置104の画面上の所望の位置に触れることによって行われる(図20)。
次いで、ステップS43において、三次元CG描画装置102は、内部に保持する仮想世界の情報およびHMD101から得られたHMD101の位置姿勢情報に基づいて、HMD101の位置から見た仮想世界のCG映像を描画し、映像合成装置103に送出する。同様に、三次元CG描画装置1502は、内部に保持する仮想世界の情報および客観視点カメラ1501から得られた客観視点カメラ1501の位置姿勢情報に基づいて、客観視点カメラ1501の位置から見た仮想世界のCG映像を描画し、映像合成装置1503に送出する。この描画されたCG映像は、仮想世界上の求められた位置にポインタオブジェクトと、ポインタオブジェクトの位置を始点とする引き出し線602と、引き出し線602の末端にある注釈文字オブジェクト603とを含む。また、三次元CG描画装置102、1502は、入力装置105から得られたディスプレイ上の座標値から、その座標値が示す位置に対応する仮想世界における三次元的な位置及び形状をそれぞれ求める。このとき、与えられた座標値が示す位置及び形状を求めるための方法として、例えば以下の方法を用いる。まず、入力装置105で得た座標値から仮想世界における3次元位置を求める。このとき、例えば、視点位置を始点とし、得られた座標値の方向に向けて伸びる仮想の光線を設定し、その仮想光線が仮想世界に存在する物と最初に交差する点を3次元位置とする。この3次元位置を記録し、3次元位置を繋げた軌跡を3次元的な形状として記録する。求められた形状に対して自動車302の仮想モデルの該当領域にテクスチャマッピングが施される。なお、本発明は、自動車302にテクスチャマッピングすることで指示オブジェクトを表示することに限定されるものではなく、単に形状に応じて新たな3次元オブジェクトを生成し、表示してもよい。このとき用いるテクスチャは目的に応じて、パターンや色などを自由に変更することができる。テクスチャマッピングによって生成されたCG映像も同様に、それぞれ映像合成装置103、1503に送出される。さらに、三次元CG描画装置102、1502は、S41で取得したポインティングデバイス1506の位置を開始点として、入力装置105から得られた座標値の一部を終点する線分画像をそれぞれ描画し、この生成されたCG映像を同様に、それぞれ映像合成装置103、1503に送出する。座標値の一部とは、例えば入力開始点または、入力終了点、入力した領域の重心点などが考えられ、目的に応じて変更できる。
次いで、ステップS44において、映像合成装置103は、HMD101からその撮像部が撮影した映像を取得し、この取得した映像と三次元CG描画装置102からのCG映像とを合成する。この合成映像は、表示装置104へ送出される。同様に、映像合成装置1503は、客観視点カメラ1501からその撮像部が撮影した映像を取得し、この取得した映像と三次元CG描画装置1502からのCG映像とを合成する。この合成映像は、表示装置1504へ送出される。
続くステップS45において、表示装置104、1504は、上記合成映像を表示する。これにより、HMD装着者はHMD非装着者が指示した位置を確認することができ、またHMD装着者、HMD非装着者の両者が指示情報(引き出し線602、注釈文字オブジェクト603、軌跡オブジェクト1901、ポインタオブジェクトまでの線分オブジェクト2001)を確認することができる。
上記では、入力装置105を介して入力操作が行われた場合を説明したが、入力装置1505に対して入力操作が行われても良い。この場合にも、入力情報は三次元CG描画装置102、1502の両方に送出される。その後の処理は、上記で説明した処理と同様である。
(第5の実施の形態)
前述の第4の実施の形態では、入力装置105を表示装置104の画面に付けられたタッチパネルとしたが、これに限定されるものではなく、入力装置105をマウス、レーザーポインタなどとしても構わない。例えば、入力装置105がレーザーポインタの場合は、表示装置104の表面に光を検知する装置が備えられ、レーザーが投影された表示装置104上の位置(座標)を入力してもよい。また、複数の発光色の違うレーザーポインタを用いて、複数人で同時にポインティングできるようにしても良い。例えば、表示装置104に備えられた光を検知する装置がレーザーの色の違いを認識し、類似した色でポインタオブジェクトまでの線分オブジェクト2001を描画しても良い。
(第6の実施の形態)
前述の第4の実施の形態では、ステップ43において、指示オブジェクトとして、ポイントオブジェクト、ポイントオブジェクトの位置を始点とする引き出し線602、引き出し線602の末端にある注釈文字オブジェクト603、テクスチャマッピングによって生成されたCG画像及び線分オブジェクト2001のこれら全てが(以下、(ポイントオブジェクト、引き出し線602、注釈文字オブジェクト603を含めて指示オブジェクトと呼ぶ)、表示装置104、1504に表示されるとしたが、これに限定されるものではなく、これらの指示オブジェクトから必要なものだけを選択的に表示させても良い。
(第7の実施の形態)
第7の実施の形態は、客観視点カメラ1501の焦点位置から線分オブジェクト2001が出る場合を示す。
前述の第4の実施の形態では、線分オブジェクト2001の開始点をポインティングデバイス1506としたが(図21)、これに限定されるものではなく、線分オブジェクト2001の開始点をHMD101の撮像部301の焦点位置(図24、25)、あるいは、客観視点カメラ1501(図26、27)の焦点位置としても良い。
(第8の実施の形態)
複数の客観ディスプレイを区別するために色を変えてもよく、第8の実施の形態は、一つの客観ディスプレイに複数の指示オブジェクトの色を変えて指定する場合を示す。
複数の指示者、または複数の入力装置、または複数の表示装置、または複数のHMDあるいは客観カメラが存在する場合に、どこから指示が行われたか、あるいは誰に対して指示を行ったかを区別するために、ステップ43において、生成される指示オブジェクトを、指示者ごとに、または表示装置ごとに、または入力装置ごとに、またはHMD・客観カメラごとに色を変えて生成し、ステップ45において、ステップ43にて生成された色分けされた指示オブジェクトを表示装置に表示してもよい。
上記各実施の形態においては、仮想の自動車の観察を行い、この自動車のデザインを評
価する場合を説明したが、本発明は、他の用途例えばゲームやアミューズメント設備など
のエンタテインメント装置、建築や医療などのシミュレーション装置、メンテナンス作業
のアシスタントなどの業務用アプリケーションにも用いることが可能である。
また、上記各実施の形態において、HMD非装着者の指示により表示されたポインタオブジェクト601等を非表示にする処理は、例えば、次のいずれかを用いればよい。即ち、指示されてから所定の時間が経過した後に非表示にする。HMD非装着者が再度同じ位置の近傍を指示したときに非表示にする。HMD非装着者が、別の新たな位置を指示したときに非表示にする。HMD非装着者が、画面に表示された取消キー等を指示すると非表示にする。HMD装着者が、確認動作、例えば、頭を上下に移動する等を行うことにより非表示にする。
また、本発明の目的は、前述した各実施形態の機能を実現するソフトウエアのプログラ
ムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した各実施形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登
録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW等の光ディスク、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。または、プログラムコードを、ネットワークを介してダウンロードしてもよい。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機
能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた
後、そのプログラムコードの指示に基づき、その拡張機能を拡張ボードや拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
本発明の第1の実施の形態に係る映像提示システムの構成を示すブロック図である。 図1の映像提示システムの処理手順を示すフローチャートである。 HMD装着者301が仮想の自動車302を観察している状態を示す図である。 表示装置104の画面401に表示されているHMD装着者の主観映像の一例を示す図である。 HMD非装着者による入力操作状態の一例を示す図である。 HMD101に表示される映像の一例を示す図である。 表示装置に表示される映像の一例を示す図である。 本発明の第2の実施の形態に係る映像提示システムの構成を示すブロック図である。 図8の映像提示システムの処理手順を示すフローチャートである。 HMD装着者301が移動して仮想の自動車302に対する観察位置を変更した状態を示す図である。 表示装置104に表示される映像の一例を示す図である。 HMD101に表示される映像の一例を示す図である。 本発明の第3の実施の形態に係る映像提示システムにおいてHMD装着者が移動して仮想の自動車に対する観察位置を変更した状態を示す図である。 図13の映像提示システムの表示装置に表示される映像の一例を示す図である。 本発明の第4の実施の形態に係わる映像提示システムの構成を示すブロック図である。 図15の映像提示システムの処理手順を示すフローチャートである。 図15の映像提示システムにおいて、客観視点カメラ1501及びHMD装着者301が仮想の自動車302の観察を行っている状態を示す図である。 入力操作が行われる前における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われる前における、表示装置1504の画面1801に表示される映像の一例である。 非HMD装着者による入力操作状態を示した図である。 入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われた後における、HMD装着者の主観映像の一例ある。 入力操作が行われた後における、表示装置1504の画面1801に表示される映像の一例である。 入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われた後における、表示装置1504の画面1801に表示される映像の一例である。 入力操作が行われた後における、表示装置104の画面401に表示される映像の一例である。 入力操作が行われた後における、表示装置1504の画面1801に表示される映像の一例である。
符号の説明
101 HMD
102 三次元CG描画装置
103 映像合成装置
104 表示装置
105 入力装置
801 キャプチャ決定ボタン
802 キャプチャキャンセルボタン
803 二次元CG描画装置

Claims (20)

  1. 指示者の指示を被指示者に提示するための情報処理装置であって、
    第1の視点で撮像した第1の撮像映像を入力する映像入力手段と、
    前記第1の視点の位置姿勢を入力する第1の位置姿勢入力手段と、
    前記第1の撮像映像を含む映像を、前記指示者用の表示装置に表示させる第1の表示制御手段と、
    前記指示者用の表示装置に表示された映像上で、前記指示者により指示された2次元座標を入力する2次元座標入力手段と、
    前記第1の視点の位置姿勢に基づいて、現実空間に対応する仮想空間の3次元位置であって、前記指示された2次元座標に投影される3次元位置を求める3次元位置算出手段と、
    前記仮想空間に、前記第1の視点と前記3次元位置とを結ぶ直線上の線分の仮想物体を含む指示仮想物体であって、前記求められた3次元位置を指示するための指示仮想物体を配置する仮想物体配置手段と、
    前記被指示者の第2の視点の位置姿勢を入力する第2の位置姿勢入力手段と、
    前記第2の視点の位置姿勢に基づいて、前記指示仮想物体が配置された仮想空間の仮想画像を生成する仮想画像生成手段と、
    前記生成された仮想画像を、前記被指示者用の表示装置に表示させる第2の表示制御手段と、を有することを特徴とする情報処理装置。
  2. 前記第1の視点は、前記被指示者の視点であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の視点で撮像した撮像装置は、前記現実空間に固定されていることを特徴とする請求項1に記載の情報処理装置。
  4. 前記指示者用の表示装置に表示された映像の領域に対してタッチパネルが備えられ、
    前記2次元座標入力手段が、前記タッチパネルで指示された2次元座標を入力することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記指示者用の表示装置に表示された映像の領域に対して照らされた光を検知する検知手段を更に有し、
    前記2次元座標入力手段が、前記検知された光の位置を前記2次元座標として入力することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記第2の視点で撮像された第2の撮像映像を入力する第2の映像入力手段と、
    前記第2の撮像映像と前記生成された仮想映像とを合成した合成映像を生成する合成手段と
    を更に有し、
    前記第2の表示制御手段が、前記合成映像を前記被指示者用の表示装置に表示させることで、前記仮想映像を表示させることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記第1の撮像映像は、静止画であることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記第1の表示制御手段は、異なる時に撮像した複数の静止画の各々を並べて表示させることを特徴とする請求項7に記載の情報処理装置。
  9. 前記2次元座標入力手段は、前記並べられた静止画の各々において指示された2次元座標を入力することを特徴とする請求項8に記載の情報処理装置。
  10. 前記被指示者用の表示装置は、ヘッドマウントディスプレイであることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記求められた3次元位置は、前記仮想空間に予め配置された指示対象物体であって、前記指示者による指示の対象となる指示対象仮想物体の表面位置であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記指示仮想物体は、前記3次元位置を示すマークとテキストとを更に含むことを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
  13. 前記線分は、前記仮想空間の3次元位置を終点とする線分であることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 前記線分は、前記撮像装置の焦点位置に対応する仮想空間の位置を始点とする線分であることを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記指示仮想物体は、前記被指示者が把持する物体上の一点と前記3次元位置とを結ぶ直線上の第2の線分を含むことを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
  16. 前記指示仮想物体に複数の線分が含まれる場合に、当該線分を色分けすることを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。
  17. 前記指示仮想物体は、前記3次元位置に対応する軌跡に基づく形状で、前記仮想空間に予め配置された指示対象仮想物体の表面上に描かれる領域を含むことを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
  18. 指示者の指示を被指示者に提示するための情報処理装置が行う情報処理方法であって、
    前記情報処理装置の映像入力手段が、第1の視点で撮像した第1の撮像映像を入力する映像入力ステップと、
    前記情報処理装置の第1の位置姿勢入力手段が、前記第1の視点の位置姿勢を入力する第1の位置姿勢入力ステップと、
    前記情報処理装置の第1の表示制御手段が、前記第1の撮像映像を含む映像を、前記指示者用の表示装置に表示させる第1の表示制御ステップと、
    前記情報処理装置の2次元座標入力手段が、前記指示者用の表示装置に表示された映像上で、前記指示者により指示された2次元座標を入力する2次元座標入力ステップと、
    前記情報処理装置の3次元位置算出手段が、前記第1の視点の位置姿勢に基づいて、現実空間に対応する仮想空間の3次元位置であって、前記指示された2次元座標に投影される3次元位置を求める3次元位置算出ステップと、
    前記情報処理装置の仮想物体配置手段が、前記仮想空間に、前記第1の視点と前記3次元位置とを結ぶ直線上の線分の仮想物体を含む指示仮想物体であって、前記求められた3次元位置を指示するための指示仮想物体を配置する仮想物体配置ステップと、
    前記情報処理装置の第2の位置姿勢入力手段が、前記被指示者の第2の視点の位置姿勢を入力する第2の位置姿勢入力ステップと、
    前記情報処理装置の仮想画像生成手段が、前記第2の視点の位置姿勢に基づいて、前記指示仮想物体が配置された仮想空間の仮想画像を生成する仮想画像生成ステップと、
    前記情報処理装置の第2の表示制御手段が、前記生成された仮想画像を、前記被指示者用の表示装置に表示させる第2の表示制御ステップと、を有することを特徴とする情報処理方法。
  19. 請求項18に記載の情報処理方法の各ステップをコンピュータに実行させるためのプログラム。
  20. 請求項19記載のプログラムをコンピュータ読み取り可能に格納したことを特徴とする記憶媒体。
JP2006162577A 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体 Expired - Fee Related JP4933164B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006162577A JP4933164B2 (ja) 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US11/476,462 US8139087B2 (en) 2005-07-01 2006-06-28 Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005193825 2005-07-01
JP2005193825 2005-07-01
JP2006162577A JP4933164B2 (ja) 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体

Publications (3)

Publication Number Publication Date
JP2007042073A JP2007042073A (ja) 2007-02-15
JP2007042073A5 JP2007042073A5 (ja) 2011-02-03
JP4933164B2 true JP4933164B2 (ja) 2012-05-16

Family

ID=37588887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006162577A Expired - Fee Related JP4933164B2 (ja) 2005-07-01 2006-06-12 情報処理装置、情報処理方法、プログラムおよび記憶媒体

Country Status (2)

Country Link
US (1) US8139087B2 (ja)
JP (1) JP4933164B2 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796116B2 (en) 2005-01-12 2010-09-14 Thinkoptics, Inc. Electronic equipment for handheld vision based absolute pointing system
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US8096880B2 (en) * 2006-08-15 2012-01-17 Nintendo Co., Ltd. Systems and methods for reducing jitter associated with a control device
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US8355019B2 (en) * 2007-11-02 2013-01-15 Dimension Technologies, Inc. 3D optical illusions from off-axis displays
JP4712786B2 (ja) * 2007-12-13 2011-06-29 京セラ株式会社 情報処理装置
WO2009131131A1 (ja) * 2008-04-25 2009-10-29 シャープ株式会社 表示装置および表示方法
JP2009266036A (ja) * 2008-04-25 2009-11-12 Sharp Corp 表示装置および表示方法
JP2009265438A (ja) * 2008-04-25 2009-11-12 Sharp Corp 表示装置および表示方法
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
KR101020903B1 (ko) * 2008-08-06 2011-03-09 엘지이노텍 주식회사 송신장치, 표시장치 및 원격 신호 입력 시스템
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP5158007B2 (ja) * 2009-04-28 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR101171660B1 (ko) * 2010-03-01 2012-08-09 이문기 증강현실의 포인팅 장치
JP5521727B2 (ja) * 2010-04-19 2014-06-18 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP5525923B2 (ja) * 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5640681B2 (ja) 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
JPWO2012081194A1 (ja) * 2010-12-17 2014-05-22 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
US9898556B2 (en) 2011-06-20 2018-02-20 Ford Global Technology, Llc Immersive dimensional variation
US9013366B2 (en) * 2011-08-04 2015-04-21 Microsoft Technology Licensing, Llc Display environment for a plurality of display devices
JP6074894B2 (ja) * 2012-02-24 2017-02-08 株式会社ニコン 情報表示装置
JP5772669B2 (ja) * 2012-03-09 2015-09-02 コニカミノルタ株式会社 ユーザー端末装置、画像処理装置、オペレータ端末装置、情報処理システムおよびプログラム
US9691241B1 (en) * 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
US8922481B1 (en) * 2012-03-16 2014-12-30 Google Inc. Content annotation
US9293118B2 (en) * 2012-03-30 2016-03-22 Sony Corporation Client device
US8988465B2 (en) * 2012-03-30 2015-03-24 Ford Global Technologies, Llc Physical-virtual hybrid representation
US20180048750A1 (en) * 2012-06-15 2018-02-15 Muzik, Llc Audio/video wearable computer system with integrated projector
KR101911803B1 (ko) * 2012-08-10 2018-10-26 삼성전자주식회사 휴대용 단말 장치 및 그 동작 방법
JP5510529B2 (ja) * 2012-11-16 2014-06-04 ソニー株式会社 情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラム
JP5284549B1 (ja) * 2013-03-12 2013-09-11 株式会社東芝 表示制御装置および表示制御方法
JP6359333B2 (ja) * 2014-05-09 2018-07-18 シャープ株式会社 テレコミュニケーションシステム
DE102014009303B4 (de) 2014-06-26 2020-07-23 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
JP6618260B2 (ja) * 2015-02-19 2019-12-11 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9726885B2 (en) 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
JP6501614B2 (ja) * 2015-05-27 2019-04-17 三菱電機株式会社 マルチディスプレイ装置
JP6585929B2 (ja) * 2015-06-02 2019-10-02 キヤノン株式会社 システム、システムの制御方法
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
JP6077068B1 (ja) * 2015-07-30 2017-02-08 株式会社オプティム 拡張現実システム、および拡張現実方法
JP6733401B2 (ja) * 2016-07-28 2020-07-29 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
US10133532B2 (en) 2015-09-25 2018-11-20 Seiko Epson Corporation Display system, display device, information display method, and program
JP6580957B2 (ja) * 2015-11-26 2019-09-25 アズビル株式会社 表示装置および方法
DE102015226581B4 (de) * 2015-12-22 2022-03-17 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
US10209785B2 (en) * 2016-02-02 2019-02-19 Microsoft Technology Licensing, Llc Volatility based cursor tethering
DE102016003074A1 (de) 2016-03-12 2017-09-14 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
JP2017199238A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム
JP6106321B1 (ja) * 2016-06-30 2017-03-29 魔法株式会社 電子カタログ
JP6991768B2 (ja) * 2017-07-28 2022-01-13 キヤノン株式会社 表示制御装置および表示制御方法
DE102018201711B4 (de) 2018-02-05 2020-07-02 Vypii GmbH Anordnung und Verfahren zum Bereitstellen von Informationen bei einer kopftragbaren erweiterte-Realität-Vorrichtung
JP2019021347A (ja) * 2018-11-07 2019-02-07 株式会社コロプラ ヘッドマウントディスプレイシステム制御プログラム
EP3696740B1 (en) * 2019-02-14 2024-01-10 Braun GmbH System for assessing the usage of an envisaged manually movable consumer product
JP2020074066A (ja) * 2019-09-09 2020-05-14 キヤノン株式会社 画像表示装置、画像表示装置の制御方法
JP6849775B2 (ja) * 2019-11-14 2021-03-31 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US11431952B2 (en) * 2020-05-11 2022-08-30 Sony Interactive Entertainment Inc. User selection of virtual camera location to produce video using synthesized input from multiple cameras
WO2022208600A1 (ja) * 2021-03-29 2022-10-06 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
JP2023144941A (ja) * 2022-03-28 2023-10-11 矢崎総業株式会社 通信システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63170780A (ja) * 1986-10-03 1988-07-14 インタランド・コーポレーション 一体化したマルチ・ディスプレイ型のオーバーレイ制御式通信ワークステーション
JPH1091057A (ja) * 1996-09-17 1998-04-10 Mitsubishi Electric Corp 技術相談支援システム
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
EP1157316B1 (de) * 1999-03-02 2003-09-03 Siemens Aktiengesellschaft System und verfahren zur situationsgerechten unterstützung der interaktion mit hilfe von augmented-reality-technologien
JP2001109912A (ja) * 1999-10-05 2001-04-20 Canon Inc 画像処理装置、画像処理方法、及び記憶媒体
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US6963334B1 (en) * 2000-04-12 2005-11-08 Mediaone Group, Inc. Smart collaborative whiteboard integrated with telephone or IP network
JP4288843B2 (ja) * 2000-10-25 2009-07-01 沖電気工業株式会社 遠隔作業支援システム
JP2002159019A (ja) * 2000-11-16 2002-05-31 Canon Inc 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体
US6638223B2 (en) * 2000-12-28 2003-10-28 Ge Medical Systems Global Technology Company, Llc Operator interface for a medical diagnostic imaging device
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP4065507B2 (ja) * 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP3984907B2 (ja) * 2002-11-29 2007-10-03 キヤノン株式会社 画像観察システム
JP2004194033A (ja) * 2002-12-12 2004-07-08 Canon Inc 立体画像表示システム及び立体ポインタの表示方法
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
JP2005135161A (ja) * 2003-10-30 2005-05-26 Gifu Prefecture 協調設計システムおよび方法
JP2005251118A (ja) * 2004-03-08 2005-09-15 Canon Inc 画像処理方法、画像処理装置
WO2005103921A2 (en) * 2004-04-15 2005-11-03 Edda Technology, Inc. Interactive 3d data editing via 2d graphical drawing tools
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置

Also Published As

Publication number Publication date
US8139087B2 (en) 2012-03-20
JP2007042073A (ja) 2007-02-15
US20070002037A1 (en) 2007-01-04

Similar Documents

Publication Publication Date Title
JP4933164B2 (ja) 情報処理装置、情報処理方法、プログラムおよび記憶媒体
JP5525923B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5800501B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US9495800B2 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
US7292240B2 (en) Virtual reality presentation device and information processing method
JP4298407B2 (ja) 映像合成装置及び映像合成方法
JP5689707B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
US9594399B2 (en) Computer-readable storage medium, display control apparatus, display control method and display control system for controlling displayed virtual objects with symbol images
US8648924B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus
WO2016132817A1 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP4917664B1 (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
WO2013001902A1 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
JPWO2015098807A1 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
JP2002247602A (ja) 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2006301654A (ja) 画像呈示装置
JP2006285609A (ja) 画像処理方法、画像処理装置
CN108027694B (zh) 记录介质、内容提供装置以及控制方法
JP4724476B2 (ja) 情報処理方法及び装置
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
JP2012106005A (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
JP2020135130A (ja) 画像表示装置、画像表示装置の制御方法及びプログラム
JP2019212137A (ja) ヒートマップ提示装置およびヒートマップ提示用プログラム
JP2005157610A (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120216

R151 Written notification of patent or utility model registration

Ref document number: 4933164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees