JP4857196B2 - 頭部装着型表示装置、及びその制御方法 - Google Patents

頭部装着型表示装置、及びその制御方法 Download PDF

Info

Publication number
JP4857196B2
JP4857196B2 JP2007146092A JP2007146092A JP4857196B2 JP 4857196 B2 JP4857196 B2 JP 4857196B2 JP 2007146092 A JP2007146092 A JP 2007146092A JP 2007146092 A JP2007146092 A JP 2007146092A JP 4857196 B2 JP4857196 B2 JP 4857196B2
Authority
JP
Japan
Prior art keywords
space image
display device
orientation
orientation information
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007146092A
Other languages
English (en)
Other versions
JP2008299669A5 (ja
JP2008299669A (ja
Inventor
浩 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007146092A priority Critical patent/JP4857196B2/ja
Priority to US12/127,593 priority patent/US8233011B2/en
Publication of JP2008299669A publication Critical patent/JP2008299669A/ja
Publication of JP2008299669A5 publication Critical patent/JP2008299669A5/ja
Application granted granted Critical
Publication of JP4857196B2 publication Critical patent/JP4857196B2/ja
Priority to US13/537,282 priority patent/US20120268494A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory

Description

本発明は、現実空間画像と仮想空間画像とを合成する技術に関するものである。
近年、MR(Mixed reality)技術が盛んに研究されている(特許文献1を参照)。MR技術とは、以下のようなものである。即ち、観察者の頭部に装着されたカメラによって撮像された現実空間画像の上に、この撮像時における観察者の視点の位置姿勢を示す視点情報に基づいて生成される仮想空間画像(CG:Computer Graphics)を合成した合成画像を生成する。そしてこの合成画像を、観察者の頭部に装着された表示装置に表示する。
また、係る合成時における処理として、次のようなものが提案されている。即ち、CGの作成に要する時間を予測し、予測した時間が経過する間に観察者の頭(視点)が移動する量を予測し、予測した量だけ移動した視点に基づいてCGを生成し、現実空間画像と合成するものがある(特許文献2を参照)。
特開平07-311857号公報 特開2004-109994号公報
しかしながら、現実空間画像と、この現実空間画像の撮像時における視点情報に基づいて生成したCGとを合成して表示する方法では、次のような問題がある。
現実空間画像とCGとの合成画像を生成し、表示するまでには、現実空間画像の撮像、CGの生成、現実空間画像とCGとの合成、といった一連の処理が必要となるので、当然ながら、現実空間画像の撮像時から遅れて合成画像が表示されることになる。特に、視点の動きが早い場合には、係る遅れは目立ってしまう。
また、観察者の視点の動きの変化を予測して予めCGを作成し、現実空間画像に合成する方法では、CG作成処理に起因する遅れは軽減されるものの、CGにおける視点と現実空間画像における視点との間に誤差が生じてしまう。その結果、この現実空間画像とCGとを合成した合成画像を観察する観察者に対して、CGについての違和感を与えてしまうことになる。
本発明は以上の問題に鑑みてなされたものであり、仮想空間画像と現実空間画像とを合成する場合に、互いの画像における視点のずれを軽減させる為の技術を提供することを目的とする。更に本発明は、係る合成に要する時間をより短くするための技術を提供することを目的とする。
本発明の目的を達成するために、本発明の頭部装着型表示装置は以下の構成を備える。
即ち、撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置であって、
前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得手段と、
前記取得手段が取得した位置姿勢情報を、外部のコンピュータに送信する送信手段と、
前記送信手段が送信した位置姿勢情報と、当該位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像とを、前記コンピュータから受信し、第2のメモリに記録する受信手段と、
前記表示装置の表示タイミングで前記第1のメモリが保持している位置姿勢情報と、当該表示タイミングで前記第2のメモリが保持している位置姿勢情報とで、姿勢成分の差分量を求める計算手段と、
前記表示装置の表示タイミングの近傍で前記取得手段が取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める手段と、
前記表示装置の表示タイミングの近傍で前記取得手段が取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める手段と、
前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像と、前記表示装置の表示タイミングで前記第2のメモリが保持している仮想空間画像と、を合成する合成手段とを備え、
前記合成手段は、
合成する仮想空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
合成する現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
のうち、前記第1の差分値と前記第2の差分値との大小関係に応じて決まる合成処理を行うことを特徴とする。
本発明の目的を達成するために、本発明の頭部装着型表示装置は以下の構成を備える。
即ち、撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置であって、
前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得手段と、
前記取得手段が取得した位置姿勢情報を、外部のコンピュータに送信する送信手段と、
前記送信手段が送信した位置姿勢情報と、当該位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像とを、前記コンピュータから受信し、第2のメモリに記録する受信手段と、
前記表示装置の表示タイミングの近傍で前記取得手段が取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める手段と、
前記表示装置の表示タイミングの近傍で前記取得手段が取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める手段と、
前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記第1の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから、前記表示装置の表示タイミングで前記第2のメモリが保持している仮想空間画像と合成する手段と、
前記表示装置の表示タイミングで前記第2のメモリが保持している現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記第2の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから、前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像と合成する手段と
を備えることを特徴とする。
本発明の目的を達成するために、本発明の頭部装着型表示装置の制御方法は以下の構成を備える。
即ち、撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置の制御方法であって、
前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得工程と、
前記取得工程で取得した位置姿勢情報を、外部のコンピュータに送信する送信工程と、
前記送信工程で送信した位置姿勢情報と、当該位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像とを、前記コンピュータから受信し、第2のメモリに記録する受信工程と、
前記表示装置の表示タイミングで前記第1のメモリが保持している位置姿勢情報と、当該表示タイミングで前記第2のメモリが保持している位置姿勢情報とで、姿勢成分の差分量を求める計算工程と、
前記表示装置の表示タイミングの近傍で前記取得工程で取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める工程と、
前記表示装置の表示タイミングの近傍で前記取得工程で取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める工程と、
前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像と、前記表示装置の表示タイミングで前記第2のメモリが保持している仮想空間画像と、を合成する合成工程とを備え、
前記合成工程では、
合成する仮想空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
合成する現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
のうち、前記第1の差分値と前記第2の差分値との大小関係に応じて決まる合成処理を行うことを特徴とする。
本発明の目的を達成するために、本発明の頭部装着型表示装置の制御方法は以下の構成を備える。
即ち、撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置の制御方法であって、
前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得工程と、
前記取得工程で取得した位置姿勢情報を、外部のコンピュータに送信する送信工程と、
前記送信工程で送信した位置姿勢情報と、当該位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像とを、前記コンピュータから受信し、第2のメモリに記録する受信工程と、
前記表示装置の表示タイミングの近傍で前記取得工程で取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める工程と、
前記表示装置の表示タイミングの近傍で前記取得工程で取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める工程と、
前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記第1の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから、前記表示装置の表示タイミングで前記第2のメモリが保持している仮想空間画像と合成する工程と、
前記表示装置の表示タイミングで前記第2のメモリが保持している現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記第2の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから、前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像と合成する工程と
を備えることを特徴とする。
本発明の目的を達成するために、本発明の頭部装着型表示装置は以下の構成を備える。
即ち、撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置であって、
前記撮像装置が撮像した現実空間画像を取得する第1の取得手段と、
前記現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得する第2の取得手段と、
前記第2の取得手段が取得した位置姿勢情報を、外部のコンピュータに送信する送信手段と、
前記送信手段が送信した位置姿勢情報と、当該位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像とを、前記コンピュータから受信する受信手段と、
前記受信手段が受信した位置姿勢情報と、当該受信の時点で前記第2の取得手段が取得した位置姿勢情報とで、姿勢成分の差分量を求める計算手段と、
前記受信手段が受信した仮想空間画像を前記時点で前記第1の取得手段が取得した現実空間画像上に合成する場合に、当該仮想空間画像の合成位置を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらして当該現実空間画像上に合成する合成手段と、
前記合成手段による合成画像を前記表示装置に対して出力する出力手段と
を備えることを特徴とする。
本発明の目的を達成するために、本発明の頭部装着型表示装置の制御方法は以下の構成を備える。
即ち、撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置の制御方法であって、
前記撮像装置が撮像した現実空間画像を取得する第1の取得工程と、
前記現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得する第2の取得工程と、
前記第2の取得工程で取得した位置姿勢情報を、外部のコンピュータに送信する送信工程と、
前記送信工程で送信した位置姿勢情報と、当該位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像とを、前記コンピュータから受信する受信工程と、
前記受信工程で受信した位置姿勢情報と、当該受信の時点で前記第2の取得工程で取得した位置姿勢情報とで、姿勢成分の差分量を求める計算工程と、
前記受信工程で受信した仮想空間画像を前記時点で前記第1の取得工程で取得した現実空間画像上に合成する場合に、当該仮想空間画像の合成位置を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらして当該現実空間画像上に合成する合成工程と、
前記合成工程による合成画像を前記表示装置に対して出力する出力工程と
を備えることを特徴とする。
本発明の構成によれば、仮想空間画像と現実空間画像とを合成する場合に、互いの画像における視点のずれを軽減させることができる。更に、係る合成に要する時間をより短くすることができる。
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。
[第1の実施形態]
図1は、本実施形態に係る頭部装着型表示装置(HMD)を適用したシステムの外観例を示す図である。図1に示す如く、本実施形態に係るシステムは、HMD101とPC(パーソナルコンピュータ)102とで構成されており、HMD101とPC102とはケーブル103を介して接続されている。もちろん、HMD101とPC102との間の接続方法については特に限定するものではなく、有線、無線の何れでも良い。
先ず、HMD101について説明する。HMD101は周知の如く、観察者の頭部に装着するものである。
105は、自身の位置姿勢を計測する位置姿勢センサ105である。位置姿勢センサ105に適用可能なセンサについては光学式センサや機械式センサ、超音波センサなど、様々なものが考えられる。本実施形態では位置姿勢センサ105として磁気センサを用いる。この場合、位置姿勢センサ105は次のように動作する。
現実空間中の予め定めた位置には磁気発信源(不図示)を設置する。位置姿勢センサ105は、係る磁気発信源が発する磁界中において自身の位置姿勢に応じた磁気を検知する。検知した結果を示す信号は不図示のセンサコントローラに送出され、係るセンサコントローラは、この信号に基づいて、センサ座標系における位置姿勢センサ105の位置姿勢を算出する。センサ座標系とは、磁気発信源の位置を原点とし、係る原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系のことである。そしてセンサコントローラはこの算出した位置姿勢を示す位置姿勢情報をPC102に送出する。なお、世界座標系とセンサ座標系とが一致している場合には、位置姿勢センサ105が計測した位置姿勢は世界座標系のものとなる。世界座標系とは、現実空間中の予め定められた位置を原点とし、係る原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系のことである。一方、一致していない場合には、センサ座標系と世界座標系との位置姿勢関係を予め測定しておき、位置姿勢センサ105が計測した位置姿勢をこの位置姿勢関係でもって変換したものを、世界座標系における位置姿勢として用いる。なお、世界座標系における位置姿勢センサ105の位置姿勢を取得するための技術については様々なものがあり、これについては説明を省略する。本実施形態では説明を簡単にする為に、センサ座標系と世界座標系とは一致しており、位置姿勢センサ105が計測する位置姿勢は、世界座標系におけるものであるとして説明する。
また、ジャイロセンサや加速度センサの出力値を積分することで位置姿勢を求めたり、後述する撮像装置が撮像した現実空間画像から位置姿勢を求めたりしてもよい。さらには、これらを組み合わせてもよいことは言うまでもない。
HMD101の内部には、HMD101を頭部に装着する観察者の右目に提供する現実空間の画像を撮像するための撮像装置、左目に提供する現実空間の画像を撮像するための撮像装置が設けられている。係る撮像装置は何れも、現実空間の画像(動画像)を撮像するビデオカメラである。そして、それぞれの撮像装置は撮像窓104を介して現実空間を撮像する。なお、撮像装置は右目用、左目用の2台としているが、1台の撮像装置を右目、左目で共有して使用しても良い。
また、HMD101の内部には、HMD101を頭部に装着する観察者の右目に対して画像を提供するための表示装置、左目に対して画像を提供するための表示装置が設けられている。なお、表示装置は右目用、左目用の2台としているが、1台の表示装置を右目、左目で共有して使用しても良い。
次に、HMD101のより詳細な構成について説明する。図8は、本実施形態に係るHMD101の機能構成を示すブロック図である。なお、図8において図1と同じ部分については同じ番号を付けており、その説明は省略する。
図8においてHMD101を構成する各部のうち、位置姿勢センサ105を除く他の各部は、HMD101を頭部に装着する観察者の右目、左目のそれぞれに対して設けられるものである。従って、図8では、一方の目に対するHMD101の構成のみを示しているが、他方の目に対しても同様の構成がHMD101内に設けられており、その各部は以下説明する動作を行うものとする。
視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を示す位置姿勢情報を受け、これをそのまま外部のPC102に転送する。なお、世界座標系とセンサ座標系とが一致していない場合には、視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を、センサ座標系と世界座標系との位置姿勢関係でもって変換した位置姿勢情報を求める。そしてこの求めた位置姿勢情報をPC102に送出する。
PC102は、視点情報検出部202から位置姿勢情報を受けると、この位置姿勢情報が示す位置姿勢に、予め求めた位置姿勢センサ105とカメラ203との位置姿勢関係を加える。これにより、カメラ203(視点)の位置姿勢を示す位置姿勢情報を求めることができる。そして、カメラ203の位置姿勢を有する視点を、仮想空間中に設定する。なお、係る仮想空間の座標系は、世界座標系に一致しているものとする。また、係る仮想空間は、1以上の仮想物体でもって構成されているものとする。従って、PC102は、この設定した視点から見える仮想空間の画像(CG、仮想空間画像)を生成する。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための処理については周知であるので、これについての説明は省略する。そしてPC102は、この生成したCGのデータと共に、このCGを生成するために視点情報検出部202から受けた位置姿勢情報をHMD101に返信する。
HMD101に送信されたCGのデータはCGバッファ209(第2のメモリ)に格納され、HMD101に返信された位置姿勢情報はCG視点記憶部208(第2のメモリ)に格納される。なお、CGバッファ209とCG視点記憶部208とは1つのメモリで構成しても良い。何れにせよ、CGのデータと共に、このCGを生成するために視点情報検出部202から受けた位置姿勢情報をそれぞれ関連付けて保持する。
一方、カメラ203が撮像した各フレームの画像(現実空間画像)は順次、後段のカメラ視点記憶部207(第1のメモリ)、カメラ画像処理部204に送出される。
カメラ視点記憶部207は、カメラ203から現実空間画像を受信すると、係る受信タイミングに最も近いタイミングで視点情報検出部202から受信した位置姿勢情報とセットにして保持する。
カメラ画像処理部204は、カメラ203から受けた現実空間画像に対して周知の各種の補正処理を行う。そして補正後の現実空間画像を、後段のカメラ画像位置修正部714に送出する。
視点情報演算部710は、CGバッファ209に格納されたCGとカメラ画像処理部204から出力された現実空間画像とを合成する場合に、このCG若しくは現実空間画像の何れをどれだけずらして合成するのかを決定する「ずれ量」を後述する処理で求める。
CG画像位置修正部211は、CGバッファ209に格納されたCGを、視点情報演算部710から受けたずれ量だけずらし、処理後のCGを後段の合成処理部705に送出する。
カメラ画像位置修正部714は、カメラ画像処理部204から受けた現実空間画像を、視点情報演算部710から受けたずれ量だけずらし、処理後の現実空間画像を後段の合成処理部705に送出する。
合成処理部705は、CG画像位置修正部211から送出されたCGと、カメラ画像位置修正部714から送出された現実空間画像との合成処理を行う。係る合成処理では、このCG若しくはこの現実空間画像の合成位置が、本来の合成位置から、視点情報演算部710が求めたずれ量だけずらした位置となっている。係る合成により生成される合成画像は、表示バッファ212上に描画される。
そして表示バッファ212に描画された合成画像は、表示部(表示装置)213に表示される。
ここで、HMD101を頭部に装着した観察者の頭部の動きに応じた、現実空間画像とCGとのずれについて、図3〜5Cを用いて説明する。
図3は、HMD101を頭部に装着している観察者の頭部301を真上から見た場合の図である。図3では観察者の頭部301は、図中の矢印Aで示す如く、左右に振っている。HMD101は観察者の頭部301に固定されているので、観察者の頭部301を左右に振れば、HMD101(HMD101に備わっている各部も同様)もまた左右に振られることになる。
図4は、位置姿勢センサ105から順次得られる姿勢情報(水平面内における角度)θxを縦軸にとり、横軸には姿勢情報の取得時刻をとった場合のグラフの例を示す図である。観察者の頭部301を図3に示す如く、左右に振った場合、時間の増加と共に、頭部301の水平面内の角度の軌跡は略正弦波となる。
時刻t1は、PC102が視点情報検出部202から受けた位置姿勢情報に基づいて、カメラ203(CG用視点)の位置姿勢を求めたタイミングを示している。時刻t1では401で示す如く、CG用視点の位置姿勢が求まっている。
時刻t2は、PC102からCGバッファ209にCGのデータが格納されたタイミングを示しており、時刻t1と時刻t2との差は、このCGの作成に要した時間にほぼ同じである。時刻t2では402で示す如く、時刻t2において位置姿勢センサ105が計測した位置姿勢、即ちカメラ用視点の位置姿勢が求まっている。
時刻t3は、合成画像の表示タイミングを示しており、時刻t2と時刻t3との差は、カメラ画像処理に要する時間、及び現実空間画像とCGとの合成に要した時間にほぼ同じである。時刻t3では403で示す如く、時刻t3において位置姿勢センサ105が計測した位置姿勢、即ち現在視点の位置姿勢が求まっている。
このように、合成画像を生成するまでには時間がかかるので、CGを生成するために用いたCG用視点の位置姿勢と、生成したCGと合成する現実空間画像を撮像したカメラ203の位置姿勢とでは異なったものとなってしなう。
このことは、観察者の頭部301を垂直方向に上下に振った場合であっても同じであるし、振る方向が如何なる方向であっても実質的には同じである。
次に、観察者の頭部301の動きが、CGと現実空間画像との合成画像に与える影響について図5A〜5Cを用いて説明する。
図5Aは、観察者の頭部301を水平方向に時計回りに振った場合における、合成画像について説明する図である。
図5A(a)は、HMD101を頭部に装着している観察者の頭部301を真上から見た場合の図で、観察者の頭部301は、図中の矢印Aで示す如く、水平面内において時計回りに振っている。
図5A(b)は、このような場合に、生成される合成画像の例を示す図で、501aは合成画像、501b、501dは現実空間画像内の現実物体、501cはCGとしての仮想物体を示す。そして仮想物体501cは現実物体501dと重ねて表示するものとする。従って、頭部301が静止している状態では、仮想物体501cは現実物体501dに重なって表示されている。しかし、図5A(a)に示したように頭部301を時計回りに回転させると、仮想物体501cの画像を完成させた時点でのカメラ203の姿勢は、この仮想物体501cを生成するために用いたカメラ203の姿勢よりも時計回りに回転している。従って、図5A(b)に示す如く、仮想物体501cは現実物体501dよりも右側にずれた位置に合成されている。
図5Bは、観察者の頭部301を垂直方向に上下に振った場合における、合成画像について説明する図である。
図5B(a)は、HMD101を頭部に装着している観察者の頭部301を真横から見た場合の図で、観察者の頭部301は、図中の矢印Bで示す如く、垂直方向に下から上に振っている。
図5B(b)は、このような場合に、生成される合成画像の例を示す図で、502aは合成画像、502b、502dは現実空間画像内の現実物体、502cはCGとしての仮想物体を示す。そして仮想物体502cは現実物体502dと重ねて表示するものとする。従って、頭部301が静止している状態では、仮想物体502cは現実物体502dに重なって表示されている。しかし、図5B(a)に示したように頭部301を下から上に回転させると、仮想物体502cの画像を完成させた時点でのカメラ203の姿勢は、この仮想物体502cを生成するために用いたカメラ203の姿勢よりも上に回転している。従って、図5B(b)に示す如く、仮想物体502cは現実物体502dよりも上側にずれた位置に合成されている。
図5Cは、観察者の頭部301を顔の正面を軸としてロール方向(時計方向)に回転(傾げる)させた場合における、合成画像について説明する図である。
図5C(a)は、HMD101を頭部に装着している観察者の頭部301を真正面から見た場合の図で、観察者の頭部301は、図中の矢印Cで示す如く、顔の正面を軸としてロール方向(時計方向)に回転(傾げる)させている。
図5C(b)は、このような場合に、生成される合成画像の例を示す図で、503aは合成画像、503b、503dは現実空間画像内の現実物体、503cはCGとしての仮想物体を示す。そして仮想物体503cは現実物体503dと重ねて表示するものとする。従って、頭部301が静止している状態では、仮想物体503cは現実物体503dに重なって表示されている。しかし図5C(a)に示したように頭部301を顔の正面を軸としてロール方向に回転させると、仮想物体503cの画像を完成させた時点でのカメラ203の姿勢は、仮想物体503cを生成する為に用いたカメラ203の姿勢よりも時計回りに回転している。従って、図5C(b)に示す如く、仮想物体503cは現実物体503dよりも1つ前の回転位置に合成されている。
次に、このようにして生じたCGのずれを修正する為の処理について、図6を用いて説明する。図6は、頭部301の動きに起因して生じる現実空間画像上におけるCGの合成位置のずれを解消するための処理を説明する図である。なお、図6を用いた説明では、頭部301が水平面内で姿勢を変化させた場合について説明する。
図6においてCxはカメラ203の水平方向に対する画角を示す画角情報である。また、表示部213の水平方向に対する画素数M(解像度情報)を1280画素とする。またΔθxは、表示タイミングの近傍でCG視点記憶部208が保持している位置姿勢情報(第1位置姿勢情報)と、表示タイミングの近傍でカメラ視点記憶部207が保持している位置姿勢情報(第2位置姿勢情報)とで水平方向に対する姿勢成分のずれを示す。より詳細には、Δθxは、第2位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分から、第1位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分を差し引いた残り(差分量)を示す。
そして、表示部213の表示タイミングの近傍でカメラ画像処理部204から送出された現実空間画像上に、表示部213の表示タイミングの近傍でCGバッファ209が保持しているCGを合成する場合に、合成位置のずれ量Pを以下の式に基づいて決定する。
P=M×Δθx/Cx
ここで、Δθxが1°である場合を例に取る。そして、カメラ203の画角Cxが60°、表示部213の水平方向に対する画素数Mが1280画素である場合、P=(1/60)x1280≒213となる。従って、約213画素分だけCGを左にずらして現実空間画像上に合成するか、約213画素分だけ右にずらした現実空間画像の上にCGを合成する(時計回りに姿勢成分値が増加する場合)。なお、Δθxが負の値の場合には、Pも負の値となる。この場合、CGを右側に|P|画素だけずらすか、現実空間画像を左側に|P|画素だけずらせばよい。
なお、頭部301が水平方向以外の方向(例えば、水平方向及び垂直方向、垂直方向のみ)にも動いた場合、各方向に独立して以上説明した処理を行えばよい。例えば、垂直方向の場合、Pが正の値であれば、P画素だけCGを下側にずらせばよいし、Pが負の値であれば、|P|画素だけCGを上側にずらせばよい(上向きに姿勢成分値が増加する場合)。これは、現実空間画像についても同様である。
以上説明したずれ量を求める処理は、視点情報演算部710によって行われる。ここで、本実施形態では、CG、現実空間画像の両方をずらすのではなく、何れかをずらすのであるが、何れをずらすのかについては、次のようにして決定する。なお、係る決定は、視点情報演算部710が行う。
視点情報演算部710は、表示部213の表示タイミングの近傍で視点情報検出部202から位置姿勢情報(基準位置姿勢情報)を受けると、この時点でカメラ視点記憶部207が保持している位置姿勢情報と基準位置姿勢情報との第1の差分値を求める。ここで表示タイミングとは、例えば1/60秒毎である。また、視点情報演算部710は、基準位置姿勢情報と、CG視点記憶部208が保持している位置姿勢情報との第2の差分値を求める。そして第1の差分値の絶対値と第2の差分値の絶対値との大小比較(大小関係の比較)を行う。ここで、第1の差分値の絶対値が第2の差分値の絶対値未満である場合には、以上の処理で求めたずれ量をCG画像位置修正部211に対して送出すると共に、カメラ画像位置修正部714に対してはずれ量「0」を送出する。一方、第1の差分値の絶対値が第2の差分値の絶対値以上である場合には、以上の処理で求めたずれ量をカメラ画像位置修正部714に対して送出すると共に、CG画像位置修正部211に対してはずれ量「0」を送出する。
CG画像位置修正部211は、CGバッファ209に格納されたCGを、視点情報演算部210が求めたずれ量だけずらして、合成処理部705に送出する。なお、CG画像位置修正部211は、ずれ量「0」を受けた場合には、CGバッファ209に格納されたCGをそのまま後段の合成処理部705に送出する。
カメラ画像位置修正部714は、カメラ画像処理部204から受けた現実空間画像を、視点情報演算部710から受けたずれ量だけずらして、合成処理部705に送出する。なお、カメラ画像位置修正部714は、ずれ量「0」を受けた場合には、カメラ画像処理部204から受けた現実空間画像をそのまま後段の合成処理部705に送出する。
合成処理部705は、CG画像位置修正部211から受けたCGを、カメラ画像位置修正部714から受けた現実空間画像上に合成する。係る合成により得られる合成画像は次のようなものである。即ち、CGの合成位置を本来の位置から視点情報演算部710が求めたずれ量だけずらしてこの現実空間画像上に合成したもの、若しくは、視点情報演算部710が求めたずれ量だけ本来の位置からずらした現実空間画像の上にこのCGを合成したものである。
係る合成により生成される合成画像は、表示バッファ212上に描画される。ここで、「本来の位置」とは、従来から行われているように、例えば、仮想空間中の仮想物体を投影面に投影したときの投影面上における位置であり、図5A(b)の場合、仮想物体501cの本来の位置は、現実物体501dと重なる位置のことである。
そして表示部213は、この表示バッファ212に描画された合成画像を表示する。
なお、本実施形態では観察者の右目に対して合成画像を提供する動作(構成)と、左目に対して合成画像を提供する動作(構成)とは独立しているものとして説明した。しかし、図2に示したHMD101の構成を両目で共有しても良い。係る構成を採用することにより、より簡便な構成となるので、HMD101のコストをより軽減させることができる。
なお、本実施形態では、CGのサイズ、現実空間画像のサイズは、表示部213の画面サイズよりも大きいものとする。これは、CG、現実空間画像の何れの合成位置を修正しても、画像が存在しない部分の発生を軽減させることを目的としている。
また、本実施形態を含む以下の実施形態において用いる「時点」が意味するところは、その時点のみを意味するものではなく、その時点近傍を含むものである。例えば、「格納された時点」とは「格納された瞬間」のみを含むものではなく、コンピュータ処理の分野で常識的な時間範囲内(例えばこの「瞬間」の前後1/100秒)であれば良い。係る点は、「タイミング」についても同様である。
図9は、HMD101が合成画像を生成して表示するために行う処理(HMD101の制御方法)のフローチャートである。なお、図9に示した各ステップにおける処理は上述の通りであるので、ここでは簡単に説明する。
先ず、カメラ203からカメラ視点記憶部207に対して、カメラ203が撮像した現実空間画像が送出された場合には処理はステップS900を介してステップS901に進み、送出されていない場合には、処理をステップS904に進める。
ステップS901では、カメラ視点記憶部207は、カメラ203が撮像した現実空間画像を取得すると共に、カメラ画像処理部204もまた、係る現実空間画像を取得する。カメラ画像処理部204は、この取得した現実空間画像に対して上述の各種の処理を実行する。そして処理した画像は後段のカメラ画像位置修正部714に送出する。
次にステップS902では、視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を示す位置姿勢情報を取得し、カメラ視点記憶部207に格納する。
ステップS903では、ステップS902で取得した位置姿勢情報をPC102に対して送信する。なお、世界座標系とセンサ座標系とが一致していない場合には、視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を、センサ座標系と世界座標系との位置姿勢関係でもって変換した位置姿勢情報を求める。そしてこの求めた位置姿勢情報をPC102に送出する。
次にPC102から、CGのデータと、位置姿勢情報とが返信された場合には処理をステップS904を介してステップS905に進め、返信されていない場合には処理をステップS906に進める。
ステップS905では、PC102から送信されたCGのデータはCGバッファ209に格納され、HMD101に返信された位置姿勢情報はCG視点記憶部208に格納される。
次にステップS906では、視点情報演算部710は、上記ずれ量Pを求める。
ステップS907では、視点情報演算部710は、上記第1の差分値αを求め、ステップS908では、上記第2の差分値βを求める。そして|α|<|β|である場合には処理をステップS909を介してステップS910に進め、|α|≧|β|である場合には処理をステップS909を介してステップS911に進める。
ステップS910では、CG画像位置修正部211は、CGバッファ209に格納されたCGを、ステップS906で視点情報演算部710が求めたずれ量だけずらし、処理後のCGを後段の合成処理部705に送出する。そして合成処理部705は、CG画像位置修正部211から送出されたCGと、カメラ画像位置修正部714から送出された現実空間画像との合成処理を行う。係る合成により生成される合成画像は、表示バッファ212上に描画される。
ステップS911では、カメラ画像位置修正部714は、カメラ画像処理部204から受けた現実空間画像を、ステップS906で視点情報演算部710が求めたずれ量だけずらし、処理後の現実空間画像を後段の合成処理部705に送出する。そして合成処理部705は、CG画像位置修正部211から送出されたCGと、カメラ画像位置修正部714から送出された現実空間画像との合成処理を行う。係る合成により生成される合成画像は、表示バッファ212上に描画される。
次にステップS912では、表示部213は、表示バッファ212に描画された合成画像を表示する。
以上の説明により、本実施形態によれば、HMD101を頭部に装着した観察者の頭部が動いたことに起因するCGの合成位置のずれを軽減することができる。更に、係るずれ軽減処理では、簡単な線形の上記式P=M×Δθx/Cxを計算するだけでずれ量を求めることができるため、ずれ軽減処理を比較的短い時間で行うことができる。
[第2の実施形態]
本実施形態では、CGと現実空間画像の両方をずらして合成する。即ち、図9のフローチャートにおいて、ステップS909を省くと共に、ステップS910,S911の両方を実行するように変更したフローチャートに従った処理を行う。更に、ステップS910で用いるずれ量を求めるために用いるΔθと、ステップS911で用いるずれ量を求めるために用いるΔθとは異なる。
ステップS910の為のΔθは、基準位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分から、第1位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分を差し引いた残り(差分量)を示す。即ち、ステップS910のためのΔθは、第1の差分値である。
ステップS911の為のΔθは、基準位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分から、第2位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分を差し引いた残り(差分量)を示す。即ち、ステップS911のためのΔθは、第2の差分値である。
[第3の実施形態]
本実施形態に係るHMDを適用したシステムの外観については第1の実施形態と同様に、図1に示したものを用いる。以下、本実施形態において、第1の実施形態と異なる点のみについて説明する。
HMD101のより詳細な構成について説明する。図2は、HMD101の機能構成を示すブロック図である。なお、図2において図1と同じ部分については同じ番号を付けており、その説明は省略する。
図2においてHMD101を構成する各部のうち、位置姿勢センサ105を除く他の部分は、HMD101を頭部に装着する観察者の右目、左目のそれぞれに対して設けられるものである。従って、図2では、一方の目に対するHMD101の構成のみを示しているが、他方の目に対しても同様の構成が、以下説明する動作を行うものとする。
視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を示す位置姿勢情報を受け、これをそのまま外部のPC102に転送する(第2の取得)。なお、世界座標系とセンサ座標系とが一致していない場合には、視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を、センサ座標系と世界座標系との位置姿勢関係でもって変換した位置姿勢情報を求める。そしてこの求めた位置姿勢情報をPC102に送出する。
PC102は、視点情報検出部202から位置姿勢情報を受けると、この位置姿勢情報が示す位置姿勢に、予め求めた位置姿勢センサ105とカメラ203との位置姿勢関係を加える。これにより、カメラ203(視点)の位置姿勢を示す位置姿勢情報を求めることができる。そして、カメラ203の位置姿勢を有する視点を、仮想空間中に設定する。なお、係る仮想空間の座標系は、世界座標系に一致しているものとする。また、係る仮想空間は、1以上の仮想物体でもって構成されているものとする。従って、PC102は、この設定した視点から見える仮想空間の画像(CG、仮想空間画像)を生成する。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための処理については周知であるので、これについての説明は省略する。そしてPC102は、この生成したCGのデータと共に、このCGを生成するために視点情報検出部202から受けた位置姿勢情報をHMD101に返信する。
HMD101に送信されたCGのデータはCGバッファ209に格納され、HMD101に返信された位置姿勢情報はCG視点記憶部208に格納される。
カメラ203が撮像した各フレームの画像(現実空間画像)は順次、後段のカメラ視点記憶部207、カメラ画像処理部204に送出される。
カメラ視点記憶部207には、視点情報検出部202から送出された位置姿勢情報に加え、カメラ203からの現実空間画像も入力される(第1の取得)。従ってカメラ視点記憶部207は、視点情報検出部202から入力された位置姿勢情報と、この位置姿勢情報がカメラ視点記憶部207に入力されたタイミングに最も近いタイミングでカメラ203から入力された現実空間画像とを関連付けて管理する。換言すれば、現実空間画像の撮像時に位置姿勢センサ105が計測した位置姿勢を示す位置姿勢情報を取得する。
カメラ画像処理部204は、カメラ203から受けた現実空間画像に対して周知の各種の補正処理を行う。そして補正後の現実空間画像を、後段の合成処理部205に送出する。
視点情報演算部210は、CGバッファ209に格納されたCGをカメラ画像処理部204から出力された現実空間画像上に合成する場合に、このCGをどれだけずらして現実空間画像上に合成するのかを決定する「ずれ量」を、後述する処理でもって求める。
CG画像位置修正部211は、CGバッファ209に格納されたCGを、視点情報演算部210が求めたずれ量だけずらすよう、合成処理部205に対して指示する。
合成処理部205は、CGバッファ209に格納されたCGを、CG視点記憶部208に位置姿勢情報が格納された時点でカメラ画像処理部204から送出された現実空間画像上に合成する。その際に、このCGの合成位置を、本来の合成位置から、視点情報演算部210が求めたずれ量だけずらした位置とする。係る合成により生成される合成画像は、表示バッファ212上に描画される。
そして表示バッファ212に描画された合成画像は、表示部(表示装置)213に表示される。
次に、CGのずれを修正する為の処理について、図6を用いて説明する。図6は、頭部301の動きに起因して生じる現実空間画像上におけるCGの合成位置のずれを解消するための処理を説明する図である。なお、図6を用いた説明では、頭部301が水平面内で姿勢を変化させた場合について説明する。
図6においてCxはカメラ203の水平方向に対する画角を示す画角情報である。また、表示部213の水平方向に対する画素数M(解像度情報)を1280画素とする。また、Δθxは、CG視点記憶部208に格納された位置姿勢情報(第1位置姿勢情報)と、この格納の時点でカメラ視点記憶部207に格納された位置姿勢情報(第2位置姿勢情報)とで、水平方向に対する姿勢成分のずれを示す。より詳細には、Δθxは、第2位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分から、第1位置姿勢情報が示す姿勢成分のうち水平方向の姿勢成分を差し引いた残り(差分量)を示す。
そして、CGバッファ209にCGのデータが格納された時点でカメラ画像処理部204から送出される現実空間画像上に、このCGを合成する場合に、合成位置のずれ量Pを以下の式に基づいて決定する。
P=M×Δθx/Cx
ここで、Δθxが1°、即ち、PC102に送信した位置姿勢情報のうち姿勢成分が示す姿勢から、PC102からCGのデータを受信した時点でカメラ視点記憶部207に格納された位置姿勢情報のうち姿勢成分が示す姿勢に1°ずれた場合を例に取る。そして、カメラ203の画角Cxが60°、表示部213の水平方向に対する画素数Mが1280画素である場合、P=(1/60)x1280≒213となるので、約213画素分だけ、CGを左にずらして現実空間画像上に合成することになる。なお、Δθxが負の値の場合には、Pも負の値となる。この場合、CGを右側に|P|画素だけずらせばよい。
なお、頭部301が水平方向以外の方向(例えば、水平方向及び垂直方向、垂直方向のみ)にも動いた場合、各方向に独立して以上説明した処理を行えばよい。例えば、垂直方向の場合、Pが正の値であれば、P画素だけCGを下側にずらせばよいし、Pが負の値であれば、|P|画素だけCGを上側にずらせばよい。
以上説明したずれ量を求める処理は、視点情報演算部210によって行われる。そして、CG画像位置修正部211は、CGバッファ209に格納されたCGを、視点情報演算部210が求めたずれ量だけずらすよう、合成処理部205に対して指示する。
そして合成処理部205は、CGバッファ209に格納されたCGを、CG視点記憶部208に位置姿勢情報が格納された時点でカメラ画像処理部204から送出された現実空間画像上に合成する。その際に、このCGの合成位置を、本来の合成位置から、視点情報演算部210が求めたずれ量だけずらしてこの現実空間画像上に合成する。係る合成により生成される合成画像は、表示バッファ212上に描画される。ここで、「本来の合成位置」とは、従来から行われているように、仮想空間中の仮想物体を投影面に投影したときの投影面上における位置であり、図5A(b)の場合、仮想物体501cの本来の合成位置は、現実物体501dと重なる位置のことである。
そして表示部213は、この表示バッファ212に描画された合成画像を表示する。
なお、本実施形態では観察者の右目に対して合成画像を提供する動作(構成)と、左目に対して合成画像を提供する動作(構成)とは独立しているものとして説明した。しかし、図2に示したHMD101の構成を両目で共有しても良い。係る構成を採用することにより、より簡便な構成となるので、HMD101のコストをより軽減させることができる。
なお、本実施形態では、CGの合成範囲は、現実空間画像のサイズよりも大きいものとする。これは、CGの合成位置を修正しても、CGが存在しない部分の発生を軽減させることを目的としている。
図7は、HMD101が合成画像を生成して表示するために行う処理(HMD101の制御方法)のフローチャートである。なお、図7に示した各ステップにおける処理は上述の通りであるので、ここでは簡単に説明する。
先ず、カメラ203からカメラ視点記憶部207に対して、カメラ203が撮像した現実空間画像が送出された場合には処理はステップS1000を介してステップS1001に進み、送出されていない場合には、処理をステップS1004に進める。
ステップS1001では、カメラ203が撮像した現実空間画像をカメラ視点記憶部207、カメラ画像処理部204が取得する。更に本ステップではカメラ視点記憶部207は視点情報検出部202から入力された位置姿勢情報と、この位置姿勢情報がカメラ視点記憶部207に入力されたタイミングに最も近いタイミングでカメラ203から入力された現実空間画像とを関連付けて管理する。更に本ステップでは、カメラ画像処理部204は、カメラ203から受けた現実空間画像に対して周知の各種の補正処理を行う。そして補正後の現実空間画像を、後段の合成処理部205に送出する。
次にステップS1002では、視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を示す位置姿勢情報を取得する。なお、世界座標系とセンサ座標系とが一致していない場合には、視点情報検出部202は、位置姿勢センサ105が計測した位置姿勢を、センサ座標系と世界座標系との位置姿勢関係でもって変換した位置姿勢情報を求める。
次にステップS1003では、視点情報検出部202は、ステップS1002で取得した、若しくは求めた、世界座標系における位置姿勢センサ105の位置姿勢情報をPC102に送出する。
次にPC102から、CGのデータと、位置姿勢情報とが返信された場合には処理をステップS1004を介してステップS1005に進め、返信されていない場合には処理をステップS1006に進める。
ステップS1005では、PC102から送信されたCGのデータはCGバッファ209に格納され、HMD101に返信された位置姿勢情報はCG視点記憶部208に格納される。
次にステップS1006では、視点情報演算部210は、上記ずれ量Pを求める。
次にステップS1007では、CG画像位置修正部211は、CGバッファ209に格納されたCGを、視点情報演算部210が求めたずれ量だけずらすよう、合成処理部205に対して指示する。そして合成処理部205は、CGバッファ209に格納されたCGを、CG視点記憶部208に位置姿勢情報が格納された時点でカメラ画像処理部204から送出された現実空間画像上に合成する。その際に、このCGの合成位置を、本来の合成位置から、視点情報演算部210が求めたずれ量だけずらした位置とする。係る合成により生成される合成画像は、表示バッファ212上に描画される。
次にステップS1008では、表示部213は、表示バッファ212に描画された合成画像を表示する。
以上の説明により、本実施形態によれば、HMD101を頭部に装着した観察者の頭部が動いたことに起因するCGの合成位置のずれを軽減することができる。更に、係るずれ軽減処理では、簡単な線形の上記式P=M×Δθx/Cxを計算するだけでずれ量を求めることができるため、1フレーム分に対するずれ軽減処理を比較的短い時間で行うことができる。
[第4の実施形態]
第1の実施形態では、視点情報検出部202がPC102に送信した位置姿勢情報がそのままPC102から返信されているが、PC102から係る位置姿勢情報の返信は行わずに、CGのみを返信するようにしても良い。
この場合、視点情報演算部210は、PC102に対して位置姿勢情報を送信する場合、この送信の時刻等、送信したタイミングを示すタイミング情報をこの位置姿勢情報に添付してPC102に送信する。更に、このタイミング情報を添付した位置姿勢情報は、カメラ視点記憶部207にも格納される。
そしてPC102は、この位置姿勢情報に基づいて生成したCGのデータに、このタイミング情報を添付してHMD101に返信する。
CGバッファ209にCGが格納されると、視点情報演算部210は、このCGに添付されているタイミング情報を参照し、同じタイミング情報が添付されている位置姿勢情報を読み出す。そして、視点情報演算部210は、この読み出した位置姿勢情報と、この時点で位置姿勢センサ105から取得した位置姿勢情報とに基づいて、上記ずれ量Pを算出する。
また、以上の各実施形態は部分的に適宜組み合わせて用いても良い。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第3の実施形態に係る頭部装着型表示装置(HMD)を適用したシステムの外観例を示す図である。 HMD101の機能構成を示すブロック図である。 HMD101を頭部に装着している観察者の頭部301を真上から見た場合の図である。 位置姿勢センサ105から順次得られる姿勢情報(水平面内における角度)θxを縦軸にとり、横軸には姿勢情報の取得時刻をとった場合のグラフの例を示す図である。 観察者の頭部301を水平方向に時計回りに振った場合における、合成画像について説明する図である。 観察者の頭部301を垂直方向に上下に振った場合における、合成画像について説明する図である。 観察者の頭部301を顔の正面を軸としてロール方向(時計方向)に回転(傾げる)させた場合における、合成画像について説明する図である。 頭部301の動きに起因して生じる現実空間画像上におけるCGの合成位置のずれを解消するための処理を説明する図である。 HMD101が合成画像を生成して表示するために行う処理のフローチャートである。 本発明の第1の実施形態に係る頭部装着型表示装置(HMD)を適用したシステムの外観例を示す図である。 HMD101が合成画像を生成して表示するために行う処理のフローチャートである。

Claims (9)

  1. 撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置であって、
    前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得手段と、
    前記取得手段が取得した位置姿勢情報を、外部のコンピュータに送信する送信手段と、
    前記送信手段が送信した位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像と、当該仮想空間画像を生成するために用いられた位置姿勢情報とを、前記コンピュータから受信し、第2のメモリに記録する受信手段と、
    前記表示装置の表示タイミングで前記第1のメモリが保持している位置姿勢情報と、当該表示タイミングで前記第2のメモリが保持している位置姿勢情報とで、姿勢成分の差分量を求める計算手段と、
    前記表示装置の表示タイミングで前記取得手段が取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める手段と、
    前記表示装置の表示タイミングで前記取得手段が取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める手段と、
    前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像と、前記表示装置の表示タイミングで前記第2のメモリが保持している仮想空間画像と、を合成する合成手段とを備え、
    前記合成手段は、
    合成する仮想空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
    合成する現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
    のうち、前記第1の差分値と前記第2の差分値との大小関係に応じて決まる合成処理を行うことを特徴とする頭部装着型表示装置。
  2. 前記合成手段は、
    前記第1の差分値の絶対値が前記第2の差分値の絶対値以上である場合には、合成する現実空間画像をずらし、
    前記第1の差分値の絶対値が前記第2の差分値の絶対値未満である場合には、合成する仮想空間画像をずらすことを特徴とする請求項1に記載の頭部装着型表示装置。
  3. 前記合成手段は、
    前記表示装置の解像度をM、前記差分量をΔθx、前記撮像装置の画角をCxとすると、前記ずれ量PをP=M×Δθx/Cxとして求め、求めたずれ量Pだけ現実空間画像、若しくは仮想空間画像をずらすことを特徴とする請求項2に記載の頭部装着型表示装置。
  4. 撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置であって、
    前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得手段と、
    前記取得手段が取得した位置姿勢情報を、外部のコンピュータに送信する送信手段と、
    前記送信手段が送信した位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像と、当該仮想空間画像を生成するために用いられた位置姿勢情報とを、前記コンピュータから受信し、第2のメモリに記録する受信手段と、
    前記表示装置の表示タイミングで前記取得手段が取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める手段と、
    前記表示装置の表示タイミングで前記取得手段が取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める手段と、
    前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記第1の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらし前記第2のメモリが保持している仮想空間画像を、前記表示装置の解像度を示す解像度情報と、前記第2の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから、前ずらされた現実空間画像と前記ずらされた仮想空間画像とを合成する手段と
    を備えることを特徴とする頭部装着型表示装置。
  5. 撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置を制御する制御装置が行う制御方法であって、
    前記制御装置の取得手段が、前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得工程と、
    前記制御装置の送信手段が、前記取得工程で取得した位置姿勢情報を、外部のコンピュータに送信する送信工程と、
    前記制御装置の受信手段が、前記送信工程で送信した位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像と、当該仮想空間画像を生成するために用いられた位置姿勢情報とを、前記コンピュータから受信し、第2のメモリに記録する受信工程と、
    前記制御装置の第1の計算手段が、前記表示装置の表示タイミングで前記第1のメモリが保持している位置姿勢情報と、当該表示タイミングで前記第2のメモリが保持している位置姿勢情報とで、姿勢成分の差分量を求める計算工程と、
    前記制御装置の第2の計算手段が、前記表示装置の表示タイミングで前記取得工程で取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める工程と、
    前記制御装置の第3の計算手段が、前記表示装置の表示タイミングで前記取得工程で取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める工程と、
    前記制御装置の合成手段が、前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像と、前記表示装置の表示タイミングで前記第2のメモリが保持している仮想空間画像と、を合成する合成工程とを備え、
    前記合成工程では、
    合成する仮想空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
    合成する現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから合成する合成処理、
    のうち、前記第1の差分値と前記第2の差分値との大小関係に応じて決まる合成処理を行うことを特徴とする制御方法。
  6. 撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置を制御する制御装置が行う制御方法であって、
    前記制御装置の取得手段が、前記撮像装置が撮像した現実空間画像を受信する毎に、受信した現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得し、当該現実空間画像と共に第1のメモリに記録する取得工程と、
    前記制御装置の送信手段が、前記取得工程で取得した位置姿勢情報を、外部のコンピュータに送信する送信工程と、
    前記制御装置の受信手段が、前記送信工程で送信した位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像と、当該仮想空間画像を生成するために用いられた位置姿勢情報とを、前記コンピュータから受信し、第2のメモリに記録する受信工程と、
    前記制御装置の第1の計算手段が、前記表示装置の表示タイミングで前記取得工程で取得した位置姿勢情報と、前記第1のメモリが保持する位置姿勢情報と、の第1の差分値を求める工程と、
    前記制御装置の第2の計算手段が、前記表示装置の表示タイミングで前記取得工程で取得した位置姿勢情報と、前記第2のメモリが保持する位置姿勢情報と、の第2の差分値を求める工程と、
    前記制御装置の合成手段が、前記表示装置の表示タイミングで前記第1のメモリが保持している現実空間画像を、前記表示装置の解像度を示す解像度情報と、前記第1の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらし前記第2のメモリが保持している仮想空間画像を、前記表示装置の解像度を示す解像度情報と、前記第2の差分値と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらしてから、前ずらされた現実空間画像と前記ずらされた仮想空間画像とを合成する工程と
    を備えることを特徴とする制御方法。
  7. 撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置であって、
    前記撮像装置が撮像した現実空間画像を取得する第1の取得手段と、
    前記現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得する第2の取得手段と、
    前記第2の取得手段が取得した位置姿勢情報を、外部のコンピュータに送信する送信手段と、
    前記送信手段が送信した位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像と、当該仮想空間画像を生成するために用いられた位置姿勢情報とを、前記コンピュータから受信する受信手段と、
    前記受信手段が受信した位置姿勢情報と、当該受信の時点で前記第2の取得手段が取得した位置姿勢情報とで、姿勢成分の差分量を求める計算手段と、
    前記受信手段が受信した仮想空間画像を前記時点で前記第1の取得手段が取得した現実空間画像上に合成する場合に、当該仮想空間画像の合成位置を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらして当該現実空間画像上に合成する合成手段と、
    前記合成手段による合成画像を前記表示装置に対して出力する出力手段と
    を備えることを特徴とする頭部装着型表示装置。
  8. 前記合成手段は、
    前記表示装置の解像度をM、前記差分量をΔθx、前記撮像装置の画角をCxとすると、前記ずれ量PをP=M×Δθx/Cxとして求め、求めたずれ量Pだけ仮想空間画像をずらすことを特徴とする請求項7に記載の頭部装着型表示装置。
  9. 撮像装置と、表示装置と、位置姿勢センサと、を有する頭部装着型表示装置を制御する制御装置が行う制御方法であって、
    前記制御装置の第1の取得手段が、前記撮像装置が撮像した現実空間画像を取得する第1の取得工程と、
    前記制御装置の第2の取得手段が、前記現実空間画像の撮像時に前記位置姿勢センサが計測した位置姿勢を示す位置姿勢情報を取得する第2の取得工程と、
    前記制御装置の送信手段が、前記第2の取得工程で取得した位置姿勢情報を、外部のコンピュータに送信する送信工程と、
    前記制御装置の受信手段が、前記送信工程で送信した位置姿勢情報に基づいて前記コンピュータが生成した仮想空間画像と、当該仮想空間画像を生成するために用いられた位置姿勢情報とを、前記コンピュータから受信する受信工程と、
    前記制御装置の計算手段が、前記受信工程で受信した位置姿勢情報と、当該受信の時点で前記第2の取得工程で取得した位置姿勢情報とで、姿勢成分の差分量を求める計算工程と、
    前記制御装置の合成手段が、前記受信工程で受信した仮想空間画像を前記時点で前記第1の取得工程で取得した現実空間画像上に合成する場合に、当該仮想空間画像の合成位置を、前記表示装置の解像度を示す解像度情報と、前記差分量と、前記撮像装置の画角を示す画角情報と、に応じて計算されるずれ量だけずらして当該現実空間画像上に合成する合成工程と、
    前記制御装置の出力手段が、前記合成工程による合成画像を前記表示装置に対して出力する出力工程と
    を備えることを特徴とする制御方法。
JP2007146092A 2007-05-31 2007-05-31 頭部装着型表示装置、及びその制御方法 Active JP4857196B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007146092A JP4857196B2 (ja) 2007-05-31 2007-05-31 頭部装着型表示装置、及びその制御方法
US12/127,593 US8233011B2 (en) 2007-05-31 2008-05-27 Head mounted display and control method therefor
US13/537,282 US20120268494A1 (en) 2007-05-31 2012-06-29 Head mounted display and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007146092A JP4857196B2 (ja) 2007-05-31 2007-05-31 頭部装着型表示装置、及びその制御方法

Publications (3)

Publication Number Publication Date
JP2008299669A JP2008299669A (ja) 2008-12-11
JP2008299669A5 JP2008299669A5 (ja) 2010-07-15
JP4857196B2 true JP4857196B2 (ja) 2012-01-18

Family

ID=40087571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007146092A Active JP4857196B2 (ja) 2007-05-31 2007-05-31 頭部装着型表示装置、及びその制御方法

Country Status (2)

Country Link
US (2) US8233011B2 (ja)
JP (1) JP4857196B2 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5047090B2 (ja) * 2008-07-31 2012-10-10 キヤノン株式会社 システム
US20110291916A1 (en) * 2008-12-10 2011-12-01 Frank Arndt Method for transmitting an image from a first control unit to a second control unit and output unit
JP5131257B2 (ja) * 2009-08-27 2013-01-30 カシオ計算機株式会社 表示制御装置及び表示制御プログラム
JP5734700B2 (ja) * 2011-02-24 2015-06-17 京セラ株式会社 携帯情報機器および仮想情報表示プログラム
US10585472B2 (en) 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US10209771B2 (en) 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
JP2013219544A (ja) * 2012-04-09 2013-10-24 Ricoh Co Ltd 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014153645A (ja) * 2013-02-13 2014-08-25 Seiko Epson Corp 画像表示装置および画像表示装置の表示制御方法
JP5983499B2 (ja) * 2013-03-29 2016-08-31 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
DE102013213492A1 (de) * 2013-07-10 2015-01-15 Bayerische Motoren Werke Aktiengesellschaft Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen
US9514571B2 (en) * 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
JP6349660B2 (ja) * 2013-09-18 2018-07-04 コニカミノルタ株式会社 画像表示装置、画像表示方法、および画像表示プログラム
JP5907136B2 (ja) * 2013-09-30 2016-04-20 ブラザー工業株式会社 ヘッドマウントディスプレイ、及び、制御プログラム
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2015125502A (ja) * 2013-12-25 2015-07-06 ソニー株式会社 画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
JP2015207802A (ja) * 2014-04-17 2015-11-19 ソニー株式会社 画像処理装置および画像処理方法
US9652893B2 (en) 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
GB2528699B (en) 2014-07-29 2017-05-03 Sony Computer Entertainment Europe Ltd Image processing
US9881422B2 (en) * 2014-12-04 2018-01-30 Htc Corporation Virtual reality system and method for controlling operation modes of virtual reality system
JP6474278B2 (ja) * 2015-02-27 2019-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10296086B2 (en) 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
CN114998557A (zh) 2015-08-18 2022-09-02 奇跃公司 虚拟和增强现实系统和方法
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017102298A (ja) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017215875A (ja) * 2016-06-01 2017-12-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成システム、および画像生成方法
KR102210993B1 (ko) * 2016-08-26 2021-02-02 매직 립, 인코포레이티드 가상 및 증강 현실 디스플레이 시스템들 및 방법들을 위한 연속 시간 와핑 및 양안 시간 와핑
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
EP3859495B1 (en) * 2016-12-06 2023-05-10 Vuelosophy Inc. Systems and methods for tracking motion and gesture of heads and eyes
KR20180075732A (ko) * 2016-12-26 2018-07-05 엘지디스플레이 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
US9978118B1 (en) 2017-01-25 2018-05-22 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations with data compression
US10242654B2 (en) 2017-01-25 2019-03-26 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations
JP7013128B2 (ja) * 2017-01-27 2022-01-31 キヤノン株式会社 画像表示装置、画像表示方法及びプログラム
US10514753B2 (en) * 2017-03-27 2019-12-24 Microsoft Technology Licensing, Llc Selectively applying reprojection processing to multi-layer scenes for optimizing late stage reprojection power
US10410349B2 (en) 2017-03-27 2019-09-10 Microsoft Technology Licensing, Llc Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power
IL269533B2 (en) * 2017-03-28 2023-11-01 Magic Leap Inc An augmented reality system with spatial audio linked to a user-operated virtual object
US10255891B2 (en) 2017-04-12 2019-04-09 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations with multiple LSR processing engines
JP2019028368A (ja) 2017-08-02 2019-02-21 株式会社ソニー・インタラクティブエンタテインメント レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法
US10360832B2 (en) 2017-08-14 2019-07-23 Microsoft Technology Licensing, Llc Post-rendering image transformation using parallel image transformation pipelines
EP3454300A1 (en) * 2017-09-12 2019-03-13 HTC Corporation Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium thereof
US10559276B2 (en) 2018-02-03 2020-02-11 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
EP3522150A3 (en) * 2018-02-03 2020-01-01 Facebook Technologies, LLC Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
US10706813B1 (en) 2018-02-03 2020-07-07 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
CN113426098A (zh) 2018-03-07 2021-09-24 奇跃公司 外围设备的视觉跟踪
US11327319B2 (en) * 2018-05-15 2022-05-10 Sony Interactive Entertainment Inc. Head mounted display, image display method, and computer program
US10678325B2 (en) 2018-05-22 2020-06-09 Facebook Technologies, Llc Apparatus, system, and method for accelerating positional tracking of head-mounted displays
JP2020042592A (ja) * 2018-09-11 2020-03-19 ソニー株式会社 情報処理装置、描画制御方法及びそのプログラムを記録した記録媒体
CN110969706B (zh) * 2019-12-02 2023-10-10 Oppo广东移动通信有限公司 增强现实设备及其图像处理方法、系统以及存储介质
WO2022004130A1 (ja) * 2020-06-30 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311857A (ja) * 1994-05-16 1995-11-28 Fujitsu Ltd 画像合成表示装置およびシミュレーションシステム
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP2001078179A (ja) * 1999-08-31 2001-03-23 Mixed Reality Systems Laboratory Inc データの同期化方法、その装置、複合現実感提示装置およびプログラム記憶媒体
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
JP2006285786A (ja) * 2005-04-01 2006-10-19 Canon Inc 情報処理方法、情報処理装置
US7868904B2 (en) * 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4144888B2 (ja) * 2005-04-01 2008-09-03 キヤノン株式会社 画像処理方法、画像処理装置

Also Published As

Publication number Publication date
US8233011B2 (en) 2012-07-31
US20120268494A1 (en) 2012-10-25
US20080297437A1 (en) 2008-12-04
JP2008299669A (ja) 2008-12-11

Similar Documents

Publication Publication Date Title
JP4857196B2 (ja) 頭部装着型表示装置、及びその制御方法
US11127195B2 (en) Continuous time warp for virtual and augmented reality display systems and methods
JP4933406B2 (ja) 画像処理装置、画像処理方法
US8760470B2 (en) Mixed reality presentation system
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
JP2017204674A (ja) 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
US20210368152A1 (en) Information processing apparatus, information processing method, and program
JP2015231106A (ja) ヘッドマウントディスプレイ装置及びヘッドマウントディスプレイシステム
US20210377515A1 (en) Information processing device, information processing method, and program
JP6949475B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2019073925A1 (ja) 画像生成装置および画像生成方法
GB2575824A (en) Generating display data
JP2020106655A (ja) 情報処理装置、情報処理方法及びプログラム
WO2021106136A1 (ja) 表示端末装置
NZ791691A (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
NZ751028B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
JP2005165973A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111003

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4857196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3