JP6226697B2 - 仮想現実ディスプレイシステム - Google Patents

仮想現実ディスプレイシステム Download PDF

Info

Publication number
JP6226697B2
JP6226697B2 JP2013221877A JP2013221877A JP6226697B2 JP 6226697 B2 JP6226697 B2 JP 6226697B2 JP 2013221877 A JP2013221877 A JP 2013221877A JP 2013221877 A JP2013221877 A JP 2013221877A JP 6226697 B2 JP6226697 B2 JP 6226697B2
Authority
JP
Japan
Prior art keywords
eyeball
image
virtual environment
head
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013221877A
Other languages
English (en)
Other versions
JP2014086091A (ja
Inventor
クリストファー レナード コヴィントン,
クリストファー レナード コヴィントン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2014086091A publication Critical patent/JP2014086091A/ja
Application granted granted Critical
Publication of JP6226697B2 publication Critical patent/JP6226697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、概して表示される情報に関し、具体的には表示装置上に表示される情報に関する。さらに具体的には、本発明は、仮想環境に基づく情報を表示するための方法と装置に関する。
仮想環境は、コンピュータによりシミュレーションされた環境である。具体的には、仮想環境は、ある人にとっての仮想現実を提供する。換言すれば、仮想現実では、現実の世界、並びに架空の世界に物理的に存在する場所のシミュレーションが行われる。仮想環境は、表示スクリーン又はヘッドマウントディスプレイといった表示装置を用いて表示される。表示スクリーンの場合、仮装環境は、三次元メガネを用いて三次元で表示される。ヘッドマウントディスプレイの場合、仮装環境は、立体表示を用いて三次元で表示される。加えて、仮想環境のために、音声及び触覚フィードバックといった他のセンサ情報も生成される。
仮想環境の画像の生成は、仮想環境を眺めている人にとって不自然で、且つ方向感覚を失わせるような方式で環境を表す。具体的には、このような画像は、人に対して画像をレンダリングして表示するために、単一の視点を用いて生成された二次元画像である。例えば、現在使用されている多数の仮想環境システムには、画像を生成するカメラのために単一の視点が採用されている。
現在、二次元画像が表示されているというオペレータの知覚を軽減するために、頭部追跡が使用されている。頭部追跡を使用することにより、仮装環境内部における人のビューの表現精度が向上する。いくつかの仮想環境システムは、立体画像を提供することにより、仮想環境の三次元ビューの提供を試みている。
頭部追跡及び立体画像を用いても、現在利用可能な仮想環境システムに使用されている表示装置は依然として望ましくない影響を有している。このような望ましくない影響には、方向感覚を失わせること、不明瞭さ、疲労、眼精疲労、頭痛、及び他の望ましくない影響のうちの少なくとも一つが含まれる。さらに、仮想環境を眺めている時間が長くなるほど、望ましくない影響は増大する。
例えば、多数の仮想環境システムは、眼精疲労を生じさせるような、三次元環境に基づく二次元画像を生成する。現在のシステムでは、寄り目のような不自然な方式で視点を合わせなければならない場合がある。
望ましくない影響を低減しようと、様々な機構が使用されている。例えば、いくつかの三次元ディスプレイシステムは偏光レンズを用いている。他のシステムは、一つの画像が一方の眼球に対して表示されるときに他方の眼球を遮るシャッターメガネを使用している。
このような種類のシステムも、やはり望ましくない影響を有する。したがって、少なくとも上述の問題点のいくつかと、起こりうる他の問題点を考慮する方法及び装置を有することが望ましい。
例示的な一実施形態では、装置は画像プロセッサ(216)を備えている。画像プロセッサ(216)は、人の頭部にある第1の眼球(234)に関する第1の眼球位置情報(226)と、人の頭部にある第2の眼球に関する第2の眼球位置情報とを受取るように構成されている。画像プロセッサ(216)は、さらに、第1の眼球(234)の第1の眼球位置情報(226)に基づいて第1の眼球(234)に見せるための仮想環境の第1の画像を生成するように構成されている。画像プロセッサ(216)は、さらに、第2の眼球の第2の眼球位置情報に基づいて第2の眼球に見せるための仮想環境の第2の画像を生成するように構成されている。画像プロセッサ(216)は、さらに、人に対して表示するために第1の画像と第2の画像とを送るように構成されている。
別の例示的実施形態では、仮想環境を表示する方法が提示される。人の頭部にある第1の眼球に関する第1の眼球位置情報と、人の頭部にある第2の眼球に関する第2の眼球位置情報とが受取られる。第1の眼球に見せるための仮想環境の第1の画像が、第1の眼球に関する第1の眼球位置情報に基づいて生成される。第2の眼球に見せるための仮想環境の第2の画像が、第2の眼球に関する第2の眼球位置情報に基づいて生成される。表示される第1の画像及び第2の画像が人に対して送られる。
上記のフィーチャ、及び機能は、本発明の様々な実施形態において独立に達成可能であるか、又は他の実施形態において組み合わせることが可能である。これらの実施形態について、後述の説明及び添付図面を参照してさらに詳細に説明する。
新規のフィーチャと考えられる例示的実施形態の特徴は、特許請求の範囲に明記される。しかしながら、例示的実施形態と、好ましい使用モード、さらなる目的、及びそのフィーチャは、添付図面を参照して本明細書の例示的一実施形態に関する後述の詳細な説明を読むことにより最もよく理解されるであろう。
例示的一実施形態による仮想環境システムを示している。 例示的一実施形態による仮想環境システムを示すブロック図である。 例示的一実施形態による表示装置の実装態様を示すブロック図である。 例示的一実施形態による、仮装環境システム内のセンサシステムに使用可能なセンサ種類を示すブロック図である。 例示的一実施形態による仮想環境システムを示している。 例示的な一実施形態による仮想環境表示プロセスを示すフロー図である。 例示的な一実施形態による仮想環境ビューイングプロセスを示すフロー図である。 例示的な一実施形態による仮想環境ビューイングプロセスを示すフロー図である。 例示的一実施形態によるデータ処理システムを示すブロック図である。
例示的実施形態は、一又は複数の検討事項を認識し、考慮している。例えば、例示的実施形態は、画像を生成するために二つの視点を有することにより、人のビューイング体験がもっと自然になることを認識し、考慮する。例示的実施形態は、現在利用可能な仮装環境システムが、仮想環境を眺める様々な人々の差異を考慮していないことを認識し、考慮する。実際、このようなシステムは、視点を生成するために、事前に選択された基準又は値を使用する。
しかしながら、例示的実施形態は、様々な人々の眼球の差異を考慮することなしに、現在利用可能な仮想環境システムが使用する視点が望ましくない影響を所望通りに低減することはないことを認識し、考慮する。例えば、人によって、眼球間の距離、及び眼球の高さは様々なである。結果として、人によって眼球の視点が大きく異ることがある。
例示的実施形態は、正確な視点がない場合、眼球が捉える結果の画像が、画像を処理する人に自然に見えないことを認識し、考慮する。結果として、仮想環境について生成された画像の種々の部分に焦点を当てる人は、画像の生成に使用された視点と人の視点とが異なる場合、仮想環境はどのように見えるべきか、及び仮想環境は実際にどのように表現されているかといった仮想環境における不一致に気づくことにもなる。人の視点は、人の両方の眼球の方向に基づいて識別される。前記方向に基づいて、各眼球から光線を延長させる。これらの光線の交差部分が視点として使用される。
基本的には、人は、眼球の各々により二つのやや異なるビューが捉えられていると思って画像を処理している。各眼球の視点からの画像を提示することにより、人は通常の処理により仮想環境を再構築することができる。
仮想環境は、任意の数の異なる目的に使用することができる。例えば、仮想環境は、ほとんどの場合ゲーミングに使用される。しかしながら、仮想環境は他にも多数の用途を有している。例えば、仮想環境は、エンジニアリング作業、整備作業、シミュレーション、解析、及び他の適切な作業を実行するために使用可能である。
したがって、例示的実施形態により、人に対して仮想環境を表示するための方法及び装置が提供される。例示的な一実施形態では、画像プロセッサは、人の頭部にある第1の眼球に関する第1の眼球位置情報と、人の頭部にある第2の眼球に関する第2の眼球球位置情報とを受取るように構成されている。前記第1の眼球位置情報に基づき、第1の眼球に見せるための仮想環境の第1の画像が生成される。前記第2の眼球位置情報に基づき、第2の眼球に見せるための仮想環境の第2の画像が生成される。次いで、前記第1の画像及び前記第2の画像は、人に表示されるために送られる。
ここで図面を参照する。特に図1には、例示的一実施形態による仮想環境システムが図解されている。この実施例では、仮想環境システム100はコンピュータ102及びインターフェースシステム104を含みうる。図示のように、インターフェースシステム104は、人106、ヘッドマウントディスプレイデバイス108、及びデータグローブ110を含んでいる。ヘッドマウントディスプレイデバイス108は、人106の頭部112に位置している。データグローブ110は、人106の手114に位置している。
仮想環境システム100及び人106は、物理的環境116内に位置している。仮想環境システム100は、物理的環境116内の人106が仮想環境システム100により生成される仮想環境と相互作用することを可能にする。
このような実施例では、ヘッドマウントディスプレイデバイス108及びデータグローブ110により、コンピュータ102が生成した仮想環境と相互作用する能力が人106に提供される。仮想環境システム100内においてコンピュータ102が生成した仮想環境と人106との相互作用の間に行われる情報交換は、無線通信リンク118を介して行われる。
図示のように、データグローブ110は、人106のための入力装置である。具体的には、データグローブ110は、人106の手114に嵌められているデータグローブ110の位置を識別することができる。加えて、データグローブ110は、触覚をシミュレーションする触覚フィードバックを提供することもできる。触覚フィードバックは、人106の手114に対し、力、振動、運動、又はこれらの何らかの組合せを印加することにより、触覚を提供することができる。
このような実施例では、ヘッドマウントディスプレイデバイス108は、人106に対し、コンピュータ102が生成した仮想環境を表示するように構成される。画像は、人106と、コンピュータ102が生成した仮想環境との相互作用の一部として生成される。
ヘッドマウントディスプレイデバイス108は、さらに、人106がヘッドマウントディスプレイデバイス108を長時間用いても、望ましくない影響が軽減されるように、仮想環境を表示するように構成される。具体的には、人106は、方向感覚が失われる、不明瞭さ、及び疲労といった望ましくない影響が軽減されるような方式で、現在利用可能な表示装置より長時間にわたってヘッドマウントディスプレイデバイス108を使用することができる。
このような実施例では、ヘッドマウントディスプレイデバイス108は、頭部112の位置、並びに人106の頭部112にある眼球(図示しない)を識別するように構成される。人106の頭部112及び眼球の両方に関する位置情報により、コンピュータ102は人106の各眼球の視点に合わせた画像を生成する。
具体的には、コンピュータ102は、仮想環境における人106の頭部112の位置を識別する。加えて、ヘッドマウントディスプレイデバイス108は、人106の頭部112にある眼球の位置に関する情報も生成する。ヘッドマウントディスプレイデバイス108は、この情報を無線通信リンク118を介してコンピュータ102に送信する。
頭部112と、頭部112にある人106の眼球とに関する位置情報により、コンピュータ102は、仮想環境において各眼球それぞれから見える画像を生成する。これらの画像は、無線通信リンク118を介してヘッドマウントディスプレイデバイス108に送信される。換言すれば、人106の頭部112にある各眼球は、互いに間隔が空いているため、やや異なる眺めを有している。
このような実施例では、各眼球の位置は、人106とは無関係に追跡される。このように、物理的環境116における人106の正確な焦点が識別される。人106の頭部112及び眼球に関する位置情報は、コンピュータ102によって使用される。この情報は、コンピュータ102により、仮想環境において対応する人106の位置に翻訳される。
人106の頭部112の位置は、人106が立っているか、座っているか、しゃがんでいるか、横たわっているか、又は他の何らかの姿勢にあるかによって変化しうる。この実施例では、人106は椅子120に座って仮想環境と相互作用している。
このようにして、コンピュータ102は、仮想環境の異なるビューを生成するために仮想環境内で人106の眼球が使用されるのと同じように、仮想カメラを仮想環境内において位置決めする。換言すれば、仮想カメラの位置は、人106の眼球の位置に対応している。人106の眼球の位置に対応する仮想カメラの位置は、人106の位置が変わると変化しうる。
人106の各眼球について一つのビューが生成される。各ビューの画像は、生成されて、人106に対して表示するためにヘッドマウントディスプレイデバイス108に送り返される。このように、人106に対して、独立した二次元画像がヘッドマウントディスプレイデバイス108上に表示される。
このような実施例では、人106の眼球は、ヘッドマウントディスプレイデバイス108上に表示された二つの二次元画像から、知覚された仮想環境の三次元画像を再構築する。このようにして、人106は、自然な人の両眼視処理を行って、コンピュータ102が生成した二つの二次元画像を用いて3次元画像を生成する。
このような実施例では、自然な人の両眼視は二つの眼球を使用することを伴う。自然な人の両眼視処理により、両眼で眺めた画像を使用して三次元ビューが生成される。換言すれば、人106は奥行きを知覚することができる。
人106の眼球、人106の頭部112、又はこれら両方が動くとき、人106の焦点が変化しうる。ヘッドマウントディスプレイデバイス108が生成する情報は、無線通信リンク118を介してコンピュータ102に送信される。コンピュータ102は、この情報を使用して、仮想環境で仮想カメラに対応する位置において人106の焦点を再計算する。仮想環境において人106の眼球を表す複数の異なる仮想カメラから、更新された二次元画像が生成される。
結果として、人106に対し、ヘッドマウントディスプレイデバイス108上に表示するために生成される仮想環境の表現の精度が向上する。この種の表示は、人106の自然な視覚に近づいている。このようにして、人106が二次元画像を用いて仮想環境を眺めることの望ましくない影響が軽減される。ヘッドマウントディスプレイデバイス108を用いて人106に対して仮想環境のさらに現実的なビューが提供されることに加え、望ましくない影響も軽減される。
図2は、例示的な一実施形態による仮想環境システムのブロック図である。図1の仮想環境システム100は、このブロック図に示された仮想環境システム200の一実装態様の一例である。
図示のように、仮想環境システム200は物理的環境202内に存在している。仮想環境システム200は、人206にとっての仮想環境204を生成するように構成されている。人206は、仮想環境システム200を介して仮想環境204と相互作用する。
このような実施例では、仮想環境システム200は任意の数の異なるコンポーネントを含むことができる。図示のように、仮想環境システム200は、仮想環境ジェネレータ208及びインターフェースシステム210を含む。このようなコンポーネントは、仮想環境204を生成し、人206に仮想環境204と相互作用する能力を提供するように動作する。
このような実施例では、仮想環境ジェネレータ208は、ハードウェア、ソフトウェア、又はそれら二つの組み合わせにおいて実施される。このような実施例では、ハードウェアは、回路システム、集積回路、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス、又は任意の数の工程を実行するように構成された他の何らかの適切な種類のハードウェアの形態をとることができる。プログラマブルロジックデバイスである場合、このデバイスは任意の数の工程を実行するように構成される。このデバイスは、任意の数の工程を実行するように恒久的に構成することも、後で再構成することもできる。プログラマブルロジックデバイスの例として、例えば、プログラマブルロジックアレイ、プログラマブルアレイロジック、フィールドプログラマブルロジックアレイ、フィールドプログラマブルゲートアレイ、及び他の適切なハードウェアデバイスが挙げられる。加えて、プロセスは、無機コンポーネントと一体化した有機コンポーネントに実装することができる、及び/又は人間を除く有機コンポーネントで全体を構成することができる。例えば、プロセスは有機半導体に回路として実装することができる。
このような実施例では、仮想環境ジェネレータ208はコンピュータシステム212において実施される。コンピュータシステム212は一又は複数のコンピュータである。コンピュータシステム212内に複数のコンピュータが存在するとき、これらのコンピュータはネットワークなどの通信媒体を介して相互に通信することができる。
この実施例では、仮想環境ジェネレータ208はコントローラ214及び画像プロセッサ216を含みうる。コントローラ214は、仮想環境204を生成するように構成される。このような実施例では、仮想環境204は様々な形態をとりうる。
例えば、仮想環境204は、設計環境、整備環境、製造環境、及び他の適切な種類の環境のうちの少なくとも一つである。本明細書において、列挙されたアイテムと共に使用される「〜のうちの少なくとも一つ」という表現は、列挙されたアイテムの一又は複数の様々な組み合わせが使用可能であり、且つ列挙されたアイテムのいずれかが一つだけあればよいということを意味する。例えば、「アイテムA、アイテムB、及びアイテムCのうちの少なくとも一つ」は、限定しないが、「アイテムA」、又は「アイテムAとアイテムB」を含む。この例は、「アイテムAとアイテムBとアイテムC」、又は「アイテムBとアイテムC」も含む。
仮想環境204が設計環境であるとき、人206は、航空機、船舶、陸上ビークル、宇宙船、衛星、エンジン、アンテナ、複合部品、椅子、及び他の適切な製品といった製品を設計するために仮想環境204と相互作用することができる。仮想環境204が整備環境の形態をとるとき、人206は、航空機のようなプラットフォーム上で整備を実行することができる。加えて、人206は、物理的環境202において航空機に使用される整備手順を確認するために、整備環境を使用することができる。
仮想環境204が製造環境であるとき、人206は、製造プロセスに関する情報を取得するために製造環境と相互作用することができる。例えば、人206は、製造環境に含まれるコンポーネントを変更し、この変更が製品の製造にどのように影響するかをみることができる。このようにして、人206は、物理的環境202において製品を製造するために使用されるコンポーネント又は手順の変更を確認することができる。
画像プロセッサ216は、インターフェースシステム210により人206に対して表示される画像218を生成するように構成される。画像218は、人206が、人206と仮想環境204との相互作用により見る仮想環境204の画像である。このような実施例においては、画像218は二次元画像である。人206は、仮想環境204の三次元ビューを再構成するために画像218を眺めることができる。
図示のように、インターフェースシステム210はハードウェアであり、ソフトウェアを含むことができる。このような実施例では、インターフェースシステム210は、人206に仮想環境204と相互作用する能力を提供するように構成される。このような相互作用には、仮想環境204への入力が含まれるほか、仮想環境204からの出力を受け取ることも含まれる。
図示のように、インターフェースシステム210は、任意の数の異なるコンポーネントから構成される。この実施例では、インターフェースシステム210は、表示装置220及びセンサシステム222を含んでいる。
表示装置220は、仮想環境ジェネレータ208内の画像プロッサ216が生成した画像218を表示するように構成される。このように、人206は仮想環境204を見ることができる。
このような実施例では、センサシステム222は、人206に関する情報224を生成するように構成される。具体的には、センサシステム222は、第1の眼球位置情報226、第2の眼球位置情報228、及び頭部位置情報230を生成することができる。加えて、センサシステム222は、人206の他の部位の位置及び運動に関する情報を生成することもできる。これら他の部位には、例えば、手、指、腕、脚、及び他の適切な部位が含まれる。
第1の眼球位置情報226は、人206の頭部236にある第1の眼球234の第1の位置232に関するものである。第2の眼球位置情報228は、人206の頭部236にある第2の眼球240の第2の位置238に関するものである。このような実施例では、頭部位置情報230は、人206の頭部236の頭部位置242に関するものである。
図示のように、第1の眼球位置情報226、第2の眼球位置情報228、及び頭部位置情報230は、任意の数の異なる種類の情報を含みうる。第1の眼球位置情報226、第2の眼球位置情報228、及び頭部位置情報230は、例えば、オブジェクトの位置及び方向を含みうる。位置は、三次元座標系を用いて三次元で説明される。方向は、任意の数の異なる方法で説明することができる。例えば、方向は、オイラー角、方向ベクトル、マトリックス、四元数、ヨーとピッチとロールとの組合せ、又は基準となる別のフレームを用いることにより、相対的空間のような系を使用して説明される。
第1の眼球位置情報226、第2の眼球位置情報228、及び頭部位置情報230は、センサシステム222から仮想環境ジェネレータ208へ、情報224の一部として送られる。コントローラ214は、人206によって生成される入力に基づいて、或いはコントローラ214によって生成されるか、又は他のソースから生成される他のイベントに基づいて、仮想環境204に変更を加えるために、情報224を使用することができる。
画像プロセッサ216は、第1の眼球位置情報226及び第2の眼球位置情報228を使用して画像218を生成するように構成されている。このような実施例では、頭部位置情報230は画像218の生成において任意選択としてもよい。図示のように、画像プロセッサ216は、仮想環境204内に第1の仮想カメラ244及び第2の仮想カメラ246を生成する。このような実施例では、第1の仮想カメラ244及び第2の仮想カメラ246はアバター248内に位置している。アバター248は、仮想環境204内における人206の仮想表現である。具体的には、このような実施例では、第1の仮想カメラ244及び第2の仮想カメラ246はアバター248の頭部250に位置している。
一実施例では、画像プロセッサ216は、第1の眼球位置情報226に基づいて、仮想環境204の画像218のうちの、第1の眼球234に関する第1の画像252を生成するように構成される。加えて、画像プロセッサ216は、第2の眼球位置情報228に基づいて、仮想環境204の画像218のうちの、第2の眼球240に関する第2の画像254を生成するようにも構成される。画像プロセッサ216は、人206に対して表示するために、第1の画像252及び第2の画像254を送るように構成される。このような実施例では、第1の画像252及び第2の画像254は表示装置220に送られる。
このような実施例では、画像プロセッサ216は、仮想環境204内での第1の眼球234の第1の視点258を表す、仮想環境204内での第1の仮想カメラ244の第1の位置256を識別するように構成される。加えて、画像プロセッサ216は、仮想環境204内での第2の眼球240の第2の視点262を表す、仮想環境204内での第2の仮想カメラ246の第2の位置260を識別するように構成される。
このような実施例では、第1の画像252は、第1の仮想カメラ244から見た仮想環境204の画像である。第2の画像254は、第2の仮想カメラ246から見た仮想環境204の画像である。
第1の画像252及び第2の画像254が表示装置220へと送られると、表示装置220は人206の第1の眼球234に対して第1の画像252を表示する。このような実施例では、表示装置220は、人206の第2の眼球240に対して第2の画像254を表示する。第1の画像252及び第2の画像254は二次元画像であり、これらを人206が処理することにより仮想環境204の三次元画像が再構成される。
第1の視点258及び第2の視点262からそれぞれ第1の画像252及び第2の画像254を生成することで、仮想環境204と相互作用する人206は、仮想環境204の画像218を眺める際に望ましくない影響の軽減を体験することができる。このような実施例では、第1の仮想カメラ244及び第2の仮想カメラ246は、第1の眼球234の第1の位置232及び第2の眼球240の第2の位置238と相関するような方式で位置決めされる。
このような実施例では、第1の仮想カメラ244及び第2の仮想カメラ246は、頭部位置230に基づいて垂直方向に位置決めされる。具体的には、頭部236の高さを使用して、第1の仮想カメラ244及び第2の仮想カメラ246が位置決めされる。
頭部位置情報230は、仮想環境204内部において頭部位置264に合わせてアバター248の頭部位置250を位置決めするために使用される。仮想環境204におけるアバター248の頭部250の頭部位置264は、物理的環境202における人206の頭部236の頭部位置242に対応する。換言すれば、アバター248の頭部250の方向は人206の頭部236の方向に対応する。
換言すれば、第1の仮想カメラ244及び第2の仮想カメラ246によるアバター248の頭部250の位置決めは、人206の頭部236の地面からの距離を基準として行われる。この距離は、人206が立っているか、座っているか、地面の上に立っているか、オブジェクトの上に立っているか、又は他の何らかの適切な姿勢にあるかによって変化する。
加えて、第1の仮想カメラ244と第2の仮想カメラ246とは、第1の眼球234と第2の眼球240との間の瞳孔間距離に基づいて互いに対して位置決めされる。瞳孔間距離は、第1の眼球234と第2の眼球240との瞳孔間距離である。瞳孔間距離は眼幅とも呼ばれる。具体的には、瞳孔間距離は、人206の眼球の瞳孔の中心間の距離である。画像プロセッサ216はこの瞳孔間距離を使用してアバター248の頭部250における第1の仮想カメラ244及び第2の仮想カメラ246の位置を生成する。
このような実施例では、第1の眼球234及び第2の眼球240が異なる位置に移動すると、第1の仮想カメラ244及び第2の仮想カメラ246も対応する異なる位置に移される。同様に、人206の頭部236が移動すると、仮想環境204におけるアバター248の頭部250も移動する。言うまでもなく、頭部位置情報230は任意選択であってよい。例えば、第1の眼球位置情報226及び第2の眼球位置情報228が三次元での第1の眼球234及び第2の眼球240の座標を含むとき、三次元における頭部236の位置は不要である。
さらに、第1の眼球234及び第2の眼球240の方向は、人206の頭部236以外の平面又は他の基準点に対して決定されてよい。この種の実装態様では、頭部236の頭部位置情報230は不要でありうる。
他の実施例では、頭部位置情報230は、三次元での頭部236の位置と、頭部236の方向とを含みうる。第1の眼球位置情報226及び第2の眼球位置情報228は、頭部236における第1の眼球234及び第2の眼球240の方向を含みうる。換言すれば、第1の眼球位置情報226及び第2の眼球位置情報228は、他の何らかの基準オブジェクトではなく頭部236に基準とするものであってよい。
この種の実装態様では、頭部位置情報230は、第1の仮想カメラ244及び第2の仮想カメラ246と一緒に頭部250の位置を生成するために、第1の眼球位置情報226及び第2の眼球位置情報228とともに使用される。この場合、画像プロセッサ216は、第1の眼球位置情報226及び頭部位置情報230に基づいて第1の画像252を生成する。同様に、画像プロセッサ216は、第2の眼球位置情報228及び頭部位置情報230に基づいて第2の画像254を生成する。
図3は、例示的な一実施形態による表示装置の実装態様のブロック図である。ここに図示された実施例では、表示装置300の種類は、図2の表示装置220を実施するために使用可能な様々な種類の表示装置の例である。
このような実施例では、表示装置300の種類には、任意の数の異なる種類の装置が含まれる。この実施例では、表示装置300の種類には、ヘッドマウントディスプレイシステム302、シャッターディスプレイシステム304、偏光ディスプレイシステム306、網膜ディスプレイシステム308、及びコンタクトレンズディスプレイシステム310が含まれる。
ヘッドマウントディスプレイシステム302は、図2の人206の頭部236に装着される表示装置である。ヘッドマウントディスプレイシステム302は、人206の第1の眼球234、第2の眼球240、及び頭部236に関する情報を生成するためのセンサシステム222に含まれるセンサも含みうる。ヘッドマウントディスプレイシステム302のディスプレイは、例えば、限定しないが、液晶ディスプレイ、発光ダイオードディスプレイ、プラズマディスプレイ又は他の何らかの適切な種類のディスプレイとすることができる。ヘッドマウントディスプレイシステム302のディスプレイは、一又は複数の独立したディスプレイシステムから構築される。
シャッターディスプレイシステム304は、任意の一時点で第1の眼球234及び第2の眼球240の一方しかディスプレイを見ることができないようにするシャッターシステムを有するアクティブシャッターメガネ方式を用いて人206に見せるディスプレイである。この種のディスプレイシステムの場合、ディスプレイ上における第1の画像252及び第2の画像254の表示は、第1の眼球234及び第2の眼球240がディスプレイを見ることができるときに対応して切り替わる。
偏光ディスプレイシステム306は、第1の画像252と第2の画像254とが異なる偏光で表示されるように、第1の画像252と第2の画像254の両方をディスプレイ上に同時に表示することを含む。偏光ディスプレイシステム306に含まれる偏光メガネを人206が装着することで、各眼球に正確な画像を見せることができる。
網膜ディスプレイシステム308は、眼球の網膜上にラスタ表示を投影するように構成される。網膜ディスプレイシステム308は、眼球の網膜をスキャンする光線を生成するプロジェクタを含むことができる。
コンタクトレンズディスプレイシステム310は、第1の眼球234及び第2の眼球240上に配置されるコンタクトレンズの形態をとりうる。このようなコンタクトレンズには、電子回路及び発光ダイオードが含まれる。回路内の発光ダイオードは、第1の眼球234及び第2の眼球240に見せる画像を生成するように構成される。
図4は、例示的一実施形態による、仮装環境システム内のセンサシステムに使用可能なセンサ種類を示すブロック図である。この実施例では、センサの種類400は、図2のセンサシステム222に使用可能な様々な種類のセンサを含む。
このような実施例では、センサ400の種類には、任意の数の異なる種類のセンサが含まれる。例えば、センサ400の種類には、眼球追跡システム402、頭部追跡システム404、データグローブ406、及びジェスチャー追跡システム408が含まれる。
眼球追跡システム402には、第1の眼球追跡装置410及び第2の眼球追跡装置412が含まれる。第1の眼球追跡装置410は、図2の第1の眼球234の第1の位置232を追跡し、第1の眼球位置情報226を生成するように構成される。第2の眼球追跡装置412は、第2の眼球240の第2の位置238を追跡し、第2の眼球位置情報228を生成するように構成される。
このような実施例では、眼球追跡システム402は、ヘッドマウントディスプレイシステム302に付属させるか、又は別個の装置とすることができる。このような実施例では、眼球追跡システム402は、第1の眼球234及び第2の眼球240の凝視先とは反対側の、第1の眼球234の第1の位置232及び第2の眼球240の第2の位置238を追跡する。
凝視先の追跡は、第1の眼球234の第1の位置232及び第2の眼球240の第2の位置238とは反対側の、第1の眼球234及び第2の眼球240が見る画像内の領域を識別することを含む。いくつかの実施例では、第1の眼球234の第1の位置232及び第2の眼球の第2の位置238に関する第1の眼球位置情報226及び第2の眼球位置情報228を使用して人206の凝視先を識別する。
さらに、眼球追跡システム402は、第1の眼球234及び第2の眼球240の方向に関する情報を生成するために、角膜反射といった種々の技術を使用することができる。これらの技術は、光学に関する照明光源の位置に基づいている。眼球追跡システム402は、ハードウェアデバイス、並びに他の適切なデバイスと共にカメラを用いて実施される。
結果として、第1の眼球追跡装置410及び第2の眼球追跡装置412は、別個のカメラとすることも、ソフトウェアプロセスを用いて実施された第1の眼球追跡装置410及び第2の眼球追跡装置412を有する単一のカメラにおいて実施することもできる。
さらに、いくつかの実施例では、眼球追跡システム402は、カメラ又は他の適切なデバイスによって追跡されるインプリントパターンを含むコンタクトレンズを用いて実施することができる。眼球追跡システム402は、コンタクトレンズに埋め込まれるか、又は第1の眼球234及び第2の眼球240に直接に埋め込まれるサーチコイルを用いて実施されてもよい。眼球追跡システム402は、第1の眼球234及び第2の眼球240の周りに配置された筋活動センサを用いて実施されてもよい。
このような実施例では、頭部追跡システム404は、人206の頭部236の頭部位置242を識別し、頭部位置情報230を生成するように構成されたハードウェアデバイスである。頭部追跡システム404は、頭部追跡装置405を含むことができる。頭部追跡装置405には、頭部236の角度及び方向の変化を検出する追跡センサが含まれる。これらのセンサは、例えば、加速度計又は他の適切な種類のセンサでよい。他の実施例では、頭部追跡装置405は、カメラシステムと、人206の頭部236又はヘッドマウントディスプレイシステム302上のマーカーとを用いて実施することができる。さらに、いくつかの実施例では、頭部追跡システム404は、ヘッドマウントディスプレイシステム302の一部として実施される。
データグローブ406は、人206が装着するハードウェアデバイスである。このようなデバイスは、人206の手の位置と、人206の手によって行われる様々なジェスチャーとを識別する。
図示のように、ジェスチャー追跡システム408は、人206の手の運動及びジェスチャーを識別するように構成される。ジェスチャー追跡システム408には、カメラ、動作感知装置、及び人206の手のジェスチャーと位置とを識別するために使用される情報を生成する他のデバイスが含まれる。
図2〜4に示す仮想環境システム200と仮想環境システム200に含まれるコンポーネントとは、例示的な一実施形態を実施可能な方式を物理的またはアーキテクチャ的に限定するものではない。図示されたコンポーネントに加えて又は代えて、他のコンポーネントを使用することができる。いくつかのコンポーネントは不要になることがある。また、ブロックは、いくつかの機能的なコンポーネントを示すために提示されている。例示的な一実施形態において実施される場合、これらのブロックの一又は複数を、異なるブロックに統合、分割、或いは統合且つ分割することができる。
例えば、人206に加えて一又は複数の人が仮想環境204と相互作用してもよい。このような追加の人は、インターフェースシステム210を使用することができる。別の実施例では、表示装置200とセンサシステム222とは、単一のコンポーネントとして実施されてもよい。別の実施例として、図4のセンサの種類400に列挙されたものに加えて又は代えて、他の種類のセンサを使用することができる。例えば、ジョイスティック、追跡ワンド、ガンペリフェラル、マウス、及び他の適切なデバイスを使用できる。
別の実施例として、表示装置220は、仮想環境204の画像218に含まれる第1の画像252及び第2の画像254に加えて、人206の周りの物理的環境202のビューを提供するように構成される。換言すれば、第1の画像252及び第2の画像254の表示を使用して、拡張された現実を人206に対して表示する。このような拡張現実表示は、物理的環境202のビューと仮想環境204のビューを合成する。例えば、人206は、物理的環境202内で航空機を眺める。仮想環境204は航空機を再生成し、航空機の内装のビューを提供することができる。航空機の内装のこのようなビューは、物理的環境202内における航空機の物理的ビューを重ね合わせて、表示装置220上に表示される第1の画像252及び第2の画像254を生成するために使用される。
このようにして、仮想環境システム200は、設計、整備、訓練、及び他の適切な作業といった様々な作業のための純粋な仮想環境のビューを生成するために使用される。さらに、仮想環境システム200は、物理的環境202と重ね合わされて人206に物理的環境202に関する追加情報を提供するような仮想環境204を生成する拡張現実生成システムの一部として含まれてもよい。
図5は、例示的な一実施形態による仮想環境システムを示している。この実施例では、仮想環境システム500は、図2のブロック図に示された仮想環境システム200の一実装態様の一例である。
この実施例では、仮想環境システム500は仮想環境ジェネレータ502及びヘッドマウントディスプレイデバイス504を含む。
この実施例では、ヘッドマウントディスプレイデバイス504は、第1の眼球追跡装置506、第2の眼球追跡装置508、頭部追跡装置510、第1のディスプレイ512、及び第2のディスプレイ514を含む。ヘッドマウントディスプレイデバイス504は、人518の頭部516に装着されるように構成される。
このような実施例では、第1の眼球追跡装置506は、人518の頭部516にある第1の眼球520の位置を追跡するように構成される。第2の眼球追跡装置508は、人518の頭部516にある第2の眼球522の位置を追跡するように構成される。具体的には、第1の眼球追跡装置506及び第2の眼球追跡装置508は、第1の眼球520及び第2の眼球522の方向をそれぞれ追跡する。
第1のディスプレイ512は第1の眼球520に対して画像を表示するように構成され、第2のディスプレイ514は第2の眼球522に対して画像を表示するように構成される。具体的には、第1のディスプレイ512及び第2のディスプレイ514は、仮想環境ジェネレータ502から受け取られた画像523を表示する。
この実施例では、第1のディスプレイ512及び第2のディスプレイ514は、第1の眼球520が第2のディスプレイ514を見ることができず、第2の眼球522が第1のディスプレイ512を見ることができないように互いに分離されている。図示のように、第1のディスプレイ512及び第2のディスプレイ514は、様々な種類のディスプレイを用いて実施することができる。例えば、液晶ディスプレイ、発光ダイオードディスプレイ、プラズマディスプレイ、又は他の何らかの適切な種類のディスプレイを、第1のディスプレイ512、第2のディスプレイ514、又は第1のディスプレイと第2のディスプレイの両方に使用することができる。
このような実施例では、頭部追跡装置510は、人518の頭部516の位置を追跡するように構成されている。このような実施例では、ヘッドマウントディスプレイデバイス504は仮想環境ジェネレータ502に情報524を送る。図示のように、情報524は第1の眼球520及び第2の眼球522に関する追跡情報である。加えて、情報524は、頭部追跡装置510が生成する頭部位置情報も含むことができる。
仮想環境ジェネレータ502は情報524を受け取る。このような実施例では、仮想環境ジェネレータ502はコンピュータを用いて実施することができる。仮想環境ジェネレータ502は、仮想環境528を作成して操作するように構成される。
仮想環境ジェネレータ502は、通信リンクを用いてヘッドマウントディスプレイデバイス504と通信する。このような通信リンクは、例えば、限定しないが、有線通信リンク、光通信リンク、無線通信リンク、又はこれらの何らかの組合せとすることができる。
仮想環境ジェネレータ502はヘッドマウントディスプレイデバイス504から受け取られた情報524を使用して、アバター526を生成し、仮想環境528内においてアバター526を位置決めする。アバター526は、仮想環境528内における人518の表現である。
このような実施例では、情報524は、アバター526内の第1の仮想カメラ530及び第2の仮想カメラ532の位置を識別するためにも使用される。具体的には、このような実施例では、第1の仮想カメラ530及び第2の仮想カメラ532はアバター526の頭部536に位置している。
第1の仮想カメラ530及び第2の仮想カメラ532は、それぞれ第1の眼球520及び第2の眼球522を表す。換言すれば、仮想カメラと眼球との間には一対一の相関が存在する。このような実施例では、第1の仮想カメラ530及び第2の仮想カメラ532は、第1の眼球520と第2の眼球522との間の瞳孔間距離537に対応する距離534を有する。
このような実施例では、第1の眼球520及び第2の眼球522が頭部516内で移動すると、情報524を用いて第1の仮想カメラ530及び第2の仮想カメラ532が対応する移動を行うように再位置決めされる。さらに、人518の頭部516が動くとき、アバター526の頭部536も動く。
第1の仮想カメラ530及び第2の仮想カメラ532が仮想環境ジェネレータ502によって使用されて、第1の仮想カメラ530及び第2の仮想カメラ532に見える仮想環境528のビューに基づき、画像が生成される。このような実施例では、情報524により、第1の仮想カメラ530及び第2の仮想カメラ532の位置が更新される。
図2のブロック図に示される仮想環境システム200の一実装態様としての仮想環境システム500は、様々な仮想環境システムを実施可能な方式を限定するものではない。例えば、いくつかの例示的実施形態では、ヘッドマウントディスプレイデバイス504の代わりにコンタクトレンズディスプレイシステムを使用することができる。また別の実施例では、仮想カメラはアバター526なしで使用することができる。
図2〜4に示される種々のコンポーネントを、図1及び5のコンポーネントと組み合わせることができるか、図1及び5のコンポーネントと共に使用することができるか、又はそれら二つの場合を組み合わせることができる。加えて、図1のコンポーネントの一部は、図2〜4にブロック図の形態で、及び図5に図式的に、それぞれ示されたコンポーネントを物理的構造としてどのように実施できるかの実施例である。
次に図6を参照する。図6は、例示的な一実施形態による、仮想環境表示プロセスのフロー図である。図6に示されたプロセスは、図2の仮想環境システム200を用いて実施される。
プロセスは、人の頭部にある第1の眼球に関する第1の眼球位置情報と、人の頭部にある第2の眼球に関する第2の眼球位置情報とを受取ることにより開始される(工程600)。次いで、プロセスは、第1の眼球位置情報に基づいて第1の眼球に見せるための仮想環境の第1の画像を生成し、第2の眼球位置情報に基づいて第2の眼球に見せるための仮想環境の第2の画像を生成する(工程602)。工程602では、画像は、仮想環境内での画像生成のための視点が物理的環境内での人の眼球の視点に対応するように生成される。次いで、プロセスは、第1の画像及び第2の画像を人に表示するために送り(工程604)、その後工程600に戻る。
これらの様々な工程は、人が仮想環境と相互作用している限り繰り返される。図6のフロー図の様々な工程を用いて、仮想環境を眺める人の体感をもっと自然なものにすることができる。具体的には、仮想環境において同じ視点を用いることにより、人の眼球の視点からの画像が生成される。
次に図7A及び7Bを参照する。図7A及び7Bは、例示的な一実施形態による、仮想環境のビューイングプロセスのフロー図である。図7A及び7Bに示すプロセスは、図2の人206が表示装置220を用いて眺める画像218を生成するために、仮想環境システム200を使用して実施される。図7A及び7Bに示す様々な工程は、人206と仮想環境204とが相互作用する間に、図2の仮想環境システム200及び人206の両方が実行する工程を説明している。
プロセスは、人の頭部にヘッドマウントディスプレイデバイスを配置することにより開始される(工程700)。ヘッドマウントディスプレイデバイスは、表示装置220の一実装態様であり、センサシステム222の少なくとも一部を含むこともできる。ヘッドマウントディスプレイデバイスは、眼球運動を、任意選択で頭部の運動を、それぞれ追跡することができる。
次いで、人は仮想環境の生成を開始する(工程702)。この工程では、人は仮想環境システムを起動し、仮想環境の生成を開始する。このような実施例では、仮想環境ジェネレータ(例えば、図2の仮想環境ジェネレータ208)が仮想環境の生成を開始する。
仮想環境ジェネレータは、現行情報を求めてヘッドマウントディスプレイデバイスにクエリを送る(工程704)。クエリにより、ヘッドマウントディスプレイデバイスはクエリ内に情報を生成する。このような現行情報には、人の眼球の位置に関する情報が含まれる。現行情報には、頭部の位置及び他の適切な情報も含まれる。このような実施例では、工程704のクエリは周期的に行われうる。さらに、眼球の位置は、三次元における眼球の位置、方向、又はそれら両方である。
仮想環境ジェネレータは、人の第1の眼球及び第2の眼球の方向に関する情報を取り出す(工程706)。このような実施例では、第1の眼球が人の左目に対応し、第2の眼球が右目に、それぞれ対応している。
次いで、ヘッドマウントディスプレイデバイスに人の頭部の方向に関する情報が含まれるかどうかに関する決定が行われる(工程708)。ヘッドマウントディスプレイデバイスが頭部の方向に関する情報を含む場合、仮想環境ジェネレータは頭部の方向に関する情報を取り出す(工程710)。
次に、ヘッドマウントディスプレイデバイスに人の頭部の位置に関する情報が含まれるかどうかに関する決定が行われる(工程712)。工程712では、三次元座標系を用いて位置を説明する。ヘッドマウントディスプレイデバイスがこの情報を含む場合、ヘッドマウントディスプレイデバイスは頭部の位置に関する情報を取り出す(工程714)。このような実施例では、頭部の方向及び位置に関する情報は頭部位置情報を形成する。
次に、仮想環境ジェネレータが人によって使用されるように構成されているかどうかに関する決定が行われる(工程716)。仮想環境ジェネレータが人によって使用されるように構成されていない場合、第1の眼球と第2の眼球との間の瞳孔間距離が眼球追跡情報を用いて計算される(工程718)。このような実施例では、眼球追跡情報には、第1の眼球及び第2の眼球の方向、ヘッドマウントディスプレイデバイスの特徴、眼球追跡装置間の距離、センサの視角、及び人の瞳孔間距離を計算するために使用される他の適切な情報が含まれる。
このような実施例では、瞳孔間距離は、任意の数の様々な技術を用いて識別される。瞳孔間距離を識別するための一つの技術は、コントロールポイントに焦点を合わせたときの各眼球から複数のサンプルを採取することを含む。このコントロールポイントは、例えば、中心の十字カーソル、表示装置の端部、又はこれらの何らかの組合せとすることができる。次に、各眼球の、各コントロールポイントのビューイング方位が計算される。一又は複数の眼球追跡センサに対する眼球の位置が、複数のビューイング方位を用いて計算される。次に、眼球追跡装置間の距離が計算される。最後に、一又は複数の眼球センサのオフセットに基づく眼球間の距離が計算される。
人に関するこのような情報及び他の情報は、任意の数の異なる位置に格納することができる。例えば、情報は、ヘッドマウントディスプレイデバイス、仮想環境ジェネレータ、遠隔データベース、又は他の何らかの適切な位置のうちの少なくとも一つに格納することができる。また別の実施例では、人は情報の少なくとも一部を入力することができる。
次いで、仮想環境ジェネレータは、仮想環境において人の位置を表すアバターを作成する(工程720)。人の第1の眼球及び第2の眼球を表す第1の仮想カメラ及び第2の仮想カメラがアバターに追加される(工程722)。仮想カメラの配置は、ヘッドマウントディスプレイデバイスから取り出された眼球に関する情報を用いて実行される。このような配置は、人の頭部に関する情報が入手可能である場合、そのような情報に基づいて行ってもよい。
仮想カメラは、計算された人の眼球間の瞳孔間距離と、人の眼球に関する現行情報とに基づいて追加される。入手可能であれば、人の頭部に関する情報も使用できる。仮想カメラの水平方向の間隔は、瞳孔間距離に基づいて決めることができる。仮想環境の床からカメラまでの垂直方向の距離は、人の頭部に関する情報に基づいて決めることができる。加えて、仮想カメラの位置決めには、人の一方の眼球が、垂直方向において他方の眼球よりも高い位置にありうるということが考慮される。仮想カメラの位置決めには、人の眼球は左右対称に整列していないこともあるということも考慮される。
仮想環境ジェネレータは、人の眼球の方向に対応する方向を有するように仮想カメラを位置決めする(工程724)。このような位置決めは、ヘッドマウントディスプレイデバイスから取り出された現行情報に基づいて実行される。このようにして、仮想カメラは、ヘッドマウントディスプレイデバイスから取り出された情報に含まれる眼球の位置及び眼球の方向に基づいて、人の眼球の視点に対応する視点を有することができる。
次に、ヘッドマウントディスプレイデバイスから取り出された情報が頭部の方向に関する情報を含むかどうかに関する決定が行われる(工程726)。取り出された情報に頭部の方向に関する情報が含まれる場合、アバターは、人の頭部の現行方向に基づいて対応する方向を有するように位置決めされる(工程728)。
アバターの方向のこのような変更により仮想カメラの方向も変更され、次いでこれにより仮想カメラの視点も変化する。このように、人の頭部及び人の眼球の変化は、アバター及びアバター内の仮想カメラに反映される。
ヘッドマウントディスプレイデバイスから取り出された情報が頭部の位置に関する情報を含むかどうかに関する決定が行われる(工程730)。取り出された情報に頭部の位置に関する情報が含まれる場合、アバターは、人の頭部の現行位置に一致するように移動される(工程732)。
次いで、仮想環境ジェネレータは、第1の仮想カメラの眺めに基づいて仮想環境をレンダリングする(工程736)。換言すれば、仮想環境ジェネレータは、特定の眺めに基づいてグラフィック情報を生成する。このようなレンダリングにより、仮想環境の第1の画像が第1の仮想カメラの視点から生成される。換言すれば、仮想環境ジェネレータは、第1の仮想カメラから見える仮想環境の第1の画像を生成する。同様にして、仮想環境ジェネレータは、第2の仮想カメラの眺めに基づいて仮想環境をレンダリングする(工程738)。このようなレンダリングにより、仮想環境の第2の画像が第2の仮想カメラの視点から生成される。第1の仮想カメラと同様に、仮想環境ジェネレータは、第2の仮想カメラから見える仮想環境の第2の画像を生成する。
結果として工程736及び工程738において生成された第1の画像及び第2の画像は、やや異なる視点からの仮想環境の二つのビューを提供する。換言すれば、これらの画像は、人の眼球の眺めに対応するやや異なる眺めに基づくビューを提供する。
仮想カメラが人の眼球に対応する方向を有するように位置決めされていることにより、画像は第1の人に合わせて調整される。ヘッドマウントディスプレイデバイスが第2の人によって使用されるとき、第2の人の眼球の位置決めが第1の人の眼球とは異なることを考慮して、仮想カメラの位置決めは異なる。
第1の画像はヘッドマウントディスプレイデバイスに送られて、人の第1の眼球に対して表示される(工程740)。第2の画像はヘッドマウントディスプレイデバイスに送られて、人の第2の眼球に対して表示される(工程742)。このような実施例では、工程736及び工程738はほぼ同時に実施される。工程740及び工程742もほぼ同時に実施されてよい。
人は第1の画像及び第2の画像を眺める(工程744)。このとき、人は、第1の画像及び第2の画像に基づき、自然な人の両眼視処理を用いて三次元画像を再構成する(工程746)。仮想環境と相互作用を続けるかどうかに関する決定が行われる(工程748)。人が仮想環境との相互作用を継続しないことを選択する場合、プロセスは終了する。継続を選択する場合、プロセスは工程704に戻る。
工程730に戻り、取り出される情報が頭部の位置を含まない場合、プロセスは工程736及び工程738に進む。工程726に戻り、取り出される情報が頭部の方向を含まない場合、プロセスはやはり工程736及び工程738に進む。
工程716に戻り、仮想環境ジェネレータが人によって使用されるように構成されている場合、プロセスは工程736及び工程738に進み、ヘッドマウントディスプレイデバイスに合わせて仮想環境ジェネレータを構成又は較正する工程を実行しない。再度工程712に戻り、取り出される情報が頭部の位置を含まない場合、プロセスは工程716に進む。取り出される情報が頭部の方向を含まない場合も、プロセスは工程708から工程716に進む。
図示された様々な実施形態のフロー図及びブロック図は、例示的な一実施形態における装置及び方法のいくつかの可能な実装態様のアーキテクチャ、機能性、及び工程を説明するものである。これに関し、フロー図又はブロック図の各ブロックは、一つの工程又はステップの一つのモジュール、セグメント、機能及び/又は部分を表わすことができる。例えば、ブロックの一又は複数は、ハードウェア内のプログラムコードとして、又はプログラムコードとハードウェアとの組合せとして実施可能である。ハードウェアにおいて実施されるとき、ハードウェアは、例えば、フロー図又はブロック図の一又は複数の工程を実行するように製造又は構成された集積回路の形態をとることができる。
例示的な一実施形態のいくつかの代替的な実装態様では、ブロックに記載された一つ又は複数の機能は、図中に記載の順序を逸脱して現れることがある。例えば、含まれる機能性によっては、連続して示される二つのブロックは実質的に同時に実行される場合があり、又はブロックは時に逆の順序で実行されうる。また、フロー図又はブロック図に示されるブロックに他のブロックが追加されてもよい。
例えば、種々の工程は、ヘッドマウントディスプレイデバイスからの情報の取り出しについて説明している。いくつかの実施例では、ヘッドマウントディスプレイデバイスは、クエリ又は情報を取り出す仮想環境ジェネレータなしで、自動的に情報を送ることができる。さらに、いくつかの実施例では、工程736及び工程738は、ほぼ同時にではなく、連続して実施されてもよい。また別の実施例では、工程730及び工程732は省略されてもよい。眼球の位置に関する情報には、三次元空間における位置及び方向の両方が含まれてよい。
図8は、例示的な一実施形態によるデータ処理システムのブロック図を示している。データ処理システム800は、図1のコンピュータ102、図2のコンピュータシステム212、及び図5の仮想環境ジェネレータ502を実施するために使用される。この実施例では、データ処理システム800は通信フレームワーク802を含み、これによりプロセッサユニット804、メモリ806、固定記憶域808、通信ユニット810、入出力(I/O)ユニット812、及びグラフィック処理ユニット814の間の通信が行われる。この実施例では、通信フレームワークはバスシステムの形態をとることができる。
プロセッサユニット804は、メモリ806にローディングされるソフトウェアに対する命令を実行するように働く。プロセッサユニット804は、特定の実装態様に応じて、任意の数のプロセッサ、マルチプロセッサコア、又は他の何らかの種類のプロセッサであってもよい。
メモリ806及び固定記憶域808は、記憶装置816の例である。記憶装置は、情報を一時的に及び/又は恒久的に格納できる何らかのハードウェア部分であり、この情報には、例えば、限定されないが、データ、機能的形態のプログラムコード、及び/又はその他の適切な情報が含まれる。記憶装置816は、このような実施例では、コンピュータで読込可能な記憶装置とも呼ばれる。このような実施例では、メモリ806は、例えば、ランダムアクセスメモリか、或いは他のいずれかの適切な揮発性又は非揮発性の記憶装置とすることができる。固定記憶域808は、特定の実装態様に応じて様々な形態をとることができる。
例えば、固定記憶域808は、一又は複数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域808は、ハードドライブ、フラッシュメモリ、書換え形光ディスク、書換え可能磁気テープ、又はこれらの何らかの組み合わせである。固定記憶域808によって使用される媒体は、取り外し可能なものでもよい。例えば、取り外し可能なハードドライブを固定記憶域808に使用することができる。
このような実施例では、通信ユニット810は、他のデータ処理システム又はデバイスとの通信を行う。このような実施例では、通信ユニット810はネットワークインターフェースカードである。
入出力ユニット812により、データ処理システム800に接続可能な他のデバイスによるデータの入力及び出力が可能になる。例えば、入出力ユニット812は、キーボード、マウス、及び/又は他の何らかの適切な入力装置を介してユーザ入力のための接続を提供することができる。さらに、入出力ユニット812は、プリンタに出力を送ることができる。グラフィック処理ユニット814は、ユーザに表示されるグラフィック情報を生成するための機構を提供する。
オペレーティングシステム、アプリケーション、及び/又はプログラムに対する命令は、通信フレームワーク802を介してプロセッサユニット804と通信する記憶装置816内に配置されうる。種々の実施形態のプロセスは、メモリ(例えば、メモリ806)に配置される、コンピュータで実施される命令を使用して、プロセッサユニット804によって実行されうる。
これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータで読込可能なプログラムコードと呼ばれ、プロセッサユニット804内の一つのプロセッサによって読込まれて実行されうる。種々の実施形態のプログラムコードは、様々な物理的記憶媒体又はコンピュータで読込可能な記憶媒体(例えば、メモリ806又は固定記憶域808)上に具現化されうる。
プログラムコード818は、選択的に取り外し可能なコンピュータで読込可能な媒体820上に機能的な形態で位置し、データ処理システム800にローディング又は転送されて、プロセッサユニット804によって実行される。プログラムコード818及びコンピュータで読込可能な媒体820は、このような実施例ではコンピュータプログラム製品822を形成する。一実施例では、コンピュータで読込可能な媒体820は、コンピュータで読込可能な記憶媒体824又はコンピュータで読込可能な信号媒体826とすることができる。
このような実施例では、コンピュータで読込可能な記憶媒体824は、プログラムコード818を伝搬または伝送する媒体というよりはむしろ、プログラムコード818を記憶するために使用される物理的な又は有形の記憶装置である。
代替的に、プログラムコード818は、コンピュータで読込可能な信号媒体826を用いてデータ処理シスム800に転送可能である。コンピュータで読込可能な信号媒体826は、例えば、プログラムコード818を含む伝播データ信号である。例えば、コンピュータで読込可能な信号媒体826は、電磁信号、光信号、及び/又は他のいずれかの適切な種類の信号であってもよい。このような信号は、無線通信リンク、光ファイバケーブル、同軸ケーブル、有線、及び/又は他の適切な種類の通信リンクといった通信リンクによって転送されうる。
データ処理システム800に例示されている種々のコンポーネントは、種々の実施形態を実施できる方式をアーキテクチャ的に限定するものではない。異なる例示的実施形態が、データ処理システム800について示されているコンポーネントに追加的及び/又は代替的なコンポーネントを含むデータ処理システムにおいて実施されうる。図8に示す他のコンポーネントは、図示の実施例から変更可能である。種々の実施形態は、プログラムコード818を実行できる任意のハードウェアデバイス又はシステムを使用して実施することができる。
このように、例示的実施形態により、仮想環境と相互作用する人に自然なビューイングが提供される。一実施例では、人の頭部を追跡することに加えて追加パラメータが実行される。仮想環境ジェネレータは、人の眼球に関する情報を考慮する。
例えば、人の頭部の位置及び方向に加えて、瞳孔間距離及び眼球の方向が考慮される。その結果、人によって異なる瞳孔間距離、又は人の身長差による視線距離から生じうる個々の距離が、人の画像を生成するときに考慮される。結果として、各人のために調整された仮想環境の表現が生成される。
一又は複数の実施例では、仮想環境におけるビューイング位置及び方向を識別するために、眼球の位置が追跡される。換言すれば、人の眼球の各々について視点が生成される。これらの視点は、各人にとっての仮想環境内で画像を生成するために使用される。実施例では、仮想環境において対応する人の視点を再形成するために仮想カメラが使用される。
結果として、人は、二次元画像を眺めながら三次元画像を再構成する。このような再構成は、人が、各々が特定の眼球のために特に生成された二つの二次元画像に基づいて三次元画像を再構築する自然な両眼視処理を用いて実行される。
このように、一又は複数の例示的実施形態により、人は現実に近い仮想環境のビューを有することができる。さらに、仮想環境と相互作用する際の望ましくない影響も軽減される。
上述した種々の例示的な実施形態の説明は、例示及び説明を目的とするものであり、完全な説明であること、又はこれらの実施形態を開示された形態に限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、種々の例示的な実施形態は、他の例示的な実施形態とは異なるフィーチャを提供することができる。選択された一又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び他の当業者に対し、様々な実施形態の開示内容と、考慮される特定の用途に適した様々な修正との理解を促すために選択及び記述されている。
100 仮想環境システム
102 コンピュータ
104 インターフェースシステム
106 人
108 ヘッドマウントディスプレイデバイス
110 データグローブ
112 頭部
114 手
116 物理的環境
118 無線通信リンク
120 椅子
500 仮想環境システム
502 仮想環境ジェネレータ
504 ヘッドマウントディスプレイデバイス
506 第1の眼球追跡装置
508 第2の眼球追跡装置
510 頭部追跡装置
512 第1のディスプレイ
514 第2のディスプレイ
516 頭部
518 人
520 第1の眼球
522 第2の眼球
526 アバター
530 第1の仮想カメラ
532 第2の仮想カメラ
534 距離
536 頭部
537 瞳孔間距離

Claims (12)

  1. 人(206)の頭部(236)にある第1の眼球(234)に関する第1の眼球位置情報(226)と、人(206)の頭部(236)にある第2の眼球(240)に関する第2の眼球位置情報(228)とを受取り、
    第1の眼球(234)に関する第1の眼球位置情報(226)に基づいて第1の眼球(234)ための仮想環境(204)の第1の画像(252)を生成し、
    第2の眼球(240)に関する第2の眼球位置情報(228)に基づいて第2の眼球(240)ための仮想環境(204)の第2の画像(254)を生成し、且つ
    第1の画像(252)と第2の画像(254)とを人(206)に対して表示するために表示装置(220)に送る
    ように構成された画像プロセッサ(216)を備える装置であって、
    表示装置(220)が、第1の画像(252)及び第2の画像(254)に加えて、人(206)の周囲の物理的環境(202)のビューを提供するように構成されており、
    画像プロセッサ(216)が、
    仮想環境(204)内での第1の眼球(234)の第1の視点(258)を表す仮想環境(204)内での第1の仮想カメラ(244)の第1の位置(256)と、仮想環境(204)内での第2の眼球(240)の第2の視点(262)を表す仮想環境(204)内での第2の仮想カメラ(246)の第2の位置(260)とを識別し、
    第1の仮想カメラ(244)から見える仮想環境(204)の第1の画像(252)を生成し、且つ
    第2の仮想カメラ(246)から見える仮想環境(204)の第2の画像(254)を生成する
    ように構成されている、装置。
  2. 仮想環境(204)を生成するように構成されたコントローラ(214)、及び
    頭部(236)の頭部位置(264)を追跡し、頭部(236)の頭部位置に関する頭部位置情報(230)を生成するように構成された頭部追跡装置(405)
    をさらに備えており、
    画像プロセッサ(216)が、さらに、人(206)の頭部(236)の頭部位置(264)に関する頭部位置情報(230)を受取って、第1の眼球(234)に関する第1の眼球位置情報(226)と頭部位置情報(230)とに基づいて、第1の眼球(234)に見せるための仮想環境(204)の第1の画像(252)を生成し、且つ第2の眼球(240)に関する第2の眼球位置情報(228)と頭部位置情報(230)とに基づいて、第2の眼球(240)に見せるための仮想環境(204)の第2の画像(254)を生成するように構成されている、
    請求項1に記載の装置。
  3. 第1の画像(252)及び第2の画像(254)を受取り、第1の眼球(234)に対して第1の画像(252)を表示し、且つ第2の眼球(240)に対して第2の画像(254)を表示するように構成されている表示装置(220)をさらに備えており、
    表示装置(220)が、
    第1の眼球(234)に対して第1の画像(252)を表示するように構成された第1のディスプレイ(512)と、
    第2の眼球(240)に対して第2の画像(254)を表示するように構成された第2のディスプレイ(514)と
    を含んでいる、請求項1に記載の装置。
  4. 第1の眼球(234)の第1の位置(256)と第2の眼球(240)の第2の位置(260)とをそれぞれ追跡し、
    第1の眼球(234)の第1の位置(256)を使用して第1の眼球位置情報(226)を生成し、且つ
    第2の眼球(240)の第2の位置(260)を使用して第2の眼球位置情報(228)を生成する
    ように構成されている眼球追跡システム(402)をさらに備える、請求項1に記載の装置。
  5. 仮想環境(204)内での人(206)を表す仮想環境(204)内のアバター(248)、
    仮想環境(204)内でアバター(248)の頭部(250)に関連付けられた第1の仮想カメラ(244)であって、第1の眼球位置情報(226)を用いて位置決めされる第1の仮想カメラ(244)、及び
    仮想環境(204)内でアバター(248)の頭部(250)に関連付けられた第2の仮想カメラ(246)であって、第2の眼球位置情報(228)を用いて位置決めされる第2の仮想カメラ(246)
    をさらに備えており、
    第1の仮想カメラ(244)及び第2の仮想カメラ(246)が、頭部位置情報(230)を使用して垂直方向に位置決めされ、且つ
    頭部(250)の位置に関する頭部位置情報(230)を使用して、頭部(236)の位置に合わせてアバター(248)を仮想環境(204)内で移動させる、
    請求項2に記載の装置。
  6. 第1の画像(252)が仮想環境(204)の第1の視点(258)を提供し、第2の画像(254)が、第1の視点(258)とは異なる仮想環境(204)の第2の視点(262)を提供する、請求項1に記載の装置。
  7. 第1の眼球位置情報(226)が第1の眼球(234)の位置及び第1の眼球(234)の方向を含み、第2の眼球位置情報(228)が第2の眼球(240)の位置及び第2の眼球(240)の方向を含む、請求項1に記載の装置。
  8. (206)の頭部(236)にある第1の眼球(234)に関する第1の眼球位置情報(226)と、人(206)の頭部(236)にある第2の眼球(240)に関する第2の眼球位置情報(228)とを受取ること、
    第1の眼球(234)に関する第1の眼球位置情報(226)に基づいて第1の眼球(234)ための仮想環境(204)の第1の画像(252)を生成すること、
    第2の眼球(240)に関する第2の眼球位置情報(228)に基づいて第2の眼球(240)ための仮想環境(204)の第2の画像(254)を生成すること、及び
    第1の画像(252)と第2の画像(254)とを人(206)に対して表示するために表示装置(220)に送ること
    を含む、仮想環境(204)の表示方法であって、
    前記方法は、仮想環境(204)内での第1の眼球(234)の第1の視点(258)を表す仮想環境(204)内での第1の仮想カメラ(244)の第1の位置(256)と、仮想環境(204)内での第2の眼球(240)の第2の視点(262)を表す仮想環境(204)内での第2の仮想カメラ(246)の第2の位置(260)とを識別することをさらに含み、
    前記第1の画像(252)を生成することが、第1の仮想カメラ(244)から見える仮想環境(204)の第1の画像(252)を生成することを含み、
    前記第2の画像(254)を生成することが、第2の仮想カメラ(246)から見える仮想環境(204)の第2の画像(254)を生成することを含み、
    表示装置(220)が、第1の画像(252)及び第2の画像(254)に加えて、人(206)の周囲の物理的環境(202)のビューを提供するように構成されている、方法。
  9. 人(206)の頭部(236)の頭部位置(264)に関する頭部位置情報(230)を受け取ることをさらに含み、
    前記第1の画像(252)を生成することが、第1の眼球(234)に関する第1の眼球位置情報(226)と頭部位置情報(230)とに基づいて、第1の眼球(234)に見せるための仮想環境(204)の第1の画像(252)を生成することを含み、
    前記第2の画像(254)を生成することが、第2の眼球(240)に関する第2の眼球位置情報(228)と頭部位置情報(230)とに基づいて、第2の眼球(240)に見せるための仮想環境(204)の第2の画像を生成することを含む、
    請求項に記載の方法。
  10. 表示装置(220)を使用して第1の眼球(234)に第1の画像(252)を表示すること、及び
    表示装置(220)を使用して第2の眼球(240)に第2の画像(254)を表示すること
    をさらに含む、請求項に記載の方法。
  11. 表示装置(220)が、ヘッドマウントディスプレイシステム(302)、シャッターディスプレイシステム(304)、偏光ディスプレイシステム(306)、網膜ディスプレイシステム(308)、及びコンタクトレンズディスプレイシステム(310)から選択されるいずれか一つである、請求項10に記載の方法。
  12. 眼球追跡システム(402)を使用して、第1の眼球(234)の第1の位置(256)と第2の眼球(240)の第2の位置(260)とを追跡すること、及び
    第1の眼球(234)の第1の位置(256)を使用して第1の眼球位置情報(226)を、第2の眼球(240)の第2の位置(260)を使用して第2の眼球位置情報(228)を、それぞれ生成すること
    をさらに含む、請求項に記載の方法。
JP2013221877A 2012-10-26 2013-10-25 仮想現実ディスプレイシステム Active JP6226697B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/661,971 2012-10-26
US13/661,971 US9058053B2 (en) 2012-10-26 2012-10-26 Virtual reality display system

Publications (2)

Publication Number Publication Date
JP2014086091A JP2014086091A (ja) 2014-05-12
JP6226697B2 true JP6226697B2 (ja) 2017-11-08

Family

ID=49552159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221877A Active JP6226697B2 (ja) 2012-10-26 2013-10-25 仮想現実ディスプレイシステム

Country Status (9)

Country Link
US (1) US9058053B2 (ja)
EP (1) EP2725457B1 (ja)
JP (1) JP6226697B2 (ja)
KR (1) KR102118749B1 (ja)
CN (1) CN103793049B (ja)
AU (1) AU2013224653B2 (ja)
BR (1) BR102013027355B1 (ja)
CA (1) CA2825563C (ja)
RU (1) RU2664397C2 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9264702B2 (en) * 2013-08-19 2016-02-16 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
KR20150141461A (ko) * 2014-06-10 2015-12-18 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
CN104463956B (zh) * 2014-11-21 2017-05-10 中国科学院国家天文台 一种月表虚拟场景构建方法及装置
US9626783B2 (en) * 2015-02-02 2017-04-18 Kdh-Design Service Inc. Helmet-used device capable of automatically adjusting positions of displayed information and helmet thereof
US10176638B2 (en) * 2015-05-18 2019-01-08 Dreamworks Animation L.L.C. Method and system for calibrating a virtual reality system
JP5876607B1 (ja) * 2015-06-12 2016-03-02 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
US10095306B2 (en) * 2015-06-15 2018-10-09 Harman International Industries, Incorporated Passive magnetic head tracker
JP2017027477A (ja) 2015-07-24 2017-02-02 株式会社オプティム 3次元出力サーバ、3次元出力方法及び3次元出力サーバ用プログラム。
KR101808852B1 (ko) * 2015-08-18 2017-12-13 권혁제 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법
US10353219B1 (en) 2015-08-20 2019-07-16 Verily Life Sciences Llc Device, method and system to provide accommodation during a stereoscopic display
EP3148186A1 (en) 2015-09-24 2017-03-29 Airbus Operations GmbH Virtual windows for airborne vehicles
EP3148188A1 (en) * 2015-09-24 2017-03-29 Airbus Operations GmbH Virtual windows for airborne verhicles
WO2017062268A1 (en) * 2015-10-04 2017-04-13 Thika Holdings Llc Eye gaze responsive virtual reality headset
CN106681674A (zh) * 2015-11-05 2017-05-17 丰唐物联技术(深圳)有限公司 一种虚拟现实显示器的显示控制方法及系统
WO2017079689A1 (en) * 2015-11-06 2017-05-11 Oculus Vr, Llc Eye tracking using optical flow
EP3185535A1 (en) 2015-12-22 2017-06-28 Thomson Licensing Method and apparatus for controlling a discrepant aiming direction of a camera
CN108472095B (zh) * 2015-12-29 2021-11-02 皇家飞利浦有限公司 用于机器人外科手术的使用虚拟现实设备的系统、控制器和方法
WO2017114855A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
US9959678B2 (en) 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
KR102144040B1 (ko) * 2016-06-03 2020-08-13 페이스북 테크놀로지스, 엘엘씨 헤드 마운트 디스플레이의 얼굴 센서를 사용한 얼굴과 안구 추적 및 얼굴 애니메이션
US10430988B2 (en) 2016-06-03 2019-10-01 Facebook Technologies, Llc Facial animation using facial sensors within a head-mounted display
CN109952550A (zh) * 2016-06-16 2019-06-28 弗伊德有限责任公司 组合的虚拟和物理环境中的重定向移动
US10773179B2 (en) 2016-09-08 2020-09-15 Blocks Rock Llc Method of and system for facilitating structured block play
US10649233B2 (en) 2016-11-28 2020-05-12 Tectus Corporation Unobtrusive eye mounted display
US11348475B2 (en) 2016-12-09 2022-05-31 The Boeing Company System and method for interactive cognitive task assistance
US10237537B2 (en) 2017-01-17 2019-03-19 Alexander Sextus Limited System and method for creating an interactive virtual reality (VR) movie having live action elements
JP6212666B1 (ja) * 2017-03-02 2017-10-11 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
US10438394B2 (en) 2017-03-02 2019-10-08 Colopl, Inc. Information processing method, virtual space delivering system and apparatus therefor
CN106959516A (zh) * 2017-05-02 2017-07-18 广州蜃境信息科技有限公司 一种基于双屏显示增强现实技术眼镜
JP6738308B2 (ja) * 2017-08-01 2020-08-12 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
CN107516335A (zh) * 2017-08-14 2017-12-26 歌尔股份有限公司 虚拟现实的图形渲染方法和装置
US10585277B2 (en) * 2017-08-31 2020-03-10 Tobii Ab Systems and methods for tracking a gaze of a user across a multi-display arrangement
US11303814B2 (en) * 2017-11-09 2022-04-12 Qualcomm Incorporated Systems and methods for controlling a field of view
US10673414B2 (en) 2018-02-05 2020-06-02 Tectus Corporation Adaptive tuning of a contact lens
US10580349B2 (en) 2018-02-09 2020-03-03 Tectus Corporation Backplane for eye-mounted display
US10505394B2 (en) 2018-04-21 2019-12-10 Tectus Corporation Power generation necklaces that mitigate energy absorption in the human body
US10895762B2 (en) 2018-04-30 2021-01-19 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10838239B2 (en) 2018-04-30 2020-11-17 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10790700B2 (en) 2018-05-18 2020-09-29 Tectus Corporation Power generation necklaces with field shaping systems
US11137622B2 (en) 2018-07-15 2021-10-05 Tectus Corporation Eye-mounted displays including embedded conductive coils
US10529107B1 (en) 2018-09-11 2020-01-07 Tectus Corporation Projector alignment in a contact lens
US10838232B2 (en) 2018-11-26 2020-11-17 Tectus Corporation Eye-mounted displays including embedded solenoids
US11089279B2 (en) * 2018-12-06 2021-08-10 Htc Corporation 3D image processing method, camera device, and non-transitory computer readable storage medium
US10644543B1 (en) 2018-12-20 2020-05-05 Tectus Corporation Eye-mounted display system including a head wearable object
US10499044B1 (en) 2019-05-13 2019-12-03 Athanos, Inc. Movable display for viewing and interacting with computer generated environments
US10944290B2 (en) 2019-08-02 2021-03-09 Tectus Corporation Headgear providing inductive coupling to a contact lens
CN110515461A (zh) * 2019-08-23 2019-11-29 Oppo广东移动通信有限公司 交互方法、头戴设备、交互系统和存储介质
CN113760085A (zh) * 2020-06-03 2021-12-07 李连波 虚拟环境构建和应用方法、vr设备及虚拟现实交互系统
EP4169247A1 (en) * 2020-06-22 2023-04-26 Troje, Nikolaus System and method for determining directionality of imagery using head tracking
CN112505917A (zh) * 2020-12-09 2021-03-16 Oppo广东移动通信有限公司 一种图像显示装置和近眼显示设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195131A (ja) * 1997-12-26 1999-07-21 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP3425402B2 (ja) * 2000-01-31 2003-07-14 独立行政法人通信総合研究所 立体画像を表示する装置および方法
US7091929B2 (en) 2001-03-16 2006-08-15 Hewlett-Packard Development Company, L.P. Method and apparatus for displaying images
US6529331B2 (en) * 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
GB2375188B (en) * 2001-04-30 2004-07-21 Samsung Electronics Co Ltd Wearable Display Apparatus with Waveguide Having Diagonally Cut End Face
US20030113012A1 (en) * 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling a screen ratio based on a photographing ratio
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US8130260B2 (en) * 2005-11-09 2012-03-06 Johns Hopkins University System and method for 3-dimensional display of image data
RU2326419C1 (ru) * 2006-09-05 2008-06-10 Олег Леонидович Головков Виртуальный шлем и устройство для его реализации
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
WO2008055262A2 (en) * 2006-11-02 2008-05-08 Sensics, Inc. Systems and methods for a head-mounted display
US7948450B2 (en) * 2006-11-09 2011-05-24 D3 Led, Llc Apparatus and method for allowing display modules to communicate information about themselves to other display modules in the same display panel
JP4793451B2 (ja) * 2009-01-21 2011-10-12 ソニー株式会社 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
US8913056B2 (en) 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax

Also Published As

Publication number Publication date
CA2825563A1 (en) 2014-04-26
US9058053B2 (en) 2015-06-16
US20140118357A1 (en) 2014-05-01
RU2664397C2 (ru) 2018-08-17
CA2825563C (en) 2017-03-21
CN103793049A (zh) 2014-05-14
BR102013027355A2 (pt) 2014-10-21
CN103793049B (zh) 2018-11-13
EP2725457A3 (en) 2016-08-17
KR102118749B1 (ko) 2020-06-04
JP2014086091A (ja) 2014-05-12
EP2725457A2 (en) 2014-04-30
AU2013224653B2 (en) 2019-05-02
KR20140053765A (ko) 2014-05-08
RU2013147677A (ru) 2015-04-27
BR102013027355B1 (pt) 2022-03-22
EP2725457B1 (en) 2019-07-03
AU2013224653A1 (en) 2014-05-15

Similar Documents

Publication Publication Date Title
JP6226697B2 (ja) 仮想現実ディスプレイシステム
JP7486276B2 (ja) 眼追跡較正技術
US20240005808A1 (en) Individual viewing in a shared space
JP7118007B2 (ja) 視野周辺の視覚的背光
WO2019213220A1 (en) Using 3d scans of a physical subject to determine positions and orientations of joints for a virtual character
KR20130028878A (ko) 조합형 입체 카메라 및 입체 디스플레이 상호 작용
CN103744518A (zh) 立体交互方法及其显示装置和系统
AU2019228458A1 (en) Head scan alignment using ocular registration
Mihelj et al. Introduction to virtual reality
Charles Real-time human movement mapping to a virtual environment
Billinghurst Augmented reality: an overview
TW202343384A (zh) 具有前後攝影機捕捉的行動裝置全像呼叫
KR20240093921A (ko) 눈 추적 교정 기술들
Andújar Gran et al. Affordable immersive projection system for 3D interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R150 Certificate of patent or registration of utility model

Ref document number: 6226697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250