JP2020528162A - 仮想環境における複数の観察者のための改良 - Google Patents
仮想環境における複数の観察者のための改良 Download PDFInfo
- Publication number
- JP2020528162A JP2020528162A JP2020502690A JP2020502690A JP2020528162A JP 2020528162 A JP2020528162 A JP 2020528162A JP 2020502690 A JP2020502690 A JP 2020502690A JP 2020502690 A JP2020502690 A JP 2020502690A JP 2020528162 A JP2020528162 A JP 2020528162A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- glasses
- users
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 claims abstract description 45
- 238000000926 separation method Methods 0.000 claims abstract description 17
- 238000012800 visualization Methods 0.000 claims abstract description 16
- 239000000463 material Substances 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 15
- 239000000126 substance Substances 0.000 claims description 13
- 238000001228 spectrum Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract 1
- 230000003595 spectral effect Effects 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009940 knitting Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/24—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/334—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3147—Multi-projection systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0112—Head-up displays characterised by optical features comprising device for genereting colour display
- G02B2027/0114—Head-up displays characterised by optical features comprising device for genereting colour display comprising dichroic elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Abstract
2人以上のユーザのための仮想現実映像化システムであって、仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、少なくとも1つのスクリーン上に映像を生成するための、2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、前記追跡システムに応答し、それにより映像化アセンブリを制御して、各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、2人以上のユーザそれぞれに対して、追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、ユーザが立体3D映像を知覚するために、2人以上のユーザそれぞれによって着用される立体3Dメガネと、2セット以上のプロジェクタからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これによって各ユーザがプロジェクタのセットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、を含む、仮想現実映像化システム。【選択図】 図2
Description
本発明は、コンピュータ支援型の仮想現実表示システムに関する。
従来技術の方法、装置、または文書が参照されている場合、その参照は、共通の一般的な知識またはその一部を形成していることの証拠として、または認めるものとして解釈すべきではない。
コンピュータ支援型の仮想現実表示システムの1つのタイプには、以下が設けられている。
1. 仮想環境の映像(image)をユーザに提示する少なくとも1つのスクリーン
2. 少なくとも1つのスクリーン上に映像を生成する少なくとも1つのプロジェクタを含む映像化アセンブリ(imaging assembly)
3. ユーザの視点および視線方向を追跡するように構成されている追跡システム
4. 追跡システムに応答して仮想環境の立体3D映像を生成するために、追跡システムに応答し、それによって映像化アセンブリを制御するようにプログラムされているコンピュータ
5. ユーザが立体3D映像を知覚するためにユーザによって着用される立体3Dメガネ
1. 仮想環境の映像(image)をユーザに提示する少なくとも1つのスクリーン
2. 少なくとも1つのスクリーン上に映像を生成する少なくとも1つのプロジェクタを含む映像化アセンブリ(imaging assembly)
3. ユーザの視点および視線方向を追跡するように構成されている追跡システム
4. 追跡システムに応答して仮想環境の立体3D映像を生成するために、追跡システムに応答し、それによって映像化アセンブリを制御するようにプログラムされているコンピュータ
5. ユーザが立体3D映像を知覚するためにユーザによって着用される立体3Dメガネ
本出願人は、上の構成要素を含む仮想現実レクリエーションセンター(http://holoverse.com.au)を、豪州クイーンズランド州サウスポート、ネラングストリート59において商業ベースで運営している。
上のシステムは極めて良好に機能することが判明しているが、各表示システムは、特に、追跡されている特定のユーザのために表示を生成するように構成されていることが理解されるであろう。結果として、第2の人が表示を見る場合、第2の人はこの表示を自身の視点から見るのではなく、追跡システムによって追跡されているユーザである第1の人の視点から見る。したがって第2の人に対しては、提示される3Dシーンは第2の人の動きに従って動的に変化せず、そのため第2の人には仮想現実の錯覚が存在しない。
本発明の目的は、上述した問題点に対処することである。
本発明の第1の実施形態によれば、2人以上のユーザのための仮想現実映像化システムであって、
仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、
少なくとも1つのスクリーン上に映像を生成するための、2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、
2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、
各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、2人以上のユーザそれぞれに対して、追跡システムに応えてそれによって追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、
ユーザが立体3D映像を知覚するために、2人以上のユーザそれぞれによって着用される立体3Dメガネと、
2セット以上のプロジェクタからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これによって各ユーザがプロジェクタのセットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、
を含む、仮想現実映像化システム、を提供する。
仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、
少なくとも1つのスクリーン上に映像を生成するための、2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、
2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、
各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、2人以上のユーザそれぞれに対して、追跡システムに応えてそれによって追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、
ユーザが立体3D映像を知覚するために、2人以上のユーザそれぞれによって着用される立体3Dメガネと、
2セット以上のプロジェクタからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これによって各ユーザがプロジェクタのセットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、
を含む、仮想現実映像化システム、を提供する。
映像分離装備は、2セット以上のプロジェクタからの映像を分離する2つ以上のフィルタを含み、これら異なる表示フィルタ(viewing filters)が、異なる可視光スペクトル透過特性を有することが好ましい。
本発明の好ましい実施形態においては、フィルタは干渉フィルタを備えている。例えば、フィルタは、ダイクロイック物質(dichroic material)の膜を備えている。
好ましくは、映像分離装備のフィルタは、対応するビューア干渉フィルタ(viewer interference filter)およびプロジェクタ干渉フィルタを備えており、ビューア干渉フィルタがユーザの立体3Dメガネに取り付けられており、プロジェクタ干渉フィルタが、対応するプロジェクタのセットのプロジェクタに取り付けられている。
代替実施形態においては、立体3Dメガネは、第1の可視光フィルタ窓および第2の可視光フィルタ窓を備えており、映像分離装備は、偏光フィルタまたはアクティブシャッターフィルタを備えている。
本発明の好ましい実施形態においては、本仮想現実映像化システムは、テーブルを含み、少なくとも1つのスクリーンが、テーブルの半透明なテーブル表面を備えている。プロジェクタは、スクリーンの裏面に投影するためにスクリーンの下方に配置されていることが好ましい。
テーブルは長方形とすることができ、追跡システムは、テーブルの4つの角部に位置する4つのセンサーを備えている。
本発明のさらなる態様によれば、ウェアラブル立体3Dメガネであって、
左側立体映像および右側立体映像を区別してそれによってユーザに3次元形状を知覚させる左目立体映像窓および右目立体映像窓と、
左目窓および右目窓に隣接する共通フィルタ物質であって、対応して事前にフィルタリングされた光を通過させ、対応して事前にフィルタリングされていない光の通過を阻止する、共通フィルタ物質と、
を備えている、ウェアラブル立体3Dメガネ、を提供する。
左側立体映像および右側立体映像を区別してそれによってユーザに3次元形状を知覚させる左目立体映像窓および右目立体映像窓と、
左目窓および右目窓に隣接する共通フィルタ物質であって、対応して事前にフィルタリングされた光を通過させ、対応して事前にフィルタリングされていない光の通過を阻止する、共通フィルタ物質と、
を備えている、ウェアラブル立体3Dメガネ、を提供する。
本発明の好ましい実施形態においては、左目立体映像窓および右目立体映像窓は、アクティブシャッター窓(active shutter window)を備えている。
共通フィルタ物質は、干渉フィルタを備えていることが好ましい。例えば、共通フィルタ物質は、ダイクロイック膜を備えていることができる。
ウェアラブル立体3Dメガネのセットを提供することができ、セットの各メガネが、異なる可視光スペクトル透過特性を有する共通フィルタ物質を含み、セットの各メガネの共通フィルタ物質が直交性の透過特性を有する。
本発明の好ましい特徴、実施形態、および変形形態は、本発明を実行するための十分な情報を当業者に提供する以下の「発明を実施するための形態」から認識することができる。「発明を実施するための形態」は、先行する「発明を実施するための形態」をいかようにも制限するようにはみなされないものとする。「発明を実施するための形態」では、以下の複数の図面を参照する。
次に図1を参照し、図1には、本発明の第1の実施形態に係る、2人以上のユーザのための仮想現実映像化システム1が描かれている。
このシステムは、背面投影(すなわち上から見るためにスクリーンに下から投影する)によって、仮想環境の映像を2人以上のユーザに提示するための、半透明なテーブル表面5の形におけるスクリーン(例えば半透明材料の織布またはシート)を有する長方形のテーブル3、を含む。以降の図においてテーブルの向きを容易に認識することができるように、テーブル3の両端部に、それぞれ円および長方形を備えた2枚の向きラベル4a,4bが固定されている。使用中は向きラベル4a,4bは必要なく、ここでは以下の説明の理解を助ける目的で含めてあるにすぎない。
システム1は、それぞれが1つのプロジェクタを備えた2セットのプロジェクタから構成されている映像化アセンブリをさらに含み、この1つのプロジェクタは、テーブル3のスクリーン5の下方に位置するプロジェクタ7a(図5においては見えている)およびプロジェクタ7bである。プロジェクタ7a,7bは、半透明スクリーン5の裏面に投影するように構成されている。
センサー9a,9b,9c,9dを備えた追跡システム9が設けられている。センサー9a,9b,9c,9dは、システムのユーザ14a,14bによって着用される特殊メガネ12a,12bに取り付けられているターゲット10a,10b(図2に最もよく示されている)の位置および向きを感知するように構成されている。いま説明している実施形態では、センサーそれぞれが、図に示したように長方形のテーブル表面の角部に位置している。従来技術では、3D空間内のオブジェクトを追跡するためのさまざまな配置が公知である。
システム1はコンピュータ11をさらに含み、コンピュータ11は、後述するように特別にプログラムされており、かつプロジェクタ7a,7bと追跡センサー9a,9b,9c,9dとに結合されている。
コンピュータ11は、2人以上のユーザ14a,14bそれぞれに対して追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するために、追跡システム9に応答し、それにより映像化アセンブリ(すなわちプロジェクタ7a,7b)を制御するようにプログラムされている。仮想環境は、従来技術において公知であるように、コンピュータシステム11に記憶されている、またはコンピュータシステム11からアクセス可能な、頂点およびエッジのポリゴンモデル、または八分木型ソリッドモデルを含むことができる。
図2を参照し、システム1は、ユーザが立体3D映像を知覚するために、ユーザ14a,14bそれぞれによって着用される立体3Dメガネ12a,12bを含む。メガネ12aは、第1および第2のアクティブシャッター窓13a,13a’を含み、メガネ12bは、第1および第2のアクティブシャッター窓13b,13b’を含む。シャッター窓の動作は、対応するプロジェクタ7a,7bによって生成される立体映像に同期されている。アクティブシャッター立体メガネは周知であり、例えば適切に装備された液晶表示装置(LCD)やプラズマテレビからの3D立体映像を知覚するために使用される。偏光状態の異なる左側窓および右側窓(ただし頭部が傾くと3D効果が失われる)やアナグリフ窓(anaglyphic windows)(例:赤/シアン窓)(ただしアナグリフ窓では一般に色のリアル感が失われる)など、別のタイプの立体視システムを使用することもできる。
本システムは、2つ以上のプロジェクタ7a,7bからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備をさらに含み、これによって各ユーザは、2つ以上のプロジェクタのうちの対応するプロジェクタのみから発せられる映像を見る。
いま説明している実施形態の映像分離装備は、シャッター窓13a,13a’の上に取り付けられている第1の干渉フィルタ15aと、シャッター窓13b,13b’の上に取り付けられている第2の干渉フィルタ15bとを含む。第1の干渉フィルタ15aおよび第2の干渉フィルタ15bは、ダイクロイック物質から形成されており、可視光スペクトルの異なる直交性透過特性を有する。フィルタ15a(フィルタ物質F1から作製されている)は、図3に示したような、赤(R1)、青(B1)、緑(G1)の第1の透過特性を有する。第2の干渉フィルタ15b(フィルタ物質F2から作製されている)は、図4に示したような、赤(R2)、青(B2)、緑(G2)の第2の透過特性を有し、この透過特性はフィルタ物質F1の透過特性と重ならない。結果として、フィルタF1を通過する光はフィルタ2によって完全に遮断され、逆も同様である。したがって、フィルタF1およびフィルタF2は、「直交性の」透過特性を有すると表現される。
再び図2に戻り、映像分離装備は、プロジェクタ7aの出力レンズの上に取り付けられている物質F1のプロジェクタフィルタ17aと、プロジェクタ7bの出力レンズの上に取り付けられている物質F2のプロジェクタフィルタ17bとをさらに含む。結果として、プロジェクタ7aからの光は物質F1のフィルタ17aに入射する。フィルタ物質F1の通過帯域B1、G1、R1(図3)の範囲内に入る波長の光のみが、このフィルタを通過する。したがって、プロジェクタフィルタ17aを透過した光はメガネのフィルタ15aを通過することができ、なぜならフィルタ17aとフィルタ15aは同じ物質から作製されており、同じスペクトル通過帯域B1、G1、R1を有するためである。さらには、フィルタ物質F2の通過帯域B2、G2、R2(図4)の範囲内に入る波長の光のみが、第2のプロジェクタ7bのフィルタ17bを通過する。
同様に、プロジェクタフィルタ17bを透過した光はメガネの(干渉)フィルタ15bを通過することができ、なぜならフィルタ17bとフィルタ15bは同じ物質から作製されており、同じスペクトル通過帯域B2、G2、R2を有するためである。しかしながら、第1のメガネフィルタ15a(物質F1から作製されている)は、第2のプロジェクタフィルタ17b(物質F2から作製されている)からの光を完全に遮断し、なぜならフィルタ物質F1とフィルタ物質F2の透過特性が直交性であり重なりを有さないためである。したがって、ペアであるメガネレンズとプロジェクタレンズ15a,17aおよび15b,17bは、プロジェクタ7aからの映像とプロジェクタ7bからの映像を分離する役割を果たし、したがってメガネ12aの着用者のみがプロジェクタ7aからの映像を見ることができるのに対して、メガネ12bの着用者のみがプロジェクタ7bからの映像を見ることができる。
本発明の好ましい実施形態では、干渉フィルタ(すなわちダイクロイックフィルタ15a,15bおよびプロジェクタのフィルタ17a,17b)を利用しているが、他の編成も可能である。例えば、吸収フィルタを使用してもよく、特許文献1(出願人:Infitec GmbH)には、映像を分離する目的に好適な一連の吸収フィルタが記載されている。
次に図5を参照し、使用時、追跡システム9は、メガネ12aのターゲット10aの位置とメガネ12bのターゲット10bの位置を検出する。次にコンピュータシステム11が、対応する立体映像20,22を半透明スクリーン5の裏面に投影するようにプロジェクタ7a,7bを動作させる。立体映像20,22は、同じ3Dオブジェクトの2つの異なるビューを有する。この例では、映像20は、第1のユーザ14a(図1)の観察方向からの家のビューに相当するのに対し、映像22は、第2のユーザ14b(図1)の観察からの家のビューに相当する。図5に示したスクリーン5にレンダリングされた映像は、メガネを着用していない人が見る映像の概略である。このビューで観察できるように、ユーザ14aの家のビュー20は、左目用の映像20aと右目用の映像20bとから構成されている。同様に、ユーザ14bの家のビュー22は、左目用の映像22aと右目用の線群(lines)22bとから構成されている。
映像20を形成する光は、プロジェクタ7aから来るため、フィルタ17aを通過してきており、このため図3の透過特性F1に従ってフィルタリングされているのに対し、映像22を形成する光は、プロジェクタ7bから来るため、フィルタ17bを通過してきており、したがって図4の透過特性F2を有することが認識されるであろう。
図6は、図2のメガネ12bを着用中にユーザ14bが見る家のビュー22を示している。第一に、ダイクロイックフィルタ15bは、プロジェクタ7aおよびフィルタ17aからのすべての光が通過することを阻止し、したがってユーザ14bは映像20の光をまったく受け取らない。しかしながらダイクロイックフィルタ15bは、プロジェクタ7bおよびフィルタ17bからの光をメガネ12bのアクティブシャッター13b,13b’に通過させる。シャッター13b,13b’の動作は、着用者14bの脳が、図6に示したように家の正面(1つの玄関口を有する)の立体3Dビュー22を知覚することを支援する。
図7は、図2のメガネ12aを着用中にユーザ14aが見るビュー20を示している。第一に、ダイクロイックフィルタ15aは、プロジェクタ7bおよびフィルタ17bからのすべての光が通過することを阻止し、したがってユーザ14aは映像22の光をまったく受け取らない。しかしながらダイクロイックフィルタ15aは、プロジェクタ7aおよびフィルタ17aからの光をメガネ12aのアクティブシャッター13a,13a’に通過させる。シャッター13a,13a’の動作は、着用者14aの脳が、図7に示したように家の背面(2つの窓を有する)の立体3Dビューを知覚することを支援する。
第1のユーザおよび第2のユーザが、例えば頭部を回転させることによって、またはテーブル3の周りを歩くことによって、各自の視点および視線方向を変えるにつれて、コンピュータシステム11は、これらユーザの位置を追跡システム9を介して監視し、それに応じて、プロジェクタ7a,7bによって供給される仮想シーンのビューを調整する。結果として、両方のユーザ14a,14bが、各自の視点からの仮想シーンの適切なビューを見る。さらには、第1のユーザおよび第2のユーザ両方のシーンのビューが、各ユーザの動きに従って動的に変化し、このため第1のユーザおよび第2のユーザ両方において、各自の視点に適切な、同じシーンの仮想現実が知覚される。
図8は、各ユーザのための映像が、ただ1つのプロジェクタ(例:図1および図2のプロジェクタ7a,7b)を備えたプロジェクタのセットではなく、複数の一連のプロジェクタを備えたプロジェクタのセットによって供給される、本発明の実施形態を概略的に描いている。図8に示したように、それぞれにF1フィルタ17a,17a’,...,17a’’が取り付けられている第1のセットのプロジェクタ7a,7a’,...,7a’’が設けられており、それぞれにF2フィルタ17b,17b’,...,17b’’が取り付けられている第2のセットのプロジェクタ7b,7b’,...,7b’’が設けられている。前と同様に、第1のユーザは、F1フィルタ15aが取り付けられているメガネ12aを着用し、このフィルタ15aは、第1のセットのプロジェクタからの映像を表示し、かつ第2のセットのプロジェクタからの映像を遮断する。これに対して第2のユーザは、F2フィルタ15bが取り付けられているメガネ12bを着用し、このフィルタ15bは、第2のセットのプロジェクタからの映像を表示し、かつ第1のセットのプロジェクタからの映像を遮断する。図8に示したように、没入型の仮想環境を形成することを支援するために、プロジェクタの各セットの異なるプロジェクタを、対応する複数の個別の投影スクリーン5a,...,5cに投影するように構成することができる。
本発明の別の実施形態では、立体3Dメガネが第1のフィルタ窓および第2のフィルタ窓を備えていてもよく、映像分離装備が、例えば偏光フィルタまたはアクティブシャッターフィルタを備えていてもよいことが認識されるであろう。
さらには、干渉フィルタが使用されることが好ましいが、映像を分離するためにアナグリフの赤/シアンのペアまたは他のカラーペアを使用することもできる。しかしながら干渉フィルタが好ましく、なぜなら干渉フィルタではリアルなカラーバランスが維持されるためである。
説明してきた本発明の好ましい実施形態は、2人のユーザに映像を提示するシステムに関連するが、より多くのユーザに対応するシステムも考えられる。例えば、互いに直交性の3つの干渉フィルタのうちの1つをそれぞれが有する3つのプロジェクタを使用することができ、この場合、3人のユーザそれぞれが、これらのフィルタのうちの1つが取り付けられた立体メガネを着用し、対応するフィルタが同様に取り付けられた3つのプロジェクタの1つからの映像を知覚する。
さらに、説明してきた投影スクリーン(半透明なテーブル表面のスクリーンを備えている)を、映像を投影することのできる別の手段に置き換えてもよいことが認識されるであろう。例えば別の実施形態では、両側にプロジェクタが配置された状態で半透明なカーテンを使用することができる。これに代えて、直接投影の(すなわち透過性ではなく反射性の)スクリーン(薄い色の壁など)を使用することもできる。
ここまで本発明について、法律に準拠し、程度の差はあるが構造上または方法上の特徴に特有な専門用語で説明してきた。語「備える」およびそのバリエーション(「備えている」、「から構成されている」)は、本明細書全体を通じて包含的な意味で使用されており、追加の特徴を除外するものではない。
本明細書に記載されている手段は、本発明を実施するための好ましい形態を備えており、このため本発明は、図示または記載されている特定の特徴に制限されないことを理解されたい。
したがって本発明は、当業者によって適切に解釈される、添付の請求項の厳密な範囲内での本発明の任意の形態または修正形態において、特許請求されるものである。
本明細書および請求項(存在時)全体を通じて、文脈に当てはまらない場合を除き、語「実質的に」または「約」は、これらの語によって識別される範囲の値に制限されないことを理解されたい。
本発明の実施形態は、実例を目的としているにすぎず、本発明を制限するようには意図されていない。したがって、記載されている実施形態には、本発明の範囲から逸脱することなく、さまざまな別の変更および修正を加え得ることを理解されたい。
Claims (15)
- 2人以上のユーザのための仮想現実映像化システムであって、
仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、
前記少なくとも1つのスクリーン上に映像を生成するための、前記2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、
前記2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、
前記追跡システムに応答し、それにより映像化アセンブリを制御して、各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、前記2人以上のユーザそれぞれに対して、前記追跡システムからの追跡データに対応する前記仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、
前記ユーザが前記立体3D映像を知覚するために、前記2人以上のユーザそれぞれによって着用される立体3Dメガネと、
前記2セット以上のプロジェクタからの映像を、前記2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これにより各ユーザがプロジェクタの前記セットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、
を含む、仮想現実映像化システム。 - 前記映像分離装備が、前記2セット以上のプロジェクタからの映像を分離する2つ以上のフィルタを含み、前記異なる表示フィルタが、異なる可視光スペクトル透過特性を有する、請求項1に記載のシステム。
- 前記フィルタが干渉フィルタを備えている、請求項2に記載のシステム。
- 前記フィルタが、ダイクロイック物質の膜を備えている、請求項3に記載のシステム。
- 前記映像分離装備の前記フィルタが、対応するビューア干渉フィルタおよびプロジェクタ干渉フィルタを備えており、前記ビューア干渉フィルタが前記ユーザの前記立体3Dメガネに取り付けられており、前記プロジェクタ干渉フィルタが、前記対応するプロジェクタのセットのプロジェクタに取り付けられている、請求項3または請求項4に記載のシステム。
- 前記立体3Dメガネが、第1の可視光フィルタ窓および第2の可視光フィルタ窓を備えており、前記映像分離装備が、偏光フィルタを備えている、請求項1に記載のシステム。
- 前記立体3Dメガネが、第1の可視光フィルタ窓および第2の可視光フィルタ窓を備えており、前記映像分離装備が、アクティブシャッターフィルタを備えている、請求項1に記載のシステム。
- テーブルを含み、前記少なくとも1つのスクリーンが、前記テーブルの半透明なテーブル表面を備えている、請求項1から請求項7のいずれか1項に記載のシステム。
- 前記プロジェクタが、前記スクリーンの裏面に投影するために前記スクリーンの下方に配置されている、請求項8に記載のシステム。
- 前記テーブルが長方形であり4つの角部を有し、前記追跡システムが、前記テーブルの4つの角部にそれぞれ位置する4つのセンサーを備えている、請求項8または請求項9に記載のシステム。
- 一対のウェアラブル立体3Dメガネであって、
左側立体映像および右側立体映像を区別し、それによりユーザに3次元形状を知覚させる左目立体映像窓および右目立体映像窓と、
前記左目立体映像窓および前記右目立体映像窓に隣接する共通フィルタ物質であって、対応して事前にフィルタリングされた光を通過させ、対応して事前にフィルタリングされていない光の通過を阻止する、共通フィルタ物質と、
を備えている、一対のウェアラブル立体3Dメガネ。 - 前記左目立体映像窓および前記右目立体映像窓が、アクティブシャッター窓を備えている、請求項11に記載のメガネ。
- 前記共通フィルタ物質が、干渉フィルタを備えている、請求項11に記載のメガネ。
- 前記共通フィルタ物質が、ダイクロイック膜を備えている、請求項13に記載のメガネ。
- それぞれが請求項11から請求項14のいずれか1項に記載のウェアラブル立体3Dメガネのセットであって、前記セットの前記メガネそれぞれが、前記セットのそれ以外のメガネの前記共通フィルタ物質とは異なる可視光スペクトル透過特性を有する共通フィルタ物質を含み、前記セットの前記メガネそれぞれの前記共通フィルタ物質が、前記セットのそれ以外のメガネそれぞれの前記共通フィルタ物質に対して直交する透過特性を有する、ウェアラブル立体3Dメガネのセット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2017902825 | 2017-07-19 | ||
AU2017902825A AU2017902825A0 (en) | 2017-07-19 | Multiple observer improvement for a virtual environment | |
PCT/AU2018/050754 WO2019014718A1 (en) | 2017-07-19 | 2018-07-18 | IMPROVEMENT FOR MULTIPLE OBSERVERS FOR A VIRTUAL ENVIRONMENT |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020528162A true JP2020528162A (ja) | 2020-09-17 |
Family
ID=65014903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020502690A Pending JP2020528162A (ja) | 2017-07-19 | 2018-07-18 | 仮想環境における複数の観察者のための改良 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11122246B2 (ja) |
EP (1) | EP3655927A4 (ja) |
JP (1) | JP2020528162A (ja) |
CN (1) | CN110998670A (ja) |
AU (1) | AU2018303842B2 (ja) |
CA (1) | CA3069344A1 (ja) |
WO (1) | WO2019014718A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113691883A (zh) * | 2019-03-20 | 2021-11-23 | 北京小米移动软件有限公司 | 在vr360应用中传输视点切换能力的方法和装置 |
US11533468B2 (en) | 2019-06-27 | 2022-12-20 | Samsung Electronics Co., Ltd. | System and method for generating a mixed reality experience |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5781229A (en) * | 1997-02-18 | 1998-07-14 | Mcdonnell Douglas Corporation | Multi-viewer three dimensional (3-D) virtual display system and operating method therefor |
US20050270367A1 (en) * | 1996-11-13 | 2005-12-08 | Fakespace Labs, Inc. | Multi-person stereo display system |
JP2007509544A (ja) * | 2003-10-21 | 2007-04-12 | バルコ・ナムローゼ・フエンノートシャップ | 色選択フィルタに基づく立体画像表示を行う方法と装置 |
JP2013541239A (ja) * | 2010-07-30 | 2013-11-07 | シリコン イメージ,インコーポレイテッド | マルチビューディスプレイシステム |
JP2014514598A (ja) * | 2011-03-14 | 2014-06-19 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 3次元投影及びカラーギャマットの改善のためのレーザ光源を使用したプロジェクタ、投影システム及び関連する方法 |
WO2016108720A1 (ru) * | 2014-12-31 | 2016-07-07 | Общество С Ограниченной Ответственностью "Заботливый Город" | Способ и устройство для отображения трехмерных объектов |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6608652B1 (en) * | 1995-10-14 | 2003-08-19 | Semiconductor Energy Laboratory Co., Ltd. | Image display system and method |
US5708490A (en) * | 1996-01-30 | 1998-01-13 | Virtek Vision Corp. | Goggles for use with laser projection assembly systems |
US7524053B2 (en) * | 2006-05-12 | 2009-04-28 | Real D | 3-D eyewear |
KR101908033B1 (ko) * | 2008-07-10 | 2018-12-10 | 리얼 뷰 이미징 리미티드 | 광시야각 디스플레이들 및 사용자 인터페이스들 |
DE102011120834A1 (de) | 2011-12-13 | 2013-06-13 | Jos. Schneider Optische Werke Gmbh | Betrachtungsvorrichtung, Stereo-Projektionssystem und Verwendung von Cyanin-Farbstoffen insupramolekularer J-Aggregat-Konfiguration |
GB2517069B (en) * | 2014-06-23 | 2015-09-02 | Liang Kong | Autostereoscopic virtual reality platform |
-
2018
- 2018-07-18 CN CN201880054264.1A patent/CN110998670A/zh active Pending
- 2018-07-18 AU AU2018303842A patent/AU2018303842B2/en active Active
- 2018-07-18 WO PCT/AU2018/050754 patent/WO2019014718A1/en active Search and Examination
- 2018-07-18 JP JP2020502690A patent/JP2020528162A/ja active Pending
- 2018-07-18 EP EP18835742.0A patent/EP3655927A4/en active Pending
- 2018-07-18 US US16/632,148 patent/US11122246B2/en active Active
- 2018-07-18 CA CA3069344A patent/CA3069344A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050270367A1 (en) * | 1996-11-13 | 2005-12-08 | Fakespace Labs, Inc. | Multi-person stereo display system |
US5781229A (en) * | 1997-02-18 | 1998-07-14 | Mcdonnell Douglas Corporation | Multi-viewer three dimensional (3-D) virtual display system and operating method therefor |
JP2007509544A (ja) * | 2003-10-21 | 2007-04-12 | バルコ・ナムローゼ・フエンノートシャップ | 色選択フィルタに基づく立体画像表示を行う方法と装置 |
JP2013541239A (ja) * | 2010-07-30 | 2013-11-07 | シリコン イメージ,インコーポレイテッド | マルチビューディスプレイシステム |
JP2014514598A (ja) * | 2011-03-14 | 2014-06-19 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 3次元投影及びカラーギャマットの改善のためのレーザ光源を使用したプロジェクタ、投影システム及び関連する方法 |
WO2016108720A1 (ru) * | 2014-12-31 | 2016-07-07 | Общество С Ограниченной Ответственностью "Заботливый Город" | Способ и устройство для отображения трехмерных объектов |
US20170366805A1 (en) * | 2014-12-31 | 2017-12-21 | Alt Llc | Method and system for displaying three-dimensional objects |
Also Published As
Publication number | Publication date |
---|---|
US11122246B2 (en) | 2021-09-14 |
EP3655927A1 (en) | 2020-05-27 |
CA3069344A1 (en) | 2019-01-24 |
EP3655927A4 (en) | 2021-04-28 |
AU2018303842A1 (en) | 2020-03-05 |
US20200169712A1 (en) | 2020-05-28 |
WO2019014718A1 (en) | 2019-01-24 |
CN110998670A (zh) | 2020-04-10 |
AU2018303842B2 (en) | 2022-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3978515B2 (ja) | 立体画像の表示方法および装置 | |
US8646917B2 (en) | Three dimensional display with multiplane image display elements | |
US7612795B2 (en) | Enhancement of visual perception III | |
JP5902217B2 (ja) | 2d−3dの共存のための偏光させられた3dのシステムにおける2dの質のエンハンサー | |
KR20120084775A (ko) | 입체 디스플레이 시스템 | |
JP2007156390A (ja) | 2次元及び3次元映像選択可能ディスプレイ装置 | |
JP2018517159A (ja) | アクティブシャッターヘッドマウントディスプレイ | |
US7478904B2 (en) | Three dimensional viewing spectacles | |
US20140347726A1 (en) | Selective hybrid-type 3d image viewing device and display method using same | |
US10659772B1 (en) | Augmented reality system for layering depth on head-mounted displays using external stereo screens | |
AU2018303842B2 (en) | Multiple observer improvement for a virtual environment | |
JP2014529225A (ja) | 3dディスプレイの装置、方法および構造 | |
KR20080105874A (ko) | 컬러휠, 이를 채용한 조명유닛, 및 컬러휠을 채용한2d/3d 겸용 영상표시장치 | |
JP2012010217A (ja) | 眼鏡および表示システム | |
CN206674125U (zh) | 一种显示系统、包括该显示系统的设备以及观看装置 | |
JP2012022278A (ja) | 映像実体感メガネ | |
JP2000350237A (ja) | 三次元表示方法及び装置 | |
US9612447B2 (en) | Wide angle viewing device | |
Kovacs et al. | 3D display technologies and effects on the human vision system | |
US10142619B2 (en) | Wide angle viewing device II | |
US20140253696A1 (en) | 3-d image shutter glasses | |
JP2015046848A (ja) | 画像表示装置 | |
Hast | 3D Stereoscopic Rendering: An Overview of Implementation Issues | |
JP2011247930A (ja) | 立体視眼鏡 | |
CN103235416A (zh) | 分色3d转为偏振3d的方法及其兼容性双镜头投影系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |