JP2020528162A - 仮想環境における複数の観察者のための改良 - Google Patents

仮想環境における複数の観察者のための改良 Download PDF

Info

Publication number
JP2020528162A
JP2020528162A JP2020502690A JP2020502690A JP2020528162A JP 2020528162 A JP2020528162 A JP 2020528162A JP 2020502690 A JP2020502690 A JP 2020502690A JP 2020502690 A JP2020502690 A JP 2020502690A JP 2020528162 A JP2020528162 A JP 2020528162A
Authority
JP
Japan
Prior art keywords
filter
glasses
users
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020502690A
Other languages
English (en)
Inventor
ブルース ロバート デル
ブルース ロバート デル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Euclideon Holographics Pty Ltd
Original Assignee
Euclideon Holographics Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2017902825A external-priority patent/AU2017902825A0/en
Application filed by Euclideon Holographics Pty Ltd filed Critical Euclideon Holographics Pty Ltd
Publication of JP2020528162A publication Critical patent/JP2020528162A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • G02B2027/0114Head-up displays characterised by optical features comprising device for genereting colour display comprising dichroic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

2人以上のユーザのための仮想現実映像化システムであって、仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、少なくとも1つのスクリーン上に映像を生成するための、2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、前記追跡システムに応答し、それにより映像化アセンブリを制御して、各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、2人以上のユーザそれぞれに対して、追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、ユーザが立体3D映像を知覚するために、2人以上のユーザそれぞれによって着用される立体3Dメガネと、2セット以上のプロジェクタからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これによって各ユーザがプロジェクタのセットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、を含む、仮想現実映像化システム。【選択図】 図2

Description

本発明は、コンピュータ支援型の仮想現実表示システムに関する。
従来技術の方法、装置、または文書が参照されている場合、その参照は、共通の一般的な知識またはその一部を形成していることの証拠として、または認めるものとして解釈すべきではない。
コンピュータ支援型の仮想現実表示システムの1つのタイプには、以下が設けられている。
1. 仮想環境の映像(image)をユーザに提示する少なくとも1つのスクリーン
2. 少なくとも1つのスクリーン上に映像を生成する少なくとも1つのプロジェクタを含む映像化アセンブリ(imaging assembly)
3. ユーザの視点および視線方向を追跡するように構成されている追跡システム
4. 追跡システムに応答して仮想環境の立体3D映像を生成するために、追跡システムに応答し、それによって映像化アセンブリを制御するようにプログラムされているコンピュータ
5. ユーザが立体3D映像を知覚するためにユーザによって着用される立体3Dメガネ
本出願人は、上の構成要素を含む仮想現実レクリエーションセンター(http://holoverse.com.au)を、豪州クイーンズランド州サウスポート、ネラングストリート59において商業ベースで運営している。
上のシステムは極めて良好に機能することが判明しているが、各表示システムは、特に、追跡されている特定のユーザのために表示を生成するように構成されていることが理解されるであろう。結果として、第2の人が表示を見る場合、第2の人はこの表示を自身の視点から見るのではなく、追跡システムによって追跡されているユーザである第1の人の視点から見る。したがって第2の人に対しては、提示される3Dシーンは第2の人の動きに従って動的に変化せず、そのため第2の人には仮想現実の錯覚が存在しない。
本発明の目的は、上述した問題点に対処することである。
米国特許第9,651,791号明細書
本発明の第1の実施形態によれば、2人以上のユーザのための仮想現実映像化システムであって、
仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、
少なくとも1つのスクリーン上に映像を生成するための、2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、
2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、
各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、2人以上のユーザそれぞれに対して、追跡システムに応えてそれによって追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、
ユーザが立体3D映像を知覚するために、2人以上のユーザそれぞれによって着用される立体3Dメガネと、
2セット以上のプロジェクタからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これによって各ユーザがプロジェクタのセットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、
を含む、仮想現実映像化システム、を提供する。
映像分離装備は、2セット以上のプロジェクタからの映像を分離する2つ以上のフィルタを含み、これら異なる表示フィルタ(viewing filters)が、異なる可視光スペクトル透過特性を有することが好ましい。
本発明の好ましい実施形態においては、フィルタは干渉フィルタを備えている。例えば、フィルタは、ダイクロイック物質(dichroic material)の膜を備えている。
好ましくは、映像分離装備のフィルタは、対応するビューア干渉フィルタ(viewer interference filter)およびプロジェクタ干渉フィルタを備えており、ビューア干渉フィルタがユーザの立体3Dメガネに取り付けられており、プロジェクタ干渉フィルタが、対応するプロジェクタのセットのプロジェクタに取り付けられている。
代替実施形態においては、立体3Dメガネは、第1の可視光フィルタ窓および第2の可視光フィルタ窓を備えており、映像分離装備は、偏光フィルタまたはアクティブシャッターフィルタを備えている。
本発明の好ましい実施形態においては、本仮想現実映像化システムは、テーブルを含み、少なくとも1つのスクリーンが、テーブルの半透明なテーブル表面を備えている。プロジェクタは、スクリーンの裏面に投影するためにスクリーンの下方に配置されていることが好ましい。
テーブルは長方形とすることができ、追跡システムは、テーブルの4つの角部に位置する4つのセンサーを備えている。
本発明のさらなる態様によれば、ウェアラブル立体3Dメガネであって、
左側立体映像および右側立体映像を区別してそれによってユーザに3次元形状を知覚させる左目立体映像窓および右目立体映像窓と、
左目窓および右目窓に隣接する共通フィルタ物質であって、対応して事前にフィルタリングされた光を通過させ、対応して事前にフィルタリングされていない光の通過を阻止する、共通フィルタ物質と、
を備えている、ウェアラブル立体3Dメガネ、を提供する。
本発明の好ましい実施形態においては、左目立体映像窓および右目立体映像窓は、アクティブシャッター窓(active shutter window)を備えている。
共通フィルタ物質は、干渉フィルタを備えていることが好ましい。例えば、共通フィルタ物質は、ダイクロイック膜を備えていることができる。
ウェアラブル立体3Dメガネのセットを提供することができ、セットの各メガネが、異なる可視光スペクトル透過特性を有する共通フィルタ物質を含み、セットの各メガネの共通フィルタ物質が直交性の透過特性を有する。
本発明の好ましい特徴、実施形態、および変形形態は、本発明を実行するための十分な情報を当業者に提供する以下の「発明を実施するための形態」から認識することができる。「発明を実施するための形態」は、先行する「発明を実施するための形態」をいかようにも制限するようにはみなされないものとする。「発明を実施するための形態」では、以下の複数の図面を参照する。
2人以上のユーザ用の使用中の仮想現実映像化システムを描いている。 図1の映像化システムの構成要素を概略的に示している。 図1および図2のシステムで使用される第1の干渉フィルタの可視光スペクトル透過率のグラフである。 図1および図2のシステムで使用される第2の干渉フィルタの可視光スペクトル透過率のグラフである。 図2に示したメガネを利用していないユーザが見たときの、使用中の図1のシステムを示している。 図2の第1のメガネを着用している第1のユーザが、図5に示した映像を見ているときに知覚されるオブジェクトの第1の3D立体ビューを示している。 図2の第2のメガネを着用している第2のユーザが、図5に示した映像を見ているときに知覚されるオブジェクトの第2の3D立体ビューを示している。 図1および図2に描いたシステムの変形形態を示しており、この場合、各ユーザに対して生成される映像が、それぞれが2つ以上のプロジェクタを含むプロジェクタのセットによって生成される。
次に図1を参照し、図1には、本発明の第1の実施形態に係る、2人以上のユーザのための仮想現実映像化システム1が描かれている。
このシステムは、背面投影(すなわち上から見るためにスクリーンに下から投影する)によって、仮想環境の映像を2人以上のユーザに提示するための、半透明なテーブル表面5の形におけるスクリーン(例えば半透明材料の織布またはシート)を有する長方形のテーブル3、を含む。以降の図においてテーブルの向きを容易に認識することができるように、テーブル3の両端部に、それぞれ円および長方形を備えた2枚の向きラベル4a,4bが固定されている。使用中は向きラベル4a,4bは必要なく、ここでは以下の説明の理解を助ける目的で含めてあるにすぎない。
システム1は、それぞれが1つのプロジェクタを備えた2セットのプロジェクタから構成されている映像化アセンブリをさらに含み、この1つのプロジェクタは、テーブル3のスクリーン5の下方に位置するプロジェクタ7a(図5においては見えている)およびプロジェクタ7bである。プロジェクタ7a,7bは、半透明スクリーン5の裏面に投影するように構成されている。
センサー9a,9b,9c,9dを備えた追跡システム9が設けられている。センサー9a,9b,9c,9dは、システムのユーザ14a,14bによって着用される特殊メガネ12a,12bに取り付けられているターゲット10a,10b(図2に最もよく示されている)の位置および向きを感知するように構成されている。いま説明している実施形態では、センサーそれぞれが、図に示したように長方形のテーブル表面の角部に位置している。従来技術では、3D空間内のオブジェクトを追跡するためのさまざまな配置が公知である。
システム1はコンピュータ11をさらに含み、コンピュータ11は、後述するように特別にプログラムされており、かつプロジェクタ7a,7bと追跡センサー9a,9b,9c,9dとに結合されている。
コンピュータ11は、2人以上のユーザ14a,14bそれぞれに対して追跡システムからの追跡データに対応する仮想環境の立体3D映像を生成するために、追跡システム9に応答し、それにより映像化アセンブリ(すなわちプロジェクタ7a,7b)を制御するようにプログラムされている。仮想環境は、従来技術において公知であるように、コンピュータシステム11に記憶されている、またはコンピュータシステム11からアクセス可能な、頂点およびエッジのポリゴンモデル、または八分木型ソリッドモデルを含むことができる。
図2を参照し、システム1は、ユーザが立体3D映像を知覚するために、ユーザ14a,14bそれぞれによって着用される立体3Dメガネ12a,12bを含む。メガネ12aは、第1および第2のアクティブシャッター窓13a,13a’を含み、メガネ12bは、第1および第2のアクティブシャッター窓13b,13b’を含む。シャッター窓の動作は、対応するプロジェクタ7a,7bによって生成される立体映像に同期されている。アクティブシャッター立体メガネは周知であり、例えば適切に装備された液晶表示装置(LCD)やプラズマテレビからの3D立体映像を知覚するために使用される。偏光状態の異なる左側窓および右側窓(ただし頭部が傾くと3D効果が失われる)やアナグリフ窓(anaglyphic windows)(例:赤/シアン窓)(ただしアナグリフ窓では一般に色のリアル感が失われる)など、別のタイプの立体視システムを使用することもできる。
本システムは、2つ以上のプロジェクタ7a,7bからの映像を、2人以上のユーザのうちの対応するユーザに提示するための映像分離装備をさらに含み、これによって各ユーザは、2つ以上のプロジェクタのうちの対応するプロジェクタのみから発せられる映像を見る。
いま説明している実施形態の映像分離装備は、シャッター窓13a,13a’の上に取り付けられている第1の干渉フィルタ15aと、シャッター窓13b,13b’の上に取り付けられている第2の干渉フィルタ15bとを含む。第1の干渉フィルタ15aおよび第2の干渉フィルタ15bは、ダイクロイック物質から形成されており、可視光スペクトルの異なる直交性透過特性を有する。フィルタ15a(フィルタ物質F1から作製されている)は、図3に示したような、赤(R1)、青(B1)、緑(G1)の第1の透過特性を有する。第2の干渉フィルタ15b(フィルタ物質F2から作製されている)は、図4に示したような、赤(R2)、青(B2)、緑(G2)の第2の透過特性を有し、この透過特性はフィルタ物質F1の透過特性と重ならない。結果として、フィルタF1を通過する光はフィルタ2によって完全に遮断され、逆も同様である。したがって、フィルタF1およびフィルタF2は、「直交性の」透過特性を有すると表現される。
再び図2に戻り、映像分離装備は、プロジェクタ7aの出力レンズの上に取り付けられている物質F1のプロジェクタフィルタ17aと、プロジェクタ7bの出力レンズの上に取り付けられている物質F2のプロジェクタフィルタ17bとをさらに含む。結果として、プロジェクタ7aからの光は物質F1のフィルタ17aに入射する。フィルタ物質F1の通過帯域B1、G1、R1(図3)の範囲内に入る波長の光のみが、このフィルタを通過する。したがって、プロジェクタフィルタ17aを透過した光はメガネのフィルタ15aを通過することができ、なぜならフィルタ17aとフィルタ15aは同じ物質から作製されており、同じスペクトル通過帯域B1、G1、R1を有するためである。さらには、フィルタ物質F2の通過帯域B2、G2、R2(図4)の範囲内に入る波長の光のみが、第2のプロジェクタ7bのフィルタ17bを通過する。
同様に、プロジェクタフィルタ17bを透過した光はメガネの(干渉)フィルタ15bを通過することができ、なぜならフィルタ17bとフィルタ15bは同じ物質から作製されており、同じスペクトル通過帯域B2、G2、R2を有するためである。しかしながら、第1のメガネフィルタ15a(物質F1から作製されている)は、第2のプロジェクタフィルタ17b(物質F2から作製されている)からの光を完全に遮断し、なぜならフィルタ物質F1とフィルタ物質F2の透過特性が直交性であり重なりを有さないためである。したがって、ペアであるメガネレンズとプロジェクタレンズ15a,17aおよび15b,17bは、プロジェクタ7aからの映像とプロジェクタ7bからの映像を分離する役割を果たし、したがってメガネ12aの着用者のみがプロジェクタ7aからの映像を見ることができるのに対して、メガネ12bの着用者のみがプロジェクタ7bからの映像を見ることができる。
本発明の好ましい実施形態では、干渉フィルタ(すなわちダイクロイックフィルタ15a,15bおよびプロジェクタのフィルタ17a,17b)を利用しているが、他の編成も可能である。例えば、吸収フィルタを使用してもよく、特許文献1(出願人:Infitec GmbH)には、映像を分離する目的に好適な一連の吸収フィルタが記載されている。
次に図5を参照し、使用時、追跡システム9は、メガネ12aのターゲット10aの位置とメガネ12bのターゲット10bの位置を検出する。次にコンピュータシステム11が、対応する立体映像20,22を半透明スクリーン5の裏面に投影するようにプロジェクタ7a,7bを動作させる。立体映像20,22は、同じ3Dオブジェクトの2つの異なるビューを有する。この例では、映像20は、第1のユーザ14a(図1)の観察方向からの家のビューに相当するのに対し、映像22は、第2のユーザ14b(図1)の観察からの家のビューに相当する。図5に示したスクリーン5にレンダリングされた映像は、メガネを着用していない人が見る映像の概略である。このビューで観察できるように、ユーザ14aの家のビュー20は、左目用の映像20aと右目用の映像20bとから構成されている。同様に、ユーザ14bの家のビュー22は、左目用の映像22aと右目用の線群(lines)22bとから構成されている。
映像20を形成する光は、プロジェクタ7aから来るため、フィルタ17aを通過してきており、このため図3の透過特性F1に従ってフィルタリングされているのに対し、映像22を形成する光は、プロジェクタ7bから来るため、フィルタ17bを通過してきており、したがって図4の透過特性F2を有することが認識されるであろう。
図6は、図2のメガネ12bを着用中にユーザ14bが見る家のビュー22を示している。第一に、ダイクロイックフィルタ15bは、プロジェクタ7aおよびフィルタ17aからのすべての光が通過することを阻止し、したがってユーザ14bは映像20の光をまったく受け取らない。しかしながらダイクロイックフィルタ15bは、プロジェクタ7bおよびフィルタ17bからの光をメガネ12bのアクティブシャッター13b,13b’に通過させる。シャッター13b,13b’の動作は、着用者14bの脳が、図6に示したように家の正面(1つの玄関口を有する)の立体3Dビュー22を知覚することを支援する。
図7は、図2のメガネ12aを着用中にユーザ14aが見るビュー20を示している。第一に、ダイクロイックフィルタ15aは、プロジェクタ7bおよびフィルタ17bからのすべての光が通過することを阻止し、したがってユーザ14aは映像22の光をまったく受け取らない。しかしながらダイクロイックフィルタ15aは、プロジェクタ7aおよびフィルタ17aからの光をメガネ12aのアクティブシャッター13a,13a’に通過させる。シャッター13a,13a’の動作は、着用者14aの脳が、図7に示したように家の背面(2つの窓を有する)の立体3Dビューを知覚することを支援する。
第1のユーザおよび第2のユーザが、例えば頭部を回転させることによって、またはテーブル3の周りを歩くことによって、各自の視点および視線方向を変えるにつれて、コンピュータシステム11は、これらユーザの位置を追跡システム9を介して監視し、それに応じて、プロジェクタ7a,7bによって供給される仮想シーンのビューを調整する。結果として、両方のユーザ14a,14bが、各自の視点からの仮想シーンの適切なビューを見る。さらには、第1のユーザおよび第2のユーザ両方のシーンのビューが、各ユーザの動きに従って動的に変化し、このため第1のユーザおよび第2のユーザ両方において、各自の視点に適切な、同じシーンの仮想現実が知覚される。
図8は、各ユーザのための映像が、ただ1つのプロジェクタ(例:図1および図2のプロジェクタ7a,7b)を備えたプロジェクタのセットではなく、複数の一連のプロジェクタを備えたプロジェクタのセットによって供給される、本発明の実施形態を概略的に描いている。図8に示したように、それぞれにF1フィルタ17a,17a’,...,17a’’が取り付けられている第1のセットのプロジェクタ7a,7a’,...,7a’’が設けられており、それぞれにF2フィルタ17b,17b’,...,17b’’が取り付けられている第2のセットのプロジェクタ7b,7b’,...,7b’’が設けられている。前と同様に、第1のユーザは、F1フィルタ15aが取り付けられているメガネ12aを着用し、このフィルタ15aは、第1のセットのプロジェクタからの映像を表示し、かつ第2のセットのプロジェクタからの映像を遮断する。これに対して第2のユーザは、F2フィルタ15bが取り付けられているメガネ12bを着用し、このフィルタ15bは、第2のセットのプロジェクタからの映像を表示し、かつ第1のセットのプロジェクタからの映像を遮断する。図8に示したように、没入型の仮想環境を形成することを支援するために、プロジェクタの各セットの異なるプロジェクタを、対応する複数の個別の投影スクリーン5a,...,5cに投影するように構成することができる。
本発明の別の実施形態では、立体3Dメガネが第1のフィルタ窓および第2のフィルタ窓を備えていてもよく、映像分離装備が、例えば偏光フィルタまたはアクティブシャッターフィルタを備えていてもよいことが認識されるであろう。
さらには、干渉フィルタが使用されることが好ましいが、映像を分離するためにアナグリフの赤/シアンのペアまたは他のカラーペアを使用することもできる。しかしながら干渉フィルタが好ましく、なぜなら干渉フィルタではリアルなカラーバランスが維持されるためである。
説明してきた本発明の好ましい実施形態は、2人のユーザに映像を提示するシステムに関連するが、より多くのユーザに対応するシステムも考えられる。例えば、互いに直交性の3つの干渉フィルタのうちの1つをそれぞれが有する3つのプロジェクタを使用することができ、この場合、3人のユーザそれぞれが、これらのフィルタのうちの1つが取り付けられた立体メガネを着用し、対応するフィルタが同様に取り付けられた3つのプロジェクタの1つからの映像を知覚する。
さらに、説明してきた投影スクリーン(半透明なテーブル表面のスクリーンを備えている)を、映像を投影することのできる別の手段に置き換えてもよいことが認識されるであろう。例えば別の実施形態では、両側にプロジェクタが配置された状態で半透明なカーテンを使用することができる。これに代えて、直接投影の(すなわち透過性ではなく反射性の)スクリーン(薄い色の壁など)を使用することもできる。
ここまで本発明について、法律に準拠し、程度の差はあるが構造上または方法上の特徴に特有な専門用語で説明してきた。語「備える」およびそのバリエーション(「備えている」、「から構成されている」)は、本明細書全体を通じて包含的な意味で使用されており、追加の特徴を除外するものではない。
本明細書に記載されている手段は、本発明を実施するための好ましい形態を備えており、このため本発明は、図示または記載されている特定の特徴に制限されないことを理解されたい。
したがって本発明は、当業者によって適切に解釈される、添付の請求項の厳密な範囲内での本発明の任意の形態または修正形態において、特許請求されるものである。
本明細書および請求項(存在時)全体を通じて、文脈に当てはまらない場合を除き、語「実質的に」または「約」は、これらの語によって識別される範囲の値に制限されないことを理解されたい。
本発明の実施形態は、実例を目的としているにすぎず、本発明を制限するようには意図されていない。したがって、記載されている実施形態には、本発明の範囲から逸脱することなく、さまざまな別の変更および修正を加え得ることを理解されたい。

Claims (15)

  1. 2人以上のユーザのための仮想現実映像化システムであって、
    仮想環境の映像を2人以上のユーザに提示する少なくとも1つのスクリーンと、
    前記少なくとも1つのスクリーン上に映像を生成するための、前記2人以上のユーザに対応する2セット以上のプロジェクタ、を含む映像化アセンブリと、
    前記2人以上のユーザそれぞれを追跡するように構成されている追跡システムと、
    前記追跡システムに応答し、それにより映像化アセンブリを制御して、各ユーザが自身の位置に適切な、同じ仮想環境の異なるビューを知覚するために、前記2人以上のユーザそれぞれに対して、前記追跡システムからの追跡データに対応する前記仮想環境の立体3D映像を生成するように、プログラムされているコンピュータと、
    前記ユーザが前記立体3D映像を知覚するために、前記2人以上のユーザそれぞれによって着用される立体3Dメガネと、
    前記2セット以上のプロジェクタからの映像を、前記2人以上のユーザのうちの対応するユーザに提示するための映像分離装備であって、これにより各ユーザがプロジェクタの前記セットのうちの対応する1セットのみから発せられる映像を見る、映像分離装備と、
    を含む、仮想現実映像化システム。
  2. 前記映像分離装備が、前記2セット以上のプロジェクタからの映像を分離する2つ以上のフィルタを含み、前記異なる表示フィルタが、異なる可視光スペクトル透過特性を有する、請求項1に記載のシステム。
  3. 前記フィルタが干渉フィルタを備えている、請求項2に記載のシステム。
  4. 前記フィルタが、ダイクロイック物質の膜を備えている、請求項3に記載のシステム。
  5. 前記映像分離装備の前記フィルタが、対応するビューア干渉フィルタおよびプロジェクタ干渉フィルタを備えており、前記ビューア干渉フィルタが前記ユーザの前記立体3Dメガネに取り付けられており、前記プロジェクタ干渉フィルタが、前記対応するプロジェクタのセットのプロジェクタに取り付けられている、請求項3または請求項4に記載のシステム。
  6. 前記立体3Dメガネが、第1の可視光フィルタ窓および第2の可視光フィルタ窓を備えており、前記映像分離装備が、偏光フィルタを備えている、請求項1に記載のシステム。
  7. 前記立体3Dメガネが、第1の可視光フィルタ窓および第2の可視光フィルタ窓を備えており、前記映像分離装備が、アクティブシャッターフィルタを備えている、請求項1に記載のシステム。
  8. テーブルを含み、前記少なくとも1つのスクリーンが、前記テーブルの半透明なテーブル表面を備えている、請求項1から請求項7のいずれか1項に記載のシステム。
  9. 前記プロジェクタが、前記スクリーンの裏面に投影するために前記スクリーンの下方に配置されている、請求項8に記載のシステム。
  10. 前記テーブルが長方形であり4つの角部を有し、前記追跡システムが、前記テーブルの4つの角部にそれぞれ位置する4つのセンサーを備えている、請求項8または請求項9に記載のシステム。
  11. 一対のウェアラブル立体3Dメガネであって、
    左側立体映像および右側立体映像を区別し、それによりユーザに3次元形状を知覚させる左目立体映像窓および右目立体映像窓と、
    前記左目立体映像窓および前記右目立体映像窓に隣接する共通フィルタ物質であって、対応して事前にフィルタリングされた光を通過させ、対応して事前にフィルタリングされていない光の通過を阻止する、共通フィルタ物質と、
    を備えている、一対のウェアラブル立体3Dメガネ。
  12. 前記左目立体映像窓および前記右目立体映像窓が、アクティブシャッター窓を備えている、請求項11に記載のメガネ。
  13. 前記共通フィルタ物質が、干渉フィルタを備えている、請求項11に記載のメガネ。
  14. 前記共通フィルタ物質が、ダイクロイック膜を備えている、請求項13に記載のメガネ。
  15. それぞれが請求項11から請求項14のいずれか1項に記載のウェアラブル立体3Dメガネのセットであって、前記セットの前記メガネそれぞれが、前記セットのそれ以外のメガネの前記共通フィルタ物質とは異なる可視光スペクトル透過特性を有する共通フィルタ物質を含み、前記セットの前記メガネそれぞれの前記共通フィルタ物質が、前記セットのそれ以外のメガネそれぞれの前記共通フィルタ物質に対して直交する透過特性を有する、ウェアラブル立体3Dメガネのセット。
JP2020502690A 2017-07-19 2018-07-18 仮想環境における複数の観察者のための改良 Pending JP2020528162A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2017902825 2017-07-19
AU2017902825A AU2017902825A0 (en) 2017-07-19 Multiple observer improvement for a virtual environment
PCT/AU2018/050754 WO2019014718A1 (en) 2017-07-19 2018-07-18 IMPROVEMENT FOR MULTIPLE OBSERVERS FOR A VIRTUAL ENVIRONMENT

Publications (1)

Publication Number Publication Date
JP2020528162A true JP2020528162A (ja) 2020-09-17

Family

ID=65014903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020502690A Pending JP2020528162A (ja) 2017-07-19 2018-07-18 仮想環境における複数の観察者のための改良

Country Status (7)

Country Link
US (1) US11122246B2 (ja)
EP (1) EP3655927A4 (ja)
JP (1) JP2020528162A (ja)
CN (1) CN110998670A (ja)
AU (1) AU2018303842B2 (ja)
CA (1) CA3069344A1 (ja)
WO (1) WO2019014718A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113691883A (zh) * 2019-03-20 2021-11-23 北京小米移动软件有限公司 在vr360应用中传输视点切换能力的方法和装置
US11533468B2 (en) 2019-06-27 2022-12-20 Samsung Electronics Co., Ltd. System and method for generating a mixed reality experience

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781229A (en) * 1997-02-18 1998-07-14 Mcdonnell Douglas Corporation Multi-viewer three dimensional (3-D) virtual display system and operating method therefor
US20050270367A1 (en) * 1996-11-13 2005-12-08 Fakespace Labs, Inc. Multi-person stereo display system
JP2007509544A (ja) * 2003-10-21 2007-04-12 バルコ・ナムローゼ・フエンノートシャップ 色選択フィルタに基づく立体画像表示を行う方法と装置
JP2013541239A (ja) * 2010-07-30 2013-11-07 シリコン イメージ,インコーポレイテッド マルチビューディスプレイシステム
JP2014514598A (ja) * 2011-03-14 2014-06-19 ドルビー ラボラトリーズ ライセンシング コーポレイション 3次元投影及びカラーギャマットの改善のためのレーザ光源を使用したプロジェクタ、投影システム及び関連する方法
WO2016108720A1 (ru) * 2014-12-31 2016-07-07 Общество С Ограниченной Ответственностью "Заботливый Город" Способ и устройство для отображения трехмерных объектов

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608652B1 (en) * 1995-10-14 2003-08-19 Semiconductor Energy Laboratory Co., Ltd. Image display system and method
US5708490A (en) * 1996-01-30 1998-01-13 Virtek Vision Corp. Goggles for use with laser projection assembly systems
US7524053B2 (en) * 2006-05-12 2009-04-28 Real D 3-D eyewear
KR101908033B1 (ko) * 2008-07-10 2018-12-10 리얼 뷰 이미징 리미티드 광시야각 디스플레이들 및 사용자 인터페이스들
DE102011120834A1 (de) 2011-12-13 2013-06-13 Jos. Schneider Optische Werke Gmbh Betrachtungsvorrichtung, Stereo-Projektionssystem und Verwendung von Cyanin-Farbstoffen insupramolekularer J-Aggregat-Konfiguration
GB2517069B (en) * 2014-06-23 2015-09-02 Liang Kong Autostereoscopic virtual reality platform

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050270367A1 (en) * 1996-11-13 2005-12-08 Fakespace Labs, Inc. Multi-person stereo display system
US5781229A (en) * 1997-02-18 1998-07-14 Mcdonnell Douglas Corporation Multi-viewer three dimensional (3-D) virtual display system and operating method therefor
JP2007509544A (ja) * 2003-10-21 2007-04-12 バルコ・ナムローゼ・フエンノートシャップ 色選択フィルタに基づく立体画像表示を行う方法と装置
JP2013541239A (ja) * 2010-07-30 2013-11-07 シリコン イメージ,インコーポレイテッド マルチビューディスプレイシステム
JP2014514598A (ja) * 2011-03-14 2014-06-19 ドルビー ラボラトリーズ ライセンシング コーポレイション 3次元投影及びカラーギャマットの改善のためのレーザ光源を使用したプロジェクタ、投影システム及び関連する方法
WO2016108720A1 (ru) * 2014-12-31 2016-07-07 Общество С Ограниченной Ответственностью "Заботливый Город" Способ и устройство для отображения трехмерных объектов
US20170366805A1 (en) * 2014-12-31 2017-12-21 Alt Llc Method and system for displaying three-dimensional objects

Also Published As

Publication number Publication date
US11122246B2 (en) 2021-09-14
EP3655927A1 (en) 2020-05-27
CA3069344A1 (en) 2019-01-24
EP3655927A4 (en) 2021-04-28
AU2018303842A1 (en) 2020-03-05
US20200169712A1 (en) 2020-05-28
WO2019014718A1 (en) 2019-01-24
CN110998670A (zh) 2020-04-10
AU2018303842B2 (en) 2022-07-28

Similar Documents

Publication Publication Date Title
JP3978515B2 (ja) 立体画像の表示方法および装置
US8646917B2 (en) Three dimensional display with multiplane image display elements
US7612795B2 (en) Enhancement of visual perception III
JP5902217B2 (ja) 2d−3dの共存のための偏光させられた3dのシステムにおける2dの質のエンハンサー
KR20120084775A (ko) 입체 디스플레이 시스템
JP2007156390A (ja) 2次元及び3次元映像選択可能ディスプレイ装置
JP2018517159A (ja) アクティブシャッターヘッドマウントディスプレイ
US7478904B2 (en) Three dimensional viewing spectacles
US20140347726A1 (en) Selective hybrid-type 3d image viewing device and display method using same
US10659772B1 (en) Augmented reality system for layering depth on head-mounted displays using external stereo screens
AU2018303842B2 (en) Multiple observer improvement for a virtual environment
JP2014529225A (ja) 3dディスプレイの装置、方法および構造
KR20080105874A (ko) 컬러휠, 이를 채용한 조명유닛, 및 컬러휠을 채용한2d/3d 겸용 영상표시장치
JP2012010217A (ja) 眼鏡および表示システム
CN206674125U (zh) 一种显示系统、包括该显示系统的设备以及观看装置
JP2012022278A (ja) 映像実体感メガネ
JP2000350237A (ja) 三次元表示方法及び装置
US9612447B2 (en) Wide angle viewing device
Kovacs et al. 3D display technologies and effects on the human vision system
US10142619B2 (en) Wide angle viewing device II
US20140253696A1 (en) 3-d image shutter glasses
JP2015046848A (ja) 画像表示装置
Hast 3D Stereoscopic Rendering: An Overview of Implementation Issues
JP2011247930A (ja) 立体視眼鏡
CN103235416A (zh) 分色3d转为偏振3d的方法及其兼容性双镜头投影系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230228