JP2020035455A - 媒介現実コンテンツの共有 - Google Patents
媒介現実コンテンツの共有 Download PDFInfo
- Publication number
- JP2020035455A JP2020035455A JP2019182574A JP2019182574A JP2020035455A JP 2020035455 A JP2020035455 A JP 2020035455A JP 2019182574 A JP2019182574 A JP 2019182574A JP 2019182574 A JP2019182574 A JP 2019182574A JP 2020035455 A JP2020035455 A JP 2020035455A
- Authority
- JP
- Japan
- Prior art keywords
- reality content
- medial
- display
- user
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001404 mediated effect Effects 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000000007 visual effect Effects 0.000 claims description 54
- 238000004590 computer program Methods 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 10
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 230000003190 augmentative effect Effects 0.000 abstract description 34
- 230000015654 memory Effects 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 14
- 230000002452 interceptive effect Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/611—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/045—Zooming at least part of an image, i.e. enlarging it or shrinking it
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
Abstract
【課題】拡張現実コンテンツや仮想現実コンテンツのような媒介現実コンテンツの共有方法を提供する。【解決手段】デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと、媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスを識別することと、追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定することと、決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、媒介現実コンテンツにおいて追加デバイスと共有される少なくとも一つの部分を決定することと、媒介現実コンテンツの当該部分を追加デバイスと共有することと、を含む。【選択図】図8
Description
本発明の実施形態は、拡張現実コンテンツや仮想現実コンテンツのような媒介現実コンテンツの共有に関する。
本願における媒介現実は、ユーザが完全人工/仮想環境又は半人工/仮想環境を体験することである。
拡張現実は媒介現実の一形態で、ユーザは半人工半現実環境を体験する。仮想現実も媒介現実の一形態で、ユーザは完全人工/完全仮想環境を体験する。
必ずしも全てではないが本発明の種々の実施形態によれば、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスを識別することと;追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定することと;決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、媒介現実コンテンツにおいて追加デバイスと共有される少なくとも一つの部分を決定することと;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有することを含む方法が提供される。
必ずしも全てではないが、本発明の様々な実施形態によれば、少なくとも一つのプロセッサで実行されると、少なくとも、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスを識別することと;追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定することと;決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、媒介現実コンテンツにおいて追加デバイスと共有される少なくとも一つの部分を決定することと;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有することを含む方法が提供される。
一つ又は複数のコンピュータプログラムが前述のコンピュータコードを含んでもよい。一つ又は複数のコンピュータプログラムが、一つ又は複数の非一時的コンピュータ可読媒体に記憶されてもよい。
必ずしも全てではないが本発明の種々の実施形態によれば、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させる手段と;媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスを識別する手段と;追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定する手段と;決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、媒介現実コンテンツにおいて追加デバイスと共有される少なくとも一つの部分を決定する手段と;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有する手段を備える装置が提供される。
必ずしも全てではないが本発明の種々の実施形態によれば、少なくとも一つのプロセッサと;コンピュータプログラムコードを格納する少なくとも一つのメモリを備える装置であって、コンピュータプログラムコードが、少なくとも一つのプロセッサと協働で、少なくとも装置に、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスを識別することと;追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定することと;決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、媒介現実コンテンツにおいて追加デバイスと共有される少なくとも一つの部分を決定することと;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有することを含む方法が提供される。
必ずしも全てではないが本発明の種々の実施形態によれば、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有することと;媒介現実コンテンツの部分を追加デバイスと共有する前、共有中、又は共有した後、該媒介現実コンテンツの部分をデバイスに関連する一つ又は複数のディスプレイによって区画させることを含む方法が提供される。
必ずしも全てではないが、本発明の様々な実施形態によれば、少なくとも一つのプロセッサで実行されると、少なくとも、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有することと;媒介現実コンテンツの部分を追加デバイスと共有する前、共有中、又は共有した後、該媒介現実コンテンツの部分をデバイスに関連する一つ又は複数のディスプレイによって区画させることを遂行するコンピュータプログラムコードが提供される。
一つ又は複数のコンピュータプログラムが前述のコンピュータコードを含んでもよい。一つ又は複数のコンピュータプログラムが、一つ又は複数の非一時的コンピュータ可読媒体に記憶されてもよい。
必ずしも全てではないが本発明の種々の実施形態によれば、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させる手段と;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有する手段と;媒介現実コンテンツの部分を追加デバイスと共有する前、共有中、又は共有した後、該媒介現実コンテンツの部分をデバイスに関連する一つ又は複数のディスプレイによって区画させる手段を備える装置が提供される。
必ずしも全てではないが本発明の種々の実施形態によれば、少なくとも一つのプロセッサと;コンピュータプログラムコードを格納する少なくとも一つのメモリを備える装置であって、コンピュータプログラムコードが、少なくとも一つのプロセッサと協働で、少なくとも装置に、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツの少なくとも一つの部分を追加デバイスと共有することと;媒介現実コンテンツの部分を追加デバイスと共有する前、共有中、又は共有した後、該媒介現実コンテンツの部分をデバイスに関連する一つ又は複数のディスプレイによって区画させることを遂行させる、装置が提供される。
必ずしも全てではないが本発明の種々の実施形態によれば、少なくとも一つのプロセッサと;コンピュータプログラムコードを格納する少なくとも一つのメモリを備える装置であって、コンピュータプログラムコードが、少なくとも一つのプロセッサと協働で、少なくとも装置に、デバイスに関連する一つ又は複数のディスプレイに媒介現実コンテンツを表示させることと;媒介現実コンテンツが追加デバイスと共有されるとき、その媒介現実コンテンツを追加デバイスのユーザが最初に見る開始視点をユーザが選択できるようにすることを遂行させる、装置が提供される。
本発明の様々な実施形態(但し必ずしも全ての実施形態ではない)によれば、装置の発明を特定する請求項に特定されるような例が提供される。
前述の詳細な説明を理解するために有用な種々の実施例の理解に資するべく、例として次の添付図面を参照する。
図1A、1B、1Cは、媒介現実の実施例であって、同一の仮想空間と別々の視点を示す。
図2A、2B、2Cは、媒介現実の実施例であって、それぞれの視点から見た仮想シーンを示す。
図3Aは、実空間の例を示す。図3Bは、図1Bの仮想空間に部分的に対応する現実シーンの例を示す。
図4Aは、チップ又はチップセットの形態による装置の概略を示す。図4Bは、一つ又は複数の電子デバイスであって、媒介現実、拡張現実、仮想現実の全て又は一部を可能にするように動作できる電子デバイスの形態による装置の概略を示す。
図4Bに示す装置の実施例についての透視図例を示す。
図6Aは、媒介現実、拡張現実、仮想現実の全て又は一部を可能にする方法の実施例を示す。図6Bは、拡張現実のための仮想空間モデルを更新する方法の実施例を示す。
図4に示す装置であって、一つ又は複数のデバイスと通信している装置を示す。
方法のフローチャートを示す。
媒介現実コンテンツが表示される概略を示す。
媒介現実コンテンツにおいて共有するための部分が決定される第1の概略を示す。
媒介現実コンテンツにおいて共有するための部分が決定される第2の概略を示す。
媒介現実コンテンツにおいて共有するための部分が決定される第3の概略を示す。
図11Aは、あるユーザが、共有媒介現実コンテンツを別のユーザが初めて見る際の視点を選択する状況を示す。図11Bは、媒介現実コンテンツがズームされ、媒介現実コンテンツにおいて共有するための部分が決定される概略を示す。
図12A及び12Bは、媒介現実コンテンツの一部が、その媒介現実コンテンツ部分の共有前や共有中、共有後に区画さる状況を示す。
本発明の実施形態は、仮想現実コンテンツや拡張現実コンテンツのような媒介現実コンテンツの共有に関する。例えば、媒介現実コンテンツは、デバイスに関連する一つ又は複数のディスプレイで表示されてもよい。媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスが識別されてもよい。
デバイスは、媒介現実コンテンツにおいて追加デバイスと共有する部分を決定するために、追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを使用してもよい。
例えばある実施例では、こうしたデバイスが頭部装着型視覚装置に接続されるパーソナルコンピュータやゲームコンソールでもよく、追加デバイスが携帯電話でもよい。ゲームコンソール又はパーソナルコンピュータは、携帯電話に関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定し、媒介現実コンテンツにおいて携帯電話と共有するのに適切な部分を決定するために一つ(又は複数)のパラメータを使用する。例えば、こうした一つ(又は複数)のパラメータは解像度やアスペクト比、色表現に関するパラメータ、携帯電話の一つ又は複数のディスプレイのディスプレイタイプを含むことができる。
本発明の実施形態の技術的効果は、デバイス間で媒介現実コンテンツを共有する、改善された、より効果的な方法を提供することである。
[定義]
[定義]
本願では以下の定義を採用する。
「視野」とは、ある時点においてユーザに見える観察可能な世界の範囲のことである。
「仮想空間」とは完全人工環境又は半人工環境のことであり、三次元であってもよい。
「仮想シーン」とは、仮想空間内の特定の視点からみえる仮想空間の表現のことである。
「現実空間」とは現実環境のことであり、三次元であってもよい。
「現実シーン」とは、現実空間内の特定の視点からみえる実空間の表現のことである。
本願において「媒介現実」とは、コンピュータがユーザに少なくとも部分的に表示する完全人工環境又は半人工環境(仮想空間)を仮想シーンとしてユーザが視覚的に体験することである。仮想シーンは、仮想空間内の視点及び視野によって決定される。仮想シーンの表示は、それをユーザに見える形態で提供することを意味する。
「媒介現実コンテンツ」とは、仮想シーンとして完全人工環境又は半人工環境(仮想空間)をユーザに視覚的に体験させることができるコンテンツのことである。媒介現実コンテンツには、ビデオゲーム等のインタラクティブコンテンツや動きビデオ等の非インタラクティブコンテンツも含まれうる。
本願における「拡張現実」は媒介現実の一形態を言及する。拡張現実では、半人工環境(仮想空間)であって、装置がユーザに表示する一つ又は複数の視覚要素で追加された物理的現実世界環境(現実空間)の現実シーンを含む半人工環境を仮想シーンとしてユーザが視覚的に体験する。
「拡張現実コンテンツ」とは媒介現実コンテンツの一形態のことであり、仮想シーンとして半人工環境(仮想空間)をユーザに視覚的に体験させることができる。拡張現実コンテンツには、ビデオゲーム等のインタラクティブコンテンツや動きビデオ等の非インタラクティブコンテンツも含まれうる。
本願における「仮想現実」は媒介現実の一形態を言及する。仮想現実では、装置が表示する完全人工環境(仮想空間)を仮想シーンとしてユーザが視覚的に体験する。
「仮想現実コンテンツ」とは媒介現実コンテンツの一形態のことであり、仮想シーンとして完全人工環境(仮想空間)をユーザに視覚的に体験させることができる。仮想現実コンテンツには、ビデオゲーム等のインタラクティブコンテンツや動きビデオ等の非インタラクティブコンテンツも含まれうる。
媒介現実や拡張現実、仮想現実に適用される「視点媒介(perspective-mediated)」は、ユーザの動作が仮想空間内の視点を決定し、その視点が仮想シーンを変えることを意味する。
媒介現実や拡張現実、仮想現実に適用される「一人称視点媒介(first person perspective-mediated)」は、ユーザの現実の視点が仮想空間内の視点を決定する追加制約を持つ視点媒介を意味する。
媒介現実や拡張現実、仮想現実に適用される「インタラクティブ媒介(user interactive-mediated)は、仮想空間内で生じたことがユーザの動作によって少なくとも部分的に決定されることを意味する。
「表示(displaying)」は、ユーザによって視覚的に知覚される形態を提供することを意味する。
図1Aから1C、2Aから2Cは媒介現実の実施例を示す。媒介現実は拡張現実又は仮想現実でもよい。
図1A、1B、1Cは同一の仮想物体21を含む同一の仮想空間20を示しているが、各図はそれぞれ異なる視点24を示している。視点24の位置及び向きは独立して変化しうる。図1Aから図1Bで視点24の位置は同じで向きが変化している。図1Bから図1Cで視点24の位置と向きが変化している。
図2A、2B、2Cは、図1A、1B、1Cのそれぞれ異なる視点24から見える仮想シーン22を示す。仮想シーン22は、仮想空間20内の視点24及び視野26によって決定される。仮想シーン22は、ユーザに対して少なくとも部分的に表示される。
ここで示す仮想シーン22は、媒介現実シーンや仮想現実シーン、拡張現実シーンでもよい。仮想現実シーンは完全人工仮想空間20を見せる。拡張現実シーンは半人工半現実空間20を見せる。
媒介現実や拡張現実、仮想現実はインタラクティブ媒介(user interactive-mediated)でもよい。この場合、ユーザの動作は、仮想空間20内で起きることを少なくとも部分的に決定する。これにより、仮想空間20内の視覚要素28のような仮想物体21とのインタラクションが可能となる。
媒介現実や拡張現実、仮想現実は視点媒介(perspective-mediated)でもよい。この場合、ユーザの動作は、仮想空間20内における視点24を決定し、その視点24によって仮想シーン22が変わる。例えば、図1A、1B、1Cに示されるように、仮想空間20内における視点24の位置23が変更されてもよく、仮想空間20内における視点24の方向又は向き25が変更されてもよい。また、この両方が同時に変更されてもよい。仮想空間20が三次元である場合、視点24の位置23の自由度は、例えば上下、前後、左右の3であり、仮想空間20内の視点24の方向25の自由度は、例えばロール、ピッチ、ヨーの3である。視点24は、位置23、方向25の両方又は片方で連続可変でもよく、ユーザ動作が視点24の位置、方向の両方又は片方を連続的に変える。これとは別に、視点24には量子化された離散位置23、量子化された離散方向25の全て又は一部があってもよく、ユーザ動作が、視点24に関する許容位置23,許容方向25の全て又は一部の間を離散的に移ることによって切り換える。
図3Aは、現実物体11を含み、図1Aの仮想空間20に一部対応する現実空間10を示す。この実施例では、現実空間10における現実物体11はそれぞれ仮想空間20において対応する仮想物体21を持つ。一方、仮想空間20における仮想物体21の中には現実空間10において対応する現実物体11を持たないものもある。この実施例において、仮想物体21の一つであるコンピュータ生成視覚要素28とは、現実空間10において対応する現実物体11を持たない人工的な仮想物体21である。
現実空間10と仮想空間20との間には線形写像が存在し、現実空間10における各現実物体11と対応する仮想物体21との間にも同一の線形写像が存在する。したがって、現実空間10における現実物体11同士の相対関係は、仮想空間20において対応する仮想物体21の間の相対関係と同一である。
図3Bは、図1Bの仮想空間20に一部対応する現実空間10を示す。現実空間10は現実物体11を含むが人工仮想物体は含まない。現実シーンは、図1Aの仮想空間20における視点24に対応する視点から見える。現実シーン12の内容は、それに対応する視点24及び視野26によって決定される。
図2Aは、図3Bに示された現実シーン12に関する拡張現実版の例である。仮想シーン22は、装置によってユーザに表示された一つ又は複数の視覚要素28が追加された、現実空間10の現実シーン12を含む。視覚要素28は、コンピュータ生成視覚要素でもよい。シースルー構成では、仮想シーン22は、一つ(又は複数)の追加視覚要素28の表示を通して見える実際の現実シーン12を含む。シービデオ構成では、仮想シーン22は、表示された現実シーン12及び表示された一つ(又は複数)の追加視覚要素28を含む。表示現実シーン12は単一視点24からの像に基づいていてもよく、同一時点における別々の視点24からの複数の像に基づいていてもよい。複数の像は、単一視点からの像を生成するために処理される。
図4Aは、チップ又はチップセットの形態による装置4を示す。図示された装置4は、少なくとも一つのプロセッサ40と少なくとも一つのメモリ46を備える。プロセッサ40は中央処理装置(CPU)、グラフィック処理装置(GPU)の全て又は一部でもよく、それらを備えていてもよい。プロセッサ40は、メモリ46から読み出し、かつメモリ24へ書き込むように構成される。プロセッサ40は出力インタフェースと入力インタフェースを備えてもよい。データおよび/または命令は、プロセッサ40によって出力インタフェースを介して出力され、入力インタフェースを介してプロセッサ40に入力される。
メモリ46はコンピュータプログラム148を保存する。コンピュータプログラム148は、プロセッサ40にロードされて装置4/30の動作を制御するコンピュータプログラム命令(コンピュータプログラムコード)48を含む。コンピュータプログラム148のコンピュータプログラム命令48は、図6A、6B、8に示された方法を装置4/30が実行できるようにするロジック及びルーチンを提供する。プロセッサ40は、メモリ46を読み取ることによりコンピュータプログラム48をロードして実行することができる。
コンピュータプログラム148は、任意の適切な配信機構を介して装置4/30に提供されてもよい。配信機構は、例えば、非一時的コンピュータ可読記憶媒体やコンピュータプログラム製品、メモリデバイス、コンパクトディスク・リードオンリーメモリ(CD−ROM:compact disc read-only memory)又はデジタル多用途ディスク(DVD:digital versatile disc)等の記憶媒体、あるいはコンピュータプログラム148を有形に具現した製造品であってもよい。配信機構はコンピュータプログラム148を確実に伝達するように構成される信号でもよい。信号は、例えば、(無線周波数の通信等)無線通信を介して、または、一以上のプロトコルに準拠した有線回線を介して送信される。装置4/30は、コンピューターデータ信号としてコンピュータプログラム148を送信してもよい。
メモリ46は単一要素又は回路として示されているが、
一つ又は複数の別々の要素又は回路として実装されてもよく、その一部又は全部が組込み型でも着脱可能型でもよい。あるいは又は加えて、メモリは永久/半永久/ダイナミック/キャッシュのストレージを提供してもよい。
プロセッサ40は単一要素又は回路として示されているが、一つ又は複数の別々の要素又は回路のような複数のプロセッサとして実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよい。一つ(又は複数)のプロセッサ40はシングルコアでもマルチコアでもよい。
図4Bは、媒介現実、拡張現実、仮想現実の全て又は一部を可能にするように動作できる装置30の概略を示す。
実施形態によっては、装置30が頭部装着型視覚装置のような単一の電子デバイスでもよい。こうした頭部装着型視覚装置の実施例は図5に示されている。
他の実施形態では、装置30は複数のデバイスに分配することができ、頭部装着型視覚装置、ゲームコンソール/パーソナルコンピュータ、一つ又は複数の携帯型コントローラの全て又は一部の組合せから形成されてもよい。ゲームコンソール又はパーソナルコンピュータによって装置30の少なくとも一部が形成される場合、プロセッサ40及びメモリ46(あるいは、複数のプロセッサ、複数のメモリの全て又は一部が与えられる場合、その全て又は一部の中から一つ又は複数のもの)は、ゲームコンソール又はパーソナルコンピュータに具備されてもよい。
図示された実施例では、装置30は図4Aに示された装置4、一つ又は複数のディスプレイ32、表示光学系33、一つ又は複数の送受信機42、ユーザ入力回路44を備える。
一つ又は複数のディスプレイ32は、ユーザの視点から見える形態でそのユーザに仮想シーン22の少なくとも一部を表示する。こうした仮想シーンは、仮想現実コンテンツや拡張現実コンテンツのような媒介現実コンテンツの一部を形成してもよい。一つ(又は複数)のディスプレイ32は、仮想シーン22の少なくとも一部をユーザに表示する光を出す一つ又は複数のビジュアルディスプレイでもよい。ビジュアルディスプレイの例には、液晶ディスプレイや有機発光ダイオードディスプレイ、発光型、反射型、透過型、半透過型の各ディスプレイ、網膜直接投影型ディスプレイ、ニアアイディスプレイ等が含まれる。この実施例では一つ(又は複数)のディスプレイ32がプロセッサ40によって制御されているが、全ての実施例がそうである必要はない。
装置30が頭部装着型視覚装置を備える場合、ユーザが頭部装着型視覚装置を装着するときに、一つ(又は複数)のディスプレイ32がユーザの両目の近くに配置され、表示光学系33がユーザの両目と一つ(又は複数)のディスプレイ32との間に配置されてもよい。
表示光学系33は、一つ(又は複数)のディスプレイ32を連動して、一つ(又は複数)のディスプレイ32によって表示される仮想物体がユーザの両目と一つ(又は複数)のディスプレイ32自体との間の距離とは異なる距離で配置されているとユーザに知覚させるように構成される。
表示光学系33は、ユーザの片目ずつ用の魚眼レンズでもよく、それを備えていてもよい。各魚眼レンズは、広範なパノラマイメージ又は半球状イメージを生成するために視覚的歪みを生じさせるように構成されてもよい。
ユーザが頭部装着型視覚装置を装着すると、表示光学系及び一つ(又は複数)のディスプレイ32は、一つ(又は複数)のディスプレイ32の第1の表示部分がユーザの第1の目に入りかつ第2の目には入らない像を形成し、一つ(又は複数)のディスプレイ32の第2の表示部分がユーザの第2の目に入りかつ第1の目には入らない像を形成するようにする。
実施形態によっては、ユーザの両目に対して単一ディスプレイ32が与えられる。こうした実施形態では、ユーザが頭部装着型視覚装置を装着すると、ディスプレイ32の特定部分又は半分がユーザの第1の目に見え(かつユーザの第2の目には見えなく)、ディスプレイ32の他の部分又は残りの半分がユーザの第2の目に見える(かつユーザの第1の目には見えない)。
他の実施形態では、第1の表示部分が第1のディスプレイであり、第2の表示部分がそれとは異なる第2のディスプレイである。こうした実施形態では、ユーザが頭部装着型視覚装置を装着すると、第1のディスプレイ32がユーザの第1の目に見え(かつユーザの第2の目には見えなく)、かつ、ユーザが頭部装着型視覚装置を装着すると、第2のディスプレイ32がユーザの第2の目に見える(かつユーザの第1の目には見えない)。
プロセッサ40は、第1の表示部分にコンテンツを表示することであって、第2の表示部分に表示されるコンテンツに対する空間的相殺となるコンテンツを表示することによって、ユーザに立体視効果を知覚させてもよい。一つ(又は複数)のディスプレイ32に表示される仮想物体の(例えば、表示光学系33を用いずに見えていた場合の)幾何学的形状は、ユーザが頭部装着型視覚装置を装着して表示光学系33を通じて仮想物体が見えるときに知覚される仮想物体の幾何学的形状とは異なっていてもよい。これは、表示光学系33の光学特性によるためである。
ユーザが頭を動かすと頭部装着型視覚装置も動く。頭部装着型視覚装置は拡張現実用シースルー構成であって、ライブ現実シーン12を表示可能にしつつ、一つ又は複数の可視要素28も一つ(又は複数)のディスプレイ32によってユーザに表示され、組み合わせて仮想シーン22を提供するシースルー構成でもよい。この場合、バイザーがあれば、ライブ現実シーン12がバイザーを通して見えるように透明又は半透明である。
頭部装着型視覚装置は拡張現実用シービデオ構成として動作してもよい。この拡張現実では、ユーザに見せる一つ(又は複数)のディスプレイ32によって現実シーン12のライブ又は録画を表示可能にしつつ、一つ又は複数の可視要素28もユーザに見せる一つ(又は複数)のディスプレイ32によって同時に表示される。表示された現実シーン12と表示された一つ又は複数の可視要素28の組合せは、ユーザに仮想シーン22を表示する。この場合、バイザーは不透明で一つ(又は複数)のディスプレイ32として使用されてもよい。
一つ又は複数の送受信機42は、プロセッサ40から入力を受け取り、プロセッサ40に出力を与えるように構成される。例えば、一つ又は複数の送受信機42はプロセッサ40からデータを受け取ってそれを送信し、プロセッサ40に受信データを与えてもよい。
一つ又は複数の受信機42には、一つ又は複数の無線送受信機、一つ又は複数の有線送受信機の全て又は一部が含まれうる。こうした無線受信機には、例えば、一つ又は複数の長距離用セルラー方式送受信機又は短距離用無線送受信機といった形態で無線周波数受信機が含まれうる(これらの受信機は、例えば、IEEE(Institute of Electrical and Electronic Engineers)の無線LANネットワークプロトコル802.11や、Bluetooth(登録商標)プロトコルに準拠して動作してもよい)。こうした有線送受信機には、例えば、ユニバーサルシリアルバス(USB)送受信機が含まれうる。
図示された実施例において、ユーザ入力回路44は、一つ又は複数の触覚センサ43、一つ又は複数の視点センサ45、現実空間10を撮影する一つ又は複数のイメージセンサ47、一つ又は複数の深度センサ49を備えてもよい。
一つ又は複数の触覚センサ43には、例えば一つ又は複数のジョイスティック、一つ又は複数のキー又はボタンが含まれうる。一つ(又は複数)のジョイスティック、一つ(又は複数)のキー/ボタンの全て又は一部は、物理的な携帯セルラーの一部を形成してもよい。装置30が頭部装着型である場合、一つ又は複数の触覚センサ43の少なくとも一部は頭部装着型装置に配置されてもよい。
装置30は、媒介現実、拡張現実、仮想現実の全て又は一部に対してインタラクティブ媒介を可能にしてもよい。ユーザ入力回路44は、一つ(又は複数)の触覚センサ43を介するなどしてユーザ入力を用いたユーザ動作を検出する。こうしたユーザ動作は、プロセッサ40が仮想空間20内で生じたことを決定するために用いられる。これにより、仮想空間20内の視覚要素28とのインタラクションが可能となる。
装置30は、媒介現実、拡張現実、仮想現実の全て又は一部に対して視点媒介を可能にしてもよい。ユーザ入力回路44はユーザ動作を検出する。こうしたユーザ動作は、プロセッサ40が仮想空間20内での視点24を決定するために用いられ、その視点が仮想シーン22を変える。視点24は、位置、方向の両方又は片方で連続可変でもよく、ユーザ動作が視点24の位置、方向の両方又は片方を変える。これとは別に、視点24には量子化された離散位置、量子化された離散方向の両方又は片方があってもよく、ユーザ動作が、視点24に関する次の位置、方向25の両方又は片方に移ることによって切り換える。
装置30は、媒介現実や拡張現実、仮想現実に対する一人称視点を可能にしてもよい。ユーザ入力回路44は、ユーザ視点センサ45を用いてユーザの現実の視点14を検出する。ユーザの現実視点は、プロセッサ40が仮想空間20内での視点24を決定するために用いられ、その視点が仮想シーン22を変える。図3Aに戻ると、ユーザ18には実際の視点(現実視点)14がある。現実視点は、ユーザ18によって変化する場合がある。例えば、現実視点14の実際の位置(現実位置)13はユーザ18の位置であり、ユーザ18の物理的位置13を変えることで変化しうる。例えば、現実視点14の実際の方向(現実方向)15はユーザ18が見ている方向であり、ユーザ18の現実方向を変えることで変化しうる。現実方向15は、例えば、ユーザ18が頭の向きや視点を変えたり、視線方向を変えたり、あるいはその全てを変えたりすることによって変えることができる。一人称視点媒介を可能にするために、頭部装着型装置30が使用されてもよい。
装置30は入力回路44の一部として、現実視点の変化を決定する視点センサ45を備えてもよい。
例えば、ユーザ18の新しい物理的位置13及び現実視点14を決定するために、GPS等の測位技術、複数受信機への送信と複数送信機からの受信の全て又は一部による三角測量(三辺測量)、加速度検出、及びそれらの統合が用いられてもよい。
また例えば、ユーザの頭の向きや視点の変化、及び結果として生じる現実視点14の現実方向15での変化を決定するために、加速度計や電子ジャイロスコープ、電子コンパスが使用されてもよい。
さらに例えば、ユーザの片目又は両目の動きを追跡し、それによってユーザの視線方向及びその結果として生じる現実視点14の現実方向15での変化を決定するために、コンピュータビジョン等に基づく瞳孔追跡技術が用いられてもよい。
装置30は入力回路44の一部として、現実空間10を撮像するイメージセンサ47を備えてもよい。
イメージセンサ47の一例は、カメラとして動作するように構成されたデジタルイメージセンサである。こうしたカメラは静止画や場合により動画、又はその両方を記録するように動作し得るが、全ての実施形態でそうである必要はない。現実空間10が様々な視点から見えるように、カメラが立体配置や他の空間分布配置で構成されてもよい。これは、三次元画像の生成、および/または、例えば視差効果を介した、奥行きを設定するための処理を可能する。
必ずしも全てではないが実施形態によっては、入力回路44が深度センサ49を備える。深度センサ49は、トランスミッタおよびレシーバを備えてもよい。トランスミッタは(例えば、超音波または赤外光など人間が検出できない信号などの)信号を送信し、レシーバは反射された信号を受信する。単一のトランスミッタおよび単一のレシーバを用い、送信から受信までの伝搬時間を測定することによっていくらかの奥行き情報を得ることができる。より多くのトランスミッタおよび/またはより多くのレシーバを用いることによってより良好な分解能(空間的ダイバーシチ)が達成できる。一例において、トランスミッタは、光、好ましくは、赤外光など不可視光を使い、空間依存的パターンで、現実空間10を「描く」ように構成される。レシーバによる特定のパターンの検出は、現実空間10が空間的に分解されるようにする。現実空間10が空間的に分解された部分までの距離は、伝搬時間、(レシーバがトランスミッタに対し立体的な位置にある場合)立体視法の全て又は一部で測定できる。
装置30は、例えば図6Aに示された方法60又は同様の方法を用いて、媒介現実、拡張現実、仮想現実の全て又は一部を可能にしてもよい。プロセッサ40は、仮想空間20のモデル50を保存し保持する。モデルはプロセッサ40に提供されてもよく、プロセッサ40が決定してもよい。例えば、仮想空間の深度マップの重ね合わせを別々の視点から作成するために入力回路44のセンサが使用されてもよく、それによって三次元モデルが生成されてもよい。
ブロック62で、仮想空間20のモデルが変わったかどうかが決定される。仮想空間20のモデルが変わった場合、本方法はブロック66に移る。仮想空間20のモデルが変わらなかった場合、本方法はブロック64に移る。
ブロック64で、仮想空間20における視点24が変わったかどうかが決定される。視点24が変わった場合、本方法はブロック66に移る。視点24が変わらなかった場合、本方法はブロック62に戻る。
ブロック66で、三次元仮想空間20の位置23からの二次元投影が、現在視点24によって規定される方向25に取られる。次に、この投影は視野26によって限定され、仮想シーン22を生成する。次に、本方法はブロック62に戻る。
装置30が拡張現実を可能にする場合、仮想空間20は現実空間10からの物体11に加え、現実空間10には存在しない可視要素28も含む。こうした可視要素28の組合せは、人工仮想空間として参照されてもよい。図5Bは、拡張現実のための仮想空間モデルを更新する方法70を示す。
ブロック72で、現実空間10が変わったかどうかが決定される。現実空間10が変わった場合、本方法はブロック76に移る。現実空間10が変わらなかった場合、本方法はブロック74に移る。現実空間10における変化の検出は画素レベルの差異を利用して実現されてもよく、物体の動きに合わせてそれを追跡するコンピュータビジョンを利用して物体レベルで実現されてもよい。
ブロック74で、人工仮想空間が変わったかどうかが決定される。人工仮想空間が変わった場合、本方法はブロック76に移る。人工仮想空間が変わらなかった場合、本方法はブロック72に戻る。人工仮想空間はコントローラ42によって生成されるため、視覚要素28に対する変化は容易に検出される。
ブロック76で、仮想空間20のモデルが更新される。
必ずしも全てではないが実施形態によっては、入力回路44が一つ又は複数のイメージセンサ47及び深度センサ49に加えて、又はそれらの代替として通信回路41を備えてもよい。こうした通信回路41は、現実空間10における一つ又は複数のリモートイメージセンサ47、現実空間10におけるリモート深度センサ49の全て又は一部と通信してもよい。通信回路41は、一つ(又は複数)の送受信機42の一部を形成してもよい。
図4Bに戻って参照すると、装置30は、媒介現実、拡張現実、仮想現実の全て又は一部に対してインタラクティブ媒介を可能にしてもよい。ユーザ入力回路44はユーザ入力からユーザ動作を検出する。こうしたユーザ動作は、プロセッサ40が仮想空間20内で生じたことを決定するために用いられる。これにより、仮想空間20内の視覚要素28とのインタラクションが可能となる。
検出されたユーザ動作は例えば、現実空間10で行われたジェスチャでもよい。ジェスチャは様々な方法で検出できる。例えば、ユーザ18の体の一部の動きを検出するために深度センサ49が使用されてもよく、ユーザ18の体の一部の動きを検出するためにイメージセンサ47が使用されてもよく、手足の動きを検出するためにユーザ18の手足に装着された位置/動きセンサが使用されてもよい。あるいは、これら全てが使用されてもよい。
物体追跡は、物体又はユーザが何時動くかを決定するために使用されてもよい。例えば、物体を大きなマクロスケールで追跡することで、その物体と共に移動する基準枠を生成することができる。この基準枠は、物体に対する時間差分を用いて物体の形状の時間進展的な変化を追跡するために使うことができる。これは、ジェスチャ、手の動き、顔面の動きなど小規模な人間の動きを検出するために用いることができる。これらは、ユーザに関連する、シーン非依存性のユーザ(のみ)の動きである。
装置30は、ユーザの体の一つ又は複数の関節等、ユーザの身体に関連する複数の物体、複数のポイントの全て又は一部を追跡してもよい。実施例によっては、装置30はユーザの身体の全身骨格的な追跡を行ってもよい。
ジェスチャの認識等において、人物の身体に関連する一つ又は複数の物体、複数のポイントの全て又は一部の追跡が装置30によって使用されてよい。
図7は、一つ又は複数のデバイス304,305,306,308と通信する装置30の概略を示す。例として図7では、装置30は、ゲームコンソール301の形態である第1のデバイス、頭部装着型視覚装置302の形態である第2のデバイス302、携帯セルラー303の形態である第3のデバイス303から成る。
この実施例において、装置30のプロセッサ40、メモリ46、一つ(又は複数)の送受信機42はゲームコンソール301に具備され、装置30の一つ(又は複数)のディスプレイ32、表示光学系33は頭部装着型視覚装置302に具備され、装置30の一つ又は複数の触覚センサ43は携帯セルラー303に具備される。
図7は、横向きの第1の携帯電話304の形態である第4のデバイス、縦向きの第2の携帯電話304の形態である第5のデバイス、パーソナルコンピュータ306の形態である第6のデバイス、それに接続された頭部装着型視覚装置307、ラップトップコンピュータ308の形態である第8のデバイスを示す。ゲームコンソール301は、デバイス304,305,307,308の全て又は一部と有線接続されてもよく、一つ(又は複数)の送受信機42を介して無線接続されてもよい。
本発明の実施形態に従う方法を、図8を参照しながら説明する。図8のブロック801で、ゲームコンソール301のプロセッサ40は、頭部装着型視覚装置302の一つ(又は複数)のディスプレイ32に媒介現実コンテンツ90を表示させる。
図9は、頭部装着型視覚装置302の一つ(又は複数)のディスプレイ32によって表示された(視覚的)媒介現実コンテンツ90を見ているユーザ82を示す。仮想物体を含む仮想シーンが表示されている。頭部装着型視覚装置302は、ユーザ82が一人称視点媒介法(first person perspective-mediated manner)で媒介現実コンテンツ90を見ることができるようにする。
これらの図に示された実施例は以降で説明されるが、こうした実施例における媒介現実コンテンツ90は、ユーザが完全人工環境又完全仮想環境を体験できるようにする(視覚的)仮想現実コンテンツである。別の実施例において、媒介現実コンテンツ90は、ユーザが半人工半現実環境又は半仮想半現実環境を体験できるようにする拡張現実コンテンツでもよい。
媒介現実コンテンツ90は、ユーザ82の周囲にユーザ82の視野を超えて延在する。これは、如何なる場合においてもユーザ82は表示された媒介現実コンテンツ90の全体を同時に見ることはできないということを意味する。媒介現実コンテンツ90は方位角面及び鉛直面の両方でユーザ82の周囲360度に延在するが、見難さを避けるためにこのことは図9には示されていない。
媒介現実コンテンツ90全体が同時に表示される必要はない。すなわち、ユーザ82が頭や目、あるいは両方を動かすことによってユーザに見える媒介現実コンテンツ90の角度範囲は、特定の時点において一つ(又は複数)のディスプレイ32が表示する媒介現実コンテンツ90の角度範囲より大きくてもよい。
ユーザ82が媒介現実コンテンツ90を体験すると、プロセッサ40は、図6Aに示された方法を通じて持続的にサイクルを繰り返す。拡張現実の場合は図6Bの方法が用いられる。
図8のブロック802で、ゲームコンソール301は、媒介現実コンテンツ90の少なくとも一つの部分を共有する追加デバイスを識別する。この実施例において追加デバイスは、横向きの第1の携帯電話304である。
頭部装着型視覚装置302が媒介現実コンテンツ90の表示を開始した後は、追加デバイスの識別が行われる必要はない。しかしこの識別は、頭部装着型視覚装置302が媒介現実コンテンツ90の表示を開始する前に行われる可能性がある。
状況によっては、共有コンテンツを受け取るために追加デバイスがゲームコンソール301にリクエストを送ることもある。共有コンテンツは一つ(又は複数)の送受信機42が受信し、プロセッサ40が処理する。こうした状況において、コンテンツはゲームコンソール301から「プル」されていることになる。他の状況では、プロセッサ40は、追加デバイスを識別するために、一つ(又は複数)の送受信機42に近くのデバイス等をスキャンするよう制御してもよい。ゲームコンソール301の一つ(又は複数)の送受信機42は、プロセッサ40の制御の下で、追加デバイスとコンテンツを共有するリクエストを送信してもよい。
図8のブロック802で行われる追加デバイスの識別は、ゲームコンソール301が一つ(又は複数)の送受信機42を介して接続済みであるデバイスの識別でもよい。例えば、通信リンクが確立済みであるが、図8のブロック802まで共有目的で追加デバイスが識別されていなくてもよい。あるいは、共有コンテンツを受け取るリクエストが受信されるまで、追加デバイスがゲームコンソール301と未接続であってもよい。こうした状況では、コンテンツはゲームコンソール301によって「プッシュ」されていることになる。
ブロック803で、ゲームコンソール301のプロセッサ40は、追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定する。この実施例では、追加デバイスは単一ディスプレイを有する第1の携帯電話304である。第1の携帯電話304のディスプレイは、例えばディスプレイの解像度、ディスプレイのアスペクト比、ディスプレイの色表現に関するパラメータ、ディスプレイのディスプレイタイプの全て又は一部のようなパラメータによって特徴付けられてもよい。こうしたパラメータは前述のようなディスプレイの永久特性を特徴付けてもよく、あるいはディスプレイの現在向きのような一つ又は複数の一時特性を特徴付けてもよい。
例えば、追加デバイスのディスプレイ解像度を規定するパラメータは、ディスプレイの解像度が1280×720(HD)や1920×1080(フルHD)、2560×1440(WQHD)、その他任意の解像度であることを示してもよい。ディスプレイのアスペクト比を規定するパラメータは、ディスプレイのアスペクト比が16:9や4:3、その他任意のアスペクト比であることを示してもよい。色表現を規定するパラメータは、ディスプレイがカラーディスプレイであるか(電子インクディスプレイのような)白黒ディスプレイであるかを示してもよい。ディスプレイタイプを規定するパラメータは、ディスプレイが平面ディスプレイや曲面ディスプレイ、非立体ディスプレイ、立体ディスプレイ等であることを示してもよい。
一つ又は複数のパラメータは、第1の携帯電話304が有線又は無線でゲームコンソール301の一つ(又は複数)の送受信機42に送信する信号で受信されてもよい。この実施例では、ゲームコンソール301のプロセッサ40はパラメータから、第1の携帯電話304のディスプレイが16:9のアスペクト比、1280×720の解像度を有し、カラーディスプレイかつ平面ディスプレイであり、現在横向きである(あるいは、第1の携帯電話304によって横向きのコンテンツが要求されている)ことを決定する。
図8のブロック804で、ゲームコンソール301のプロセッサ40は、決定されたパラメータに基づいて、媒介現実コンテンツ90において追加デバイスと共有する少なくとも一つの部分を決定する。
この実施例では、媒介現実コンテンツ90はゲームコンソール301のプロセッサ40によって、頭部装着型視覚装置302の一つ(又は複数)のディスプレイ32が表示できるようにレンダリングされる。このレンダリングは、頭部装着型視覚装置302の一つ(又は複数)のディスプレイ32の一つ(又は複数)の解像度に少なくとも部分的に依存してもよい。
頭部装着型視覚装置302の一つ(又は複数)のディスプレイ32は任意の解像度でもよい。例として、この実施例では、一つ(又は複数)のディスプレイ32が7680×2160の解像度を有する単一ディスプレイであると見なされる。ディスプレイ32の第1の表示部分は3840×2160の解像度を有し、ユーザ82の第1の目に見え(ユーザ82の第2の目には見えなく)、ディスプレイ32の第2の表示部分は3840×2160の解像度を有し、ユーザ82の第2の目に見える(ユーザ82の第1の目には見えない)。
立体視効果を得るために、ディスプレイ32の第1の表示部分が表示する像は、ディスプレイ32の第2の表示部分が表示する像に対して空間的に相殺されている。ディスプレイ32の第1の表示部分が表示する情報又はコンテンツによっては、第2の表示部分によって表示されない。すなわち、一部の情報又はコンテンツはユーザの第1の目に見えてユーザの第2の目には見えなく、その逆もありうる。
ゲームコンソール301のプロセッサ40は、第1の携帯電話304のディスプレイを特徴付けるパラメータに応じて、媒介現実コンテンツ90において携帯電話304と共有される部分を識別するために、媒介現実コンテンツ90を処理する。例えば、プロセッサ40は、媒介現実コンテンツ90において第1の携帯電話304の解像度と同じ解像度を持つ部分を識別してもよい。
媒介現実コンテンツにおいて追加デバイスと共有される部分の決定は、装置30の実装に依存してもよい。実装によっては、プロセッサ40が、追加デバイスに関連するディスプレイの解像度と同じ解像度である一つ(又は複数)のディスプレイ32に表示される媒介現実コンテンツ90の領域を画素単位で決定してもよい。媒介現実コンテンツ90の選択部分は、ユーザ入力回路44を介してユーザが与える入力に依存してもよい。
この実施例では、ユーザは携帯コントローラ303の触覚ユーザ入力センサ43を介して入力を与え、こうした入力に基づいて媒介現実コンテンツ90から部分又は領域を選択する。プロセッサ40は、第1の携帯電話304とコンテンツを共有するために、表示部の一つに表示すべく与えられるコンテンツ又は情報のみを取得してもよい。この実施例では、立体視効果を得るために、ディスプレイ32の第1の表示部に表示されるコンテンツの分だけがディスプレイ32の第2の表示部分に複製される。したがって、選択決定されたコンテンツ部分を共有するために、与えられているコンテンツから情報又はコンテンツを取得することのみが必要であってもよい。
実装によっては、プロセッサ40は、表示光学系33の光学特性に基づいて(例えば、一つ又は複数の魚眼レンズの歪み効果に基づいて)媒介現実コンテンツ90を処理してもよい。したがって、媒介現実コンテンツ90は表示光学系33を通じて見るのに適切である。
このような場合、媒介現実コンテンツ90の決定部分は、前述の処理が媒介現実コンテンツ90に対して行われる前にプロセッサ40によって取得されてもよい。あるいは、媒介現実コンテンツ90の選択部分であって、表示光学系33の光学的影響を受けて一つ(又は複数)のディスプレイ32に出力される媒介現実コンテンツ90の選択部分に対して、媒介現実コンテンツ90の選択部分が第1の携帯電話304と共有される前に後処理が行われてもよい。こうした処理を行わないと、例えば、第1の携帯電話304で表示光学系33の助けを得ることができないとすれば、第1の携帯電話304のディスプレイ32が表示する仮想物体は、歪んで見える可能性がある。
図8のブロック805で、ゲームコンソール301のプロセッサ40は、媒介現実コンテンツ90の当該部分を追加デバイスと共有する。例えば、ゲームコンソール301のプロセッサ40は、媒介現実コンテンツ90の当該部分を直接又はインターネットのような一つ又は複数のネットワーク経由で第1の携帯電話304に送信するように一つ(又は複数)の送受信機42を制御してもよい。
媒介現実コンテンツ90において追加デバイス又は第1の携帯電話304と共有される部分は、ゲームコンソール301が頭部装着型視覚装置302の表示用にレンダリングする媒介現実コンテンツ90から得られる。
媒介現実コンテンツ90の共有部分は、静止画像でもよい。あるいは、インタラクティブビデオゲーム又は非インタラクティブビデオゲームから取り出された動画ビデオでもよい。こうした例では、ゲームコンソール301は、所定の時間に亘って媒介現実コンテンツ90の当該部分を第1の携帯電話304に提供し続けてもよい。
実装によっては、頭部装着型視覚装置302を介して媒介現実コンテンツ90を見ているユーザ82に、媒介現実コンテンツ90の共有部分を区画する標示101が提供されてもよい。こうした標示101は、共有前、共有中、共有後の全て又は一部において提供されてもよい。そうした標示は図10Aに示される。図10Aにおいて、標示101は、媒介現実コンテンツ90において、追加デバイスに関連するディスプレイの解像度に基づいて共有されている、又は共有される/共有された部分に対応する領域を有する。この実施例では、図10Aに示す標示101は、媒介現実コンテンツ90において、第1の携帯電話304のディスプレイ解像度に基づいて共有されている、又は共有される/共有された部分に対応している。
媒介現実コンテンツ90の一部を第1の携帯電話304と共有することに関連した前述の説明と同様にして、ゲームコンソール301が第2の携帯電話305、パーソナルコンピュータ306、ラップトップコンピュータ308の全て又は一部と媒介現実コンテンツ90の一部を共有可能であることも、本技術分野の当業者であれば理解されよう。
図10Bは、媒介現実コンテンツ90の一部がラップトップコンピュータ308と共有されている実施例に関する。この実施例では、ラップトップコンピュータのディスプレイ解像度は1920×1080である。媒介現実コンテンツ90において共有されている部分に関する標示102の大きさは、ラップトップコンピュータ308のディスプレイ解像度に依存するため、図10Bに示す標示102は図10Aに示す標示101よりも大きい。
図10Cは、ゲームコンソール301が媒介現実コンテンツ90の一部を第2の携帯電話305と共有している実施例を示す。第2の携帯電話305は縦向きであるため、媒介現実コンテンツ90において第2の携帯電話305と共有されている部分は、図10Aに示す標示101とは向きが異なる。ただし、この実施例では第1の携帯電話304及び第2の携帯電話305が同じ解像度を持つため、図10Cに示す標示103の大きさと図10Aに示す標示101の大きさは同じである。
図7に示すパーソナルコンピュータ306は頭部装着型視覚装置307に関連する(この場合、電気的に接続される)。頭部装着型視覚装置307は、ユーザ又は装着者が一人称視点媒介法で媒介現実コンテンツを見ることができるようにする。ゲームコンソール301は、例えば、媒介現実コンテンツ90全体をパーソナルコンピュータ306と共有し、頭部装着型視覚装置302と同様にして頭部装着型視覚装置307が媒介現実コンテンツ90を表示してもよい。ただし、パーソナルコンピュータ306に接続された頭部装着型視覚装置307に表示される共有媒介現実コンテンツ90はゲームコンソール301によってレンダリングされる。
図11Aには、ゲームコンソール301及び頭部装着型視覚装置302のユーザ82がガイドできる十字線104が示されている。この十字線104は、媒介現実コンテンツ90が共有されるときにユーザ82がもう一人のユーザの開始視点を選ぶために、例えば一つ又は複数の触覚センサ43を使用してガイドされてもよい。これは、媒介現実コンテンツ90において特定の関心物体を選択することで行うことができる。図11Aの実施形態では、媒介現実コンテンツ90全体が共有されてもよい。
例えば媒介現実コンテンツ90がパーソナルコンピュータ306と共有され、頭部装着型視覚装置307によって表示される場合、頭部装着型視覚装置307のユーザが最初に持つ媒介現実コンテンツ90に対する視点は、頭部装着型視覚装置302のユーザ82が選んだ視点である。それ故、頭部装着型視覚装置307のユーザは、媒介現実コンテンツ90においてユーザ82が選んだ関心物体を最初に見ることができる。
実施形態によっては、ユーザが入力を与えることも可能である。これは例えば、一つ又は複数の触覚センサ43を介して、媒介現実コンテンツ90の一部が共有のために選択される前に、プロセッサ40に媒介現実コンテンツ90をズームさせることができる。例として、ユーザ82は、例えば一つ又は複数の触覚センサ43を使用して、ズームする媒介現実コンテンツ90の区画を選択してもよい。これにより、媒介現実コンテンツ90はユーザ82に対して拡大される。次いで、媒介現実コンテンツ90の拡大部分が共有のために選択されてもよい。追加デバイスと共有するために媒介現実コンテンツ90の拡大部分を選択した結果、共有部分の解像度が追加デバイスに関連するディスプレイの解像度よりも低くなってもよい。
図11Bには、追加デバイスに関連するディスプレイの解像度を、媒介現実コンテンツ90の表示に使用されている一つ(又は複数)のディスプレイ32に対して相対的に示す破線ボックス103がある実施例が描かれている。この実施例では、ユーザは参照番号104を付された領域をズームした。プロセッサ40は、追加デバイスに関連するディスプレイに拡大領域がどのように現れるかをユーザ82に提示するために、一つ(又は複数)のディスプレイ32に当該領域104の拡大版を表示させる。
プロセッサ40は、媒介現実コンテンツ90の当該部分を追加デバイスのディスプレイが別の方法で表示するときにおける当該部分の見え方を提示してもよい。例として、追加デバイスに関連するディスプレイが白黒ディスプレイであった場合、媒介現実コンテンツ90において共有される、又は共有されている/共有された部分は、ゲームコンソール301のプロセッサ40による制御の下、頭部装着型視覚装置302の一つ(又は複数)のディスプレイ32によってユーザに対して白黒で表示されてもよい。
本発明の実施形態によっては、装置30が複数の相異なるデバイスと媒介現実コンテンツ90におけるそれぞれ別々の部分を同時に共有することも可能である。共有されている別々の部分は、一つ(又は複数)のディスプレイ32によって区画されてもよい。図12Aは、媒介現実コンテンツ90における複数の別々の部分がそれぞれ別々のデバイスと同時に共有されている実施例を示す。参照番号106を付された標示子は、媒介現実コンテンツ90において、「ジム(Jim)」という名のユーザに関連するデバイスと共有されている部分を示す。参照番号107を付された標示子は、媒介現実コンテンツ90において、「アシュレー(Ashley)」という名のユーザに関連するデバイスと共有されている部分を示す。参照番号108を付された標示子は、媒介現実コンテンツ90において、「マシュー(Matthew)」という名のユーザに関連するデバイスと共有されている部分を示す。
図12Aから分かるように、図12Aに示す実施例では、共有されているコンテンツ間で一部重なりがある。
例によっては、媒介現実コンテンツ90における複数の相異なる部分が、同一ユーザに関連する複数の相異なるデバイスとそれぞれ共有されてもよい。これは図12Bに示されている。ここで、標示子108がユーザ「マシュー」に関連する携帯電話と共有されているコンテンツを示し、標示子109が同じユーザ「マシュー」に関連するスマートウォッチと共有されているコンテンツ部分を示す。
図6A、6B、8に示すブロックは、方法のステップ、コンピュータプログラム148のコード区分の全て又は一部を表わしてもよい。ブロックを特定の順序で図示することは、必須順序又は推奨順序の存在を必ずしも示唆していない。こうしたブロックの順序や配置構成は変更することができる。また、一部のブロックを省略することも可能である。
「コンピュータ可読記憶媒体」や「コンピュータプログラム製品」や「コンピュータ」、「プロセッサ」等の用語は、様々なアーキテクチャを有するコンピュータだけでなく、特殊回路もカバーものと理解すべきである。こうしたコンピュータのアーキテクチャには、シングル/マルチプロセッサ・アーキテクチャや、直列(ノイマン型)/並列アーキテクチャ等がある。特殊回路にはフィールドプログラマブルゲートアレイ(FPGA)や特定用途向け集積回路(ASIC)、シグナルプロセッシングデバイス、その他の処理回路等がある。コンピュータプログラムや命令,コード等の用語は、プログラマブルプロセッサやファームウェア用のソフトウェアもカバーするものと理解すべきである。こうしたものとして例えば、プロセッサに対する命令や、固定機能デバイス,ゲートアレイ,プログラマブルロジックデバイス等の構成設定といったハードウェアデバイスのプログラマブルコンテンツ等がある。
なお本願において使用される「回路(circuitry)」との語句は、次の全てを表す:
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等);
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):
(i)一つまたは複数のプロセッサ、又は
(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む),ソフトウェア,一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる);
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等);
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):
(i)一つまたは複数のプロセッサ、又は
(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む),ソフトウェア,一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる);
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
この「回路」の定義は、本願において当該用語を使う全ての場合において適用される。特許請求の範囲においても同様である。さらなる例として、本願で使用される場合、「回路(circuitry)」という用語は、単一(または複数)のプロセッサのみの実装やプロセッサの一部と、付随するソフトウェア、ファームウェアの全て又は一部とによる実装も網羅するものである。「回路」という用語はまた、例えば、特許請求の範囲に記載される特定の要素をその範囲に含むことが可能な場合がある。例えば、携帯電話のベースバンド集積回路やアプリケーション処理集積回路を意味してもよく、サーバやセルラネットワークデバイス、その他のネットワークデバイスにおける同様の集積回路を意味してもよい。
構造的特徴が記述されてきたが、こうした構造的特徴は、その構造的特徴における1つ又は複数の機能を実行する手段で置き換えられてもよい。こうした1つ又は複数の機能は明示的に記述されていてもよく、されていなくてもよい。
本願明細書及び図面において、本発明の様々な実施形態が様々な実施例と共に紹介されてきたが、当然のごとく、特許請求の範囲に特定される発明の範囲を逸脱することなく、紹介された実施形態を変形することができる。例えば、前述したようなゲームコンソール301、頭部装着型視覚装置302、携帯コントローラ303の組合せが装置30に必須ではないことは、本技術分野の当業者であれば理解されよう。例えば、パーソナルコンピュータ及び頭部装着型視覚装置の組合せや、頭部装着型視覚装置のみという場合も可能である。
実施形態によっては、一つ(又は複数)のディスプレイ32がホログラフィーであってもよい。こうした実施形態では、頭部装着型視覚装置が必要とされなくてもよい。
これまでに記述してきた事項は、明示的に記述された組合せのみならず、それ以外の組合せで用いられてもよい。
特定の事項を参照して種々の機能を記述してきたが、こうした機能は、記述の有無を問わずその他の事項によって遂行可能であってもよい。
特定の実施形態を参照して種々の事項を記述してきたが、こうした事項は、記述の有無を問わずその他の実施形態で用いられてもよい。
前述のように本明細書において、とりわけ重要であると考えられる本発明のこうした事項に注目するように努めてきた。しかし、前述した特許されうる全ての事項およびそれらの組合せに対して、参照された添付の図面にそうした事項が特段強調されていたかどうかにかかわらず、本出願人はその保護を求めるものである点を理解されたい。
Claims (15)
- 頭部装着型視覚装置の一つ又は複数のディスプレイに媒介現実コンテンツを表示させることであって、該一つ又は複数のディスプレイが該頭部装着型視覚装置の表示光学系を通じて見える、前記表示させることと;
前記媒介現実コンテンツの部分を共有する追加デバイスを識別することと;
前記追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定することと;
前記決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、前記媒介現実コンテンツにおいて前記追加デバイスと共有される部分を決定することと;
前記媒介現実コンテンツの前記部分を前記追加デバイスと共有することと;
を含む、方法。 - 前記頭部装着型視覚装置が、前記媒介現実コンテンツを一人称視点媒介法で見せるようにする、請求項1に記載の方法。
- 複数の追加デバイスと、それぞれ個別に前記媒介現実コンテンツの部分を共有することを含み、
前記複数の追加デバイスの各々について、前記頭部装着型視覚装置の前記一つ又は複数のディスプレイに、前記追加デバイスと共有する部分を示す情報と、前記追加デバイスの識別に関する情報とを表示することを含む、請求項1又は2に記載の方法。 - 前記一つ又は複数のパラメータが前記追加デバイスに関連する一つ又は複数のディスプレイの現在の向きを特徴付け、前記媒介現実コンテンツにおいて前記追加デバイスと共有される部分が、前記追加デバイスに関連する一つ又は複数のディスプレイの前記現在の向きに少なくとも部分的に基づいて決定される、請求項1から3の何れかに記載の方法。
- 前記媒介現実コンテンツにおいて前記追加デバイスと共有される部分を決定することが、前記一つ又は複数のディスプレイにおける領域を決定することを含む、請求項1から4の何れかに記載の方法。
- 前記領域が画素である、請求項5に記載の方法。
- 前記一つ又は複数のパラメータが、前記追加デバイスに関連する一つ又は複数のディスプレイのディスプレイタイプに関する情報を含み、前記ディスプレイタイプに関する情報は、平面ディスプレイ、曲面ディスプレイ、非立体ディスプレイ、立体ディスプレイのいずれかを示す情報を含む、請求項1から6の何れかに記載の方法。
- 前記媒介現実コンテンツの部分を前記追加デバイスと共有する前、共有中、又は共有した後、該媒介現実コンテンツの部分を前記デバイスに関連する一つ又は複数のディスプレイによって区画させることを更に含む、請求項1から7の何れかに記載の方法。
- 前記媒介現実コンテンツにおいて前記追加デバイスと共有される部分の決定が、前記頭部装着型視覚装置の表示光学系を通じて前記一つ又は複数のディスプレイに表示される前記媒介現実コンテンツを見るときに行われたユーザ選択に更に基づき、ここで前記ユーザ選択は、一つ又は複数の触覚センサを用いて行われる、請求項1から8の何れかに記載の方法。
- 前記頭部装着型視覚装置のユーザに、前記媒介現実コンテンツにおいて前記追加デバイスと共有される部分を選択できるようにすることが、該ユーザが選択を行えるよう該媒介現実コンテンツをズームできるようにすることを含む、請求項9に記載の方法。
- 別のデバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定することと;前記決定された一つ又は複数のパラメータに基づいて、前記媒介現実コンテンツにおいて前記別のデバイスと共有させる追加部分を決定することであって、該媒介現実コンテンツの追加部分を該別のデバイスと共有させる、前記決定することを更に含む、請求項1から10の何れかに記載の方法。
- 装置の少なくとも一つのプロセッサによって実行されたとき、前記装置に、請求項1から請求項11の何れかに記載の方法を遂行させる、コンピュータプログラムコード。
- 頭部装着型視覚装置の一つ又は複数のディスプレイに媒介現実コンテンツを表示させる手段であって、該一つ又は複数のディスプレイが該頭部装着型視覚装置の表示光学系を通じて見える、前記表示させる手段と;
前記媒介現実コンテンツの少なくとも一つの部分を共有する追加デバイスを識別する手段と;
追加デバイスに関連する一つ又は複数のディスプレイを特徴付ける一つ又は複数のパラメータを決定する手段と;
前記決定された一つ又は複数のパラメータに少なくとも部分的に基づいて、前記媒介現実コンテンツにおいて前記追加デバイスと共有される部分を決定する手段と;
前記媒介現実コンテンツの前記部分を前記追加デバイスと共有する手段と;
を備える、装置。 - 処理手段及び記憶手段を備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は、前記処理手段に実行されると、前記装置に、請求項1から請求項11の何れかに記載の方法を遂行させるように構成される、装置。
- 前記装置が頭部装着型視覚装置、又は頭部装着型視覚装置に接続されるデバイスである、請求項13又は14に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15179736.2A EP3128413A1 (en) | 2015-08-04 | 2015-08-04 | Sharing mediated reality content |
EP15179736.2 | 2015-08-04 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018504968A Division JP6619871B2 (ja) | 2015-08-04 | 2016-07-15 | 媒介現実コンテンツの共有 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020035455A true JP2020035455A (ja) | 2020-03-05 |
Family
ID=53794079
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018504968A Active JP6619871B2 (ja) | 2015-08-04 | 2016-07-15 | 媒介現実コンテンツの共有 |
JP2019182574A Pending JP2020035455A (ja) | 2015-08-04 | 2019-10-03 | 媒介現実コンテンツの共有 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018504968A Active JP6619871B2 (ja) | 2015-08-04 | 2016-07-15 | 媒介現実コンテンツの共有 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10999412B2 (ja) |
EP (1) | EP3128413A1 (ja) |
JP (2) | JP6619871B2 (ja) |
CN (1) | CN107850990A (ja) |
WO (1) | WO2017021587A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021164626A (ja) * | 2020-04-07 | 2021-10-14 | エヌシーソフト・コーポレイションNcsoft Corporation | ゲームストリーミングのための方法および装置 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102557935B1 (ko) * | 2016-03-10 | 2023-07-21 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 디스플레이 제어 방법 |
EP3264371B1 (en) | 2016-06-28 | 2021-12-29 | Nokia Technologies Oy | Apparatus for sharing objects of interest and associated methods |
EP3413166B1 (en) * | 2017-06-06 | 2023-06-21 | Nokia Technologies Oy | Rendering mediated reality content |
CN110869900B (zh) | 2017-07-13 | 2024-01-19 | 索尼公司 | 信息处理装置、信息处理方法及程序 |
US10706628B2 (en) * | 2018-02-28 | 2020-07-07 | Lenovo (Singapore) Pte. Ltd. | Content transfer |
EP3584692A1 (en) | 2018-06-19 | 2019-12-25 | InterDigital CE Patent Holdings | Sharing virtual content in a mixed reality scene |
EP3599544A1 (en) * | 2018-07-25 | 2020-01-29 | Nokia Technologies Oy | An apparatus, method, computer program for enabling access to mediated reality content by a remote user |
EP3847530B1 (en) * | 2018-09-04 | 2023-12-27 | Apple Inc. | Display device sharing and interactivity in simulated reality (sr) |
US10911743B2 (en) * | 2018-10-19 | 2021-02-02 | Facebook Technologies, Llc | Field of view expansion by color separation |
CN113412479A (zh) * | 2019-02-06 | 2021-09-17 | 麦克赛尔株式会社 | 混合现实显示装置和混合现实显示方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2005099064A (ja) * | 2002-09-05 | 2005-04-14 | Sony Computer Entertainment Inc | 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 |
JP2012028950A (ja) * | 2010-07-21 | 2012-02-09 | Canon Inc | 情報処理装置及びその制御方法、表示装置及びその制御方法、及び、画像転送システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7653001B2 (en) | 2004-04-09 | 2010-01-26 | At&T Mobility Ii Llc | Managing differences in user devices when sharing content on mobile devices |
JP2006039919A (ja) * | 2004-07-27 | 2006-02-09 | Pioneer Electronic Corp | 画像共有表示システム、画像共有機能付端末、及びコンピュータプログラム |
JP2011048204A (ja) * | 2009-08-27 | 2011-03-10 | Kyocera Corp | 表示装置 |
KR101763887B1 (ko) | 2011-01-07 | 2017-08-02 | 삼성전자주식회사 | 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법 |
JP5776201B2 (ja) | 2011-02-10 | 2015-09-09 | ソニー株式会社 | 情報処理装置、情報共有方法、プログラム及び端末装置 |
US8836771B2 (en) * | 2011-04-26 | 2014-09-16 | Echostar Technologies L.L.C. | Apparatus, systems and methods for shared viewing experience using head mounted displays |
CN102568026B (zh) * | 2011-12-12 | 2014-01-29 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
US9261871B2 (en) * | 2012-03-29 | 2016-02-16 | Yokogawa Electric Corporation | Apparatus and method for determining operation compatibility between field devices |
US9978178B1 (en) * | 2012-10-25 | 2018-05-22 | Amazon Technologies, Inc. | Hand-based interaction in virtually shared workspaces |
WO2014115393A1 (ja) | 2013-01-24 | 2014-07-31 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びに画像表示システム |
JP5756156B2 (ja) | 2013-09-26 | 2015-07-29 | 株式会社オプティム | 画面共有端末、画面共有方法、画面共有端末用プログラム |
US20150193979A1 (en) | 2014-01-08 | 2015-07-09 | Andrej Grek | Multi-user virtual reality interaction environment |
AU2016231584A1 (en) * | 2016-09-22 | 2018-04-05 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding video data |
-
2015
- 2015-08-04 EP EP15179736.2A patent/EP3128413A1/en not_active Ceased
-
2016
- 2016-07-15 CN CN201680045475.XA patent/CN107850990A/zh active Pending
- 2016-07-15 WO PCT/FI2016/050522 patent/WO2017021587A1/en active Application Filing
- 2016-07-15 US US15/746,681 patent/US10999412B2/en active Active
- 2016-07-15 JP JP2018504968A patent/JP6619871B2/ja active Active
-
2019
- 2019-10-03 JP JP2019182574A patent/JP2020035455A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005099064A (ja) * | 2002-09-05 | 2005-04-14 | Sony Computer Entertainment Inc | 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2012028950A (ja) * | 2010-07-21 | 2012-02-09 | Canon Inc | 情報処理装置及びその制御方法、表示装置及びその制御方法、及び、画像転送システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021164626A (ja) * | 2020-04-07 | 2021-10-14 | エヌシーソフト・コーポレイションNcsoft Corporation | ゲームストリーミングのための方法および装置 |
JP7191900B2 (ja) | 2020-04-07 | 2022-12-19 | エヌシーソフト・コーポレイション | ゲームストリーミングのための方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
US10999412B2 (en) | 2021-05-04 |
EP3128413A1 (en) | 2017-02-08 |
CN107850990A (zh) | 2018-03-27 |
JP6619871B2 (ja) | 2019-12-11 |
JP2018532173A (ja) | 2018-11-01 |
US20180219975A1 (en) | 2018-08-02 |
WO2017021587A1 (en) | 2017-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6619871B2 (ja) | 媒介現実コンテンツの共有 | |
KR102291777B1 (ko) | 바디 락 증강 현실과 월드 락 증강 현실 사이의 전환 기법 | |
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
US10884576B2 (en) | Mediated reality | |
EP3629290A1 (en) | Localization for mobile devices | |
JP6478360B2 (ja) | コンテンツ閲覧 | |
CN106489171B (zh) | 立体图像显示器 | |
JP6662914B2 (ja) | 媒介現実 | |
CN107924586B (zh) | 搜索图像内容的方法、装置以及计算机可读存储介质 | |
CN114730094A (zh) | 具有人工现实内容的变焦显示的人工现实系统 | |
US11244659B2 (en) | Rendering mediated reality content | |
US11682138B2 (en) | Localization and mapping using images from multiple devices | |
EP3118722A1 (en) | Mediated reality | |
US11194439B2 (en) | Methods, apparatus, systems, computer programs for enabling mediated reality | |
US10831443B2 (en) | Content discovery | |
US10642349B2 (en) | Information processing apparatus | |
CN115202475A (zh) | 显示方法、装置、电子设备及计算机可读存储介质 | |
JP2017142769A (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
US20230376109A1 (en) | Image processing apparatus, image processing method, and storage device | |
US10650595B2 (en) | Mediated reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210810 |