JP2023078342A - Virtual reality system and method - Google Patents
Virtual reality system and method Download PDFInfo
- Publication number
- JP2023078342A JP2023078342A JP2023044888A JP2023044888A JP2023078342A JP 2023078342 A JP2023078342 A JP 2023078342A JP 2023044888 A JP2023044888 A JP 2023044888A JP 2023044888 A JP2023044888 A JP 2023044888A JP 2023078342 A JP2023078342 A JP 2023078342A
- Authority
- JP
- Japan
- Prior art keywords
- user
- headset
- image
- users
- sensors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 210000001747 pupil Anatomy 0.000 claims abstract description 14
- 230000003993 interaction Effects 0.000 claims abstract description 12
- 238000003384 imaging method Methods 0.000 claims abstract 4
- 230000015654 memory Effects 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims 4
- 238000000205 computational method Methods 0.000 claims 2
- 238000009877 rendering Methods 0.000 claims 1
- 238000004590 computer program Methods 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000009133 cooperative interaction Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
Description
本開示は、一般に、2次元(2D)および3次元(3D)画像をキャプチャおよび処理するための方法および装置に関する。 The present disclosure relates generally to methods and apparatus for capturing and processing two-dimensional (2D) and three-dimensional (3D) images.
(関連出願の相互参照)
この出願は、2019年3月13日に提出された米国特許出願第62/642,488号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
(Cross reference to related applications)
This application claims priority from US Patent Application No. 62/642,488, filed March 13, 2019, which is hereby incorporated by reference in its entirety.
仮想現実(VR)は、非常に没頭させる体験を可能にし、世界を見る新しい方法と、現実と仮想の両方の新しい環境を探索する機能を提供する。ただし、VRヘッドセットでは、体験に参加している人々の全体像を作成することが難しいため、物理的な現実と比較して、これらの体験を他人と共有することは難しい。 Virtual reality (VR) enables highly immersive experiences, offering new ways of viewing the world and the ability to explore new environments, both real and virtual. However, VR headsets make it difficult to create a complete picture of the people participating in the experience, making it difficult to share these experiences with others compared to physical reality.
この分断の一部は、VRユーザの仮想コンテキストを2次元のビデオ形式で共有する関連メディアである複合現実(MR)によって緩和され、ユーザの仮想体験を他の視聴者が感じることを可能とする。MRは共有を容易にするが、ヘッドセットが表情と視線をブロックし続けるため、VRでの人間の完全に魅力的な体験と完全な視界に大きな障害をもたらす。 Part of this disconnect is mitigated by mixed reality (MR), a relevant medium that shares the virtual context of a VR user in a two-dimensional video format, allowing other viewers to perceive the user's virtual experience. . MR makes sharing easier, but headsets continue to block facial expressions and line of sight, creating a major obstacle to a fully engaging human experience and full vision in VR.
以下に説明する例示の実施形態の目的および利点は、以下の詳細な説明に示され明らかになるであろう。例示された実施形態のさらなる利点は、明細書およびその特許請求の範囲、ならびに添付の図面から特に指摘された装置、システム、および方法によって実現、達成される。 Objects and advantages of the exemplary embodiments described below will be set forth in and will become apparent in the following detailed description. Additional advantages of the illustrative embodiments will be realized and attained by the apparatus, systems and methods particularly pointed out in the written description and claims hereof as well as the accompanying drawings.
この研究の一般的な目的は、ライブVRチャット体験を提供することである。現在、VRチャットアプリケーションはアニメーション化されたアバターを利用している。本発明の目的は、ユーザの頭の(例えば、ユーザがヘッドセットを装着することなく以前に記録された)3Dモデルによって視覚的に置き換えられるユーザのヘッドセットの画像なしでアバターをライブビデオに置き換えることである。本発明の他の目的は、各ユーザが自分のリアリズムのレベルを調整することである(例えば、アバターからライブの3Dビデオ画像まで)。 The general purpose of this research is to provide a live VR chat experience. Currently, VR chat applications utilize animated avatars. The object of the present invention is to replace the avatar with live video without an image of the user's headset visually replaced by a 3D model of the user's head (e.g. previously recorded without the user wearing the headset). That is. Another object of the invention is for each user to adjust his or her level of realism (eg from avatars to live 3D video images).
添付の付録および/または図面は、本開示による様々な非限定的で例示的な発明の態様を示している。 The accompanying appendices and/or drawings illustrate various non-limiting, illustrative aspects of the invention according to this disclosure.
記載された実施形態は、添付の図面を参照してより完全に説明され、同様の参照番号は同様の構造的/機能的特徴を識別する。以下に説明する例示の実施形態は単なる例示であり、当業者には理解されるように、様々な形態で実施することができるので、例示の実施形態は、決して例示のものに限定されない。したがって、本明細書に開示された構造的および機能的詳細は限定して解釈されるべきではなく、単に請求項の基礎として、および当業者が議論された実施形態を様々に使用することを教示するための表現として解釈されるべきである。さらに、本明細書で使用される用語および語句は、限定を意図するものではなく、例示された実施形態を理解可能とする説明を提供することを意図している。 The described embodiments are described more fully with reference to the accompanying drawings, in which like reference numerals identify like structural/functional features. The exemplary embodiments described below are merely exemplary and are by no means limited to the exemplary embodiments, as they can be embodied in various forms, as will be appreciated by those skilled in the art. Therefore, the structural and functional details disclosed herein are not to be construed as limiting, but merely as a basis for the claims and to teach those skilled in the art to use the discussed embodiments in various ways. should be interpreted as an expression for Moreover, the terms and phrases used herein are not intended to be limiting, but to provide an enabling description of the illustrated embodiments.
値の範囲が記載されている場合、文脈が明確に指示しない限り、その範囲の上限と下限、およびその述べられた範囲は、例示された実施形態に包含される。これらのより小さな範囲の上限および下限は、より小さな範囲に独立して含まれてもよく、記載された範囲内の具体的に除外された制限を条件として、例示された実施形態に包含される。述べられた範囲が制限の一方または両方を含む場合、それらの含まれた制限のいずれかを除外する範囲も、例示された実施形態に含まれる。 When a range of values is stated, the upper and lower limits of the range and the stated range are encompassed in the illustrated embodiment, unless the context clearly dictates otherwise. The upper and lower limits of these smaller ranges may independently be included in the smaller ranges and are encompassed in the illustrated embodiments, subject to any specifically excluded limit in the stated range. . Where the stated range includes one or both of the limits, ranges excluding either of those included limits are also included in the illustrated embodiment.
他に定義されない限り、本明細書で使用されるすべての技術用語および科学用語は、本発明が属する技術分野の当業者によって一般に理解されるものと同じ意味を有する。本明細書に記載されるものと同様または同等の任意の方法および材料もまた、例示される実施形態の実施または試験において使用され得るが、例示的な方法および材料がここで記載される。本明細書で言及されるすべての刊行物は、刊行物が引用されることに関連する方法および/または材料を開示および説明するために、参照により本明細書に組み入れられる。 Unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Although any methods and materials similar or equivalent to those described herein can also be used in the practice or testing of the illustrated embodiments, exemplary methods and materials are described here. All publications mentioned herein are incorporated herein by reference to disclose and describe the methods and/or materials in connection with which the publications are cited.
本明細書および添付の特許請求の範囲で使用される場合、単数形「a」、「an」、および「the」は、文脈から明らかにそうでないと指示されない限り、複数の指示対象を含むことに留意されたい。したがって、例えば、「1つの刺激」への言及は、複数のそのような刺激を含み、「信号」への言及は、1つ以上の信号および当業者に既知のその等価物への言及などを含む。 As used in this specification and the appended claims, the singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. Please note. Thus, for example, reference to "a stimulus" includes a plurality of such stimuli, reference to "a signal" includes reference to one or more signals and equivalents thereof known to those skilled in the art, etc. include.
本明細書で論じられる刊行物は、本出願の出願日より前のそれらの開示のためにのみ提供される。本明細書中のいかなるものも、例示された実施形態が、先行発明のおかげでそのような刊行物に先行する権利を与えられないことの承認として解釈されるべきではない。さらに、記載された発行日は実際の発行日とは異なる場合があり、個別に確認する必要がある場合がある。 The publications discussed herein are provided solely for their disclosure prior to the filing date of the present application. Nothing in this specification is to be construed as an admission that the illustrated embodiments are not entitled to antedate such publication by virtue of prior invention. Further, the dates of publication provided may be different from the actual publication dates which may need to be independently confirmed.
以下に説明する例示の実施形態は、好ましくは、コンピュータプロセッサを有するマシン上での実行を可能にする制御ロジックを有するコンピュータ可読媒体に記憶されたソフトウェアアルゴリズム、プログラムまたはコードであることが理解されるべきである。装置は通常、コンピュータアルゴリズムまたはプログラムの実行からの出力を提供するように構成されたストレージ装置を含む。 It is understood that the exemplary embodiments described below are preferably software algorithms, programs or code stored on a computer readable medium having control logic to enable execution on a machine having a computer processor. should. The apparatus typically includes a storage device configured to provide output from execution of a computer algorithm or program.
本明細書で使用する「ソフトウェア」という用語は、実装がハードウェア、ファームウェア、ディスク上で利用可能なソフトウェアコンピュータ製品、メモリストレージ装置またはリモート装置からのダウンロード用のいずれであるかに関係なく、ホストコンピュータのプロセッサ内にあるコードまたはプログラムと同義であることを意味する。本明細書で説明される実施形態は、上述の方程式、関係、およびアルゴリズムを実装するためのそのようなソフトウェアを含む。当業者は、上記の実施形態に基づいて、例示された実施形態のさらなる特徴および利点を理解するであろう。したがって、例示された実施形態は、添付の特許請求の範囲によって示される場合を除いて、特に示され説明されたものによって限定されるべきではない。本明細書で引用されるすべての刊行物および参考文献は、参照によりその全体が本明細書に明示的に組み込まれる。 As used herein, the term "software" shall be used regardless of whether the implementation is hardware, firmware, software computer products available on disk, memory storage devices, or for download from a remote device. Means synonymous with the code or program that resides in the processor of a computer. Embodiments described herein include such software to implement the equations, relationships, and algorithms described above. Those skilled in the art will appreciate further features and advantages of the illustrated embodiments based on the embodiments described above. Accordingly, the illustrated embodiments are not to be limited by what has been particularly shown and described, except as indicated by the appended claims. All publications and references cited herein are expressly incorporated herein by reference in their entirety.
次に、いくつかの図を通して同様の参照文字が同様の要素を示す図面を説明的に参照する。図1は、本明細書で説明する技術と共に使用できる例示的な汎用の計算システム600および汎用のモバイルコンピュータ装置650を示している。計算システム600およびモバイル装置650は、それらの1つまたは複数の構成要素が、本明細書に記載される本発明の例示された実施形態と共に使用され得る例示的な実施形態として理解されるべきである。
Reference will now be made illustratively to the drawings, in which like reference characters indicate like elements throughout the several views. FIG. 1 illustrates an exemplary general
計算装置600は、プロセッサ602と、メモリ604と、ストレージ装置606と、メモリ604および高速拡張ポート610に接続する高速インターフェース608と、低速バス614およびストレージ装置606に接続する低速インターフェース612とを含む。部材602、604、606、608、610、および612のそれぞれは、様々なバスを用いて相互接続され、必要に応じて、共通のマザーボードまたは他の方法で取り付けられてもよい。プロセッサ602は、メモリ604またはストレージ装置606に格納された命令を含む、計算装置600内で実行するための命令を処理して、高速インターフェース608に接続されたディスプレイ616などの外部入出力装置にGUIのグラフィック情報を表示することができる。他の実施態様では、複数のプロセッサおよび/または複数のバスを、必要に応じて、複数のメモリおよびメモリのタイプとともに使用することができる。さらに、複数の計算装置600を接続して、各装置が必要な動作の一部を提供してもよい(例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)。
メモリ604は、計算装置600内に情報を格納する。一実施態様では、メモリ604は、揮発性メモリユニットまたはユニットである。他の実装形態では、メモリ604は、1つまたは複数の不揮発性メモリユニットである。メモリ604は、磁気または光ディスクなどの他の形態のコンピュータ可読媒体であってもよい。
ストレージ装置606は、計算装置600に大容量ストレージを提供することを可能とする。一実装形態では、ストレージ装置606は、フロッピーディスク装置、ハードディスク装置、光ディスク装置などのコンピュータ可読媒体であるか、または、テープ装置、フラッシュメモリまたは他の同様のソリッドステートメモリ装置、またはストレージエリアネットワーク内の装置や他の構成の装置を含み得る。コンピュータプログラム製品は、情報担体に具体的に実現することができる。また、コンピュータプログラム製品は、実行されると、上記のような1つまたは複数の方法を実行する命令を含むことができる。情報担体は、メモリ604、記憶装置606、またはプロセッサ602上のメモリなどのコンピュータまたは機械可読媒体である。
高速コントローラ608は、計算装置600の帯域幅集約型動作を管理し、低速コントローラ612は、より低い帯域幅集約型動作を管理する。このような機能の割り当ては単なる例示である。一実装では、高速コントローラ608は、メモリ604、ディスプレイ616(例えば、グラフィックプロセッサまたはアクセラレータを介して)、および様々な拡張カード(図示せず)を受け入れることができる高速拡張ポート610に結合される。該実装において、低速コントローラ612は、ストレージ装置606および低速拡張ポート614に結合される。低速拡張ポートは、様々な通信ポート(例えば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、ワイヤレスイーサネット)を含むことができ、キーボード、ポインティング装置、スキャナーなどの1つ以上の入力/出力装置、またはスイッチやルーターなどのネットワーク装置に、たとえばネットワークアダプターを介して接続されている。
計算装置600は、図に示されるように、いくつかの異なる形態で実装され得る。例えば、それは、標準的なサーバ620として、またはそのようなサーバのグループにおいて複数回実装されてもよい。それはまた、ラックサーバシステム624の一部として実装されてもよい。さらに、ラップトップコンピュータ622などのパーソナルコンピュータで実装されてもよい。あるいは、計算装置600からのコンポーネントは、モバイル装置内の他のコンポーネントと組み合わされてもよい(そのような装置のそれぞれは、計算装置600、650のうちの1つまたは複数を含むことができ、システム全体は、互いに通信する複数の計算装置600、650から構成することができる。
計算装置650は、とりわけ、プロセッサ652と、メモリ664と、ディスプレイ654などの入出力装置と、通信インターフェース666と、トランシーバ668とを含む。装置650は、追加のストレージを提供するために、マイクロドライブまたは他の装置などのストレージ装置を備えることもできる。部材650、652、664、654、666および668のそれぞれは、様々なバスを用いて相互接続され、これらの部材のいくつかは、共通のマザーボードに、または必要に応じて他の方法で取り付けられてもよい。
プロセッサ652は、メモリ664に格納された命令を含む、計算装置650内の命令を実行することができる。プロセッサは、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実装され得る。プロセッサは、たとえば、ユーザインターフェースの制御、装置650によって実行されるアプリケーション、および装置650によるワイヤレス通信など、装置650の他のコンポーネントの調整を提供することができる。
プロセッサ652は、ディスプレイ654に結合された制御インターフェース658およびディスプレイインターフェース656を介してユーザと通信し得る。ディスプレイ654は、例えば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)またはOLED(有機発光ダイオード)またはその他の適当なディスプレイ装置であることができる。ディスプレイインターフェース656は、ディスプレイ654を駆動してユーザにグラフィックおよび他の情報を提示するための適切な回路を備えることができる。制御インターフェース658は、ユーザからコマンドを受信し、それらをプロセッサ652へ提供するために変換することができる。さらに、外部インターフェース662は、装置650の他の装置との近距離通信を可能にするように、プロセッサ652と通信するように提供され得る。外部インターフェース662は、例えば、いくつかの実装における有線通信、または他の実装における無線通信を提供してもよく、複数のインターフェースも使用されてもよい。
メモリ664は、計算装置650内の情報を格納する。メモリ664は、コンピュータ可読媒体または複数の揮発性メモリユニットまたは複数の不揮発性メモリユニットの1つまたは複数として実装することができる。拡張メモリ674も提供され、例えば、SIMM(シングルインラインメモリモジュール)カードインターフェースを含み得る拡張インターフェース672を介して装置650に接続され得る。そのような拡張メモリ674は、装置650に追加の記憶空間を提供することができ、または装置650のアプリケーションまたは他の情報も格納することができる。具体的には、拡張メモリ674は、上記の工程を実行または補足する命令を含み、安全な情報も含むことができる。したがって、例えば、拡張メモリ674は、装置650のセキュリティモジュールとして提供されてもよく、装置650の安全な使用を可能にする命令でプログラムされてもよい。さらに、SIMMカードにハッキングできない方法で識別情報を配置するなど、安全なアプリケーションが、追加の情報とともにSIMMカードを介して提供されてもよい。
メモリは、例えば、以下で論じるように、フラッシュメモリおよび/またはNVRAMメモリを含むことができる。一実施態様では、コンピュータプログラム製品は、情報担体に有形に具体化される。コンピュータプログラム製品は、実行されると、上記のような1つまたは複数の方法を実行する命令を含む。情報担体は、メモリ664、拡張メモリ674、またはプロセッサ652上のメモリなどの、コンピュータまたは機械が読取可能な媒体であり、例えば、トランシーバ668または外部インターフェース662を介して受信することができる。
The memory may include, for example, flash memory and/or NVRAM memory, as discussed below. In one embodiment, a computer program product is tangibly embodied in an information carrier. The computer program product contains instructions that, when executed, perform one or more methods as described above. The information carrier is a computer or machine readable medium, such as
装置650は、通信インターフェース666を介して無線で通信することができ、通信インターフェース666は、必要に応じてデジタル信号処理回路を含むことができる。通信インターフェース666は、とりわけ、GSM音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなどの様々なモードまたはプロトコルの下で通信を提供することができる。そのような通信は、例えば、無線周波数トランシーバ668を介して行われ得る。さらに、ブルートゥース(登録商標)、Wi-Fi(登録商標)、または他のそのようなトランシーバ(図示せず)などを使用することにより、短距離通信が可能である。さらに、GPS(全地球測位システム)受信機モジュール670は、装置650上で実行されるアプリケーションによって適切に使用され得る、追加のナビゲーションおよびロケーション関連の無線データを装置650に提供し得る。
また、装置650は、ユーザからの発話情報を受信し、発話情報を使用可能なデジタル情報に変換することができるオーディオコーデック660を用いて、可聴的に通信することができる。同様に、オーディオコーデック660は、例えば、装置650のハンドセット内のスピーカを介するなどして、ユーザのための可聴音を生成し得る。そのような音は、音声通話からの音を含むことができ、録音された音(例えば、音声メッセージ、音楽ファイルなど)や、装置650で動作するアプリケーションによって生成されたサウンドも含むことができる。
The
計算装置650は、図に示されるように、いくつかの異なる形態で実装され得る。例えば、計算装置650は携帯電話680として実装されてもよい。また、計算装置650は、スマートフォン682、携帯情報端末、または他の同様のモバイル装置の一部として実装されてもよい。
ここで説明するシステムと技術のさまざまな実装は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実現できる。これらのさまざまな実装には、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステムで実行および/または解釈可能な1つ以上のコンピュータプログラムでの実装が含まれる。当該プロセッサは、特別な又は一般的な目的で、データおよび命令を、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置に入出力するように組み合わされる。 Various implementations of the systems and techniques described herein may be realized in digital electronic circuits, integrated circuits, specially designed application-specific integrated circuits (ASICs), computer hardware, firmware, software, and/or combinations thereof. can. These various implementations include implementation in one or more computer programs executable and/or interpreted by a programmable system including at least one programmable processor. The processor is combined to input and output data and instructions to the storage system, at least one input device, and at least one output device for a special or general purpose.
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとも称する)には、プログラマブルプロセッサの機械語命令が含まれ、高水準の手続型および/またはオブジェクト指向のプログラミング言語、および/またはアセンブリ/機械言語で実装できる。本明細書で使用される場合、「機械可読媒体」「コンピュータ可読媒体」という用語は、機械命令および/またはデータを、プログラマブルプロセッサ(機械可読信号として機械命令を受信する機械可読媒体を含む)に提供するために用いられる、以下に使用される任意のコンピュータプログラム製品、機器および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジック装置(PLD))を指す。「機械可読信号」という用語は、プログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。 These computer programs (also referred to as programs, software, software applications or code) contain machine language instructions for programmable processors and can be written in a high level procedural and/or object oriented programming language and/or assembly/machine language. can be implemented with As used herein, the terms "machine-readable medium" and "computer-readable medium" refer to the transfer of machine instructions and/or data to a programmable processor (including machine-readable media that receive machine instructions as machine-readable signals). Refers to any computer program product, apparatus and/or device (eg, magnetic disk, optical disk, memory, programmable logic device (PLD)) used hereinafter that is used to provide. The term "machine-readable signal" refers to any signal used to provide machine instructions and/or data to a programmable processor.
ユーザとの対話を提供するために、本明細書で説明するシステムと技術は、ユーザに情報を表示するためのディスプレイ装置(CRT(陰極線管)やLCD(液晶ディスプレイ)モニタなど)(および他の適切なディスプレイ技術)、キーボード、ユーザがコンピュータに入力を提供できるポインティング装置(マウスやトラックボールなど)を備えたコンピュータに実装できる。他の種類の装置を使用して、ユーザとの対話を提供することもできる。例えば、ユーザに提供されるフィードバックは、あらゆる形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であり得る。また、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形式で受け取ることができる。 To provide user interaction, the systems and techniques described herein use display devices (such as CRT (cathode ray tube) and LCD (liquid crystal display) monitors) (and other suitable display technology), a keyboard, and a pointing device (such as a mouse or trackball) that allows a user to provide input to the computer. Other types of devices can also be used to provide user interaction. For example, the feedback provided to the user can be any form of sensory feedback (eg, visual, auditory, or tactile feedback). Also, input from the user can be received in any form, including acoustic, speech, or tactile input.
本明細書で説明するシステムおよび技術は、計算システムに実装することができる。該計算システムは、バックエンドコンポーネント(たとえば、データサーバとして)、またはミドルウェアコンポーネント(たとえば、アプリケーションサーバ)、またはフロントエンドコンポーネント(たとえば、ユーザが本明細書で説明するシステムと技術の実装とやり取りできるグラフィカルユーザインターフェイスまたはWebブラウザを備えたクライアントコンピュータ)、またはそのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネントの任意の組み合わせを含む。該システムのコンポーネントは、デジタルデータ通信の任意の形式または媒体(通信ネットワークなど)で相互接続できる。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットが含まれる。 The systems and techniques described herein can be implemented in computing systems. The computing system may be a back-end component (eg, as a data server), or a middleware component (eg, an application server), or a front-end component (eg, a graphical server that allows users to interact with implementations of the systems and techniques described herein). client computer with a user interface or web browser), or any combination of such back-end, middleware, or front-end components. The components of the system can be interconnected by any form or medium of digital data communication, such as a communication network. Examples of communication networks include local area networks (“LAN”), wide area networks (“WAN”), and the Internet.
計算システムは、クライアントとサーバを含むことができる。クライアントとサーバは一般に互いにリモートであり、通常は通信ネットワークを介して対話する。クライアントとサーバの関係は、それぞれのコンピュータ上で実行され、互いにクライアント/サーバ関係を有するコンピュータプログラムによって生じる。 The computing system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship of client and server arises by virtue of computer programs running on the respective computers and having a client/server relationship to each other.
図1に示す計算装置は、仮想現実(VRヘッドセット690)とインターフェースで接続されている。図示された実施形態では、あるユーザが他のユーザと対話するときにヘッドセット690の外観を仮想的に取り除くために、1つまたは複数のセンサがVRヘッドセットに含まれている。例えば、ヘッドセットセンサ690は、ユーザの瞳孔を追跡しながらユーザの目を照らす1つ以上のLED691と、ユーザの目/瞳孔を記録するための1つ以上のマイクロカメラ693とを含み得る。
The computing device shown in FIG. 1 is interfaced with virtual reality (VR headset 690). In the illustrated embodiment, one or more sensors are included in the VR headset to virtually remove the appearance of
例えば、本発明の実施形態は、ヘッドセット690が着用されているときのユーザの隠された顔のプロキシとして、カメラ装置400を使用してヘッドセット690の無いユーザの顔704のモデルを作成する。このプロキシは、複合現実(MR)ビデオで顔を合成するために使用される。これにより、VR領域で他のユーザと対話しているときにヘッドセット690が削除されているような印象を与える。例えば、この初期較正ステップは、ユーザ704がカラー+深度カメラ400およびモニタの前に座り、次に、目でモニタ上のマーカを追跡することを必要とする場合がある。この較正手順は、ユーザ704の3D顔モデルを取得し、(センサ691および693を介して)外観画像(またはテクスチャ)を異なる視線方向および瞬きにマッピングするデータベースを作成する。前述の視線データベース(すなわち、好ましくは視線によってインデックスが付けられたテクスチャを備えた顔モデル)により、ユーザの顔の外観を動的に変化させて、所望の(かつリアルタイムの)視線を生成する。これにより、自然で生き生きとした合成された顔の外観を作成できる。顔の構成は、適切なワイヤフレームソフトウェア技術を使用することによって変更することができることを理解されたい。
For example, embodiments of the present invention use the
いくつかの実装形態では、計算装置(たとえば、マウス、キーボード)に加えて1つまたは複数の入力装置を、コンピュータ生成の3D環境でレンダリングすることができる。レンダリングされた入力装置(レンダリングされたマウス、レンダリングされたキーボードなど)は、VRスペースでレンダリングされたものとして使用して、VRスペースのオブジェクトを制御できる。 In some implementations, one or more input devices in addition to computing devices (eg, mouse, keyboard) can be rendered in a computer-generated 3D environment. Rendered input devices (rendered mouse, rendered keyboard, etc.) can be used as rendered in the VR space to control objects in the VR space.
計算装置600は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適当なコンピュータなど、様々な形態のデジタルコンピューターを表すことを意図している。計算装置650は、携帯情報端末、携帯電話、スマートフォン、および他の同様の計算装置などの様々な形態のモバイル装置を表すことが意図されている。本明細書に示されている部材、それらの接続および関係、およびそれらの機能は、例示のみを目的としており、この文書で説明および/またはクレームされている発明の実装を制限することを意図していない。
以上のように、図1を参照して、例示的な計算システム環境100を概略的に示して説明した。以下、図2~図7を参照して、様々な例示的な実施形態の実装を説明する。 Thus, an exemplary computing system environment 100 is schematically illustrated and described with reference to FIG. Implementations of various exemplary embodiments are described below with reference to FIGS.
本発明の例示の実施形態の使用環境は、好ましくはライブビデオを用いたVRでのオンラインチャットを可能にするシステム600に関することを理解されたい。例示された実施形態を説明するために使用される以下で論じられる例では、ローカルユーザおよびリモートユーザの2人のライブチャットを想定していることを理解されたい(本発明がそれに限定されるものと理解されるべきではない)。例示的な実施形態は、Oculus Rift(商標)などのVRシステムと、ユーザごとの1つまたは複数のウェブカメラ400と、好ましくはグリーンバックとを含む、上述のシステム600の1つまたは複数のコンポーネントを含む。図2を参照すると、図示の実施形態によるVRチャットセッション中、例えば、ヘッドセット690を装着したリモートユーザ700は、ローカルユーザ704が装着しているヘッドセット690を差し引いた他のユーザ702(ヘッドセット690を装着)のライブビデオがVRで見える。同様に、同じVRチャットセッション中に、ヘッドセット690を装着しているリモートユーザ702は、VRでローカルユーザが装着しているヘッドセット690を差し引いたユーザ700(ヘッドセット690を装着)のライブビデオがVRで見える。
It should be appreciated that the environment of use of the exemplary embodiment of the present invention relates to a
本発明の一態様によれば(および図3を参照すると)、リモートユーザのヘッドセットの視覚は、ローカルユーザの頭の事前に記録された静止画像/ビデオを重ね合わせることによって置き換えられる。VRヘッドセットを装着しているときは、一般的に口と顔の下部が依然として見えるため、ユーザの頭の一部だけを重ねることが好ましい。好ましくは、ライブビデオ効果は、好ましくは標準の2Dウェブカメラ400(図4)を使用して、クロマキー(「グリーンバック」)技術によって作成される。したがって、例示された実施形態によれば、各ユーザ704、706は、好ましくは、携帯用グリーンバック(402)の前に位置する。これは、特定のソフトウェア技術によって打ち消される場合があること、または3Dカメラを使用してグリーンバックなしでユーザの輪郭を決定できる場合があることを理解されたい。
According to one aspect of the present invention (and with reference to FIG. 3), the vision of the remote user's headset is replaced by superimposing pre-recorded still images/video of the local user's head. It is preferable to overlap only a portion of the user's head when wearing the VR headset, as the mouth and lower part of the face are typically still visible. Preferably, the live video effect is created with chromakey (“green screen”) technology, preferably using a standard 2D webcam 400 (FIG. 4). Therefore, according to the illustrated embodiment, each
以下で説明するように、例示の実施形態によれば、2人以上のユーザ(704および706)が、各ユーザの場所で特別なウェブカメラ400を使用してライブオンラインチャットに参加することができる。各ユーザ(704、706)は、好ましくは、VRヘッドセット690(700、702)を着用し、それにより、各ユーザ(704、706)は、重ね合わせて事前に記録された他のユーザの頭(706、704)の画像を見る。放送画像は、好ましくは、ライブビデオと事前に記録された画像の合成である。ライブビデオは、好ましくは、ユーザの口領域(図3)の真上まで(例えば、VRヘッドセット690が一般的に存在する場所)の身体を含む。したがって、記録された画像は、好ましくは、ユーザの鼻、目、および頭頂部である(704、706)。企業のテレビ会議など、3人以上とのライブチャットを実現できることを理解されたい。
As described below, according to an exemplary embodiment, two or more users (704 and 706) can participate in a live online chat using
この記録された画像は、特殊な形式の写真測量を使用して事前に作成することもできる。これは、複数の2D画像をつなぎ合わせて処理し、3Dモデルとテクスチャを作成する手法である。現在、この工程は高価で時間がかかり、特別なハードウェアと複数のカメラが必要である。対照的に、本発明の実施形態によれば、それぞれが立体視または平面視のいずれかを有する、ユーザに面する2つのカメラからなる安価な立体カメラを利用することができる。たとえば、カメラがシーンを記録してキャプチャしている間、ユーザは椅子で回転する。立体視または平面視のカメラ出力の後処理を使用して、3Dモデルを生成する。 This recorded image can also be pre-created using a special form of photogrammetry. This is a method of stitching and processing multiple 2D images to create a 3D model and textures. Currently, this process is expensive and time consuming, requiring special hardware and multiple cameras. In contrast, according to embodiments of the present invention, an inexpensive stereoscopic camera consisting of two cameras facing the user, each having either stereoscopic or monoscopic vision, can be utilized. For example, the user rotates in a chair while the camera records and captures the scene. Post-processing of the stereoscopic or monoscopic camera output is used to generate the 3D model.
図4~7を参照して、例示された実施形態によるVRセッションを可能にするための例示的な工程を説明する。まず、ヘッドセットなしの各ユーザ704(図4)、706(図5)の顔がウェブカメラ400によって撮影される。次に、図6および7に示されるように、各ユーザ(704、706)は、ヘッドセット690を着用する。ヘッドセット690は、視線、動き、瞬きを検出する前述のLEDセンサ691および693を備えている。マイクロビデオカメラセンサ693がユーザの瞳孔を追跡している間、センサ691は、ヘッドセット690内のユーザの片方の目を照らして瞳孔の動きを追跡することが好ましい。処理チップ602は、好ましくはソフトウェアを介して瞳孔を「スティッチング」して、ヘッドセット690によって隠されている顔の画像を完成させることにより、動いている瞳孔を顔に復元するように構成され、動作可能であることが好ましい。したがって、ユーザ704および706の両方が、他方のユーザ704、706の顔が自分の前にあり、ヘッドセット690で覆い隠されていないかのように、リアルタイムで(それぞれのヘッドセット690を介して)互いの3D画像を見ることができる。
Exemplary steps for enabling a VR session according to an exemplary embodiment are described with reference to FIGS. First, the face of each user 704 (FIG. 4), 706 (FIG. 5) without a headset is captured by the
さらに好ましくは、各ユーザの額および眉毛に配置された電気感応装置をさらに使用することにより、各ユーザ704、706の眉をひそめた表情も、処理チップ602上のソフトウェア処理を介して追跡され得る。
More preferably, by further using electro-sensitive devices placed on each user's forehead and eyebrows, each user's 704, 706 frown expression can also be tracked via software processing on the
要約すると、1または複数の例示された実施形態によれば、本発明は、ユーザのヘッドセットを除いた、ビデオチャットにおけるユーザのウェブカメラビデオストリームの仮想投影を可能にする。これは、写真測量などのモデリング手法を使用して、ユーザの頭を3Dでモデリングすることによって実現される。たとえば、ユーザの頭の上部はリアルタイムでこのモデルに置き換えられるため、他の参加ユーザには、参加ユーザの体、頭、顔、目からヘッドセット690を差し引いたものだけが見える。
In summary, according to one or more exemplary embodiments, the present invention enables virtual projection of a user's webcam video stream in a video chat, excluding the user's headset. This is accomplished by modeling the user's head in 3D using modeling techniques such as photogrammetry. For example, the top of the user's head is replaced by this model in real time, so that other participating users see only the participating user's body, head, face, and eyes minus the
1つ以上の静止した立体3Dカメラ(たとえば、StereoLabs ZEDカメラ、Microsoft Kinect、Intel RealSenseラインの3Dカメラなど)を使用して、複数のユーザ(たとえば、3人以上のユーザ)を取り囲み、各ユーザをモデル化してもよいことを理解されたい。3Dカメラ技術は、ユーザの位置を追加で計算し、VRの協調的な相互作用を提供してもよい。たとえば、2人のユーザが火星でキャッチゲームをプレイしたり、2人が一緒にグランドキャニオンでバーチャルウォークをしたりすることができる。 One or more stationary stereoscopic 3D cameras (e.g., StereoLabs ZED cameras, Microsoft Kinect, Intel RealSense line of 3D cameras, etc.) are used to surround multiple users (e.g., three or more users) and It should be understood that it may be modeled 3D camera technology may additionally calculate the user's position and provide VR collaborative interaction. For example, two users can play a game of catch on Mars, or two can take a virtual walk through the Grand Canyon together.
本発明の計算システム600およびヘッドセット690は、拡張現実(AR)設定での使用のために構成され、動作可能であることを理解されたい。ARは、コンピュータで生成された拡張機能を既存の現実の上に重ねて、それを操作する機能を通じてより意味のあるものにするための技術であると理解される。例示された実施形態は、アプリとして使用するために開発されているAR、および、好ましくは、デジタル要素および現実世界が互いに強調されるような方法で、デジタル要素を現実世界に混合するヘッドセット690を含む。例えば、本発明のヘッドセット690を着用した、各々が異なる場所にいる2人以上のユーザは、選択された設定(例えば、スカイダイビング)および/または場所(例えば、パリ)において、互いに隣り合うように見えるようにヘッドセット690を使用/操作することができる。これにより、彼らはリアルタイムで同じ設定(例えば、フランスのパリの通り)を想像するだけでなく、本明細書の教示に従って、ヘッドセット690が取り外されたかのように互いを見ることができる。
It should be appreciated that the
さらに、計算システム600および/またはヘッドセット690の追加の実施形態は、好ましくは少なくとも2つの別個のビデオフィードおよび/または単一のビデオフィードを、好ましくは所定の静止フレーム画像キャッシュと組み合わせて使用するリアルタイム画像スティッチングを提供するように構成され得ることを理解されたい。ユーザの顔の「目の領域」は、VRディスプレイ装置により通常は覆い隠されるため、アイトラッキングは、初期の「セットアップ」フェーズ(画像キャッシュ)から取得され、画像スティッチングステップに用いられる、キャッシュされた画像および/または「混合された」画像のリアルタイム選択が可能なVRディスプレイ装置内に取り付けられたカメラを介して実行されることが好ましい。これにより、最終的な(合成/スティッチング)ビデオを使用してリアルタイムの3D顔追跡と再構成が提供される。リアルタイムの(ユーザを表す)デジタル作成顔を使用することにより、顔/結果が、リアルタイムのビデオおよび/またはユーザの深度抽出のいずれかに合成されることが好ましいことを理解されたい。ユーザの身体は、グリーンバック技術および/または深度抽出技術のいずれかを使用して、その背景から抽出されることが好ましいことを理解されたい。さらに、完全に再構成されたユーザは、360度ビデオ、VRチャットルーム、その他の適用可能なアプリケーション(これらに限定されない)などの多数のアプリケーションに合成される場合があることを理解されたい。さらに、現在使用および/または研究されている以下の種々の技術(例えば、SDK、APIなど)には、以下が含まれる(ただし、これらに限定されない):EmguCV、OpenCVおよびMATLAB(登録商標);SDK付きZEDカメラ;ARKit;主要なプログラミング言語:C#およびC++;Unity(ゲームエンジン);Oculusおよび/またはVive(VRディスプレイ装置)。
Additionally, additional embodiments of
上記の特定の例示的な実施形態では、本明細書で説明される様々な非限定的な実施形態は、特定の用途のために別々に組み合わせて、または選択的に組み合わせて実施できることを理解されたい。さらに、上記の非限定的な実施形態の様々な特徴のいくつかは、他の記載された対応する特徴なしで使用され得る。したがって、本明細書で提供される説明は、本発明の原理、教示、および例示的な実施形態の単なる例示と看做されるべきであり、それらを限定するものと看做されるべきではない。 In the specific exemplary embodiments above, it is understood that the various non-limiting embodiments described herein can be implemented separately or selectively in combination for a particular application. sea bream. Moreover, some of the various features of the non-limiting embodiments described above may be used without other described corresponding features. Accordingly, the description provided herein should be considered merely illustrative of the principles, teachings, and exemplary embodiments of this invention and not limiting thereof. .
Claims (14)
1つ以上のセンサが搭載されたVRヘッドセットを装着している少なくとも1人のユーザの2次元(2D)画像を、カメラ装置を使用して生成する工程と、
前記1つ以上のセンサを使用して前記ユーザの瞳孔の動きを追跡する工程と、
前記ヘッドセットを着用している前記ユーザの前記生成された2D画像からヘッドセット画像を削除する工程と、
他のユーザが、前記ユーザがヘッドセットを装着していないかのように前記ユーザのVR画像を見ることができるように、前記1つ以上のセンサによってレンダリングされた前記ユーザの検出および記録された瞳孔画像をスティッチングして、前記ユーザの前記生成された2D画像から前記ヘッドセット画像が削除された領域に重ね合わせる工程と、
を有する計算方法。 A computational method for generating a virtual reality (VR) interaction between two or more users, at least one user wearing a VR headset, comprising:
generating, using a camera device, a two-dimensional (2D) image of at least one user wearing a VR headset equipped with one or more sensors;
tracking movement of the user's pupil using the one or more sensors;
removing a headset image from the generated 2D image of the user wearing the headset;
Detected and recorded rendering of the user by the one or more sensors so that other users can view the VR image of the user as if the user were not wearing the headset. stitching a pupil image to overlay the region from the generated 2D image of the user where the headset image was removed;
A calculation method that has
1つ以上のセンサコンポーネントが搭載された少なくとも1つのVRヘッドセット装置と、
前記VRヘッドセット装置を着用しているユーザの画像を少なくとも取り込むためのカメラ装置と、
少なくとも1つの前記VRヘッドセット装置およびカメラ装置のそれぞれに通信可能に接続されたVRイメージング計算装置と、
を備え、
前記VRイメージング計算装置は、
メモリと、
前記メモリと通信するように設けられ、前記メモリに格納された複数の命令を実行するように構成されたプロセッサと、
を備え、
前記命令は、
1つ以上のセンサが搭載されたVRヘッドセットを装着している少なくとも1人のユーザの2次元(2D)画像を、カメラ装置を使用して生成し、
前記VRヘッドセットに搭載された前記1つ以上のセンサを使用して前記ユーザの瞳孔の動きを追跡し、
前記ヘッドセットを着用している前記ユーザの前記生成された2D画像からヘッドセット画像を削除し、
他のユーザが、前記ユーザがヘッドセットを装着していないかのように前記ユーザのVR画像を見ることができるように、前記VRヘッドセットの前記1つ以上のセンサによってレンダリングされた前記ユーザの検出および記録された瞳孔画像をスティッチングして、前記ユーザの前記生成された2D画像から前記ヘッドセット画像が削除された領域に重ね合わせる、
ことを前記プロセッサに実行させる、装置。 1. An apparatus for generating a virtual reality (VR) interaction between two or more users, at least one user wearing a VR headset, comprising:
at least one VR headset device equipped with one or more sensor components;
a camera device for capturing at least an image of a user wearing said VR headset device;
a VR imaging computing device communicatively connected to each of said at least one VR headset device and camera device;
with
The VR imaging computing device comprises:
memory;
a processor in communication with the memory and configured to execute a plurality of instructions stored in the memory;
with
Said instruction
generating, using a camera device, a two-dimensional (2D) image of at least one user wearing a VR headset equipped with one or more sensors;
tracking movement of the user's pupil using the one or more sensors mounted on the VR headset;
removing a headset image from the generated 2D image of the user wearing the headset;
A view of the user rendered by the one or more sensors of the VR headset such that other users can see the VR image of the user as if the user were not wearing the headset. stitching the detected and recorded pupil image to overlay the area where the headset image was removed from the generated 2D image of the user;
An apparatus that causes the processor to:
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862642488P | 2018-03-13 | 2018-03-13 | |
US62/642,488 | 2018-03-13 | ||
PCT/US2019/022121 WO2019178276A1 (en) | 2018-03-13 | 2019-03-13 | Virtual reality system and method |
JP2020546898A JP7250809B2 (en) | 2018-03-13 | 2019-03-13 | Virtual reality system and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020546898A Division JP7250809B2 (en) | 2018-03-13 | 2019-03-13 | Virtual reality system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023078342A true JP2023078342A (en) | 2023-06-06 |
Family
ID=67908536
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020546898A Active JP7250809B2 (en) | 2018-03-13 | 2019-03-13 | Virtual reality system and method |
JP2023044888A Pending JP2023078342A (en) | 2018-03-13 | 2023-03-22 | Virtual reality system and method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020546898A Active JP7250809B2 (en) | 2018-03-13 | 2019-03-13 | Virtual reality system and method |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3729177A4 (en) |
JP (2) | JP7250809B2 (en) |
CN (2) | CN116700489A (en) |
CA (1) | CA3089885A1 (en) |
WO (1) | WO2019178276A1 (en) |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3464754B2 (en) * | 1997-09-19 | 2003-11-10 | 日本電信電話株式会社 | Method and apparatus for synthesizing a face image of a person wearing a head-mounted display |
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
JP4794678B1 (en) * | 2010-05-24 | 2011-10-19 | 株式会社ソニー・コンピュータエンタテインメント | Video processing apparatus, video processing method, and video communication system |
US9063330B2 (en) * | 2013-05-30 | 2015-06-23 | Oculus Vr, Llc | Perception based predictive tracking for head mounted displays |
WO2015185537A1 (en) * | 2014-06-03 | 2015-12-10 | Thomson Licensing | Method and device for reconstruction the face of a user wearing a head mounted display |
BR112017002426A2 (en) | 2014-08-04 | 2021-10-05 | Facebook, Inc. | METHOD AND SYSTEM TO RECONSTRUCT OBSTRUCTED FACIAL PORTIONS FOR VIRTUAL REALITY ENVIRONMENT |
GB2534580B (en) * | 2015-01-28 | 2020-06-17 | Sony Interactive Entertainment Europe Ltd | Image processing |
US9910275B2 (en) * | 2015-05-18 | 2018-03-06 | Samsung Electronics Co., Ltd. | Image processing for head mounted display devices |
EP3185176A1 (en) * | 2015-12-21 | 2017-06-28 | THOMSON Licensing | Method and device for synthesizing an image of a face partially occluded |
US11163358B2 (en) * | 2016-03-17 | 2021-11-02 | Sony Interactive Entertainment Inc. | Spectating virtual (VR) environments associated with VR user interactivity |
CN105867617B (en) * | 2016-03-25 | 2018-12-25 | 京东方科技集团股份有限公司 | Augmented reality equipment, system, image processing method and device |
US20170287215A1 (en) * | 2016-03-29 | 2017-10-05 | Google Inc. | Pass-through camera user interface elements for virtual reality |
CN109643527A (en) * | 2016-04-01 | 2019-04-16 | 易客斯特解决方案公司 | Virtual Reality Platform for retail environment emulation |
CN107305621A (en) | 2016-04-17 | 2017-10-31 | 张翔宇 | The image capture device and image synthesis system of a kind of virtual reality glasses |
US10722800B2 (en) * | 2016-05-16 | 2020-07-28 | Google Llc | Co-presence handling in virtual reality |
GB2551323B (en) * | 2016-06-08 | 2021-02-10 | Companion Ltd | System providing a shared environment |
CN107491165A (en) | 2016-06-12 | 2017-12-19 | 张翔宇 | A kind of vr eyewear faces 3d images, plane picture capture and gesture capture systems |
CN107680069B (en) * | 2017-08-30 | 2020-09-11 | 歌尔股份有限公司 | Image processing method and device and terminal equipment |
-
2019
- 2019-03-13 WO PCT/US2019/022121 patent/WO2019178276A1/en unknown
- 2019-03-13 EP EP19766538.3A patent/EP3729177A4/en active Pending
- 2019-03-13 CN CN202310667894.9A patent/CN116700489A/en active Pending
- 2019-03-13 CN CN201980018658.6A patent/CN111936910A/en active Pending
- 2019-03-13 JP JP2020546898A patent/JP7250809B2/en active Active
- 2019-03-13 CA CA3089885A patent/CA3089885A1/en active Pending
-
2023
- 2023-03-22 JP JP2023044888A patent/JP2023078342A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3729177A1 (en) | 2020-10-28 |
CN111936910A (en) | 2020-11-13 |
JP7250809B2 (en) | 2023-04-03 |
CA3089885A1 (en) | 2019-09-19 |
CN116700489A (en) | 2023-09-05 |
EP3729177A4 (en) | 2021-10-06 |
WO2019178276A1 (en) | 2019-09-19 |
JP2021517300A (en) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10684467B2 (en) | Image processing for head mounted display devices | |
AU2018234929B2 (en) | Technique for recording augmented reality data | |
US10049496B2 (en) | Multiple perspective video system and method | |
US20230105064A1 (en) | System and method for rendering virtual reality interactions | |
US20130101164A1 (en) | Method of real-time cropping of a real entity recorded in a video sequence | |
CA2924156A1 (en) | Method, system and apparatus for capture-based immersive telepresence in virtual environment | |
Gonzalez-Franco et al. | Movebox: Democratizing mocap for the microsoft rocketbox avatar library | |
CN111862348B (en) | Video display method, video generation method, device, equipment and storage medium | |
KR20220047719A (en) | Pew-Shot Composite for Talking Head | |
WO2022271415A1 (en) | Body pose estimation using self-tracked controllers | |
US11099392B2 (en) | Stabilized and tracked enhanced reality images | |
US20230386147A1 (en) | Systems and Methods for Providing Real-Time Composite Video from Multiple Source Devices Featuring Augmented Reality Elements | |
JP7250809B2 (en) | Virtual reality system and method | |
Feng | Mobile AR Telepresence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |