JP2023078342A - Virtual reality system and method - Google Patents

Virtual reality system and method Download PDF

Info

Publication number
JP2023078342A
JP2023078342A JP2023044888A JP2023044888A JP2023078342A JP 2023078342 A JP2023078342 A JP 2023078342A JP 2023044888 A JP2023044888 A JP 2023044888A JP 2023044888 A JP2023044888 A JP 2023044888A JP 2023078342 A JP2023078342 A JP 2023078342A
Authority
JP
Japan
Prior art keywords
user
headset
image
users
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023044888A
Other languages
Japanese (ja)
Inventor
ロナルド ウィンストン
Winston Ronald
マイケル タイガー
Tigar Michael
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2023078342A publication Critical patent/JP2023078342A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

To provide a computer apparatus and processes for creating Virtual Reality (VR) interactions between two or more users in which at least one user is wearing a VR headset.SOLUTION: A VR imaging computer apparatus is communicably coupled to each of a VR headset device and a camera device. The VR imaging computer creates a 2D image of a user wearing the VR headset provided with sensors using the camera device. A user's pupil movement is tracked using the sensors, and a headset image is removed from the created 2D image of the user wearing the headset. The detected and recorded pupil image of the user rendered by the sensors of the VR headset is then stitched so as to be superimposed on a region in which the headset image is removed from the created 2D image of the user in such a way that another user can view the VR image of the user as if the user is not wearing the headset.SELECTED DRAWING: Figure 6

Description

本開示は、一般に、2次元(2D)および3次元(3D)画像をキャプチャおよび処理するための方法および装置に関する。 The present disclosure relates generally to methods and apparatus for capturing and processing two-dimensional (2D) and three-dimensional (3D) images.

(関連出願の相互参照)
この出願は、2019年3月13日に提出された米国特許出願第62/642,488号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
(Cross reference to related applications)
This application claims priority from US Patent Application No. 62/642,488, filed March 13, 2019, which is hereby incorporated by reference in its entirety.

仮想現実(VR)は、非常に没頭させる体験を可能にし、世界を見る新しい方法と、現実と仮想の両方の新しい環境を探索する機能を提供する。ただし、VRヘッドセットでは、体験に参加している人々の全体像を作成することが難しいため、物理的な現実と比較して、これらの体験を他人と共有することは難しい。 Virtual reality (VR) enables highly immersive experiences, offering new ways of viewing the world and the ability to explore new environments, both real and virtual. However, VR headsets make it difficult to create a complete picture of the people participating in the experience, making it difficult to share these experiences with others compared to physical reality.

この分断の一部は、VRユーザの仮想コンテキストを2次元のビデオ形式で共有する関連メディアである複合現実(MR)によって緩和され、ユーザの仮想体験を他の視聴者が感じることを可能とする。MRは共有を容易にするが、ヘッドセットが表情と視線をブロックし続けるため、VRでの人間の完全に魅力的な体験と完全な視界に大きな障害をもたらす。 Part of this disconnect is mitigated by mixed reality (MR), a relevant medium that shares the virtual context of a VR user in a two-dimensional video format, allowing other viewers to perceive the user's virtual experience. . MR makes sharing easier, but headsets continue to block facial expressions and line of sight, creating a major obstacle to a fully engaging human experience and full vision in VR.

以下に説明する例示の実施形態の目的および利点は、以下の詳細な説明に示され明らかになるであろう。例示された実施形態のさらなる利点は、明細書およびその特許請求の範囲、ならびに添付の図面から特に指摘された装置、システム、および方法によって実現、達成される。 Objects and advantages of the exemplary embodiments described below will be set forth in and will become apparent in the following detailed description. Additional advantages of the illustrative embodiments will be realized and attained by the apparatus, systems and methods particularly pointed out in the written description and claims hereof as well as the accompanying drawings.

この研究の一般的な目的は、ライブVRチャット体験を提供することである。現在、VRチャットアプリケーションはアニメーション化されたアバターを利用している。本発明の目的は、ユーザの頭の(例えば、ユーザがヘッドセットを装着することなく以前に記録された)3Dモデルによって視覚的に置き換えられるユーザのヘッドセットの画像なしでアバターをライブビデオに置き換えることである。本発明の他の目的は、各ユーザが自分のリアリズムのレベルを調整することである(例えば、アバターからライブの3Dビデオ画像まで)。 The general purpose of this research is to provide a live VR chat experience. Currently, VR chat applications utilize animated avatars. The object of the present invention is to replace the avatar with live video without an image of the user's headset visually replaced by a 3D model of the user's head (e.g. previously recorded without the user wearing the headset). That is. Another object of the invention is for each user to adjust his or her level of realism (eg from avatars to live 3D video images).

添付の付録および/または図面は、本開示による様々な非限定的で例示的な発明の態様を示している。 The accompanying appendices and/or drawings illustrate various non-limiting, illustrative aspects of the invention according to this disclosure.

本明細書で説明される技術を実装するために使用することができるコンピュータ装置およびモバイル装置の例を示している。1 illustrates example computing and mobile devices that can be used to implement the techniques described herein. ヘッドセットを装着しているユーザ、および、ヘッドセットを装着しているユーザが他のヘッドセットを装着しているユーザを知覚する光景を示している。It shows a user wearing a headset and the view that the user wearing the headset perceives the user wearing the other headset. ヘッドセットが取り外されたかのように、ユーザからヘッドセットの画像を取り除いてユーザのVRを作成する工程を示している。Fig. 3 shows the process of removing the headset image from the user to create the user's VR as if the headset had been removed. 下記実施形態における、ユーザ間のVRチャットを作成するための工程の一部を示している。4 shows part of the process for creating a VR chat between users in the embodiment described below. 下記実施形態における、ユーザ間のVRチャットを作成するための工程の一部を示している。4 shows part of the process for creating a VR chat between users in the embodiment described below. 下記実施形態における、ユーザ間のVRチャットを作成するための工程の一部を示している。4 shows part of the process for creating a VR chat between users in the embodiment described below. 下記実施形態における、ユーザ間のVRチャットを作成するための工程の一部を示している。4 shows part of the process for creating a VR chat between users in the embodiment described below.

記載された実施形態は、添付の図面を参照してより完全に説明され、同様の参照番号は同様の構造的/機能的特徴を識別する。以下に説明する例示の実施形態は単なる例示であり、当業者には理解されるように、様々な形態で実施することができるので、例示の実施形態は、決して例示のものに限定されない。したがって、本明細書に開示された構造的および機能的詳細は限定して解釈されるべきではなく、単に請求項の基礎として、および当業者が議論された実施形態を様々に使用することを教示するための表現として解釈されるべきである。さらに、本明細書で使用される用語および語句は、限定を意図するものではなく、例示された実施形態を理解可能とする説明を提供することを意図している。 The described embodiments are described more fully with reference to the accompanying drawings, in which like reference numerals identify like structural/functional features. The exemplary embodiments described below are merely exemplary and are by no means limited to the exemplary embodiments, as they can be embodied in various forms, as will be appreciated by those skilled in the art. Therefore, the structural and functional details disclosed herein are not to be construed as limiting, but merely as a basis for the claims and to teach those skilled in the art to use the discussed embodiments in various ways. should be interpreted as an expression for Moreover, the terms and phrases used herein are not intended to be limiting, but to provide an enabling description of the illustrated embodiments.

値の範囲が記載されている場合、文脈が明確に指示しない限り、その範囲の上限と下限、およびその述べられた範囲は、例示された実施形態に包含される。これらのより小さな範囲の上限および下限は、より小さな範囲に独立して含まれてもよく、記載された範囲内の具体的に除外された制限を条件として、例示された実施形態に包含される。述べられた範囲が制限の一方または両方を含む場合、それらの含まれた制限のいずれかを除外する範囲も、例示された実施形態に含まれる。 When a range of values is stated, the upper and lower limits of the range and the stated range are encompassed in the illustrated embodiment, unless the context clearly dictates otherwise. The upper and lower limits of these smaller ranges may independently be included in the smaller ranges and are encompassed in the illustrated embodiments, subject to any specifically excluded limit in the stated range. . Where the stated range includes one or both of the limits, ranges excluding either of those included limits are also included in the illustrated embodiment.

他に定義されない限り、本明細書で使用されるすべての技術用語および科学用語は、本発明が属する技術分野の当業者によって一般に理解されるものと同じ意味を有する。本明細書に記載されるものと同様または同等の任意の方法および材料もまた、例示される実施形態の実施または試験において使用され得るが、例示的な方法および材料がここで記載される。本明細書で言及されるすべての刊行物は、刊行物が引用されることに関連する方法および/または材料を開示および説明するために、参照により本明細書に組み入れられる。 Unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Although any methods and materials similar or equivalent to those described herein can also be used in the practice or testing of the illustrated embodiments, exemplary methods and materials are described here. All publications mentioned herein are incorporated herein by reference to disclose and describe the methods and/or materials in connection with which the publications are cited.

本明細書および添付の特許請求の範囲で使用される場合、単数形「a」、「an」、および「the」は、文脈から明らかにそうでないと指示されない限り、複数の指示対象を含むことに留意されたい。したがって、例えば、「1つの刺激」への言及は、複数のそのような刺激を含み、「信号」への言及は、1つ以上の信号および当業者に既知のその等価物への言及などを含む。 As used in this specification and the appended claims, the singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. Please note. Thus, for example, reference to "a stimulus" includes a plurality of such stimuli, reference to "a signal" includes reference to one or more signals and equivalents thereof known to those skilled in the art, etc. include.

本明細書で論じられる刊行物は、本出願の出願日より前のそれらの開示のためにのみ提供される。本明細書中のいかなるものも、例示された実施形態が、先行発明のおかげでそのような刊行物に先行する権利を与えられないことの承認として解釈されるべきではない。さらに、記載された発行日は実際の発行日とは異なる場合があり、個別に確認する必要がある場合がある。 The publications discussed herein are provided solely for their disclosure prior to the filing date of the present application. Nothing in this specification is to be construed as an admission that the illustrated embodiments are not entitled to antedate such publication by virtue of prior invention. Further, the dates of publication provided may be different from the actual publication dates which may need to be independently confirmed.

以下に説明する例示の実施形態は、好ましくは、コンピュータプロセッサを有するマシン上での実行を可能にする制御ロジックを有するコンピュータ可読媒体に記憶されたソフトウェアアルゴリズム、プログラムまたはコードであることが理解されるべきである。装置は通常、コンピュータアルゴリズムまたはプログラムの実行からの出力を提供するように構成されたストレージ装置を含む。 It is understood that the exemplary embodiments described below are preferably software algorithms, programs or code stored on a computer readable medium having control logic to enable execution on a machine having a computer processor. should. The apparatus typically includes a storage device configured to provide output from execution of a computer algorithm or program.

本明細書で使用する「ソフトウェア」という用語は、実装がハードウェア、ファームウェア、ディスク上で利用可能なソフトウェアコンピュータ製品、メモリストレージ装置またはリモート装置からのダウンロード用のいずれであるかに関係なく、ホストコンピュータのプロセッサ内にあるコードまたはプログラムと同義であることを意味する。本明細書で説明される実施形態は、上述の方程式、関係、およびアルゴリズムを実装するためのそのようなソフトウェアを含む。当業者は、上記の実施形態に基づいて、例示された実施形態のさらなる特徴および利点を理解するであろう。したがって、例示された実施形態は、添付の特許請求の範囲によって示される場合を除いて、特に示され説明されたものによって限定されるべきではない。本明細書で引用されるすべての刊行物および参考文献は、参照によりその全体が本明細書に明示的に組み込まれる。 As used herein, the term "software" shall be used regardless of whether the implementation is hardware, firmware, software computer products available on disk, memory storage devices, or for download from a remote device. Means synonymous with the code or program that resides in the processor of a computer. Embodiments described herein include such software to implement the equations, relationships, and algorithms described above. Those skilled in the art will appreciate further features and advantages of the illustrated embodiments based on the embodiments described above. Accordingly, the illustrated embodiments are not to be limited by what has been particularly shown and described, except as indicated by the appended claims. All publications and references cited herein are expressly incorporated herein by reference in their entirety.

次に、いくつかの図を通して同様の参照文字が同様の要素を示す図面を説明的に参照する。図1は、本明細書で説明する技術と共に使用できる例示的な汎用の計算システム600および汎用のモバイルコンピュータ装置650を示している。計算システム600およびモバイル装置650は、それらの1つまたは複数の構成要素が、本明細書に記載される本発明の例示された実施形態と共に使用され得る例示的な実施形態として理解されるべきである。 Reference will now be made illustratively to the drawings, in which like reference characters indicate like elements throughout the several views. FIG. 1 illustrates an exemplary general purpose computing system 600 and general purpose mobile computing device 650 that can be used with the techniques described herein. Computing system 600 and mobile device 650 are to be understood as exemplary embodiments of which one or more components may be used with the illustrated embodiments of the invention described herein. be.

計算装置600は、プロセッサ602と、メモリ604と、ストレージ装置606と、メモリ604および高速拡張ポート610に接続する高速インターフェース608と、低速バス614およびストレージ装置606に接続する低速インターフェース612とを含む。部材602、604、606、608、610、および612のそれぞれは、様々なバスを用いて相互接続され、必要に応じて、共通のマザーボードまたは他の方法で取り付けられてもよい。プロセッサ602は、メモリ604またはストレージ装置606に格納された命令を含む、計算装置600内で実行するための命令を処理して、高速インターフェース608に接続されたディスプレイ616などの外部入出力装置にGUIのグラフィック情報を表示することができる。他の実施態様では、複数のプロセッサおよび/または複数のバスを、必要に応じて、複数のメモリおよびメモリのタイプとともに使用することができる。さらに、複数の計算装置600を接続して、各装置が必要な動作の一部を提供してもよい(例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)。 Computing device 600 includes a processor 602 , memory 604 , storage device 606 , high speed interface 608 connecting to memory 604 and high speed expansion port 610 , and low speed interface 612 connecting to low speed bus 614 and storage device 606 . Each of the members 602, 604, 606, 608, 610, and 612 are interconnected using various buses and may be attached to a common motherboard or otherwise, if desired. Processor 602 processes instructions for execution within computing device 600 , including instructions stored in memory 604 or storage device 606 , to present a GUI on an external input/output device such as display 616 coupled to high speed interface 608 . of graphic information can be displayed. In other implementations, multiple processors and/or multiple buses may be used, as appropriate, along with multiple memories and memory types. Additionally, multiple computing devices 600 may be connected such that each device provides a portion of the required operations (eg, as a server bank, group of blade servers, or multiprocessor system).

メモリ604は、計算装置600内に情報を格納する。一実施態様では、メモリ604は、揮発性メモリユニットまたはユニットである。他の実装形態では、メモリ604は、1つまたは複数の不揮発性メモリユニットである。メモリ604は、磁気または光ディスクなどの他の形態のコンピュータ可読媒体であってもよい。 Memory 604 stores information within computing device 600 . In one implementation, memory 604 is a volatile memory unit or units. In other implementations, memory 604 is one or more non-volatile memory units. Memory 604 may be other forms of computer-readable media, such as magnetic or optical disks.

ストレージ装置606は、計算装置600に大容量ストレージを提供することを可能とする。一実装形態では、ストレージ装置606は、フロッピーディスク装置、ハードディスク装置、光ディスク装置などのコンピュータ可読媒体であるか、または、テープ装置、フラッシュメモリまたは他の同様のソリッドステートメモリ装置、またはストレージエリアネットワーク内の装置や他の構成の装置を含み得る。コンピュータプログラム製品は、情報担体に具体的に実現することができる。また、コンピュータプログラム製品は、実行されると、上記のような1つまたは複数の方法を実行する命令を含むことができる。情報担体は、メモリ604、記憶装置606、またはプロセッサ602上のメモリなどのコンピュータまたは機械可読媒体である。 Storage device 606 enables computing device 600 to provide mass storage. In one implementation, storage device 606 is a computer-readable medium such as a floppy disk drive, hard disk drive, optical disk drive, or a tape drive, flash memory or other similar solid state memory device, or in a storage area network. and other configurations of devices. A computer program product can be tangibly embodied in an information carrier. The computer program product may also include instructions that, when executed, perform one or more methods as described above. The information carrier is a computer or machine-readable medium such as memory 604 , storage device 606 , or memory on processor 602 .

高速コントローラ608は、計算装置600の帯域幅集約型動作を管理し、低速コントローラ612は、より低い帯域幅集約型動作を管理する。このような機能の割り当ては単なる例示である。一実装では、高速コントローラ608は、メモリ604、ディスプレイ616(例えば、グラフィックプロセッサまたはアクセラレータを介して)、および様々な拡張カード(図示せず)を受け入れることができる高速拡張ポート610に結合される。該実装において、低速コントローラ612は、ストレージ装置606および低速拡張ポート614に結合される。低速拡張ポートは、様々な通信ポート(例えば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、ワイヤレスイーサネット)を含むことができ、キーボード、ポインティング装置、スキャナーなどの1つ以上の入力/出力装置、またはスイッチやルーターなどのネットワーク装置に、たとえばネットワークアダプターを介して接続されている。 High speed controller 608 manages bandwidth-intensive operations of computing device 600, and low speed controller 612 manages lower bandwidth-intensive operations. Such functional assignments are merely exemplary. In one implementation, high speed controller 608 is coupled to memory 604, display 616 (eg, via a graphics processor or accelerator), and high speed expansion port 610, which can accept various expansion cards (not shown). In such an implementation, low speed controller 612 is coupled to storage device 606 and low speed expansion port 614 . Low-speed expansion ports can include various communication ports (e.g., USB, Bluetooth, Ethernet, wireless Ethernet) and one or more inputs/outputs such as keyboards, pointing devices, scanners, etc. A device, or connected to a network device such as a switch or router, for example, via a network adapter.

計算装置600は、図に示されるように、いくつかの異なる形態で実装され得る。例えば、それは、標準的なサーバ620として、またはそのようなサーバのグループにおいて複数回実装されてもよい。それはまた、ラックサーバシステム624の一部として実装されてもよい。さらに、ラップトップコンピュータ622などのパーソナルコンピュータで実装されてもよい。あるいは、計算装置600からのコンポーネントは、モバイル装置内の他のコンポーネントと組み合わされてもよい(そのような装置のそれぞれは、計算装置600、650のうちの1つまたは複数を含むことができ、システム全体は、互いに通信する複数の計算装置600、650から構成することができる。 Computing device 600 may be implemented in a number of different forms, as shown. For example, it may be implemented multiple times as a standard server 620 or in a group of such servers. It may also be implemented as part of the rack server system 624 . Further, it may be implemented on a personal computer such as laptop computer 622 . Alternatively, components from computing device 600 may be combined with other components in a mobile device (each such device may include one or more of computing devices 600, 650, The overall system can consist of multiple computing devices 600, 650 communicating with each other.

計算装置650は、とりわけ、プロセッサ652と、メモリ664と、ディスプレイ654などの入出力装置と、通信インターフェース666と、トランシーバ668とを含む。装置650は、追加のストレージを提供するために、マイクロドライブまたは他の装置などのストレージ装置を備えることもできる。部材650、652、664、654、666および668のそれぞれは、様々なバスを用いて相互接続され、これらの部材のいくつかは、共通のマザーボードに、または必要に応じて他の方法で取り付けられてもよい。 Computing device 650 includes, among others, processor 652, memory 664, input/output devices such as display 654, communication interface 666, and transceiver 668. Device 650 may also include storage devices such as microdrives or other devices to provide additional storage. Each of the members 650, 652, 664, 654, 666 and 668 are interconnected using various buses, some of which may be attached to a common motherboard or otherwise attached as desired. may

プロセッサ652は、メモリ664に格納された命令を含む、計算装置650内の命令を実行することができる。プロセッサは、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実装され得る。プロセッサは、たとえば、ユーザインターフェースの制御、装置650によって実行されるアプリケーション、および装置650によるワイヤレス通信など、装置650の他のコンポーネントの調整を提供することができる。 Processor 652 can execute instructions within computing device 650 , including the instructions stored in memory 664 . A processor may be implemented as a chipset of chips containing separate analog and digital processors. The processor may provide coordination of other components of device 650 , such as control of the user interface, applications executed by device 650 , and wireless communications by device 650 .

プロセッサ652は、ディスプレイ654に結合された制御インターフェース658およびディスプレイインターフェース656を介してユーザと通信し得る。ディスプレイ654は、例えば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)またはOLED(有機発光ダイオード)またはその他の適当なディスプレイ装置であることができる。ディスプレイインターフェース656は、ディスプレイ654を駆動してユーザにグラフィックおよび他の情報を提示するための適切な回路を備えることができる。制御インターフェース658は、ユーザからコマンドを受信し、それらをプロセッサ652へ提供するために変換することができる。さらに、外部インターフェース662は、装置650の他の装置との近距離通信を可能にするように、プロセッサ652と通信するように提供され得る。外部インターフェース662は、例えば、いくつかの実装における有線通信、または他の実装における無線通信を提供してもよく、複数のインターフェースも使用されてもよい。 Processor 652 may communicate with a user via control interface 658 and display interface 656 coupled to display 654 . Display 654 can be, for example, a TFT LCD (Thin Film Transistor Liquid Crystal Display) or OLED (Organic Light Emitting Diode) or other suitable display device. Display interface 656 may comprise suitable circuitry for driving display 654 to present graphics and other information to a user. Control interface 658 can receive commands from a user and convert them to provide them to processor 652 . Additionally, an external interface 662 may be provided to communicate with processor 652 to enable near field communication of device 650 with other devices. External interface 662 may provide, for example, wired communication in some implementations or wireless communication in other implementations, and multiple interfaces may also be used.

メモリ664は、計算装置650内の情報を格納する。メモリ664は、コンピュータ可読媒体または複数の揮発性メモリユニットまたは複数の不揮発性メモリユニットの1つまたは複数として実装することができる。拡張メモリ674も提供され、例えば、SIMM(シングルインラインメモリモジュール)カードインターフェースを含み得る拡張インターフェース672を介して装置650に接続され得る。そのような拡張メモリ674は、装置650に追加の記憶空間を提供することができ、または装置650のアプリケーションまたは他の情報も格納することができる。具体的には、拡張メモリ674は、上記の工程を実行または補足する命令を含み、安全な情報も含むことができる。したがって、例えば、拡張メモリ674は、装置650のセキュリティモジュールとして提供されてもよく、装置650の安全な使用を可能にする命令でプログラムされてもよい。さらに、SIMMカードにハッキングできない方法で識別情報を配置するなど、安全なアプリケーションが、追加の情報とともにSIMMカードを介して提供されてもよい。 Memory 664 stores information within computing device 650 . The memory 664 may be implemented as a computer readable medium or one or more of multiple volatile memory units or multiple non-volatile memory units. Expansion memory 674 is also provided and may be connected to device 650 via expansion interface 672, which may include, for example, a SIMM (single in-line memory module) card interface. Such expanded memory 674 may provide additional storage space for device 650 or may also store applications or other information for device 650 . Specifically, expansion memory 674 contains instructions that perform or supplement the above steps, and may also contain security information. Thus, for example, expansion memory 674 may be provided as a security module for device 650 and may be programmed with instructions that enable secure use of device 650 . In addition, secure applications may be provided through the SIMM card with additional information, such as placing identification information on the SIMM card in a way that cannot be hacked.

メモリは、例えば、以下で論じるように、フラッシュメモリおよび/またはNVRAMメモリを含むことができる。一実施態様では、コンピュータプログラム製品は、情報担体に有形に具体化される。コンピュータプログラム製品は、実行されると、上記のような1つまたは複数の方法を実行する命令を含む。情報担体は、メモリ664、拡張メモリ674、またはプロセッサ652上のメモリなどの、コンピュータまたは機械が読取可能な媒体であり、例えば、トランシーバ668または外部インターフェース662を介して受信することができる。 The memory may include, for example, flash memory and/or NVRAM memory, as discussed below. In one embodiment, a computer program product is tangibly embodied in an information carrier. The computer program product contains instructions that, when executed, perform one or more methods as described above. The information carrier is a computer or machine readable medium, such as memory 664 , expansion memory 674 , or memory on processor 652 , and may be received via transceiver 668 or external interface 662 , for example.

装置650は、通信インターフェース666を介して無線で通信することができ、通信インターフェース666は、必要に応じてデジタル信号処理回路を含むことができる。通信インターフェース666は、とりわけ、GSM音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなどの様々なモードまたはプロトコルの下で通信を提供することができる。そのような通信は、例えば、無線周波数トランシーバ668を介して行われ得る。さらに、ブルートゥース(登録商標)、Wi-Fi(登録商標)、または他のそのようなトランシーバ(図示せず)などを使用することにより、短距離通信が可能である。さらに、GPS(全地球測位システム)受信機モジュール670は、装置650上で実行されるアプリケーションによって適切に使用され得る、追加のナビゲーションおよびロケーション関連の無線データを装置650に提供し得る。 Device 650 may communicate wirelessly via communication interface 666, which may optionally include digital signal processing circuitry. Communication interface 666 may provide communication under various modes or protocols such as GSM voice calls, SMS, EMS, or MMS messaging, CDMA, TDMA, PDC, WCDMA, CDMA2000, or GPRS, among others. can be done. Such communication may occur via radio frequency transceiver 668, for example. Additionally, short-range communication is possible, such as by using Bluetooth®, Wi-Fi®, or other such transceivers (not shown). Additionally, a GPS (Global Positioning System) receiver module 670 may provide additional navigation and location-related wireless data to the device 650 that may be appropriately used by applications running on the device 650 .

また、装置650は、ユーザからの発話情報を受信し、発話情報を使用可能なデジタル情報に変換することができるオーディオコーデック660を用いて、可聴的に通信することができる。同様に、オーディオコーデック660は、例えば、装置650のハンドセット内のスピーカを介するなどして、ユーザのための可聴音を生成し得る。そのような音は、音声通話からの音を含むことができ、録音された音(例えば、音声メッセージ、音楽ファイルなど)や、装置650で動作するアプリケーションによって生成されたサウンドも含むことができる。 The device 650 can also audibly communicate using an audio codec 660 that can receive speech information from a user and convert the speech information into usable digital information. Similarly, audio codec 660 may generate audible sounds for the user, such as through a speaker within a handset of device 650 . Such sounds can include sounds from voice calls and can also include recorded sounds (e.g., voice messages, music files, etc.) and sounds generated by applications running on device 650.

計算装置650は、図に示されるように、いくつかの異なる形態で実装され得る。例えば、計算装置650は携帯電話680として実装されてもよい。また、計算装置650は、スマートフォン682、携帯情報端末、または他の同様のモバイル装置の一部として実装されてもよい。 Computing device 650 may be implemented in a number of different forms, as shown. For example, computing device 650 may be implemented as mobile phone 680 . Computing device 650 may also be implemented as part of smart phone 682, personal digital assistant, or other similar mobile device.

ここで説明するシステムと技術のさまざまな実装は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実現できる。これらのさまざまな実装には、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステムで実行および/または解釈可能な1つ以上のコンピュータプログラムでの実装が含まれる。当該プロセッサは、特別な又は一般的な目的で、データおよび命令を、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置に入出力するように組み合わされる。 Various implementations of the systems and techniques described herein may be realized in digital electronic circuits, integrated circuits, specially designed application-specific integrated circuits (ASICs), computer hardware, firmware, software, and/or combinations thereof. can. These various implementations include implementation in one or more computer programs executable and/or interpreted by a programmable system including at least one programmable processor. The processor is combined to input and output data and instructions to the storage system, at least one input device, and at least one output device for a special or general purpose.

これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとも称する)には、プログラマブルプロセッサの機械語命令が含まれ、高水準の手続型および/またはオブジェクト指向のプログラミング言語、および/またはアセンブリ/機械言語で実装できる。本明細書で使用される場合、「機械可読媒体」「コンピュータ可読媒体」という用語は、機械命令および/またはデータを、プログラマブルプロセッサ(機械可読信号として機械命令を受信する機械可読媒体を含む)に提供するために用いられる、以下に使用される任意のコンピュータプログラム製品、機器および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジック装置(PLD))を指す。「機械可読信号」という用語は、プログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。 These computer programs (also referred to as programs, software, software applications or code) contain machine language instructions for programmable processors and can be written in a high level procedural and/or object oriented programming language and/or assembly/machine language. can be implemented with As used herein, the terms "machine-readable medium" and "computer-readable medium" refer to the transfer of machine instructions and/or data to a programmable processor (including machine-readable media that receive machine instructions as machine-readable signals). Refers to any computer program product, apparatus and/or device (eg, magnetic disk, optical disk, memory, programmable logic device (PLD)) used hereinafter that is used to provide. The term "machine-readable signal" refers to any signal used to provide machine instructions and/or data to a programmable processor.

ユーザとの対話を提供するために、本明細書で説明するシステムと技術は、ユーザに情報を表示するためのディスプレイ装置(CRT(陰極線管)やLCD(液晶ディスプレイ)モニタなど)(および他の適切なディスプレイ技術)、キーボード、ユーザがコンピュータに入力を提供できるポインティング装置(マウスやトラックボールなど)を備えたコンピュータに実装できる。他の種類の装置を使用して、ユーザとの対話を提供することもできる。例えば、ユーザに提供されるフィードバックは、あらゆる形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であり得る。また、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形式で受け取ることができる。 To provide user interaction, the systems and techniques described herein use display devices (such as CRT (cathode ray tube) and LCD (liquid crystal display) monitors) (and other suitable display technology), a keyboard, and a pointing device (such as a mouse or trackball) that allows a user to provide input to the computer. Other types of devices can also be used to provide user interaction. For example, the feedback provided to the user can be any form of sensory feedback (eg, visual, auditory, or tactile feedback). Also, input from the user can be received in any form, including acoustic, speech, or tactile input.

本明細書で説明するシステムおよび技術は、計算システムに実装することができる。該計算システムは、バックエンドコンポーネント(たとえば、データサーバとして)、またはミドルウェアコンポーネント(たとえば、アプリケーションサーバ)、またはフロントエンドコンポーネント(たとえば、ユーザが本明細書で説明するシステムと技術の実装とやり取りできるグラフィカルユーザインターフェイスまたはWebブラウザを備えたクライアントコンピュータ)、またはそのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネントの任意の組み合わせを含む。該システムのコンポーネントは、デジタルデータ通信の任意の形式または媒体(通信ネットワークなど)で相互接続できる。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットが含まれる。 The systems and techniques described herein can be implemented in computing systems. The computing system may be a back-end component (eg, as a data server), or a middleware component (eg, an application server), or a front-end component (eg, a graphical server that allows users to interact with implementations of the systems and techniques described herein). client computer with a user interface or web browser), or any combination of such back-end, middleware, or front-end components. The components of the system can be interconnected by any form or medium of digital data communication, such as a communication network. Examples of communication networks include local area networks (“LAN”), wide area networks (“WAN”), and the Internet.

計算システムは、クライアントとサーバを含むことができる。クライアントとサーバは一般に互いにリモートであり、通常は通信ネットワークを介して対話する。クライアントとサーバの関係は、それぞれのコンピュータ上で実行され、互いにクライアント/サーバ関係を有するコンピュータプログラムによって生じる。 The computing system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship of client and server arises by virtue of computer programs running on the respective computers and having a client/server relationship to each other.

図1に示す計算装置は、仮想現実(VRヘッドセット690)とインターフェースで接続されている。図示された実施形態では、あるユーザが他のユーザと対話するときにヘッドセット690の外観を仮想的に取り除くために、1つまたは複数のセンサがVRヘッドセットに含まれている。例えば、ヘッドセットセンサ690は、ユーザの瞳孔を追跡しながらユーザの目を照らす1つ以上のLED691と、ユーザの目/瞳孔を記録するための1つ以上のマイクロカメラ693とを含み得る。 The computing device shown in FIG. 1 is interfaced with virtual reality (VR headset 690). In the illustrated embodiment, one or more sensors are included in the VR headset to virtually remove the appearance of headset 690 when one user interacts with another. For example, headset sensors 690 may include one or more LEDs 691 that illuminate the user's eyes while tracking the user's pupils, and one or more microcameras 693 for recording the user's eyes/pupils.

例えば、本発明の実施形態は、ヘッドセット690が着用されているときのユーザの隠された顔のプロキシとして、カメラ装置400を使用してヘッドセット690の無いユーザの顔704のモデルを作成する。このプロキシは、複合現実(MR)ビデオで顔を合成するために使用される。これにより、VR領域で他のユーザと対話しているときにヘッドセット690が削除されているような印象を与える。例えば、この初期較正ステップは、ユーザ704がカラー+深度カメラ400およびモニタの前に座り、次に、目でモニタ上のマーカを追跡することを必要とする場合がある。この較正手順は、ユーザ704の3D顔モデルを取得し、(センサ691および693を介して)外観画像(またはテクスチャ)を異なる視線方向および瞬きにマッピングするデータベースを作成する。前述の視線データベース(すなわち、好ましくは視線によってインデックスが付けられたテクスチャを備えた顔モデル)により、ユーザの顔の外観を動的に変化させて、所望の(かつリアルタイムの)視線を生成する。これにより、自然で生き生きとした合成された顔の外観を作成できる。顔の構成は、適切なワイヤフレームソフトウェア技術を使用することによって変更することができることを理解されたい。 For example, embodiments of the present invention use the camera device 400 to model the user's face 704 without the headset 690 as a proxy for the user's hidden face when the headset 690 is worn. . This proxy is used to synthesize faces in mixed reality (MR) video. This gives the impression that the headset 690 is removed while interacting with other users in the VR realm. For example, this initial calibration step may require the user 704 to sit in front of the color+depth camera 400 and monitor and then track markers on the monitor with their eyes. This calibration procedure takes a 3D face model of user 704 and creates a database that maps appearance images (or textures) (via sensors 691 and 693) to different gaze directions and blinks. The aforementioned gaze database (ie, preferably textured face models indexed by gaze) dynamically changes the appearance of the user's face to produce the desired (and real-time) gaze. This allows for the creation of natural and lifelike synthetic facial appearances. It should be appreciated that the composition of the face can be changed by using suitable wireframe software techniques.

いくつかの実装形態では、計算装置(たとえば、マウス、キーボード)に加えて1つまたは複数の入力装置を、コンピュータ生成の3D環境でレンダリングすることができる。レンダリングされた入力装置(レンダリングされたマウス、レンダリングされたキーボードなど)は、VRスペースでレンダリングされたものとして使用して、VRスペースのオブジェクトを制御できる。 In some implementations, one or more input devices in addition to computing devices (eg, mouse, keyboard) can be rendered in a computer-generated 3D environment. Rendered input devices (rendered mouse, rendered keyboard, etc.) can be used as rendered in the VR space to control objects in the VR space.

計算装置600は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適当なコンピュータなど、様々な形態のデジタルコンピューターを表すことを意図している。計算装置650は、携帯情報端末、携帯電話、スマートフォン、および他の同様の計算装置などの様々な形態のモバイル装置を表すことが意図されている。本明細書に示されている部材、それらの接続および関係、およびそれらの機能は、例示のみを目的としており、この文書で説明および/またはクレームされている発明の実装を制限することを意図していない。 Computing device 600 is intended to represent various forms of digital computers, such as laptops, desktops, workstations, personal digital assistants, servers, blade servers, mainframes, and other suitable computers. Computing device 650 is intended to represent various forms of mobile devices such as personal digital assistants, mobile phones, smart phones, and other similar computing devices. The members, their connections and relationships, and their functions shown herein are for illustrative purposes only and are not intended to limit the implementation of the inventions described and/or claimed in this document. not

以上のように、図1を参照して、例示的な計算システム環境100を概略的に示して説明した。以下、図2~図7を参照して、様々な例示的な実施形態の実装を説明する。 Thus, an exemplary computing system environment 100 is schematically illustrated and described with reference to FIG. Implementations of various exemplary embodiments are described below with reference to FIGS.

本発明の例示の実施形態の使用環境は、好ましくはライブビデオを用いたVRでのオンラインチャットを可能にするシステム600に関することを理解されたい。例示された実施形態を説明するために使用される以下で論じられる例では、ローカルユーザおよびリモートユーザの2人のライブチャットを想定していることを理解されたい(本発明がそれに限定されるものと理解されるべきではない)。例示的な実施形態は、Oculus Rift(商標)などのVRシステムと、ユーザごとの1つまたは複数のウェブカメラ400と、好ましくはグリーンバックとを含む、上述のシステム600の1つまたは複数のコンポーネントを含む。図2を参照すると、図示の実施形態によるVRチャットセッション中、例えば、ヘッドセット690を装着したリモートユーザ700は、ローカルユーザ704が装着しているヘッドセット690を差し引いた他のユーザ702(ヘッドセット690を装着)のライブビデオがVRで見える。同様に、同じVRチャットセッション中に、ヘッドセット690を装着しているリモートユーザ702は、VRでローカルユーザが装着しているヘッドセット690を差し引いたユーザ700(ヘッドセット690を装着)のライブビデオがVRで見える。 It should be appreciated that the environment of use of the exemplary embodiment of the present invention relates to a system 600 that preferably enables online chat in VR with live video. It should be understood that the examples discussed below used to describe the illustrated embodiments assume a live chat between two users, a local user and a remote user (to which the invention is limited). should not be understood as). An exemplary embodiment includes one or more components of the system 600 described above, including a VR system such as the Oculus Rift™, one or more webcams 400 per user, and preferably a green screen. including. Referring to FIG. 2, during a VR chat session according to the illustrated embodiment, for example, a remote user 700 wearing a headset 690 can see other users 702 (headset 690) minus the headset 690 worn by local user 704. 690) live video can be seen in VR. Similarly, during the same VR chat session, a remote user 702 wearing a headset 690 will see the live video of user 700 (wearing the headset 690) minus the headset 690 worn by the local user in VR. is visible in VR.

本発明の一態様によれば(および図3を参照すると)、リモートユーザのヘッドセットの視覚は、ローカルユーザの頭の事前に記録された静止画像/ビデオを重ね合わせることによって置き換えられる。VRヘッドセットを装着しているときは、一般的に口と顔の下部が依然として見えるため、ユーザの頭の一部だけを重ねることが好ましい。好ましくは、ライブビデオ効果は、好ましくは標準の2Dウェブカメラ400(図4)を使用して、クロマキー(「グリーンバック」)技術によって作成される。したがって、例示された実施形態によれば、各ユーザ704、706は、好ましくは、携帯用グリーンバック(402)の前に位置する。これは、特定のソフトウェア技術によって打ち消される場合があること、または3Dカメラを使用してグリーンバックなしでユーザの輪郭を決定できる場合があることを理解されたい。 According to one aspect of the present invention (and with reference to FIG. 3), the vision of the remote user's headset is replaced by superimposing pre-recorded still images/video of the local user's head. It is preferable to overlap only a portion of the user's head when wearing the VR headset, as the mouth and lower part of the face are typically still visible. Preferably, the live video effect is created with chromakey (“green screen”) technology, preferably using a standard 2D webcam 400 (FIG. 4). Therefore, according to the illustrated embodiment, each user 704, 706 is preferably positioned in front of a portable green screen (402). It should be appreciated that this may be counteracted by certain software techniques, or that a 3D camera may be used to determine the user's outline without a green screen.

以下で説明するように、例示の実施形態によれば、2人以上のユーザ(704および706)が、各ユーザの場所で特別なウェブカメラ400を使用してライブオンラインチャットに参加することができる。各ユーザ(704、706)は、好ましくは、VRヘッドセット690(700、702)を着用し、それにより、各ユーザ(704、706)は、重ね合わせて事前に記録された他のユーザの頭(706、704)の画像を見る。放送画像は、好ましくは、ライブビデオと事前に記録された画像の合成である。ライブビデオは、好ましくは、ユーザの口領域(図3)の真上まで(例えば、VRヘッドセット690が一般的に存在する場所)の身体を含む。したがって、記録された画像は、好ましくは、ユーザの鼻、目、および頭頂部である(704、706)。企業のテレビ会議など、3人以上とのライブチャットを実現できることを理解されたい。 As described below, according to an exemplary embodiment, two or more users (704 and 706) can participate in a live online chat using special webcams 400 at each user's location. . Each user (704, 706) preferably wears a VR headset 690 (700, 702) so that each user (704, 706) can superimpose and pre-record the other user's head. Look at the images at (706, 704). The broadcast image is preferably a composite of live video and pre-recorded images. The live video preferably includes the body directly above the user's mouth area (FIG. 3) (eg, where VR headsets 690 typically reside). Therefore, the images recorded are preferably of the user's nose, eyes, and top of the head (704, 706). It should be appreciated that a live chat with three or more people can be realized, such as a corporate video conference.

この記録された画像は、特殊な形式の写真測量を使用して事前に作成することもできる。これは、複数の2D画像をつなぎ合わせて処理し、3Dモデルとテクスチャを作成する手法である。現在、この工程は高価で時間がかかり、特別なハードウェアと複数のカメラが必要である。対照的に、本発明の実施形態によれば、それぞれが立体視または平面視のいずれかを有する、ユーザに面する2つのカメラからなる安価な立体カメラを利用することができる。たとえば、カメラがシーンを記録してキャプチャしている間、ユーザは椅子で回転する。立体視または平面視のカメラ出力の後処理を使用して、3Dモデルを生成する。 This recorded image can also be pre-created using a special form of photogrammetry. This is a method of stitching and processing multiple 2D images to create a 3D model and textures. Currently, this process is expensive and time consuming, requiring special hardware and multiple cameras. In contrast, according to embodiments of the present invention, an inexpensive stereoscopic camera consisting of two cameras facing the user, each having either stereoscopic or monoscopic vision, can be utilized. For example, the user rotates in a chair while the camera records and captures the scene. Post-processing of the stereoscopic or monoscopic camera output is used to generate the 3D model.

図4~7を参照して、例示された実施形態によるVRセッションを可能にするための例示的な工程を説明する。まず、ヘッドセットなしの各ユーザ704(図4)、706(図5)の顔がウェブカメラ400によって撮影される。次に、図6および7に示されるように、各ユーザ(704、706)は、ヘッドセット690を着用する。ヘッドセット690は、視線、動き、瞬きを検出する前述のLEDセンサ691および693を備えている。マイクロビデオカメラセンサ693がユーザの瞳孔を追跡している間、センサ691は、ヘッドセット690内のユーザの片方の目を照らして瞳孔の動きを追跡することが好ましい。処理チップ602は、好ましくはソフトウェアを介して瞳孔を「スティッチング」して、ヘッドセット690によって隠されている顔の画像を完成させることにより、動いている瞳孔を顔に復元するように構成され、動作可能であることが好ましい。したがって、ユーザ704および706の両方が、他方のユーザ704、706の顔が自分の前にあり、ヘッドセット690で覆い隠されていないかのように、リアルタイムで(それぞれのヘッドセット690を介して)互いの3D画像を見ることができる。 Exemplary steps for enabling a VR session according to an exemplary embodiment are described with reference to FIGS. First, the face of each user 704 (FIG. 4), 706 (FIG. 5) without a headset is captured by the webcam 400 . Each user (704, 706) then dons a headset 690, as shown in FIGS. Headset 690 includes the aforementioned LED sensors 691 and 693 that detect eye gaze, movement and blinks. Sensor 691 preferably illuminates one of the user's eyes in headset 690 to track the movement of the pupil while micro-video camera sensor 693 tracks the user's pupil. The processing chip 602 is configured to restore the moving pupils to the face, preferably by "stitching" the pupils through software to complete the image of the face obscured by the headset 690. , is preferably operable. Thus, both users 704 and 706 can see in real-time (via their respective headsets 690) as if the other user's 704, 706 face was in front of them and not obscured by the headset 690. ) can see each other's 3D images.

さらに好ましくは、各ユーザの額および眉毛に配置された電気感応装置をさらに使用することにより、各ユーザ704、706の眉をひそめた表情も、処理チップ602上のソフトウェア処理を介して追跡され得る。 More preferably, by further using electro-sensitive devices placed on each user's forehead and eyebrows, each user's 704, 706 frown expression can also be tracked via software processing on the processing chip 602. .

要約すると、1または複数の例示された実施形態によれば、本発明は、ユーザのヘッドセットを除いた、ビデオチャットにおけるユーザのウェブカメラビデオストリームの仮想投影を可能にする。これは、写真測量などのモデリング手法を使用して、ユーザの頭を3Dでモデリングすることによって実現される。たとえば、ユーザの頭の上部はリアルタイムでこのモデルに置き換えられるため、他の参加ユーザには、参加ユーザの体、頭、顔、目からヘッドセット690を差し引いたものだけが見える。 In summary, according to one or more exemplary embodiments, the present invention enables virtual projection of a user's webcam video stream in a video chat, excluding the user's headset. This is accomplished by modeling the user's head in 3D using modeling techniques such as photogrammetry. For example, the top of the user's head is replaced by this model in real time, so that other participating users see only the participating user's body, head, face, and eyes minus the headset 690 .

1つ以上の静止した立体3Dカメラ(たとえば、StereoLabs ZEDカメラ、Microsoft Kinect、Intel RealSenseラインの3Dカメラなど)を使用して、複数のユーザ(たとえば、3人以上のユーザ)を取り囲み、各ユーザをモデル化してもよいことを理解されたい。3Dカメラ技術は、ユーザの位置を追加で計算し、VRの協調的な相互作用を提供してもよい。たとえば、2人のユーザが火星でキャッチゲームをプレイしたり、2人が一緒にグランドキャニオンでバーチャルウォークをしたりすることができる。 One or more stationary stereoscopic 3D cameras (e.g., StereoLabs ZED cameras, Microsoft Kinect, Intel RealSense line of 3D cameras, etc.) are used to surround multiple users (e.g., three or more users) and It should be understood that it may be modeled 3D camera technology may additionally calculate the user's position and provide VR collaborative interaction. For example, two users can play a game of catch on Mars, or two can take a virtual walk through the Grand Canyon together.

本発明の計算システム600およびヘッドセット690は、拡張現実(AR)設定での使用のために構成され、動作可能であることを理解されたい。ARは、コンピュータで生成された拡張機能を既存の現実の上に重ねて、それを操作する機能を通じてより意味のあるものにするための技術であると理解される。例示された実施形態は、アプリとして使用するために開発されているAR、および、好ましくは、デジタル要素および現実世界が互いに強調されるような方法で、デジタル要素を現実世界に混合するヘッドセット690を含む。例えば、本発明のヘッドセット690を着用した、各々が異なる場所にいる2人以上のユーザは、選択された設定(例えば、スカイダイビング)および/または場所(例えば、パリ)において、互いに隣り合うように見えるようにヘッドセット690を使用/操作することができる。これにより、彼らはリアルタイムで同じ設定(例えば、フランスのパリの通り)を想像するだけでなく、本明細書の教示に従って、ヘッドセット690が取り外されたかのように互いを見ることができる。 It should be appreciated that the computing system 600 and headset 690 of the present invention are configured and operable for use in an augmented reality (AR) setting. AR is understood to be a technique for layering a computer-generated extension on top of an existing reality to make it more meaningful through the ability to manipulate it. The illustrated embodiment is an AR being developed for use as an app and a headset 690 that preferably blends the digital elements into the real world in such a way that the digital elements and the real world are accentuated with each other. including. For example, two or more users, each at different locations, wearing headsets 690 of the present invention may be placed next to each other in a selected setting (e.g., skydiving) and/or location (e.g., Paris). The headset 690 can be used/operated in such a way that the This allows them not only to imagine the same setting in real time (e.g., the streets of Paris, France), but also to see each other as if the headset 690 were removed according to the teachings herein.

さらに、計算システム600および/またはヘッドセット690の追加の実施形態は、好ましくは少なくとも2つの別個のビデオフィードおよび/または単一のビデオフィードを、好ましくは所定の静止フレーム画像キャッシュと組み合わせて使用するリアルタイム画像スティッチングを提供するように構成され得ることを理解されたい。ユーザの顔の「目の領域」は、VRディスプレイ装置により通常は覆い隠されるため、アイトラッキングは、初期の「セットアップ」フェーズ(画像キャッシュ)から取得され、画像スティッチングステップに用いられる、キャッシュされた画像および/または「混合された」画像のリアルタイム選択が可能なVRディスプレイ装置内に取り付けられたカメラを介して実行されることが好ましい。これにより、最終的な(合成/スティッチング)ビデオを使用してリアルタイムの3D顔追跡と再構成が提供される。リアルタイムの(ユーザを表す)デジタル作成顔を使用することにより、顔/結果が、リアルタイムのビデオおよび/またはユーザの深度抽出のいずれかに合成されることが好ましいことを理解されたい。ユーザの身体は、グリーンバック技術および/または深度抽出技術のいずれかを使用して、その背景から抽出されることが好ましいことを理解されたい。さらに、完全に再構成されたユーザは、360度ビデオ、VRチャットルーム、その他の適用可能なアプリケーション(これらに限定されない)などの多数のアプリケーションに合成される場合があることを理解されたい。さらに、現在使用および/または研究されている以下の種々の技術(例えば、SDK、APIなど)には、以下が含まれる(ただし、これらに限定されない):EmguCV、OpenCVおよびMATLAB(登録商標);SDK付きZEDカメラ;ARKit;主要なプログラミング言語:C#およびC++;Unity(ゲームエンジン);Oculusおよび/またはVive(VRディスプレイ装置)。 Additionally, additional embodiments of computing system 600 and/or headset 690 preferably use at least two separate video feeds and/or a single video feed, preferably in combination with a predetermined still frame image cache. It should be appreciated that it can be configured to provide real-time image stitching. Since the 'eye region' of the user's face is usually obscured by the VR display device, eye tracking is obtained from the initial 'setup' phase (image caching) and used for the image stitching step. Preferably, real-time selection of mixed and/or "blended" images is performed via a camera mounted within the VR display device. This provides real-time 3D face tracking and reconstruction using the final (compositing/stitching) video. It should be appreciated that by using a digitally created face (representing the user) in real time, the face/result is preferably composited with either real-time video and/or depth extraction of the user. It should be appreciated that the user's body is preferably extracted from its background using either green background and/or depth extraction techniques. Further, it should be appreciated that the fully reconstructed user may be composited into numerous applications such as, but not limited to, 360-degree videos, VR chat rooms, and other applicable applications. Additionally, various technologies (e.g., SDKs, APIs, etc.) currently in use and/or under study include, but are not limited to: EmguCV, OpenCV and MATLAB®; ZED camera with SDK; ARKit; major programming languages: C# and C++; Unity (game engine); Oculus and/or Vive (VR display devices).

上記の特定の例示的な実施形態では、本明細書で説明される様々な非限定的な実施形態は、特定の用途のために別々に組み合わせて、または選択的に組み合わせて実施できることを理解されたい。さらに、上記の非限定的な実施形態の様々な特徴のいくつかは、他の記載された対応する特徴なしで使用され得る。したがって、本明細書で提供される説明は、本発明の原理、教示、および例示的な実施形態の単なる例示と看做されるべきであり、それらを限定するものと看做されるべきではない。 In the specific exemplary embodiments above, it is understood that the various non-limiting embodiments described herein can be implemented separately or selectively in combination for a particular application. sea bream. Moreover, some of the various features of the non-limiting embodiments described above may be used without other described corresponding features. Accordingly, the description provided herein should be considered merely illustrative of the principles, teachings, and exemplary embodiments of this invention and not limiting thereof. .

Claims (14)

少なくとも1人のユーザがVRヘッドセットを装着した2人以上のユーザ間の仮想現実(VR)相互作用を生成するための計算方法であって、
1つ以上のセンサが搭載されたVRヘッドセットを装着している少なくとも1人のユーザの2次元(2D)画像を、カメラ装置を使用して生成する工程と、
前記1つ以上のセンサを使用して前記ユーザの瞳孔の動きを追跡する工程と、
前記ヘッドセットを着用している前記ユーザの前記生成された2D画像からヘッドセット画像を削除する工程と、
他のユーザが、前記ユーザがヘッドセットを装着していないかのように前記ユーザのVR画像を見ることができるように、前記1つ以上のセンサによってレンダリングされた前記ユーザの検出および記録された瞳孔画像をスティッチングして、前記ユーザの前記生成された2D画像から前記ヘッドセット画像が削除された領域に重ね合わせる工程と、
を有する計算方法。
A computational method for generating a virtual reality (VR) interaction between two or more users, at least one user wearing a VR headset, comprising:
generating, using a camera device, a two-dimensional (2D) image of at least one user wearing a VR headset equipped with one or more sensors;
tracking movement of the user's pupil using the one or more sensors;
removing a headset image from the generated 2D image of the user wearing the headset;
Detected and recorded rendering of the user by the one or more sensors so that other users can view the VR image of the user as if the user were not wearing the headset. stitching a pupil image to overlay the region from the generated 2D image of the user where the headset image was removed;
A calculation method that has
前記2D画像はビデオカメラを使用して生成される、請求項1に記載の計算方法。 2. The computational method of claim 1, wherein the 2D image is generated using a video camera. 前記カメラ装置は深度センサを有する、請求項1に記載の計算方法。 2. The computing method according to claim 1, wherein said camera device comprises a depth sensor. 前記1つ以上のセンサは赤外線LEDセンサを含む、請求項1に記載の計算方法。 2. The computing method of claim 1, wherein the one or more sensors comprise infrared LED sensors. 前記1つ以上のセンサは、ユーザの瞳孔の方向を記録するためのマイクロビデオカメラをさらに含む、請求項4に記載の計算方法。 5. The computing method of claim 4, wherein the one or more sensors further comprise a micro-video camera for recording the orientation of the user's pupil. ユーザがリアルタイムで互いを見ることができる、請求項1に記載の方法。 3. The method of claim 1, wherein users can see each other in real time. 少なくとも1人のユーザがVRヘッドセットを装着した2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置であって、
1つ以上のセンサコンポーネントが搭載された少なくとも1つのVRヘッドセット装置と、
前記VRヘッドセット装置を着用しているユーザの画像を少なくとも取り込むためのカメラ装置と、
少なくとも1つの前記VRヘッドセット装置およびカメラ装置のそれぞれに通信可能に接続されたVRイメージング計算装置と、
を備え、
前記VRイメージング計算装置は、
メモリと、
前記メモリと通信するように設けられ、前記メモリに格納された複数の命令を実行するように構成されたプロセッサと、
を備え、
前記命令は、
1つ以上のセンサが搭載されたVRヘッドセットを装着している少なくとも1人のユーザの2次元(2D)画像を、カメラ装置を使用して生成し、
前記VRヘッドセットに搭載された前記1つ以上のセンサを使用して前記ユーザの瞳孔の動きを追跡し、
前記ヘッドセットを着用している前記ユーザの前記生成された2D画像からヘッドセット画像を削除し、
他のユーザが、前記ユーザがヘッドセットを装着していないかのように前記ユーザのVR画像を見ることができるように、前記VRヘッドセットの前記1つ以上のセンサによってレンダリングされた前記ユーザの検出および記録された瞳孔画像をスティッチングして、前記ユーザの前記生成された2D画像から前記ヘッドセット画像が削除された領域に重ね合わせる、
ことを前記プロセッサに実行させる、装置。
1. An apparatus for generating a virtual reality (VR) interaction between two or more users, at least one user wearing a VR headset, comprising:
at least one VR headset device equipped with one or more sensor components;
a camera device for capturing at least an image of a user wearing said VR headset device;
a VR imaging computing device communicatively connected to each of said at least one VR headset device and camera device;
with
The VR imaging computing device comprises:
memory;
a processor in communication with the memory and configured to execute a plurality of instructions stored in the memory;
with
Said instruction
generating, using a camera device, a two-dimensional (2D) image of at least one user wearing a VR headset equipped with one or more sensors;
tracking movement of the user's pupil using the one or more sensors mounted on the VR headset;
removing a headset image from the generated 2D image of the user wearing the headset;
A view of the user rendered by the one or more sensors of the VR headset such that other users can see the VR image of the user as if the user were not wearing the headset. stitching the detected and recorded pupil image to overlay the area where the headset image was removed from the generated 2D image of the user;
An apparatus that causes the processor to:
前記カメラ装置はビデオカメラである、請求項9に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 10. A device for generating virtual reality (VR) interactions between two or more users as recited in claim 9, wherein said camera device is a video camera. 前記カメラ装置はスマートフォン装置と統合されている、請求項9に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 10. A device for generating virtual reality (VR) interactions between two or more users as recited in claim 9, wherein said camera device is integrated with a smart phone device. 前記カメラ装置は深度センサを有する、請求項1に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 2. A device for generating virtual reality (VR) interactions between two or more users as recited in claim 1, wherein said camera device comprises a depth sensor. 前記VRヘッドセットに搭載された前記1つ以上のセンサコンポーネントは、赤外線LEDセンサを含む、請求項1に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 2. An apparatus for generating virtual reality (VR) interactions between two or more users as recited in claim 1, wherein said one or more sensor components mounted on said VR headset include infrared LED sensors. 前記VRヘッドセットに搭載された前記1つ以上のセンサコンポーネントは、ユーザの瞳孔の方向を記録するための少なくとも1つのマイクロビデオカメラを含む、請求項11に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 12. The virtual communication between two or more users of claim 11, wherein the one or more sensor components mounted on the VR headset include at least one micro-video camera for recording user pupil orientation. Apparatus for creating real-life (VR) interactions. ユーザがリアルタイムで互いを見ることができる、請求項7に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 8. An apparatus for creating virtual reality (VR) interactions between two or more users as recited in claim 7, wherein the users can see each other in real time. ユーザは、所定の画像を背景として見ることができる、請求項7に記載の2人以上のユーザ間の仮想現実(VR)相互作用を生成するための装置。 8. Apparatus for generating virtual reality (VR) interactions between two or more users according to claim 7, wherein the users can see a predetermined image as a background.
JP2023044888A 2018-03-13 2023-03-22 Virtual reality system and method Pending JP2023078342A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862642488P 2018-03-13 2018-03-13
US62/642,488 2018-03-13
PCT/US2019/022121 WO2019178276A1 (en) 2018-03-13 2019-03-13 Virtual reality system and method
JP2020546898A JP7250809B2 (en) 2018-03-13 2019-03-13 Virtual reality system and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020546898A Division JP7250809B2 (en) 2018-03-13 2019-03-13 Virtual reality system and method

Publications (1)

Publication Number Publication Date
JP2023078342A true JP2023078342A (en) 2023-06-06

Family

ID=67908536

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020546898A Active JP7250809B2 (en) 2018-03-13 2019-03-13 Virtual reality system and method
JP2023044888A Pending JP2023078342A (en) 2018-03-13 2023-03-22 Virtual reality system and method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020546898A Active JP7250809B2 (en) 2018-03-13 2019-03-13 Virtual reality system and method

Country Status (5)

Country Link
EP (1) EP3729177A4 (en)
JP (2) JP7250809B2 (en)
CN (2) CN116700489A (en)
CA (1) CA3089885A1 (en)
WO (1) WO2019178276A1 (en)

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3464754B2 (en) * 1997-09-19 2003-11-10 日本電信電話株式会社 Method and apparatus for synthesizing a face image of a person wearing a head-mounted display
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
JP4794678B1 (en) * 2010-05-24 2011-10-19 株式会社ソニー・コンピュータエンタテインメント Video processing apparatus, video processing method, and video communication system
US9063330B2 (en) * 2013-05-30 2015-06-23 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
WO2015185537A1 (en) * 2014-06-03 2015-12-10 Thomson Licensing Method and device for reconstruction the face of a user wearing a head mounted display
BR112017002426A2 (en) 2014-08-04 2021-10-05 Facebook, Inc. METHOD AND SYSTEM TO RECONSTRUCT OBSTRUCTED FACIAL PORTIONS FOR VIRTUAL REALITY ENVIRONMENT
GB2534580B (en) * 2015-01-28 2020-06-17 Sony Interactive Entertainment Europe Ltd Image processing
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
EP3185176A1 (en) * 2015-12-21 2017-06-28 THOMSON Licensing Method and device for synthesizing an image of a face partially occluded
US11163358B2 (en) * 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
CN105867617B (en) * 2016-03-25 2018-12-25 京东方科技集团股份有限公司 Augmented reality equipment, system, image processing method and device
US20170287215A1 (en) * 2016-03-29 2017-10-05 Google Inc. Pass-through camera user interface elements for virtual reality
CN109643527A (en) * 2016-04-01 2019-04-16 易客斯特解决方案公司 Virtual Reality Platform for retail environment emulation
CN107305621A (en) 2016-04-17 2017-10-31 张翔宇 The image capture device and image synthesis system of a kind of virtual reality glasses
US10722800B2 (en) * 2016-05-16 2020-07-28 Google Llc Co-presence handling in virtual reality
GB2551323B (en) * 2016-06-08 2021-02-10 Companion Ltd System providing a shared environment
CN107491165A (en) 2016-06-12 2017-12-19 张翔宇 A kind of vr eyewear faces 3d images, plane picture capture and gesture capture systems
CN107680069B (en) * 2017-08-30 2020-09-11 歌尔股份有限公司 Image processing method and device and terminal equipment

Also Published As

Publication number Publication date
EP3729177A1 (en) 2020-10-28
CN111936910A (en) 2020-11-13
JP7250809B2 (en) 2023-04-03
CA3089885A1 (en) 2019-09-19
CN116700489A (en) 2023-09-05
EP3729177A4 (en) 2021-10-06
WO2019178276A1 (en) 2019-09-19
JP2021517300A (en) 2021-07-15

Similar Documents

Publication Publication Date Title
US10684467B2 (en) Image processing for head mounted display devices
AU2018234929B2 (en) Technique for recording augmented reality data
US10049496B2 (en) Multiple perspective video system and method
US20230105064A1 (en) System and method for rendering virtual reality interactions
US20130101164A1 (en) Method of real-time cropping of a real entity recorded in a video sequence
CA2924156A1 (en) Method, system and apparatus for capture-based immersive telepresence in virtual environment
Gonzalez-Franco et al. Movebox: Democratizing mocap for the microsoft rocketbox avatar library
CN111862348B (en) Video display method, video generation method, device, equipment and storage medium
KR20220047719A (en) Pew-Shot Composite for Talking Head
WO2022271415A1 (en) Body pose estimation using self-tracked controllers
US11099392B2 (en) Stabilized and tracked enhanced reality images
US20230386147A1 (en) Systems and Methods for Providing Real-Time Composite Video from Multiple Source Devices Featuring Augmented Reality Elements
JP7250809B2 (en) Virtual reality system and method
Feng Mobile AR Telepresence

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402