JP2018107785A - 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 - Google Patents
仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 Download PDFInfo
- Publication number
- JP2018107785A JP2018107785A JP2017084630A JP2017084630A JP2018107785A JP 2018107785 A JP2018107785 A JP 2018107785A JP 2017084630 A JP2017084630 A JP 2017084630A JP 2017084630 A JP2017084630 A JP 2017084630A JP 2018107785 A JP2018107785 A JP 2018107785A
- Authority
- JP
- Japan
- Prior art keywords
- data
- user
- computer
- hmd
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/32—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
- A63F13/323—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
- A63F13/352—Details of game servers involving special game server arrangements, e.g. regional servers connected to a national server or a plurality of servers managing partitions of the game world
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/44—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Cardiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Social Psychology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Telephone Function (AREA)
Abstract
【解決手段】アバターオブジェクトを表示するデータと音声データを出力するコンピュータ200は、プロセッサ10と、メモリモジュール240と、通信制御モジュール250とを備える。プロセッサ10は、アバターオブジェクトの変化(例えば、視線の移動、姿勢の変化等)と音声の出力とが同じタイミングで行なわれるように、音声の出力タイミングとアバターオブジェクトのデータの出力タイミングとの同期をとるための同期モジュール234を含む。
【選択図】図9
Description
図1を参照して、HMDシステム100の構成について説明する。図1は、ある実施形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
図2を参照して、本実施形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェイス13と、通信インターフェイス14とを備える。各構成要素は、それぞれ、バス15に接続されている。
図3を参照して、uvw視野座標系について説明する。図3は、ある実施形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
図5を参照して、ユーザの視線方向の決定について説明する。図5は、ある実施形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施形態に従うコントローラ160の概略構成を表す図である。
図9を参照して、HMD110の制御装置について説明する。ある実施形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図9は、ある実施形態に従うコンピュータ200をモジュール構成として表すブロック図である。
ここで、二人のユーザ190,190Nが仮想空間2を介して通信する場合のコンピュータ200,200Nの動作について説明する。以下、コンピュータ200Nに接続されたHMD110Nを装着したユーザ190Nが、コンピュータ200に接続されたHMD110を装着したユーザ190に発話する場合について説明する。
次に、図10を参照して、本実施形態に従って行なわれる仮想空間を介したチャットの概要について説明する。図10は、コンピュータ200,200N,200Xのそれぞれによって提示される仮想空間2を表現する一態様を概念的に表す図である。
図11を参照して、ある実施形態に従う、HMDシステム100における同期について説明する。図11は、音声データとアイトラッキングデータの同期の一態様を説明するタイミングチャートである。ある実施形態において、HMD110N(または、HMD110Nが接続されたコンピュータ200N)からHMD110が接続されたコンピュータ200に伝送される信号の遅延について説明する。ある局面において、HMD110に接続されたコンピュータ200と、HMD110Nに接続されたコンピュータ200Nとは、仮想空間2を介して通信するためのチャットアプリケーションを実行している。
以下、ある実施形態に従うHMDシステム100の動作を実現するアルゴリズムについて説明する。
まず、図12を参照して、HMDシステム100における制御構造について説明する。図12は、第1のHMD(例えばHMD110)と、第2のHMD(例えばHMD110N)とが実行する処理の一部を表わすフローチャートである。
次に、図13A〜図13Dを参照して、ある実施形態に従うHMDシステム100を伝送されるデータの構造について説明する。図13Aは、ユーザ190が使用するHMD110によって取得されたアイトラッキングデータを表わす。図13Bは、ユーザ190による発話に基づく音声データを表わす。図13Cは、ユーザ190Nが使用するHMD110Nによって取得されたアイトラッキングデータを表わす。図13Dは、ユーザ190による発話に基づく音声データを表わす。
状態Aに示されるように、ある局面において、ユーザ190がユーザ190Nとチャットを開始すると、HMD110のモニタ112は、ユーザ190Nのアバターオブジェクト1410を表示する。HMD110Nを装着したユーザ190Nが目を動かしながら発話すると、視線検出結果(アイトラッキングデータ1330)および音声データ1340は、それぞれ、コンピュータ200Nからコンピュータ200に送信される。コンピュータ200のプロセッサ10は、アバターオブジェクトの提示のタイミングと音声データの出力のタイミングとの同期をとる。
これに対して、状態Cに示されるように、別の局面において、仮想空間2を介したチャットにおいて音声データの出力とアバターオブジェクト1410の変化とが同期しない場合には、例えば、アバターオブジェクト1410の視線の変化のみが、最初にモニタ112に表示される。その後、状態Dに示されるように、音声が、HMD110のスピーカ115から遅れて出力される。したがって、この場合、アバターオブジェクト1410の変化と音声出力とがずれることにより、ユーザ190は、違和感を覚え得る。
上記の例では、HMDシステム100は、HMD110においてアバターオブジェクトの視線が提示されるタイミングと、音声が出力されるタイミングとの同期をとることによって、映像と音声との同期をとるように構成されている。しかしながら、アバターオブジェクトの動作は、視線の動作(眼球の動作)に限られない。この変形例では、視線以外のアバターオブジェクトの動作(に対応する映像)と音声との同期について説明する。
図15は、変形例に従うHMDシステム1500の構成の概略を表す図である。図16は、変形例に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。HMDシステム1500は、HMD1510を有し、コントローラ160を有さない点において、図1で説明したHMDシステム100と相違する。変形例に従うコンピュータ200のハードウェア構成は、メモリ11がリングバッファ11Aおよび11Bを含む点を除き、図2に示されるハードウェア構成と同じである。したがって、同一のハードウェア構成の説明は繰り返さない。
図17は、変形例に従うコンピュータ200のモジュール構成を表すブロック図である。変形例に従うコンピュータ200は、以下の点において、図9で説明したコンピュータ200のモジュール構成と相違する。
以下、図18〜図20を参照してユーザの顔の動作(形状)を検出するための具体例について説明する。図18〜図20では、一例として、ユーザの口の動作を検出する具体例について説明する。なお、図18〜図20で説明される検出方法は、ユーザの口の動作に限られず、ユーザの顔を構成する他の器官(例えば、目、眉、頬、鼻)の動作の検出にも適用され得る。
次に、図22〜図24を参照して、手の動きをトラッキングする処理について説明する。図22は、ユーザ190の手をトラッキングする処理について説明するための図である。図22(A)は、現実空間におけるユーザ190を表す。図22(B)は、ユーザ190Nの視界画像2220に含まれるアバターオブジェクト1010を表す。
図25は、ある実施形態においてコンピュータ200とコンピュータ200Nとの間で送受信されるデータの構造の一例を表す。図25Aは、ある実施形態に従うフェイスデータのデータ構造の一例を表す。図25Bは、ある実施形態に従うアイデータのデータ構造の一例を表す。図25Cは、ある実施形態に従う音声パケットのデータ構造の一例を表す。
次に、ユーザの動作を表すデータ(例えば、アイトラッキングデータ、フェイストラッキングデータ、およびハンドトラッキングデータ)の送信方法について説明する。
図29は、アニメーションデータの生成処理について説明するための図である。アニメーションデータは、ユーザの動作を表すデータ(例えば、アイトラッキングデータ、フェイストラッキングデータ、ハンドトラッキングデータ)を少なくとも2種類以上含むデータである。他の観点から見れば、アニメーションデータは、ユーザの動作を仮想空間に配置されるアバターオブジェクトに反映させるために必要なデータである。図29の例において、アニメーションデータは、フェイストラッキングデータとアイトラッキングデータとを含む。
図30は、他の局面に従うアニメーションデータの生成処理について説明するための図である。図29の例では、プロセッサ10は、最新のアイトラッキングデータとフェイストラッキングデータとを互いに関連付けてアニメーションデータを生成するように構成されている。図30の例では、プロセッサ10は、アイトラッキングデータに関連付けられた時刻情報と、フェイストラッキングデータに関連付けられた時刻情報とに基づいて、アニメーションデータを生成する。
ある局面において、プロセッサ10は、生成したアニメーションデータを複数含むアニメーションパケットを所定時間間隔毎に送信するように構成される。一例として、アニメーションパケットは100msec間隔(10FPS)で送信される。なお、アニメーションパケットの送信時間間隔は固定値でなく、可変値であってもよい。
次に、複数種類のユーザの動作を表すデータを含むアニメーションデータを送受信する場合における、映像と音声との同期処理について説明する。
図35は、アニメーションパケットと音声パケットとを用いた映像と音声との同期処理の一例を表すフローチャートである。なお、図35に示される処理のうち、図12の処理と同じ処理には図12に示される符号と同じ符号を付している。そのため、これらの処理については繰り返し説明しない。
図36は、チャット先のリフレッシュレートを考慮した映像と音声との同期処理の一例を表すフローチャートである。なお、図36に示される処理のうち、図35の処理と同じ処理には図35に示される符号と同じ符号を付している。そのため、これらの処理については繰り返し説明しない。
Claims (11)
- 仮想空間を介して通信するためにコンピュータで実行される方法であって、
前記コンピュータに接続されている第1のヘッドマウントデバイスに仮想空間を定義するステップと、
前記コンピュータに接続されている第2のヘッドマウントデバイスのユーザの視線の検出結果を受信するステップと、
前記ユーザの発話に基づく音声信号を受信するステップと、
前記ユーザに対応するアバターオブジェクトを前記視線の検出結果に基づいて前記第1のヘッドマウントデバイスに提示することと、前記音声信号に基づく音声を前記ヘッドマウントデバイスから出力することとを同期して行なうステップとを含む、方法。 - 前記検出結果は、前記視線が検出された時刻を含み、
前記音声信号は、前記発話が行なわれた時刻を含み、
前記同期して行なうステップは、前記検出結果が前記音声信号よりも先に受信された場合に、前記音声信号を受信するまで、前記検出結果を前記アバターオブジェクトに反映することを待機するステップを含む、請求項1に記載の方法。 - 前記検出結果は、前記視線が検出された時刻を含み、
前記音声信号は、前記発話が行なわれた時刻を含み、
前記同期して行なうステップは、前記音声信号が前記検出結果よりも先に受信された場合に、前記検出結果を受信するまで、前記音声信号に基づく音声の出力を待機するステップを含む、請求項1または2に記載の方法。 - 前記アバターオブジェクトを前記第1のヘッドマウントデバイスに提示することは、前記視線の方向を向いた視線を有するアバターオブジェクトを前記第1のヘッドマウントデバイスに提示することを含む、請求項1〜3のいずれかに記載の方法。
- 前記同期して行なうステップは、前記音声の出力に合わせて前記アバターオブジェクトの口を動かすステップをさらに含む、請求項1〜4のいずれかに記載の方法。
- 仮想空間を介して通信するためにコンピュータで実行される方法であって、
前記コンピュータに接続されている第1のヘッドマウントデバイスに仮想空間を定義するステップと、
前記コンピュータに接続されている第2のヘッドマウントデバイスのユーザの動作の検出結果を受信するステップと、
前記ユーザの発話に基づく音声信号を受信するステップと、
前記検出結果に基づいて前記ユーザに対応するアバターオブジェクトを前記第1のヘッドマウントデバイスに提示することと、前記音声信号に基づく音声を前記第1のヘッドマウントデバイスから出力することとを同期して行なうステップとを含む、方法。 - 前記ユーザの動作は、目の動作、視線の動作、口の動作、頬の動作、鼻の動作および手の動作のうち少なくともいずれかの動作を含む、請求項6に記載の方法。
- 検出結果を受信するステップは、当該検出結果に対応する動作が検出された時刻を受信することを含み、
前記音声信号を受信するステップは、前記発話が行なわれた時刻を受信することを含み、
前記同期して行なうステップは、前記検出結果が前記音声信号よりも先に受信された場合に、前記音声信号を受信するまで、前記検出結果を前記アバターオブジェクトに反映することを待機するステップを含む、請求項6または7に記載の方法。 - 検出結果を受信するステップは、当該検出結果に対応する動作が検出された時刻を受信することを含み、
前記音声信号を受信するステップは、前記発話が行なわれた時刻を受信することを含み、
前記同期して行なうステップは、前記音声信号が前記検出結果よりも先に受信された場合に、前記検出結果を受信するまで、前記音声信号に基づく音声の出力を待機するステップを含む、請求項6〜8のいずれか1項に記載の方法。 - 請求項1〜9のいずれかに記載の方法をコンピュータに実行させる、プログラム。
- 請求項10に記載のプログラムを格納するためのメモリと、
前記メモリに結合され、前記プログラムを実行するためのプロセッサとを備える、情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/853,931 US10297081B2 (en) | 2016-12-26 | 2017-12-25 | Method for communication via virtual space and system for executing the method on computer |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016251307 | 2016-12-26 | ||
JP2016251307 | 2016-12-26 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017146507A Division JP2018106663A (ja) | 2016-12-26 | 2017-07-28 | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6212667B1 JP6212667B1 (ja) | 2017-10-11 |
JP2018107785A true JP2018107785A (ja) | 2018-07-05 |
Family
ID=60040510
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017084630A Active JP6212667B1 (ja) | 2016-12-26 | 2017-04-21 | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
JP2017146507A Pending JP2018106663A (ja) | 2016-12-26 | 2017-07-28 | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017146507A Pending JP2018106663A (ja) | 2016-12-26 | 2017-07-28 | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10297081B2 (ja) |
JP (2) | JP6212667B1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019531014A (ja) * | 2016-09-28 | 2019-10-24 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | ウェアラブルデバイスによる顔モデル捕捉 |
JP2020060898A (ja) * | 2018-10-09 | 2020-04-16 | 株式会社SpiralMind | 情報処理装置及びプログラム。 |
JP2021118456A (ja) * | 2020-01-27 | 2021-08-10 | グリー株式会社 | コンピュータプログラム、方法及びサーバ装置 |
WO2021187647A1 (ko) * | 2020-03-20 | 2021-09-23 | 라인플러스 주식회사 | 가상 공간에서 사용자의 동작을 따라 하는 아바타를 표현하는 방법 및 시스템 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066079A (zh) | 2016-11-29 | 2017-08-18 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的业务实现方法及装置 |
CN107122642A (zh) * | 2017-03-15 | 2017-09-01 | 阿里巴巴集团控股有限公司 | 基于虚拟现实环境的身份认证方法及装置 |
US11393352B2 (en) * | 2017-03-23 | 2022-07-19 | Hello Clover , Llc | Reading and contingent response educational and entertainment method and apparatus |
US11014242B2 (en) | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US11161038B2 (en) * | 2018-08-06 | 2021-11-02 | Amazon Technologies, Inc. | Systems and devices for controlling network applications |
JP6718933B2 (ja) * | 2018-09-11 | 2020-07-08 | 株式会社コロプラ | プログラム、情報処理装置、および方法 |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
US11405913B2 (en) * | 2019-03-08 | 2022-08-02 | Facebook Technologies, Llc | Latency reduction for artificial reality |
US11559740B2 (en) | 2019-09-13 | 2023-01-24 | Gree, Inc. | Video modification and transmission using tokens |
JP6719633B1 (ja) * | 2019-09-30 | 2020-07-08 | 株式会社コロプラ | プログラム、方法、および視聴端末 |
JP7046044B6 (ja) * | 2019-11-08 | 2022-05-06 | グリー株式会社 | コンピュータプログラム、サーバ装置及び方法 |
US10924710B1 (en) * | 2020-03-24 | 2021-02-16 | Htc Corporation | Method for managing avatars in virtual meeting, head-mounted display, and non-transitory computer readable storage medium |
US11431952B2 (en) * | 2020-05-11 | 2022-08-30 | Sony Interactive Entertainment Inc. | User selection of virtual camera location to produce video using synthesized input from multiple cameras |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11615592B2 (en) * | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
JP7479016B2 (ja) * | 2022-03-29 | 2024-05-08 | グリー株式会社 | コンピュータプログラム、方法及びサーバ装置 |
WO2023187739A1 (en) * | 2022-03-31 | 2023-10-05 | Soul Machines Limited | Autonomous virtual cinematography |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108502A (ja) * | 2001-09-28 | 2003-04-11 | Interrobot Inc | 身体性メディア通信システム |
JP2005242798A (ja) * | 2004-02-27 | 2005-09-08 | Nomura Research Institute Ltd | アバター制御システム |
JP2007018433A (ja) * | 2005-07-11 | 2007-01-25 | Okayama Prefecture | アバター表示機能付き通話端末 |
JP2009205370A (ja) * | 2008-02-27 | 2009-09-10 | Oki Electric Ind Co Ltd | ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム |
JP2016126500A (ja) * | 2014-12-26 | 2016-07-11 | Kddi株式会社 | ウェアラブル端末装置およびプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8585476B2 (en) * | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
US20170136355A1 (en) * | 2006-01-28 | 2017-05-18 | Blackfire Research Corporation | Synchronized multi-device mobile gaming |
US20090013263A1 (en) * | 2007-06-21 | 2009-01-08 | Matthew Jonathan Fortnow | Method and apparatus for selecting events to be displayed at virtual venues and social networking |
JP2010022646A (ja) * | 2008-07-22 | 2010-02-04 | Namco Bandai Games Inc | プログラム、情報記憶媒体および画像生成システム |
JP2012181704A (ja) * | 2011-03-01 | 2012-09-20 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
US10585472B2 (en) * | 2011-08-12 | 2020-03-10 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
US9897805B2 (en) * | 2013-06-07 | 2018-02-20 | Sony Interactive Entertainment Inc. | Image rendering responsive to user actions in head mounted display |
US8660847B2 (en) * | 2011-09-02 | 2014-02-25 | Microsoft Corporation | Integrated local and cloud based speech recognition |
US9093075B2 (en) * | 2012-04-20 | 2015-07-28 | Google Technology Holdings LLC | Recognizing repeated speech in a mobile computing device |
US9035955B2 (en) * | 2012-05-16 | 2015-05-19 | Microsoft Technology Licensing, Llc | Synchronizing virtual actor's performances to a speaker's voice |
EP3116616B1 (en) * | 2014-03-14 | 2019-01-30 | Sony Interactive Entertainment Inc. | Gaming device with volumetric sensing |
JP6565903B2 (ja) * | 2014-04-22 | 2019-08-28 | ソニー株式会社 | 情報再生装置及び情報再生方法 |
JP6027585B2 (ja) | 2014-09-24 | 2016-11-16 | 株式会社コロプラ | 表示システム、表示方法及びプログラム |
JP2016187432A (ja) | 2015-03-30 | 2016-11-04 | 株式会社カプコン | ゲームプログラムおよびゲームシステム |
JP6691351B2 (ja) * | 2015-03-31 | 2020-04-28 | 株式会社バンダイナムコエンターテインメント | プログラム及びゲームシステム |
US9616341B2 (en) * | 2015-06-24 | 2017-04-11 | International Business Machines Corporation | Multiple user single avatar video game input system |
US10572005B2 (en) * | 2016-07-29 | 2020-02-25 | Microsoft Technology Licensing, Llc | Private communication with gazing |
-
2017
- 2017-04-21 JP JP2017084630A patent/JP6212667B1/ja active Active
- 2017-07-28 JP JP2017146507A patent/JP2018106663A/ja active Pending
- 2017-12-25 US US15/853,931 patent/US10297081B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003108502A (ja) * | 2001-09-28 | 2003-04-11 | Interrobot Inc | 身体性メディア通信システム |
JP2005242798A (ja) * | 2004-02-27 | 2005-09-08 | Nomura Research Institute Ltd | アバター制御システム |
JP2007018433A (ja) * | 2005-07-11 | 2007-01-25 | Okayama Prefecture | アバター表示機能付き通話端末 |
JP2009205370A (ja) * | 2008-02-27 | 2009-09-10 | Oki Electric Ind Co Ltd | ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム |
JP2016126500A (ja) * | 2014-12-26 | 2016-07-11 | Kddi株式会社 | ウェアラブル端末装置およびプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019531014A (ja) * | 2016-09-28 | 2019-10-24 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | ウェアラブルデバイスによる顔モデル捕捉 |
US11428941B2 (en) | 2016-09-28 | 2022-08-30 | Magic Leap, Inc. | Face model capture by a wearable device |
US11740474B2 (en) | 2016-09-28 | 2023-08-29 | Magic Leap, Inc. | Face model capture by a wearable device |
JP2020060898A (ja) * | 2018-10-09 | 2020-04-16 | 株式会社SpiralMind | 情報処理装置及びプログラム。 |
JP7195861B2 (ja) | 2018-10-09 | 2022-12-26 | 株式会社SpiralMind | 情報処理装置及びプログラム。 |
JP2021118456A (ja) * | 2020-01-27 | 2021-08-10 | グリー株式会社 | コンピュータプログラム、方法及びサーバ装置 |
WO2021187647A1 (ko) * | 2020-03-20 | 2021-09-23 | 라인플러스 주식회사 | 가상 공간에서 사용자의 동작을 따라 하는 아바타를 표현하는 방법 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20180253897A1 (en) | 2018-09-06 |
US10297081B2 (en) | 2019-05-21 |
JP6212667B1 (ja) | 2017-10-11 |
JP2018106663A (ja) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6212667B1 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
JP6229089B1 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
JP6263252B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US20180165862A1 (en) | Method for communication via virtual space, program for executing the method on a computer, and information processing device for executing the program | |
US20180189549A1 (en) | Method for communication via virtual space, program for executing the method on computer, and information processing apparatus for executing the program | |
US10313481B2 (en) | Information processing method and system for executing the information method | |
JP6306765B1 (ja) | 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置 | |
US10223064B2 (en) | Method for providing virtual space, program and apparatus therefor | |
JP6290467B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
US10410395B2 (en) | Method for communicating via virtual space and system for executing the method | |
US20180348987A1 (en) | Method executed on computer for providing virtual space, program and information processing apparatus therefor | |
JP6201028B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US20180299948A1 (en) | Method for communicating via virtual space and system for executing the method | |
JP2018125003A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6225242B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2019016071A (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP6458179B1 (ja) | プログラム、情報処理装置、および方法 | |
JP6250779B1 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
JP2018142319A (ja) | 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置 | |
JP2019030638A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018092635A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018092592A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6441517B1 (ja) | プログラム、情報処理装置、および方法 | |
JP2018109937A (ja) | 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6321247B1 (ja) | 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170718 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6212667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |