JP6392911B2 - 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム - Google Patents
情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP6392911B2 JP6392911B2 JP2017014585A JP2017014585A JP6392911B2 JP 6392911 B2 JP6392911 B2 JP 6392911B2 JP 2017014585 A JP2017014585 A JP 2017014585A JP 2017014585 A JP2017014585 A JP 2017014585A JP 6392911 B2 JP6392911 B2 JP 6392911B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- movement
- virtual space
- character object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
Description
図1を参照して、HMD(Head Mount Display)システム100の構成について説明する。図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD装置110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD装置110の起動時に、グローバル座標系におけるHMD装置110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD装置110に設定する。
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
図5を参照して、ユーザの視線方向の決定について説明する。図5は、ある実施の形態に従うHMD装置110を装着するユーザ190の頭部を上から表した図である。
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。
図9を参照して、HMD装置110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。図10は、ユーザ190A(第1ユーザ)によって使用されるHMDシステム100Aがユーザ190Aに仮想空間2を提供するために実行する処理を表すフローチャートである。
続いて、アバターの動作制御について詳しく説明する。上述の通り、HMDシステム100A,100CとHMDシステム100Bとの間で、上述した動き情報の検知性能が異なる。具体的には、HMDシステム100A,100Cは、上述した向きデータ、アイトラッキングデータ、フェイストラッキングデータ、およびハンドトラッキングデータを全て検知可能なスペックを有する。一方、HMDシステム100Bは、向きデータおよびハンドトラッキングデータを検知可能であるが、アイトラッキングデータおよびフェイストラッキングデータを検知することができない。この場合、HMDシステム100A,100Cから送られるプレイヤ情報には、上述した全ての種類の動き情報が含まれるのに対し、HMDシステム100Bから送られるプレイヤ情報には、アイトラッキングデータおよびフェイストラッキングデータが含まれない。
(項目1)
ヘッドマウントディスプレイ(HMD装置110A)を介して第1ユーザ(ユーザ190A)に仮想空間2を提供するためにコンピュータ(コンピュータ200またはサーバ150)によって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1キャラクタオブジェクト(アバターA1)と、第2ユーザ(ユーザ190B)に関連付けられた第2キャラクタオブジェクト(アバターA2)と、前記第1ユーザに提供される視界画像Mを定義する仮想カメラ1とを含む仮想空間2を定義する仮想空間データを生成するステップ(例えば図10のS1)と、
前記第2ユーザの身体の一以上の部分の動きを示す動き情報を取得するステップ(例えば図14のS91)と、
前記第2キャラクタオブジェクトの複数の部分のうち、対応する前記第2ユーザの身体の部分の動きを示す情報が取得されている第1部分(本実施形態では頭部および手)と、対応する前記第2ユーザの身体の部分の動きを示す情報が取得されていない第2部分(本実施形態では目および顔)とを特定するステップ(例えば図14のS92)と、
前記第2部分の少なくとも一部の動作を規定するための補助情報を取得するステップ(例えば図14のS95)と、
前記視界画像Mに前記第2キャラクタオブジェクトが含まれる場合に、前記視界画像Mにおいて、前記動き情報に基づいて前記第1部分を動作させ、前記補助情報に基づいて前記第2部分の少なくとも一部を動作させるステップ(例えば図14のS98)と、
を含む、情報処理方法。
本項目の情報処理方法によれば、第2ユーザの動き情報が取得されなかった部分に対応するアバターの部分(第2部分の少なくとも一部)を、補助情報に基づいて動作させることができる。これにより、仮想空間2におけるアバター(キャラクタオブジェクト)のより自然な動作を実現することにより、ユーザ間の対話をより円滑にし得る。
(項目2)
前記第1ユーザを含む前記仮想空間を共有する複数のユーザのうち前記第2ユーザ以外の他ユーザ(本実施形態では、ユーザ190A,190C)の身体の動きを示す他ユーザ動き情報を取得するステップ(例えば図14のS91)を更に含み、
前記補助情報を取得するステップにおいて、前記動き情報および前記他ユーザ動き情報の少なくとも一方に基づいて、前記補助情報を生成する、
項目1の情報処理方法。
本項目の情報処理方法によれば、取得できた動き情報(第2ユーザ自身の動き情報または第2ユーザ以外のユーザの動き情報)に基づいて、補助情報を適切に生成し得る。
(項目3)
前記複数のユーザ、または前記複数のユーザの各々に関連付けられたキャラクタオブジェクトの優先順位を決定するステップ(例えば図14のS94)を更に含み、
前記補助情報を取得するステップにおいて、前記動き情報および前記他ユーザ動き情報のうちから、前記補助情報を生成するために用いる情報を前記優先順位に基づいて選択し、選択された情報に基づいて前記補助情報を生成する、
項目2の情報処理方法。
本項目の情報処理方法によれば、アバター間あるいはユーザ間の優先順位に基づいて、補助情報を適切に生成し得る。
(項目4)
前記第2部分が前記第2キャラクタオブジェクトの目を含む場合に、
前記他ユーザ動き情報を取得するステップにおいて、前記他ユーザの目または手の動きを示す前記他ユーザ動き情報を取得し、
前記補助情報を取得するステップにおいて、前記他ユーザの目または手の動きに基づいて、前記第2キャラクタオブジェクトの視線方向を決定するための前記補助情報を生成し、
前記動作させるステップにおいて、前記補助情報に基づいて決定される視線方向を向くように前記第2キャラクタオブジェクトの目を動作させる、
項目2または3の情報処理方法。
本項目の情報処理方法によれば、第2ユーザの目の動きを示す情報(アイトラッキングデータ)を取得できなかった場合に、第2ユーザの目の動き(視線方向)を他ユーザの目または手の動きに基づいて適切に制御し得る。
(項目5)
前記動作させるステップにおいて、前記第2キャラクタオブジェクトの顔の向きに基づいて前記第2キャラクタオブジェクトの視界を特定し、前記補助情報に基づいて決定される視線方向が前記視界に含まれる場合に、前記視線方向を向くように前記第2キャラクタオブジェクトの目を動作させ、前記視線方向が前記視界に含まれない場合に、前記視線方向を向くように前記第2キャラクタオブジェクトの目を動作させない、
項目5の情報処理方法。
本項目の情報処理方法によれば、補助情報に基づいて決定される視界方向と第2キャラクタオブジェクトの視界との関係に基づいて、第2キャラクタオブジェクトの目の動作を適切に制御し得る。
(項目6)
前記第2部分が前記第2キャラクタオブジェクトの目を含む場合に、
前記他ユーザ動き情報を取得するステップにおいて、前記他ユーザの目の動きを示す前記ユーザ動き情報を取得し、
前記補助情報を取得するステップにおいて、前記他ユーザの目の動きに基づいて、前記第2キャラクタオブジェクトに瞬きをさせるタイミングを決定するための前記補助情報を生成し、
前記動作させるステップにおいて、前記補助情報に基づいて決定されるタイミングで前記第2キャラクタオブジェクトに瞬きをさせる、
項目2〜5のいずれかの情報処理方法。
本項目の情報処理方法によれば、第2ユーザの目の動きを示す情報(アイトラッキングデータ)を取得できなかった場合に、第2ユーザの目の動き(瞬き動作)を他ユーザの目の動きに基づいて適切に制御し得る。
(項目7)
項目1〜6のいずれかの情報処理方法をコンピュータに実行させる、プログラム。
(項目8)
項目7のプログラムを格納したメモリと、
前記メモリに結合され、前記プログラムを実行するためのプロセッサとを備える、装置。
Claims (9)
- ヘッドマウントディスプレイを介して第1ユーザに仮想空間を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1キャラクタオブジェクトと、第2ユーザに関連付けられた第2キャラクタオブジェクトと、前記第1ユーザに提供される視界画像を定義する仮想カメラとを含む仮想空間を定義する仮想空間データを生成するステップと、
前記第2ユーザの身体の一以上の部分の動きを示す動き情報を取得するステップと、
前記動き情報が取得され得る前記第2ユーザの身体の複数の部分に対応する前記第2キャラクタオブジェクトの複数の部分のうち、前記動き情報が取得されている前記第2ユーザの身体の一以上の部分に対応する前記第2キャラクタオブジェクトの一以上の部分である第1部分と、前記動き情報が取得され得る前記第2ユーザの身体の複数の部分に対応する前記第2キャラクタオブジェクトの複数の部分のうち、前記動き情報が取得されていない前記第2ユーザの身体の部分に対応する前記第2キャラクタオブジェクトの部分である第2部分と、を特定するステップと、
前記第2部分の少なくとも一部の動作を規定するための補助情報を取得するステップと、
前記動き情報に基づいて前記第1部分を動作させると同時に、前記補助情報に基づいて前記第2部分の少なくとも一部を動作させるステップと、
を含む、情報処理方法。 - 前記第1ユーザを含む前記仮想空間を共有する複数のユーザのうち前記第2ユーザ以外の他ユーザの身体の動きを示す他ユーザ動き情報を取得するステップを更に含み、
前記補助情報を取得するステップにおいて、前記動き情報および前記他ユーザ動き情報の少なくとも一方に基づいて、前記補助情報を生成する、
請求項1に記載の情報処理方法。 - ヘッドマウントディスプレイを介して第1ユーザに仮想空間を提供するためにコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1キャラクタオブジェクトと、第2ユーザに関連付けられた第2キャラクタオブジェクトと、前記第1ユーザに提供される視界画像を定義する仮想カメラとを含む仮想空間を定義する仮想空間データを生成するステップと、
前記第2ユーザの身体の一以上の部分の動きを示す動き情報を取得するステップと、
前記第2キャラクタオブジェクトの複数の部分のうち、対応する前記第2ユーザの身体の部分の動きを示す情報が取得されている第1部分と、対応する前記第2ユーザの身体の部分の動きを示す情報が取得されていない第2部分とを特定するステップと、
前記第2部分の少なくとも一部の動作を規定するための補助情報を取得するステップと、
前記視界画像に前記第2キャラクタオブジェクトが含まれる場合に、前記視界画像において、前記動き情報に基づいて前記第1部分を動作させ、前記補助情報に基づいて前記第2部分の少なくとも一部を動作させるステップと、
を含み、
前記第1ユーザを含む前記仮想空間を共有する複数のユーザのうち前記第2ユーザ以外の他ユーザの身体の動きを示す他ユーザ動き情報を取得するステップを更に含み、
前記補助情報を取得するステップにおいて、前記動き情報および前記他ユーザ動き情報の少なくとも一方に基づいて、前記補助情報を生成する、情報処理方法。 - 前記複数のユーザ、または前記複数のユーザの各々に関連付けられたキャラクタオブジェクトの優先順位を決定するステップを更に含み、
前記補助情報を取得するステップにおいて、前記動き情報および前記他ユーザ動き情報のうちから、前記補助情報を生成するために用いる情報を前記優先順位に基づいて選択し、選択された情報に基づいて前記補助情報を生成する、
請求項2又は3に記載の情報処理方法。 - 前記第2部分が前記第2キャラクタオブジェクトの目を含む場合に、
前記他ユーザ動き情報を取得するステップにおいて、前記他ユーザの目または手の動きを示す前記他ユーザ動き情報を取得し、
前記補助情報を取得するステップにおいて、前記他ユーザの目または手の動きに基づいて、前記第2キャラクタオブジェクトの視線方向を決定するための前記補助情報を生成し、
前記動作させるステップにおいて、前記補助情報に基づいて決定される視線方向を向くように前記第2キャラクタオブジェクトの目を動作させる、
請求項2〜4のいずれか一項に記載の情報処理方法。 - 前記動作させるステップにおいて、前記第2キャラクタオブジェクトの顔の向きに基づいて前記第2キャラクタオブジェクトの視界を特定し、前記補助情報に基づいて決定される視線方向が前記視界に含まれる場合に、前記視線方向を向くように前記第2キャラクタオブジェクトの目を動作させ、前記視線方向が前記視界に含まれない場合に、前記視線方向を向くように前記第2キャラクタオブジェクトの目を動作させない、
請求項5に記載の情報処理方法。 - 前記第2部分が前記第2キャラクタオブジェクトの目を含む場合に、
前記他ユーザ動き情報を取得するステップにおいて、前記他ユーザの目の動きを示す前記他ユーザ動き情報を取得し、
前記補助情報を取得するステップにおいて、前記他ユーザの目の動きに基づいて、前記第2キャラクタオブジェクトに瞬きをさせるタイミングを決定するための前記補助情報を生成し、
前記動作させるステップにおいて、前記補助情報に基づいて決定されるタイミングで前記第2キャラクタオブジェクトに瞬きをさせる、
請求項2〜6のいずれか一項に記載の情報処理方法。 - 請求項1〜7のいずれか一項に記載の情報処理方法をコンピュータに実行させるための、プログラム。
- 請求項8に記載のプログラムを格納したメモリと、
前記メモリに結合され、前記プログラムを実行するためのプロセッサとを備える、コンピュータ。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017014585A JP6392911B2 (ja) | 2017-01-30 | 2017-01-30 | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム |
US15/881,934 US10546407B2 (en) | 2017-01-30 | 2018-05-06 | Information processing method and system for executing the information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017014585A JP6392911B2 (ja) | 2017-01-30 | 2017-01-30 | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156740A Division JP2019032844A (ja) | 2018-08-23 | 2018-08-23 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124665A JP2018124665A (ja) | 2018-08-09 |
JP6392911B2 true JP6392911B2 (ja) | 2018-09-19 |
Family
ID=63111520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017014585A Active JP6392911B2 (ja) | 2017-01-30 | 2017-01-30 | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10546407B2 (ja) |
JP (1) | JP6392911B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10325396B2 (en) * | 2017-02-14 | 2019-06-18 | Linden Research, Inc. | Virtual reality presentation of eye movement and eye contact |
IL275078B1 (en) * | 2017-12-14 | 2024-04-01 | Magic Leap Inc | Context-based processing of virtual characters |
JP2022034091A (ja) * | 2018-12-25 | 2022-03-03 | シャープ株式会社 | 三次元データ再生装置 |
JP7165604B2 (ja) * | 2019-03-06 | 2022-11-04 | 日産自動車株式会社 | 仮想オブジェクト出力装置及び仮想オブジェクト出力方法 |
US11294453B2 (en) * | 2019-04-23 | 2022-04-05 | Foretell Studios, LLC | Simulated reality cross platform system |
CN112121428B (zh) * | 2020-09-18 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 虚拟角色对象的控制方法和装置及存储介质 |
EP4244705A4 (en) * | 2020-11-13 | 2024-01-31 | Magic Leap Inc | TRANSMODAL INPUT FUSION FOR PROCESSING GROUP INTENTIONS OF MULTIPLE USERS IN VIRTUAL ENVIRONMENTS |
JP7461654B2 (ja) * | 2021-06-28 | 2024-04-04 | グリー株式会社 | 情報処理システム、情報処理方法、情報処理プログラム |
US20240096033A1 (en) * | 2021-10-11 | 2024-03-21 | Meta Platforms Technologies, Llc | Technology for creating, replicating and/or controlling avatars in extended reality |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000244886A (ja) | 1999-01-20 | 2000-09-08 | Canon Inc | コンピュータ会議システム、コンピュータ処理装置、コンピュータ会議を行う方法、コンピュータ処理装置における処理方法、ビデオ会議システム、ビデオ会議を行う方法、ヘッドホン |
US9250703B2 (en) * | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
JP5294554B2 (ja) * | 2006-11-16 | 2013-09-18 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法 |
US8941642B2 (en) * | 2008-10-17 | 2015-01-27 | Kabushiki Kaisha Square Enix | System for the creation and editing of three dimensional models |
JP5334595B2 (ja) * | 2009-01-09 | 2013-11-06 | 任天堂株式会社 | ゲーム装置およびゲームプログラム |
JP6243586B2 (ja) * | 2010-08-06 | 2017-12-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
JP5891131B2 (ja) * | 2012-07-11 | 2016-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
JP5745559B2 (ja) * | 2013-02-27 | 2015-07-08 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、及びビデオゲーム処理プログラム |
JP6721295B2 (ja) * | 2015-04-24 | 2020-07-15 | 株式会社コロプラ | ゲーム体験共有システム、方法、プログラム及び記録媒体 |
-
2017
- 2017-01-30 JP JP2017014585A patent/JP6392911B2/ja active Active
-
2018
- 2018-05-06 US US15/881,934 patent/US10546407B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180300926A1 (en) | 2018-10-18 |
US10546407B2 (en) | 2020-01-28 |
JP2018124665A (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6244593B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6276882B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6263252B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6392911B2 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US10313481B2 (en) | Information processing method and system for executing the information method | |
JP6290467B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
US10894211B2 (en) | Information processing method, apparatus, and system for executing the information processing method | |
JP6201028B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6321263B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018124981A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018125003A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2019032844A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6554139B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6368404B1 (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP6225242B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2019030638A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018192238A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018092592A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019020836A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019021250A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6856572B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6839046B2 (ja) | 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2018092635A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019016358A (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP6392832B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6392911 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |