JP7369212B2 - 空間コンピューティングのための写実的キャラクタ構成 - Google Patents
空間コンピューティングのための写実的キャラクタ構成 Download PDFInfo
- Publication number
- JP7369212B2 JP7369212B2 JP2021572310A JP2021572310A JP7369212B2 JP 7369212 B2 JP7369212 B2 JP 7369212B2 JP 2021572310 A JP2021572310 A JP 2021572310A JP 2021572310 A JP2021572310 A JP 2021572310A JP 7369212 B2 JP7369212 B2 JP 7369212B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- pose
- joint
- mixed reality
- animation rig
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Description
本願は、その内容が、参照することによってその全体として本明細書に組み込まれる、米国仮特許出願第62/858,251号の利点を請求する。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
ウェアラブル頭部デバイスのディスプレイ上において、キャラクタのビューを複合現実環境内に表示することであって、
前記キャラクタのビューは、前記キャラクタと関連付けられるアニメーションリグに基づき、
前記アニメーションリグは、一次関節と、ヘルパ関節とを備え、
前記一次関節は、前記キャラクタの骨格関節と関連付けられ、
前記ヘルパ関節は、前記アニメーションリグの場所と関連付けられ、
第1の時間では、前記アニメーションリグは、前記一次関節と前記ヘルパ関節との間の第1の空間関係によって定義された第1の姿勢にある、ことと、
第2の時間において、前記アニメーションリグが前記第1の姿勢から第2の姿勢に移動していることを決定することであって、前記第2の姿勢は、前記一次関節と前記ヘルパ関節との間の第2の空間関係によって定義される、ことと、
移動情報に基づいて、前記ウェアラブル頭部デバイスのディスプレイ上において、前記アニメーションリグの表示を前記第1の姿勢から前記第2の姿勢に更新することであって、前記移動情報は、前記第1の空間関係から前記第2の空間関係への変換を示す、ことと
を含む、方法。
(項目2)
ニューラルネットワークに、前記アニメーションリグの移動と関連付けられる情報を伝送することと、
前記ニューラルネットワークから、前記移動情報を受信することであって、前記移動情報は、前記伝送される情報に基づく、ことと
をさらに含む、項目1に記載の方法。
(項目3)
前記ニューラルネットワークは、ReLU活性化関数を使用して、前記移動情報を算出する、項目2に記載の方法。
(項目4)
前記移動情報は、前記ニューラルネットワークに提示される訓練データに基づいて、算出される、項目2に記載の方法。
(項目5)
前記ヘルパ関節の場所は、手動定義および最大移動基準のうちの1つ以上のものを備えるヘルパ関節設置基準によって決定される、項目1に記載の方法。
(項目6)
前記移動情報は、前記一次関節と前記ヘルパ関節との間の回帰分析を使用して決定され、前記第2の空間関係を算出する、項目1に記載の方法。
(項目7)
前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記アニメーションリグがキャラクタ不快感閾値時間より長く前記第1の姿勢にあることを決定することを含む、項目1に記載の方法。
(項目8)
前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記ウェアラブル頭部デバイスと関連付けられる通視線が変化していることを決定することを含む、項目1に記載の方法。
(項目9)
前記キャラクタは、前記複合現実環境の表面上に位置付けられるように表示され、前記方法はさらに、
前記ウェアラブル頭部デバイスのセンサを用いて、前記複合現実環境の表面を感知することと、
前記感知された表面に基づいて、前記アニメーションリグおよび前記表面を整合させることであって、前記第1の姿勢は、前記アニメーションリグおよび前記表面の整合に基づいて決定される、ことと
を含む、項目1に記載の方法。
(項目10)
前記第1の空間関係から前記第2の空間関係への変換は、前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動しているときの前記キャラクタの筋肉の移動と関連付けられる、項目1に記載の方法。
(項目11)
前記移動情報は、少なくとも部分的に、四元数において表され、
前記移動情報と関連付けられる損失関数は、四元数成分値の平均二乗誤差損失と前記成分値に関するペナルティとを組み合わせることを含む、
項目1に記載の方法。
(項目12)
前記キャラクタのビューを前記複合現実環境内に表示することは、Forward+を使用して、前記キャラクタのビューをレンダリングすることを含む、項目1に記載の方法。
(項目13)
前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記複合現実環境の第1の要素と関連付けられる関心度値が前記複合現実環境の第2の要素と関連付けられる関心度値を超えることを決定することを含む、項目1に記載の方法。
(項目14)
前記第1および第2の要素はそれぞれ、前記複合現実環境の無生物オブジェクトと関連付けられる視線ボックス、前記複合現実環境のイベントと関連付けられる関心面積、および前記複合現実環境内のユーザと関連付けられる社会的三角形のうちの1つと関連付けられる、項目13に記載の方法。
(項目15)
システムであって、
ディスプレイを備えるウェアラブル頭部デバイスと、
1つ以上のプロセッサであって、前記1つ以上のプロセッサは、
前記ディスプレイ上において、キャラクタのビューを複合現実環境内に表示することであって、
前記キャラクタのビューは、前記キャラクタと関連付けられるアニメーションリグに基づき、
前記アニメーションリグは、一次関節と、ヘルパ関節とを備え、
前記一次関節は、前記キャラクタの骨格関節と関連付けられ、
前記ヘルパ関節は、前記アニメーションリグの場所と関連付けられ、
第1の時間では、前記アニメーションリグは、前記一次関節と前記ヘルパ関節との間の第1の空間関係によって定義された第1の姿勢にある、ことと、
第2の時間において、前記アニメーションリグが前記第1の姿勢から第2の姿勢に移動していることを決定することであって、前記第2の姿勢は、前記一次関節と前記ヘルパ関節との間の第2の空間関係によって定義される、ことと、
移動情報に基づいて、前記ディスプレイ上において、前記アニメーションリグの表示を前記第1の姿勢から前記第2の姿勢に更新することであって、前記移動情報は、前記第1の空間関係から前記第2の空間関係への変換を示す、ことと
を含む方法を実行するように構成される、1つ以上のプロセッサと
を備える、システム。
(項目16)
前記方法はさらに、
ニューラルネットワークに、前記アニメーションリグの移動と関連付けられる情報を伝送することと、
前記ニューラルネットワークから、前記移動情報を受信することであって、前記移動情報は、前記伝送される情報に基づく、ことと
を含む、項目15に記載のシステム。
(項目17)
前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記複合現実環境の第1の要素と関連付けられる関心度値が前記複合現実環境の第2の要素と関連付けられる関心度値を超えることを決定することを含む、項目15に記載のシステム。
(項目18)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
ウェアラブル頭部デバイスのディスプレイ上において、キャラクタのビューを複合現実環境内に表示することであって、
前記キャラクタのビューは、前記キャラクタと関連付けられるアニメーションリグに基づき、
前記アニメーションリグは、一次関節と、ヘルパ関節とを備え、
前記一次関節は、前記キャラクタの骨格関節と関連付けられ、
前記ヘルパ関節は、前記アニメーションリグの場所と関連付けられ、
第1の時間では、前記アニメーションリグは、前記一次関節と前記ヘルパ関節との間の第1の空間関係によって定義された第1の姿勢にある、ことと、
第2の時間において、前記アニメーションリグが前記第1の姿勢から第2の姿勢に移動していることを決定することであって、前記第2の姿勢は、前記一次関節と前記ヘルパ関節との間の第2の空間関係によって定義される、ことと、
移動情報に基づいて、前記ウェアラブル頭部デバイスのディスプレイ上において、前記アニメーションリグの表示を前記第1の姿勢から前記第2の姿勢に更新することであって、前記移動情報は、前記第1の空間関係から前記第2の空間関係への変換を示す、ことと
を含む方法を実行させる、非一過性コンピュータ可読媒体。
(項目19)
前記方法はさらに、
ニューラルネットワークに、前記アニメーションリグの移動と関連付けられる情報を伝送することと、
前記ニューラルネットワークから、前記移動情報を受信することであって、前記移動情報は、前記伝送される情報に基づく、ことと
を含む、項目18に記載の非一過性コンピュータ可読媒体。
(項目20)
前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記複合現実環境の第1の要素と関連付けられる関心度値が前記複合現実環境の第2の要素と関連付けられる関心度値を超えることを決定することを含む、項目18に記載の非一過性コンピュータ可読媒体。
Claims (20)
- 方法であって、
ウェアラブル頭部デバイスのディスプレイ上において、キャラクタのビューを複合現実環境内に表示することであって、
前記キャラクタのビューは、前記キャラクタと関連付けられるアニメーションリグに基づき、
前記アニメーションリグは、一次関節と、ヘルパ関節とを備え、
前記一次関節は、前記キャラクタの骨格関節と関連付けられ、
前記ヘルパ関節は、前記アニメーションリグの場所と関連付けられ、
第1の時間では、前記アニメーションリグは、前記一次関節と前記ヘルパ関節との間の第1の空間関係によって定義された第1の姿勢にある、ことと、
第2の時間において、前記アニメーションリグが前記第1の姿勢から第2の姿勢に移動していることを決定することであって、前記第2の姿勢は、前記一次関節と前記ヘルパ関節との間の第2の空間関係によって定義され、前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記複合現実環境の第1の要素と関連付けられる関心度値が前記複合現実環境の第2の要素と関連付けられる関心度値を超えることを決定することを含む、ことと、
移動情報に基づいて、前記ウェアラブル頭部デバイスのディスプレイ上において、前記アニメーションリグの表示を前記第1の姿勢から前記第2の姿勢に更新することであって、前記移動情報は、前記第1の空間関係から前記第2の空間関係への変換を示す、ことと
を含む、方法。 - ニューラルネットワークに、前記アニメーションリグの移動と関連付けられる情報を伝送することと、
前記ニューラルネットワークから、前記移動情報を受信することであって、前記移動情報は、前記伝送される情報に基づく、ことと
をさらに含む、請求項1に記載の方法。 - 前記ニューラルネットワークは、ReLU活性化関数を使用して、前記移動情報を算出する、請求項2に記載の方法。
- 前記移動情報は、前記ニューラルネットワークに提示される訓練データに基づいて、算出される、請求項2に記載の方法。
- 前記ヘルパ関節の場所は、手動定義および最大移動基準のうちの1つ以上のものを備えるヘルパ関節設置基準によって決定される、請求項1に記載の方法。
- 前記移動情報は、前記一次関節と前記ヘルパ関節との間の回帰分析を使用して決定され、前記第2の空間関係を算出する、請求項1に記載の方法。
- 前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記アニメーションリグがキャラクタ不快感閾値時間より長く前記第1の姿勢にあることを決定することを含む、請求項1に記載の方法。
- 前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記ウェアラブル頭部デバイスと関連付けられる通視線が変化していることを決定することを含む、請求項1に記載の方法。
- 前記キャラクタは、前記複合現実環境の表面上に位置付けられるように表示され、前記方法は、
前記ウェアラブル頭部デバイスのセンサを用いて、前記複合現実環境の表面を感知することと、
前記感知された表面に基づいて、前記アニメーションリグおよび前記表面を整合させることであって、前記第1の姿勢は、前記アニメーションリグおよび前記表面の整合に基づいて決定される、ことと
をさらに含む、請求項1に記載の方法。 - 前記第1の空間関係から前記第2の空間関係への変換は、前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動しているときの前記キャラクタの筋肉の移動と関連付けられる、請求項1に記載の方法。
- 前記移動情報は、少なくとも部分的に、四元数において表され、
前記移動情報と関連付けられる損失関数は、四元数成分値の平均二乗誤差損失と前記成分値に関するペナルティとを組み合わせることを含む、
請求項1に記載の方法。 - 前記キャラクタのビューを前記複合現実環境内に表示することは、Forward+を使用して、前記キャラクタのビューをレンダリングすることを含む、請求項1に記載の方法。
- 前記第1および第2の要素はそれぞれ、前記複合現実環境の無生物オブジェクトと関連付けられる視線ボックス、前記複合現実環境のイベントと関連付けられる関心面積、および前記複合現実環境内のユーザと関連付けられる社会的三角形のうちの1つと関連付けられる、請求項1に記載の方法。
- システムであって、
ディスプレイを備えるウェアラブル頭部デバイスと、
1つ以上のプロセッサであって、前記1つ以上のプロセッサは、
前記ディスプレイ上において、キャラクタのビューを複合現実環境内に表示することであって、
前記キャラクタのビューは、前記キャラクタと関連付けられるアニメーションリグに基づき、
前記アニメーションリグは、一次関節と、ヘルパ関節とを備え、
前記一次関節は、前記キャラクタの骨格関節と関連付けられ、
前記ヘルパ関節は、前記アニメーションリグの場所と関連付けられ、
第1の時間では、前記アニメーションリグは、前記一次関節と前記ヘルパ関節との間の第1の空間関係によって定義された第1の姿勢にある、ことと、
第2の時間において、前記アニメーションリグが前記第1の姿勢から第2の姿勢に移動していることを決定することであって、前記第2の姿勢は、前記一次関節と前記ヘルパ関節との間の第2の空間関係によって定義され、前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記複合現実環境の第1の要素と関連付けられる関心度値が前記複合現実環境の第2の要素と関連付けられる関心度値を超えることを決定することを含む、ことと、
移動情報に基づいて、前記ディスプレイ上において、前記アニメーションリグの表示を前記第1の姿勢から前記第2の姿勢に更新することであって、前記移動情報は、前記第1の空間関係から前記第2の空間関係への変換を示す、ことと
を含む方法を実行するように構成される、1つ以上のプロセッサと
を備える、システム。 - 前記方法は、
ニューラルネットワークに、前記アニメーションリグの移動と関連付けられる情報を伝送することと、
前記ニューラルネットワークから、前記移動情報を受信することであって、前記移動情報は、前記伝送される情報に基づく、ことと
をさらに含む、請求項14に記載のシステム。 - 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
ウェアラブル頭部デバイスのディスプレイ上において、キャラクタのビューを複合現実環境内に表示することであって、
前記キャラクタのビューは、前記キャラクタと関連付けられるアニメーションリグに基づき、
前記アニメーションリグは、一次関節と、ヘルパ関節とを備え、
前記一次関節は、前記キャラクタの骨格関節と関連付けられ、
前記ヘルパ関節は、前記アニメーションリグの場所と関連付けられ、
第1の時間では、前記アニメーションリグは、前記一次関節と前記ヘルパ関節との間の第1の空間関係によって定義された第1の姿勢にある、ことと、
第2の時間において、前記アニメーションリグが前記第1の姿勢から第2の姿勢に移動していることを決定することであって、前記第2の姿勢は、前記一次関節と前記ヘルパ関節との間の第2の空間関係によって定義され、前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記複合現実環境の第1の要素と関連付けられる関心度値が前記複合現実環境の第2の要素と関連付けられる関心度値を超えることを決定することを含む、ことと、
移動情報に基づいて、前記ウェアラブル頭部デバイスのディスプレイ上において、前記アニメーションリグの表示を前記第1の姿勢から前記第2の姿勢に更新することであって、前記移動情報は、前記第1の空間関係から前記第2の空間関係への変換を示す、ことと
を含む方法を実行させる、非一過性コンピュータ可読媒体。 - 前記方法は、
ニューラルネットワークに、前記アニメーションリグの移動と関連付けられる情報を伝送することと、
前記ニューラルネットワークから、前記移動情報を受信することであって、前記移動情報は、前記伝送される情報に基づく、ことと
をさらに含む、請求項16に記載の非一過性コンピュータ可読媒体。 - 前記ヘルパ関節の場所は、手動定義および最大移動基準のうちの1つ以上のものを備えるヘルパ関節設置基準によって決定される、請求項14に記載のシステム。
- 前記アニメーションリグが前記第1の姿勢から前記第2の姿勢に移動していることを決定することは、前記ウェアラブル頭部デバイスと関連付けられる通視線が変化していることを決定することを含む、請求項14に記載のシステム。
- 前記ヘルパ関節の場所は、手動定義および最大移動基準のうちの1つ以上のものを備えるヘルパ関節設置基準によって決定される、請求項16に記載の非一過性コンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023076007A JP2023100820A (ja) | 2019-06-06 | 2023-05-02 | 空間コンピューティングのための写実的キャラクタ構成 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962858251P | 2019-06-06 | 2019-06-06 | |
US62/858,251 | 2019-06-06 | ||
PCT/US2020/036485 WO2020247863A1 (en) | 2019-06-06 | 2020-06-05 | Photoreal character configurations for spatial computing |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023076007A Division JP2023100820A (ja) | 2019-06-06 | 2023-05-02 | 空間コンピューティングのための写実的キャラクタ構成 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022534799A JP2022534799A (ja) | 2022-08-03 |
JPWO2020247863A5 JPWO2020247863A5 (ja) | 2023-05-15 |
JP7369212B2 true JP7369212B2 (ja) | 2023-10-25 |
Family
ID=73650677
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572310A Active JP7369212B2 (ja) | 2019-06-06 | 2020-06-05 | 空間コンピューティングのための写実的キャラクタ構成 |
JP2023076007A Pending JP2023100820A (ja) | 2019-06-06 | 2023-05-02 | 空間コンピューティングのための写実的キャラクタ構成 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023076007A Pending JP2023100820A (ja) | 2019-06-06 | 2023-05-02 | 空間コンピューティングのための写実的キャラクタ構成 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11151766B2 (ja) |
EP (1) | EP3980880A4 (ja) |
JP (2) | JP7369212B2 (ja) |
CN (1) | CN115176215A (ja) |
WO (1) | WO2020247863A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3511904B1 (de) * | 2018-01-11 | 2020-05-27 | Siemens Aktiengesellschaft | Verfahren zum bestimmen einer pose eines objekts in einer umgebung des objekts mittels multi-task-lernens, sowie steuerungsvorrichtung |
US11151766B2 (en) | 2019-06-06 | 2021-10-19 | Magic Leap, Inc. | Photoreal character configurations for spatial computing |
US11113862B1 (en) * | 2020-05-11 | 2021-09-07 | Sony Interactive Entertainment Inc. | Simulating motion of computer simulation characters to account for simulated injuries to the characters using current motion model |
US20230063681A1 (en) * | 2021-08-25 | 2023-03-02 | Sony Interactive Entertainment Inc. | Dynamic augmentation of stimuli based on profile of user |
US20230132644A1 (en) * | 2021-10-28 | 2023-05-04 | Meta Platforms Technologies, Llc | Tracking a handheld device |
US20230267668A1 (en) * | 2022-02-23 | 2023-08-24 | Electronic Arts Inc. | Joint twist generation for animation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252496A (ja) | 2002-10-24 | 2004-09-09 | Nintendo Co Ltd | ゲーム環境内にオブジェクトをタグ付けすることによって動画制御を行うシステムおよび方法 |
US20170270703A1 (en) | 2015-09-24 | 2017-09-21 | Unity IPR ApS | Method and system for a virtual reality animation tool |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
FR2854265B1 (fr) * | 2003-04-28 | 2006-05-19 | Snecma Moteurs | Optimisation de l'ergonomie lors du deplacement d'un mannequin virtuel |
MXPA06011168A (es) | 2004-04-01 | 2007-04-16 | William C Torch | Biosensores, comunicadores, y controladores que verifican el movimiento del ojo y metodos para utilizarlos. |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US9123175B1 (en) * | 2012-06-29 | 2015-09-01 | Lucasfilm Entertainment Company Ltd. | Pose space simplicial interpolation |
WO2014089542A1 (en) | 2012-12-06 | 2014-06-12 | Eyefluence, Inc. | Eye tracking wearable devices and methods for use |
JP2016509292A (ja) | 2013-01-03 | 2016-03-24 | メタ カンパニー | エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US10175483B2 (en) * | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
US9418465B2 (en) | 2013-12-31 | 2016-08-16 | Dreamworks Animation Llc | Multipoint offset sampling deformation techniques |
US11151766B2 (en) | 2019-06-06 | 2021-10-19 | Magic Leap, Inc. | Photoreal character configurations for spatial computing |
-
2020
- 2020-06-05 US US16/894,141 patent/US11151766B2/en active Active
- 2020-06-05 EP EP20817824.4A patent/EP3980880A4/en active Pending
- 2020-06-05 WO PCT/US2020/036485 patent/WO2020247863A1/en unknown
- 2020-06-05 JP JP2021572310A patent/JP7369212B2/ja active Active
- 2020-06-05 CN CN202080054769.5A patent/CN115176215A/zh active Pending
-
2021
- 2021-09-16 US US17/477,046 patent/US11544888B2/en active Active
-
2022
- 2022-11-21 US US18/057,474 patent/US11823316B2/en active Active
-
2023
- 2023-05-02 JP JP2023076007A patent/JP2023100820A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252496A (ja) | 2002-10-24 | 2004-09-09 | Nintendo Co Ltd | ゲーム環境内にオブジェクトをタグ付けすることによって動画制御を行うシステムおよび方法 |
US20170270703A1 (en) | 2015-09-24 | 2017-09-21 | Unity IPR ApS | Method and system for a virtual reality animation tool |
Non-Patent Citations (1)
Title |
---|
Tomohiko Mukai, 外1名,"Efficient Dynamic Skinning with Low-Rank Helper Bone Controllers",SIGGRAPH '16 Technical Paper,米国,ACM,2016年 |
Also Published As
Publication number | Publication date |
---|---|
US20230087227A1 (en) | 2023-03-23 |
US20200388065A1 (en) | 2020-12-10 |
EP3980880A1 (en) | 2022-04-13 |
JP2023100820A (ja) | 2023-07-19 |
US11544888B2 (en) | 2023-01-03 |
CN115176215A (zh) | 2022-10-11 |
EP3980880A4 (en) | 2022-11-23 |
US11823316B2 (en) | 2023-11-21 |
WO2020247863A1 (en) | 2020-12-10 |
JP2022534799A (ja) | 2022-08-03 |
US11151766B2 (en) | 2021-10-19 |
US20220076475A1 (en) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
JP7369212B2 (ja) | 空間コンピューティングのための写実的キャラクタ構成 | |
JP7437327B2 (ja) | 異種入力の補間のための方法およびシステム | |
US20240005808A1 (en) | Individual viewing in a shared space | |
JP2023076633A (ja) | 仮想アバタのコンテキストベースのレンダリング | |
US11557076B2 (en) | Computer generated hair groom transfer tool | |
JP2023089294A (ja) | 仮想アバタのためのメッシュの合致 | |
JP7459050B2 (ja) | 仮想キャラクタの姿勢空間変形のための姿勢空間次元低減 | |
US11900912B2 (en) | Surface appropriate collisions | |
US20240054712A1 (en) | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters | |
US11961194B2 (en) | Non-uniform stereo rendering | |
US20230260156A1 (en) | Methods and systems for interpolation of disparate inputs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230502 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230502 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231013 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7369212 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |