JPWO2020112561A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020112561A5
JPWO2020112561A5 JP2021528983A JP2021528983A JPWO2020112561A5 JP WO2020112561 A5 JPWO2020112561 A5 JP WO2020112561A5 JP 2021528983 A JP2021528983 A JP 2021528983A JP 2021528983 A JP2021528983 A JP 2021528983A JP WO2020112561 A5 JPWO2020112561 A5 JP WO2020112561A5
Authority
JP
Japan
Prior art keywords
sensor
data
user
sensor data
computerized method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021528983A
Other languages
Japanese (ja)
Other versions
JP7502292B2 (en
JP2022510843A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2019/062848 external-priority patent/WO2020112561A1/en
Publication of JP2022510843A publication Critical patent/JP2022510843A/en
Publication of JPWO2020112561A5 publication Critical patent/JPWO2020112561A5/ja
Priority to JP2023076666A priority Critical patent/JP2023100853A/en
Application granted granted Critical
Publication of JP7502292B2 publication Critical patent/JP7502292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

ルールのセットに基づいて、アクティブな手、アクティブな手の配向、アクティブな手の場所、および/または関連付けられる信頼度レベルを決定するための複合現実システム(本明細書では、「ウェアラブルシステム」とも称される)の種々の実施例。ルールは、履歴データ、運動データ、および人間工学データに基づいてもよい。2つ以上のセンサが、データを提供してもよく、これは、次いで、初期加重推定値を割り当てられてもよい。複数のセンサストリームが、次いで、単一推定値に組み合わせられてもよく、これは、アバタレンダリングシステムの中に出力およびフィードされてもよい。
本発明は、例えば、以下を提供する。
(項目1)
コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶し、コンピュータ化された方法を実施するための1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記コンピュータ化された方法は、
複合現実デバイスの対応する複数のセンサからの複数のセンサデータストリームにアクセスすることと、
前記複数のセンサデータストリームの各々に対し、前記センサデータストリームのための対応する初期加重を決定することと、
前記複数のセンサデータストリーム内の掌性情報および前記センサデータストリームの対応する初期加重を分析し、全体的掌性を決定することと、
前記決定された全体的掌性を前記複合現実デバイス上で実行されるアプリケーションに提供することと
を含む、コンピュータ化された方法。
(項目2)
前記全体的掌性は、左手または右手のいずれかを示す、項目1に記載のコンピュータ化された方法。
(項目3)
前記全体的掌性はさらに、信頼度レベルを示す、項目2に記載のコンピュータ化された方法。
(項目4)
前記信頼度レベルは、複数のセンサデータストリーム内の掌性情報に合致することに応答して、より高い、項目3に記載のコンピュータ化された方法。
(項目5)
前記初期加重は、少なくとも部分的に、センサのタイプに基づく、項目1-4のいずれかに記載のコンピュータ化された方法。
(項目6)
前記センサのタイプは、ハンドヘルドコントローラの6DOF外部能動追跡、前記ハンドヘルドコントローラの6DOF内部運動追跡、または前記ハンドヘルドコントローラの外部受動追跡のうちの少なくともいくつかを含む、項目5に記載のコンピュータ化された方法。
(項目7)
前記センサのタイプはさらに、視覚センサ、深度センサ、またはLIDARセンサのうちの1つ以上のものを含む、項目6に記載のコンピュータ化された方法。
(項目8)
前記初期加重は、少なくとも部分的に、前記対応するセンサからの最近のデータ読取値の量に基づく、項目1-7のいずれかに記載のコンピュータ化された方法。
(項目9)
前記初期加重は、少なくとも部分的に、前記対応するセンサと関連付けられる履歴情報に基づく、項目1-8のいずれかに記載のコンピュータ化された方法。
(項目10)
センサデータストリームのための前記初期加重を決定することは、
前記対応するセンサの1つ以上の特性に基づいて、1つ以上の分析ルールを選択することであって、前記分析ルールは、前記センサと関連付けられる人間工学データ、履歴データ、または運動データのうちの1つ以上のものに基づく、ことと、
前記選択された1つ以上の分析ルールを前記センサデータストリームに適用し、対応する掌性情報を決定することと
を含む、項目1-9のいずれかに記載のコンピュータ化された方法。
(項目11)
前記分析ルールのうちの1つ以上のものは、
第2のセンサデータストリームと比較して、第1のセンサデータストリームの決定されたより高い信頼性に基づいて、第2のセンサからの第2のセンサデータストリームよりも上に第1のセンサからの第1のセンサデータストリームを優先順位化する、項目10に記載のコンピュータ化された方法。
(項目12)
前記分析ルールのうちの1つ以上のものは、前記センサデータがセンサの視野内で捕捉された場所に応じて、特定のセンサからのセンサデータを優先順位化する、項目1-11のいずれかに記載のコンピュータ化された方法。
(項目13)
前記第1のセンサデータストリームは、少なくとも、前記複合現実デバイスのウェアラブルヘッドセットを基準とする前記第1のセンサの位置に基づいて、前記第2のデータストリームと関連付けられる第2の信頼度レベルより高い第1の信頼度レベルと関連付けられる、項目11-12のいずれかに記載のコンピュータ化された方法。
(項目14)
前記分析ルールのうちの1つ以上のものは、前記第1のセンサデータストリームと前記第2のセンサデータストリームとの間の競合を識別する、項目10-13のいずれかに記載のコンピュータ化された方法。
(項目15)
前記分析ルールのうちの1つ以上のものは、周期的に、2つ以上のセンサからのセンサデータストリームに基づいて、更新された信頼度レベルを計算する、項目10-13のいずれかに記載のコンピュータ化された方法。
(項目16)
前記分析ルールのうちの1つ以上のものは、前記センサデータストリーム内のエラーを識別し、エラーを伴うセンサデータを破棄する、項目10-15のいずれかに記載のコンピュータ化された方法。
(項目17)
センサデータストリーム内のエラーは、センサデータ内の欠測フレーム、矛盾するフレーム、または複製フレームを含む、項目16に記載のコンピュータ化された方法。
(項目18)
前記センサのそれぞれの視野を決定することと、
中心視野を表す少なくとも第1の領域を含む1つ以上の視野領域を決定することであって、前記センサのうちの少なくとも2つは、前記第1の領域と関連付けられるセンサデータを提供する、ことと
をさらに含む、項目1-17のいずれかに記載のコンピュータ化された方法。
(項目19)
前記第1の領域と関連付けられるセンサデータは、前記第1の領域の外側のセンサデータより高い信頼度レベルと関連付けられる、項目18に記載のコンピュータ化された方法。
(項目20)
コンピューティングシステムであって、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されるソフトウェア命令を有し、前記ソフトウェア命令は、前記コンピューティングシステムに、
複合現実デバイスの対応する複数のセンサからの複数のセンサデータストリームにアクセスすることと、
前記複数のセンサデータストリームの各々に対し、前記センサデータストリームのための対応する初期加重を決定することと、
前記複数のセンサデータストリーム内の掌性情報および前記センサデータストリームの対応する初期加重を分析し、全体的掌性を決定することと、
前記決定された全体的掌性を前記複合現実デバイス上で実行されるアプリケーションに提供することと
を含む動作を実施させるように、前記ハードウェアコンピュータプロセッサによって実行可能である、非一過性コンピュータ可読媒体と
を備える、コンピューティングシステム。
(項目21)
コンピューティングシステムであって、
ウェアラブルシステムの第1のセンサであって、ユーザの左手または右手のどちらがアクティブであるかを決定するために使用可能な第1のユーザデータを入手するように構成されるウェアラブルシステムの第1のセンサと、
ウェアラブルシステムの第2のセンサであって、前記ユーザの左手または右手のどちらがアクティブであるかを決定するために使用可能な第2のユーザデータを入手するように構成されるウェアラブルシステムの第2のセンサと、
前記第1および第2のセンサと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記第1のユーザデータと関連付けられる第1の履歴データ、第1の運動データ、または第1の人間工学データのうちの1つ以上のものに基づいて、前記第1のユーザデータのための第1の加重を決定することと、
前記第2のユーザデータと関連付けられる第2の履歴データ、第2の運動データ、または第2の人間工学データのうちの1つ以上のものに基づいて、前記第2のユーザデータのための第2の加重を決定することと、
前記第1のユーザデータ、前記第1の加重、前記第2のユーザデータ、および前記第2の加重に基づいて、前記ユーザの左手または右手のどちらがアクティブであるかを決定することと、
前記決定をアバタ処理およびレンダリングシステムに出力することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、コンピューティングシステム。
(項目22)
コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶し、コンピュータ化された方法を実施するための1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記コンピュータ化された方法は、
第1のユーザデータをウェアラブルシステムの第1のセンサから入手することであって、前記第1のユーザデータは、ユーザの左手または右手のどちらがアクティブであるかを決定するために使用可能である、ことと、
第2のユーザデータを前記ウェアラブルシステムの第2のセンサから入手することであって、前記第2のユーザデータは、前記ユーザの左手または右手のどちらがアクティブであるかを決定するために使用可能である、ことと、
前記第1のユーザデータと関連付けられる第1の履歴データ、第1の運動データ、または第1の人間工学データのうちの1つ以上のものに基づいて、前記第1のユーザデータのための第1の加重を決定することと、
前記第2のユーザデータと関連付けられる第2の履歴データ、第2の運動データ、または第2の人間工学データのうちの1つ以上のものに基づいて、前記第2のユーザデータのための第2の加重を決定することと、
前記第1のユーザデータ、前記第1の加重、前記第2のユーザデータ、および前記第2の加重に基づいて、前記ユーザの左手または右手のどちらがアクティブであるかを決定することと、
前記決定をアバタ処理およびレンダリングシステムに出力することと
を含む、コンピュータ化された方法。
A mixed reality system (also referred to herein as a "wearable system") for determining the active hand, active hand orientation, active hand location, and/or associated confidence level based on a set of rules. ), various embodiments. Rules may be based on historical data, athletic data, and ergonomic data. Two or more sensors may provide data, which may then be assigned initial weighted estimates. Multiple sensor streams may then be combined into a single estimate, which may be output and fed into the avatar rendering system.
The present invention provides, for example, the following.
(Item 1)
A computerized method, said computerized method being implemented by a computing system, said computing system comprising one or more hardware computer processors and software instructions executable by said computing system. and one or more non-transitory computer readable storage devices for storing and performing a computerized method, the computerized method comprising:
accessing multiple sensor data streams from corresponding multiple sensors of a mixed reality device;
determining, for each of the plurality of sensor data streams, a corresponding initial weight for the sensor data stream;
analyzing handedness information in the plurality of sensor data streams and corresponding initial weights of the sensor data streams to determine overall handedness;
providing the determined global handedness to an application running on the mixed reality device;
computerized methods, including
(Item 2)
2. The computerized method of item 1, wherein the global handedness indicates either left hand or right hand.
(Item 3)
3. The computerized method of item 2, wherein the global handedness further indicates a confidence level.
(Item 4)
4. The computerized method of item 3, wherein the confidence level is higher in response to matching handedness information in multiple sensor data streams.
(Item 5)
5. The computerized method of any of items 1-4, wherein the initial weights are based, at least in part, on sensor type.
(Item 6)
6. The computerized method of item 5, wherein the type of sensor includes at least some of 6 DOF external active tracking of a handheld controller, 6 DOF internal motion tracking of the handheld controller, or external passive tracking of the handheld controller. .
(Item 7)
7. The computerized method of item 6, wherein the sensor types further include one or more of visual sensors, depth sensors, or LIDAR sensors.
(Item 8)
8. The computerized method of any of items 1-7, wherein the initial weights are based, at least in part, on the amount of recent data readings from the corresponding sensors.
(Item 9)
9. The computerized method of any of items 1-8, wherein the initial weights are based, at least in part, on historical information associated with the corresponding sensors.
(Item 10)
Determining the initial weights for the sensor data stream comprises:
selecting one or more analysis rules based on one or more characteristics of the corresponding sensor, the analysis rule being selected from ergonomic data, historical data, or athletic data associated with the sensor; based on one or more of
applying the selected one or more analysis rules to the sensor data stream to determine corresponding handedness information;
10. The computerized method of any of items 1-9, comprising
(Item 11)
One or more of the analysis rules may include:
from the first sensor above the second sensor data stream from the second sensor based on the determined higher reliability of the first sensor data stream compared to the second sensor data stream; 11. The computerized method of item 10, wherein the first sensor data stream is prioritized.
(Item 12)
Any of items 1-11, wherein one or more of the analysis rules prioritize sensor data from a particular sensor according to where the sensor data was captured within the sensor's field of view. A computerized method as described in .
(Item 13)
The first sensor data stream is at least higher than a second confidence level associated with the second data stream based on the position of the first sensor relative to the wearable headset of the mixed reality device. 13. A computerized method according to any of items 11-12, associated with a high first confidence level.
(Item 14)
14. The computerized system of any of items 10-13, wherein one or more of the analysis rules identify conflicts between the first sensor data stream and the second sensor data stream. way.
(Item 15)
14. Any of items 10-13, wherein one or more of the analysis rules periodically calculate updated confidence levels based on sensor data streams from two or more sensors. A computerized method of
(Item 16)
16. The computerized method of any of items 10-15, wherein one or more of the analysis rules identify errors in the sensor data stream and discard sensor data with errors.
(Item 17)
17. The computerized method of item 16, wherein the errors in the sensor data stream include missing, inconsistent, or duplicate frames in the sensor data.
(Item 18)
determining a field of view of each of the sensors;
Determining one or more viewing regions including at least a first region representing central vision, wherein at least two of said sensors provide sensor data associated with said first region. When
18. The computerized method of any of items 1-17, further comprising:
(Item 19)
19. The computerized method of item 18, wherein sensor data associated with the first region is associated with a higher confidence level than sensor data outside the first region.
(Item 20)
A computing system,
a hardware computer processor;
A non-transitory computer-readable medium, said non-transitory computer-readable medium having software instructions stored thereon, said software instructions causing said computing system to:
accessing multiple sensor data streams from corresponding multiple sensors of a mixed reality device;
determining, for each of the plurality of sensor data streams, a corresponding initial weight for the sensor data stream;
analyzing handedness information in the plurality of sensor data streams and corresponding initial weights of the sensor data streams to determine overall handedness;
providing the determined global handedness to an application running on the mixed reality device;
a non-transitory computer-readable medium executable by said hardware computer processor to cause it to perform operations including
A computing system comprising:
(Item 21)
A computing system,
A first sensor of the wearable system, the first sensor of the wearable system configured to obtain first user data usable to determine whether the user's left hand or right hand is active. When,
A second sensor of the wearable system configured to obtain second user data usable to determine whether the user's left hand or right hand is active. a sensor;
A hardware processor in communication with the first and second sensors, the hardware processor comprising:
first user data based on one or more of first historical data, first athletic data, or first ergonomic data associated with the first user data; determining a weight of 1;
second user data for the second user data based on one or more of second historical data, second athletic data, or second ergonomic data associated with the second user data; determining a weight of 2;
determining whether the user's left hand or right hand is active based on the first user data, the first weight, the second user data, and the second weight;
outputting the determination to an avatar processing and rendering system;
A hardware processor and
A computing system comprising:
(Item 22)
A computerized method, said computerized method being implemented by a computing system, said computing system comprising one or more hardware computer processors and software instructions executable by said computing system. and one or more non-transitory computer readable storage devices for storing and performing a computerized method, the computerized method comprising:
obtaining first user data from a first sensor of the wearable system, the first user data being usable to determine whether the user's left hand or right hand is active; and
obtaining second user data from a second sensor of the wearable system, the second user data usable to determine whether the user's left hand or right hand is active; There is, and
first user data based on one or more of first historical data, first athletic data, or first ergonomic data associated with the first user data; determining a weight of 1;
second user data for the second user data based on one or more of second historical data, second athletic data, or second ergonomic data associated with the second user data; determining a weight of 2;
determining whether the user's left hand or right hand is active based on the first user data, the first weight, the second user data, and the second weight;
outputting the determination to an avatar processing and rendering system;
computerized methods, including

Claims (20)

コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶し、前記コンピュータ化された方法を実施するための1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記コンピュータ化された方法は、
複合現実デバイスの対応する複数のセンサからの複数のセンサデータストリームにアクセスすることであって、前記複合現実デバイスは、第1のセンサデータストリームを提供する前向きカメラを有するヘッドセットと、第2のセンサデータストリームを提供する慣性運動センサを有するハンドヘルドコントローラとを備える、ことと、
前記第1および第2のセンサデータストリームを含む複数のセンサデータストリームの各々に対し、
前記センサデータストリームがユーザのアクティブな手を正確に予測するために使用可能である信頼度レベルに少なくとも基づいて、前記センサデータストリームのため初期加重を決定することと、
前記センサデータストリームおよび前記初期加重の分析に基づいて、掌性予測を決定することであって、前記掌性予測は、前記予測されるアクティブな手としての前記ユーザの右手または左手のいずれか、および、前記掌性予測が正確である信頼度レベルを識別する、ことと、
前記複数のセンサデータストリームと関連付けられる複数の掌性予測に基づいて、全体的掌性予測を決定することと、
前記決定された全体的掌性予測前記複合現実デバイス上で実行されるアプリケーションに提供することと
を含む、コンピュータ化された方法。
A computerized method, said computerized method being implemented by a computing system, said computing system comprising one or more hardware computer processors and software instructions executable by said computing system. and one or more non- transitory computer-readable storage devices for storing and performing the computerized method, the computerized method comprising:
accessing multiple sensor data streams from corresponding multiple sensors of a mixed reality device, the mixed reality device comprising a headset having a front-facing camera providing a first sensor data stream; a handheld controller having an inertial motion sensor that provides a sensor data stream ;
for each of a plurality of sensor data streams, including the first and second sensor data streams;
determining an initial weighting for the sensor data stream based at least on a confidence level that the sensor data stream can be used to accurately predict a user's active hand;
determining a handedness prediction based on the analysis of the sensor data stream and the initial weights, wherein the handedness prediction is either the user's right hand or left hand as the predicted active hand; and identifying a confidence level with which the handedness prediction is accurate;
determining an overall handedness prediction based on a plurality of handedness predictions associated with the plurality of sensor data streams;
and providing the determined global handedness prediction to an application running on the mixed reality device.
全体的信頼度レベルは、複数のセンサデータストリームからの掌性予測に合致することに応答して、より高い、請求項に記載のコンピュータ化された方法。 2. The computerized method of claim 1 , wherein the overall confidence level is higher in response to meeting handedness predictions from multiple sensor data streams. 前記初期加重はセンサのタイプに少なくとも部分的に基づく、請求項に記載のコンピュータ化された方法。 2. The computerized method of claim 1 , wherein the initial weights are based at least in part on sensor type. 前記センサのタイプは、ハンドヘルドコントローラの6DOF外部能動追跡、前記ハンドヘルドコントローラの6DOF内部運動追跡、または前記ハンドヘルドコントローラの外部受動追跡のうちの少なくともいくつかを含む、請求項に記載のコンピュータ化された方法。 4. The computerized system of claim 3 , wherein the sensor type includes at least some of a handheld controller's 6DOF external active tracking, a handheld controller's 6DOF internal motion tracking, or a handheld controller's external passive tracking. Method. 前記センサのタイプは視覚センサ、深度センサ、またはLIDARセンサのうちの1つ以上のものをさらに含む、請求項に記載のコンピュータ化された方法。 5. The computerized method of claim 4 , wherein the sensor types further include one or more of a visual sensor, a depth sensor, or a LIDAR sensor. 前記初期加重は前記対応するセンサからの最近のデータ読取値の量に少なくとも部分的に基づく、請求項に記載のコンピュータ化された方法。 2. The computerized method of claim 1 , wherein the initial weighting is based at least in part on the amount of recent data readings from the corresponding sensor. 前記初期加重は前記対応するセンサと関連付けられる履歴情報に少なくとも部分的に基づく、請求項に記載のコンピュータ化された方法。 2. The computerized method of claim 1 , wherein the initial weights are based at least in part on historical information associated with the corresponding sensors. センサデータストリームのための前記初期加重を決定することは、
前記対応するセンサの1つ以上の特性に基づいて、1つ以上の分析ルールを選択することであって、前記分析ルールは、前記センサと関連付けられる人間工学データ、履歴データ、または運動データのうちの1つ以上のものに基づく、ことと、
前記選択された1つ以上の分析ルールを前記センサデータストリームに適用し、対応する掌性情報を決定することと
を含む、請求項に記載のコンピュータ化された方法。
Determining the initial weights for the sensor data stream comprises:
selecting one or more analysis rules based on one or more characteristics of the corresponding sensor, the analysis rule being selected from ergonomic data, historical data, or athletic data associated with the sensor; based on one or more of
applying the selected one or more analysis rules to the sensor data stream to determine corresponding handedness information.
前記分析ルールのうちの1つ以上のものは、
前記第2のセンサデータストリームと比較して、前記第1のセンサデータストリームの決定されたより高い信頼性に基づいて、第2のセンサからの第2のセンサデータストリームよりも上に第1のセンサからの第1のセンサデータストリームを優先順位化する、請求項に記載のコンピュータ化された方法。
One or more of the analysis rules may include:
a first sensor above a second sensor data stream from a second sensor based on the determined higher reliability of the first sensor data stream compared to the second sensor data stream; 9. The computerized method of claim 8 , prioritizing the first sensor data stream from.
前記分析ルールのうちの1つ以上のものは、前記複合現実デバイスの視野内の前記ユーザの検出された手の位置に応じて、特定のセンサからのセンサデータを優先順位化する、請求項に記載のコンピュータ化された方法。 9. The one or more of the analysis rules prioritize sensor data from a particular sensor according to a detected hand position of the user within a field of view of the mixed reality device. A computerized method as described in . 前記第1のセンサデータストリームは前記複合現実デバイスの前記ヘッドセットを基準とする前記第のセンサの位置に少なくとも基づいて、前記第2のデータストリームと関連付けられる第2の信頼度レベルより高い第1の信頼度レベルと関連付けられる、請求項に記載のコンピュータ化された方法。 The first sensor data stream is higher than a second confidence level associated with the second data stream based at least on the position of the second sensor relative to the headset of the mixed reality device. 10. The computerized method of claim 9 , associated with a first confidence level. 前記分析ルールのうちの1つ以上のものは、前記第1のセンサデータストリームと前記第2のセンサデータストリームとの間の競合を識別する、請求項に記載のコンピュータ化された方法。 9. The computerized method of claim 8 , wherein one or more of said analysis rules identify conflicts between said first sensor data stream and said second sensor data stream. 前記分析ルールのうちの1つ以上のものは、周期的に、2つ以上のセンサからのセンサデータストリームに基づいて、更新された信頼度レベルを計算する、請求項に記載のコンピュータ化された方法。 9. The computerized system of claim 8 , wherein one or more of the analysis rules periodically calculate updated confidence levels based on sensor data streams from two or more sensors. way. 前記分析ルールのうちの1つ以上のものは、前記センサデータストリーム内のエラーを識別し、エラーを伴うセンサデータを破棄する、請求項に記載のコンピュータ化された方法。 9. The computerized method of claim 8 , wherein one or more of the analysis rules identify errors in the sensor data stream and discard sensor data with errors. センサデータストリーム内のエラーは、センサデータ内の欠測フレーム、矛盾するフレーム、または複製フレームを含む、請求項14に記載のコンピュータ化された方法。 15. The computerized method of claim 14 , wherein errors in the sensor data stream comprise missing, inconsistent, or duplicate frames in the sensor data. 前記センサのそれぞれの視野を決定することと、
中心視野を表す少なくとも第1の領域を含む1つ以上の視野領域を決定することであって、前記センサのうちの少なくとも2つは、前記第1の領域と関連付けられるセンサデータを提供する、ことと
をさらに含む、請求項に記載のコンピュータ化された方法。
determining a field of view of each of the sensors;
Determining one or more viewing regions including at least a first region representing central vision, wherein at least two of said sensors provide sensor data associated with said first region. 2. The computerized method of claim 1 , further comprising: and.
前記第1の領域と関連付けられるセンサデータは、前記第1の領域の外側のセンサデータより高い信頼度レベルと関連付けられる、請求項16に記載のコンピュータ化された方法。 17. The computerized method of claim 16 , wherein sensor data associated with the first region is associated with a higher confidence level than sensor data outside the first region. コンピューティングシステムであって、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されるソフトウェア命令を有し、前記ソフトウェア命令は、前記コンピューティングシステムに、
複合現実デバイスの対応する複数のセンサからの複数のセンサデータストリームにアクセスすることと、
前記複数のセンサデータストリームの各々に対し、前記センサデータストリームのための対応する初期加重を決定することと、
前記センサデータストリームおよび前記センサデータストリームの対応する初期加重に基づいて、アクティブであると予測されるユーザの左手または右手のうちの1つ以上のものを示す前記ユーザの予測される掌性を決定することと、
前記予測される掌性を前記複合現実デバイス上で実行されるアプリケーションに提供することと
を含む動作を実施させるように、前記ハードウェアコンピュータプロセッサによって実行可能である、非一過性コンピュータ可読媒体と
を備える、コンピューティングシステム。
A computing system,
a hardware computer processor;
A non-transitory computer-readable medium, said non-transitory computer-readable medium having software instructions stored thereon, said software instructions causing said computing system to:
accessing multiple sensor data streams from corresponding multiple sensors of a mixed reality device;
determining, for each of the plurality of sensor data streams, a corresponding initial weight for the sensor data stream;
Determining a predicted handedness of the user indicating one or more of the user's left hand or right hand predicted to be active based on the sensor data stream and the corresponding initial weighting of the sensor data stream . and
providing the predicted handedness to an application running on the mixed reality device . A computing system comprising and .
コンピューティングシステムであって、
ウェアラブルシステムの第1のセンサであって、前記第1のセンサは、ユーザの左手または右手のどちらがアクティブであるかを決定するために使用可能な第1のユーザデータを入手するように構成される第1のセンサと、
前記ウェアラブルシステムの第2のセンサであって、前記第2のセンサは、前記ユーザの前記左手または前記右手のどちらがアクティブであるかを決定するために使用可能な第2のユーザデータを入手するように構成される第2のセンサと、
前記第1および第2のセンサと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記第1のユーザデータと関連付けられる第1の履歴データ、第1の運動データ、または第1の人間工学データのうちの1つ以上のものに基づいて、前記第1のユーザデータのための第1の加重を決定することと、
前記第2のユーザデータと関連付けられる第2の履歴データ、第2の運動データ、または第2の人間工学データのうちの1つ以上のものに基づいて、前記第2のユーザデータのための第2の加重を決定することと、
前記第1のユーザデータおよび前記第1の加重に基づく第1の掌性推定値と、前記第2のユーザデータおよび前記第2の加重に基づく第2の掌性推定値とに基づいて、前記ユーザの前記左手または右手のどちらがアクティブであるかを決定することと、
前記決定をアバタ処理およびレンダリングシステムに出力することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、コンピューティングシステム。
A computing system,
A first sensor of the wearable system, said first sensor configured to obtain first user data usable to determine whether a user's left hand or right hand is active. , a first sensor;
A second sensor of the wearable system, the second sensor adapted to obtain second user data usable to determine whether the left hand or the right hand of the user is active. a second sensor configured to
A hardware processor in communication with the first and second sensors, the hardware processor comprising:
first user data based on one or more of first historical data, first athletic data, or first ergonomic data associated with the first user data; determining a weight of 1;
second user data for the second user data based on one or more of second historical data, second athletic data, or second ergonomic data associated with the second user data; determining a weight of 2;
Based on a first handedness estimate based on the first user data and the first weights and a second handedness estimate based on the second user data and the second weights , the determining whether the left or right hand of a user is active;
A computing system, comprising: a hardware processor programmed to: output said determination to an avatar processing and rendering system;
コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶し、前記コンピュータ化された方法を実施するための1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記コンピュータ化された方法は、
第1のユーザデータをウェアラブルシステムの第1のセンサから入手することであって、前記第1のユーザデータは、ユーザの左手または右手のどちらがアクティブであるかを決定するために使用可能である、ことと、
第2のユーザデータを前記ウェアラブルシステムの第2のセンサから入手することであって、前記第2のユーザデータは、前記ユーザの前記左手または前記右手のどちらがアクティブであるかを決定するために使用可能である、ことと、
前記第1のユーザデータと関連付けられる第1の履歴データ、第1の運動データ、または第1の人間工学データのうちの1つ以上のものに基づいて、前記第1のユーザデータのための第1の加重を決定することと、
前記第2のユーザデータと関連付けられる第2の履歴データ、第2の運動データ、または第2の人間工学データのうちの1つ以上のものに基づいて、前記第2のユーザデータのための第2の加重を決定することと、
前記第1のユーザデータおよび前記第1の加重に基づく第1の掌性推定値と、前記第2のユーザデータおよび前記第2の加重に基づく第2の掌性推定値とに基づいて、前記ユーザの前記左手または右手のどちらがアクティブであるかを決定することと、
前記決定をアバタ処理およびレンダリングシステムに出力することと
を含む、コンピュータ化された方法。
A computerized method, said computerized method being implemented by a computing system, said computing system comprising one or more hardware computer processors and software instructions executable by said computing system. and one or more non- transitory computer-readable storage devices for storing and performing the computerized method, the computerized method comprising:
obtaining first user data from a first sensor of the wearable system, the first user data being usable to determine whether the user's left hand or right hand is active; and
obtaining second user data from a second sensor of the wearable system, the second user data being used to determine whether the left hand or the right hand of the user is active; that it is possible and
first user data based on one or more of first historical data, first athletic data, or first ergonomic data associated with the first user data; determining a weight of 1;
second user data for the second user data based on one or more of second historical data, second athletic data, or second ergonomic data associated with the second user data; determining a weight of 2;
Based on a first handedness estimate based on the first user data and the first weights and a second handedness estimate based on the second user data and the second weights , the determining whether the left or right hand of a user is active;
and outputting said determination to an avatar processing and rendering system.
JP2021528983A 2018-11-30 2019-11-22 Multimodal hand location and orientation for avatar locomotion Active JP7502292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023076666A JP2023100853A (en) 2018-11-30 2023-05-08 Multi-modal hand location and orientation for avatar movement

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862774076P 2018-11-30 2018-11-30
US62/774,076 2018-11-30
PCT/US2019/062848 WO2020112561A1 (en) 2018-11-30 2019-11-22 Multi-modal hand location and orientation for avatar movement

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023076666A Division JP2023100853A (en) 2018-11-30 2023-05-08 Multi-modal hand location and orientation for avatar movement

Publications (3)

Publication Number Publication Date
JP2022510843A JP2022510843A (en) 2022-01-28
JPWO2020112561A5 true JPWO2020112561A5 (en) 2022-11-30
JP7502292B2 JP7502292B2 (en) 2024-06-18

Family

ID=70849151

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021528983A Active JP7502292B2 (en) 2018-11-30 2019-11-22 Multimodal hand location and orientation for avatar locomotion
JP2023076666A Pending JP2023100853A (en) 2018-11-30 2023-05-08 Multi-modal hand location and orientation for avatar movement

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023076666A Pending JP2023100853A (en) 2018-11-30 2023-05-08 Multi-modal hand location and orientation for avatar movement

Country Status (5)

Country Link
US (3) US11199912B2 (en)
EP (1) EP3887925A4 (en)
JP (2) JP7502292B2 (en)
CN (1) CN113330390A (en)
WO (1) WO2020112561A1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230144661A (en) 2017-05-16 2023-10-16 애플 인크. Emoji recording and sending
US10901430B2 (en) * 2017-11-30 2021-01-26 International Business Machines Corporation Autonomous robotic avatars
EP3887925A4 (en) 2018-11-30 2022-08-17 Magic Leap, Inc. Multi-modal hand location and orientation for avatar movement
CN109741463B (en) * 2019-01-02 2022-07-19 京东方科技集团股份有限公司 Rendering method, device and equipment of virtual reality scene
US11222455B2 (en) 2019-09-30 2022-01-11 Snap Inc. Management of pseudorandom animation system
US11348297B2 (en) 2019-09-30 2022-05-31 Snap Inc. State-space system for pseudorandom animation
US11176723B2 (en) * 2019-09-30 2021-11-16 Snap Inc. Automated dance animation
US11568610B2 (en) 2020-05-12 2023-01-31 Magic Leap, Inc. Privacy preserving expression generation for augmented or virtual reality client applications
WO2021252160A1 (en) * 2020-06-08 2021-12-16 Apple Inc. Presenting avatars in three-dimensional environments
US20210405739A1 (en) * 2020-06-26 2021-12-30 Sony Interactive Entertainment Inc. Motion matching for vr full body reconstruction
WO2022072328A1 (en) 2020-09-30 2022-04-07 Snap Inc. Music reactive animation of human characters
US12008717B2 (en) 2021-07-07 2024-06-11 Meta Platforms Technologies, Llc Artificial reality environment control through an artificial reality environment schema
CN113761616B (en) * 2021-07-23 2023-12-22 散裂中子源科学中心 Three-dimensional adjustment method and device with distance constraint
US12067688B2 (en) 2022-02-14 2024-08-20 Meta Platforms Technologies, Llc Coordination of interactions of virtual objects
US11947862B1 (en) * 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US8723795B2 (en) * 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA2822978C (en) 2010-12-24 2019-02-19 Hong Hua An ergonomic head mounted display device and optical system
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
CN103635891B (en) 2011-05-06 2017-10-27 奇跃公司 The world is presented in a large amount of digital remotes simultaneously
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc Tactile glove for human-computer interaction
CN104011788B (en) 2011-10-28 2016-11-16 奇跃公司 For strengthening and the system and method for virtual reality
US8180583B1 (en) 2011-11-16 2012-05-15 Google Inc. Methods and systems to determine a context of a device
US9389681B2 (en) * 2011-12-19 2016-07-12 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
US9170648B2 (en) 2012-04-03 2015-10-27 The Boeing Company System and method for virtual engineering
BR112014024941A2 (en) 2012-04-05 2017-09-19 Magic Leap Inc Active Focusing Wide-field Imaging Device
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10048779B2 (en) 2012-06-30 2018-08-14 Hewlett-Packard Development Company, L.P. Virtual hand based on combined data
JP2015534108A (en) 2012-09-11 2015-11-26 マジック リープ, インコーポレイテッド Ergonomic head mounted display device and optical system
IL283193B (en) 2013-01-15 2022-08-01 Magic Leap Inc System for scanning electromagnetic imaging radiation
IL313175A (en) 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmented and virtual reality
NZ735754A (en) 2013-03-15 2019-04-26 Magic Leap Inc Display system and method
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
IL295157B2 (en) 2013-10-16 2023-10-01 Magic Leap Inc Virtual or augmented reality headsets having adjustable interpupillary distance
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CN107315249B (en) 2013-11-27 2021-08-17 奇跃公司 Virtual and augmented reality systems and methods
CN111552079B (en) 2014-01-31 2022-04-15 奇跃公司 Multi-focus display system and method
NZ722904A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
US9971490B2 (en) * 2014-02-26 2018-05-15 Microsoft Technology Licensing, Llc Device control
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9239648B2 (en) * 2014-03-17 2016-01-19 Google Inc. Determining user handedness and orientation using a touchscreen device
AU2015297036B2 (en) 2014-05-09 2017-09-28 Google Llc Systems and methods for discerning eye signals and continuous biometric identification
CA3124368C (en) 2014-05-30 2023-04-25 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
EP4173550A1 (en) 2015-03-16 2023-05-03 Magic Leap, Inc. Diagnosing and treating health ailments
US9578493B1 (en) * 2015-08-06 2017-02-21 Adtile Technologies Inc. Sensor control switch
US10809825B2 (en) * 2016-03-04 2020-10-20 Sony Interactive Entertainment Inc. Control apparatus and control program for determining how a controller device is worn
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US10001901B2 (en) 2016-06-14 2018-06-19 Unity IPR ApS System and method for texturing in virtual reality and mixed reality environments
CN110785688B (en) 2017-04-19 2021-08-27 奇跃公司 Multi-modal task execution and text editing for wearable systems
US10671842B2 (en) * 2018-01-29 2020-06-02 Google Llc Methods of determining handedness for virtual controllers
US10665032B2 (en) * 2018-10-12 2020-05-26 Accenture Global Solutions Limited Real-time motion feedback for extended reality
EP3887925A4 (en) 2018-11-30 2022-08-17 Magic Leap, Inc. Multi-modal hand location and orientation for avatar movement

Similar Documents

Publication Publication Date Title
JPWO2020112561A5 (en)
JP6871416B2 (en) Methods and devices for determining facial image quality, electronics and computer storage media
KR20220062338A (en) Hand pose estimation from stereo cameras
US10676097B1 (en) Driver identification among a limited pool of potential drivers
KR101922747B1 (en) Fully automatic dynamic articulated model calibration
US9469028B2 (en) Robotic handover system natural for humans
EP4005186B1 (en) Provision of a mixed reality service
KR101891887B1 (en) Image processing method, apparatus for predicting dangerous situation and method, server for predicting dangerous situation using thereof
KR20220008281A (en) Systems and methods for generating dynamic obstacle collision warnings for head mounted displays
CN108875526B (en) Method, device and system for line-of-sight detection and computer storage medium
WO2016041088A1 (en) System and method for tracking wearable peripherals in augmented reality and virtual reality applications
CN110598559B (en) Method and device for detecting motion direction, computer equipment and storage medium
JP2012516507A5 (en)
RU2018132850A (en) Methods and systems for computer determining the presence of objects
US20220030208A1 (en) Method and apparatus for buffer management in cloud based virtual reality services
WO2016025808A1 (en) Spatial data processing
KR20170053702A (en) Automatic sensor selection based on requested sensor characteristics
US10521964B1 (en) Switching among disparate simultaneous localization and mapping (SLAM) methods in virtual, augmented, and mixed reality (xR) applications
CN115482556A (en) Method for key point detection model training and virtual character driving and corresponding device
CN108882169A (en) The acquisition methods and device and robot of a kind of WiFi location fingerprint data
CN115471863A (en) Three-dimensional posture acquisition method, model training method and related equipment
JP6325187B2 (en) Target tracking apparatus, method and program
US10852138B2 (en) Scalabale simultaneous localization and mapping (SLAM) in virtual, augmented, and mixed reality (xR) applications
WO2020149044A1 (en) Parameter selection device, parameter selection method, and parameter selection program
CN116486479A (en) Physical ability detection method, device, equipment and storage medium