JPWO2021173725A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021173725A5
JPWO2021173725A5 JP2022550932A JP2022550932A JPWO2021173725A5 JP WO2021173725 A5 JPWO2021173725 A5 JP WO2021173725A5 JP 2022550932 A JP2022550932 A JP 2022550932A JP 2022550932 A JP2022550932 A JP 2022550932A JP WO2021173725 A5 JPWO2021173725 A5 JP WO2021173725A5
Authority
JP
Japan
Prior art keywords
hand
handheld device
difference
pose
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022550932A
Other languages
Japanese (ja)
Other versions
JP2023515526A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/019483 external-priority patent/WO2021173725A1/en
Publication of JP2023515526A publication Critical patent/JP2023515526A/en
Publication of JPWO2021173725A5 publication Critical patent/JPWO2021173725A5/ja
Pending legal-status Critical Current

Links

Description

実施例59は、少なくとも部分的に、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられていると決定されるかどうかに基づいて、ディスプレイの動作を制御するために、少なくとも1つのプロセッサは、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられることの決定に応答して、ポータブル入力デバイスを介したディスプレイによって提示されるコンテンツのうちの少なくともいくつかとのユーザ相互作用は、有効にされ、ディスプレイによって提示されるコンテンツのうちの少なくともいくつかとの手ベースのユーザ相互作用が、限定または無効にされる、第1の動作モードに従って、ディスプレイの動作を制御し、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられていないことの決定に応答して、手ベースのディスプレイによって提示されるコンテンツのうちの少なくともいくつかとのユーザ相互作用が、有効にされ、ポータブル入力デバイスを介したディスプレイによって提示されるコンテンツのうちの少なくともいくつかとのユーザ相互作用が、限定または無効にされる、第2の動作モードに従って、ディスプレイの動作を制御するように構成される、実施例50に記載のシステムである。
本発明は、例えば、以下を提供する。
(項目1)
手姿勢データとハンドヘルドデバイス姿勢データを融合させる方法であって、前記方法は、
手姿勢センサを使用して、基準フレーム内の手の位置を含む前記手姿勢データを捕捉することと、
ハンドヘルドデバイス姿勢センサを使用して、前記基準フレーム内のハンドヘルドデバイスの位置を含む前記ハンドヘルドデバイスを捕捉することと、
前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を含む、ことと、
前記姿勢相違に基づいて、融合動作を実施することと
を含む、方法。
(項目2)
前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、項目1に記載の方法。
(項目3)
前記距離が距離閾値を上回るかまたは距離閾値未満であるかを決定することをさらに含む、項目2に記載の方法。
(項目4)
前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記ハンドヘルドデバイスが前記手によって保持されていないことを決定すること
を含む、項目3に記載の方法。
(項目5)
前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは、
前記ハンドヘルドデバイスが前記手によって保持されていることを決定すること
を含む、項目3に記載の方法。
(項目6)
前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記手姿勢データを抑制すること、または
前記ハンドヘルドデバイス姿勢データを抑制すること
を含む、項目3に記載の方法。
(項目7)
前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは、
前記手姿勢データを使用して、前記ハンドヘルドデバイス姿勢データを増大させること、
前記ハンドヘルドデバイス姿勢データを使用して、前記手姿勢データを増大させること、または
前記手姿勢データおよび前記ハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成すること
を含む、項目3に記載の方法。
(項目8)
前記手姿勢センサを使用して、前記手姿勢データを捕捉することは、
前記手と関連付けられる複数の特徴点を識別することと、
前記複数の特徴点に基づいて、前記手の位置を決定することと
を含む、項目1に記載の方法。
(項目9)
システムであって、
基準フレーム内の手の位置を含む手姿勢データを捕捉するように構成される手姿勢センサと、
前記基準フレーム内のハンドヘルドデバイスの位置を含むハンドヘルドデバイス姿勢データを捕捉するように構成されるハンドヘルドデバイス姿勢センサと、
前記手姿勢センサおよび前記ハンドヘルドデバイス姿勢センサと通信する1つまたはそれを上回るプロセッサであって、前記1つまたはそれを上回るプロセッサは、
前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を含む、ことと、
前記姿勢相違に基づいて、融合動作を実施することと
を含む動作を実施するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
(項目10)
前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、項目9に記載のシステム。
(項目11)
前記距離が、距離閾値を上回るか、または距離閾値未満であるか、または距離閾値に等しいかを決定することをさらに含む、項目10に記載のシステム。
(項目12)
前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記ハンドヘルドデバイスが前記手によって保持されていないことを決定すること
を含む、項目11に記載のシステム。
(項目13)
前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは
前記ハンドヘルドデバイスが前記手によって保持されていることを決定すること
を含む、項目11に記載のシステム。
(項目14)
前記距離が前記距離閾値未満であることが決定される場合、前記融合動作を実施することは、
前記手姿勢データを抑制すること、または
前記ハンドヘルドデバイス姿勢データを抑制すること
を含む、項目11に記載のシステム。
(項目15)
前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記手姿勢データを抑制すること、または
前記ハンドヘルドデバイス姿勢データを抑制すること
を含む、項目11に記載のシステム。
(項目16)
前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは、
前記手姿勢データを使用して、前記ハンドヘルドデバイス姿勢データを増大させること、
前記ハンドヘルドデバイス姿勢データを使用して、前記手姿勢データを増大させること、または
前記手姿勢データおよび前記ハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成すること
を含む、項目11に記載のシステム。
(項目17)
前記手姿勢センサを使用して、前記手姿勢データを捕捉することは、
前記手と関連付けられる複数の特徴点を識別することと、
前記複数の特徴点に基づいて、前記手の位置を決定することと
を含む、項目9に記載のシステム。
(項目18)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、手姿勢データとハンドヘルドデバイス姿勢データを融合させるための動作を実施させ、前記動作は、
手姿勢センサを使用して、基準フレーム内の手の位置を含む前記手姿勢データを捕捉することと、
ハンドヘルドデバイス姿勢センサを使用して、前記基準フレーム内のハンドヘルドデバイスの位置を含む前記ハンドヘルドデバイスを捕捉することと、
前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を含む、ことと、
前記姿勢相違に基づいて、融合動作を実施することと
を含む、非一過性コンピュータ可読媒体。
(項目19)
前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、項目18に記載の非一過性コンピュータ可読媒体。
(項目20)
前記距離が距離閾値を上回るかまたは距離閾値未満であるかを決定することをさらに含む、項目19に記載の非一過性コンピュータ可読媒体。
Example 59 provides for controlling operation of the display based, at least in part, on whether the portable input device is determined to be positioned less than at least one threshold distance away from the user's hand. The at least one processor controls at least some of the content presented by the display via the portable input device in response to determining that the portable input device is positioned less than at least one threshold distance away from the user's hand. operating the display according to a first mode of operation, wherein hand-based user interaction with at least some of the content presented by the display is limited or disabled; and in response to determining that the portable input device is not positioned less than at least one threshold distance away from the user's hand, the user interacts with at least some of the content presented by the hand-based display. controlling the operation of the display according to a second mode of operation, wherein the operation is enabled and user interaction with at least some of the content presented by the display via the portable input device is limited or disabled; 51. The system of Example 50, configured to.
The present invention provides, for example, the following.
(Item 1)
A method for fusing hand pose data and handheld device pose data, the method comprising:
capturing the hand posture data including a hand position within a reference frame using a hand posture sensor;
capturing the handheld device including a position of the handheld device within the reference frame using a handheld device pose sensor;
determining a posture difference between the hand posture data and the handheld device posture data, the posture difference including a position difference between the hand position and the handheld device position; ,
performing a fusion operation based on the posture difference;
including methods.
(Item 2)
2. The method of item 1, wherein the positional difference is a distance between the hand position and the handheld device position.
(Item 3)
3. The method of item 2, further comprising determining whether the distance is above or below a distance threshold.
(Item 4)
If the distance is determined to be above the distance threshold, performing the fusion operation comprises:
determining that the handheld device is not held by the hand;
The method according to item 3, including:
(Item 5)
If the distance is determined to be less than or equal to the distance threshold, performing the fusion operation comprises:
determining that the handheld device is held by the hand;
The method according to item 3, including:
(Item 6)
If the distance is determined to be above the distance threshold, performing the fusion operation comprises:
suppressing the hand posture data; or
suppressing the handheld device pose data;
The method according to item 3, including:
(Item 7)
If the distance is determined to be less than or equal to the distance threshold, performing the fusion operation comprises:
using the hand pose data to augment the handheld device pose data;
using the handheld device pose data to augment the hand pose data; or
generating combined pose data using the hand pose data and the handheld device pose data;
The method according to item 3, including:
(Item 8)
Capturing the hand posture data using the hand posture sensor comprises:
identifying a plurality of feature points associated with the hand;
determining the position of the hand based on the plurality of feature points;
The method according to item 1, including:
(Item 9)
A system,
a hand posture sensor configured to capture hand posture data including a hand position within a reference frame;
a handheld device posture sensor configured to capture handheld device posture data including a position of the handheld device within the reference frame;
one or more processors in communication with the hand posture sensor and the handheld device posture sensor, the one or more processors comprising:
determining a posture difference between the hand posture data and the handheld device posture data, the posture difference including a position difference between the hand position and the handheld device position; ,
performing a fusion operation based on the posture difference;
one or more processors configured to perform operations including;
A system equipped with.
(Item 10)
10. The system of item 9, wherein the positional difference is a distance between the hand position and the handheld device position.
(Item 11)
11. The system of item 10, further comprising determining whether the distance is greater than, less than, or equal to a distance threshold.
(Item 12)
If the distance is determined to be above the distance threshold, performing the fusion operation comprises:
determining that the handheld device is not held by the hand;
The system according to item 11, comprising:
(Item 13)
performing the fusion operation if the distance is determined to be less than or equal to the distance threshold;
determining that the handheld device is held by the hand;
The system according to item 11, comprising:
(Item 14)
If the distance is determined to be less than the distance threshold, performing the fusion operation comprises:
suppressing the hand posture data; or
suppressing the handheld device pose data;
The system according to item 11, comprising:
(Item 15)
If the distance is determined to be above the distance threshold, performing the fusion operation comprises:
suppressing the hand posture data; or
suppressing the handheld device pose data;
The system according to item 11, comprising:
(Item 16)
If the distance is determined to be less than or equal to the distance threshold, performing the fusion operation comprises:
using the hand pose data to augment the handheld device pose data;
using the handheld device pose data to augment the hand pose data; or
generating combined pose data using the hand pose data and the handheld device pose data;
The system according to item 11, comprising:
(Item 17)
Capturing the hand posture data using the hand posture sensor comprises:
identifying a plurality of feature points associated with the hand;
determining the position of the hand based on the plurality of feature points;
The system according to item 9, comprising:
(Item 18)
a non-transitory computer-readable medium, the non-transitory computer-readable medium comprising instructions, the instructions, when executed by one or more processors, performs an operation for fusing hand posture data and handheld device posture data, the operation comprising:
capturing the hand posture data including a hand position within a reference frame using a hand posture sensor;
capturing the handheld device including a position of the handheld device within the reference frame using a handheld device pose sensor;
determining a posture difference between the hand posture data and the handheld device posture data, the posture difference including a position difference between the hand position and the handheld device position; ,
performing a fusion operation based on the posture difference;
non-transitory computer-readable media, including:
(Item 19)
19. The non-transitory computer-readable medium of item 18, wherein the positional difference is a distance between the hand position and the handheld device position.
(Item 20)
20. The non-transitory computer-readable medium of item 19, further comprising determining whether the distance is greater than or less than a distance threshold.

Claims (19)

手姿勢データとハンドヘルドデバイス姿勢データを融合させる方法であって、前記方法は、
手姿勢センサを使用して、基準フレーム内の手の位置と前記手の配向とを含む前記手姿勢データを捕捉することと、
ハンドヘルドデバイス姿勢センサを使用して、前記基準フレーム内のハンドヘルドデバイスの位置と前記ハンドヘルドデバイスの配向とを含む前記ハンドヘルドデバイス姿勢データを捕捉することであって、前記ハンドヘルドデバイス姿勢センサは、前記手姿勢センサと異なる、ことと、
前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違を決定することは、
前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を決定することと、
前記手の配向と前記ハンドヘルドデバイスの配向との間の配向相違を決定することであって、前記姿勢相違は、前記位置相違と前記配向相違とに基づいて、決定される、ことと
を含む、ことと、
前記姿勢相違に基づいて、融合動作を実施することと
を含む、方法。
A method for fusing hand pose data and handheld device pose data, the method comprising:
using a hand pose sensor to capture the hand pose data including the position of the hand within a frame of reference and the orientation of the hand ;
using a handheld device posture sensor to capture the handheld device posture data including a position of the handheld device within the reference frame and an orientation of the handheld device , the handheld device posture sensor being configured to capture the handheld device posture data including a position of the handheld device within the reference frame and an orientation of the handheld device; What is different from the sensor ?
determining a posture difference between the hand posture data and the handheld device posture data, the determining the posture difference comprising:
determining a positional difference between the hand position and the handheld device position;
determining an orientation difference between the hand orientation and an orientation of the handheld device, the pose difference being determined based on the position difference and the orientation difference;
including, and
and performing a fusion operation based on the pose difference.
前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、請求項1に記載の方法。 2. The method of claim 1, wherein the positional difference is a distance between the hand position and the handheld device position. 前記姿勢相違が閾値を上回るかまたは前記閾値未満であるかを決定することをさらに含む、請求項に記載の方法。 The method of claim 1 , further comprising determining whether the pose difference is above or below a threshold. 前記姿勢相違前記閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記ハンドヘルドデバイスが前記手によって保持されていないことを決定すること
を含む、請求項3に記載の方法。
If it is determined that the pose difference exceeds the threshold, performing the fusion operation comprises:
4. The method of claim 3, comprising: determining that the handheld device is not held by the hand.
前記姿勢相違前記閾値未満または前記閾値に等しいことが決定される場合、前記融合動作を実施することは、
前記ハンドヘルドデバイスが前記手によって保持されていることを決定すること
を含む、請求項3に記載の方法。
If it is determined that the pose difference is less than or equal to the threshold, performing the fusion operation comprises:
4. The method of claim 3, comprising: determining that the handheld device is held by the hand.
前記姿勢相違前記閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記手姿勢データを抑制すること、または
前記ハンドヘルドデバイス姿勢データを抑制すること
を含む、請求項3に記載の方法。
If it is determined that the pose difference exceeds the threshold, performing the fusion operation comprises:
4. The method of claim 3, comprising: suppressing the hand pose data; or suppressing the handheld device pose data.
前記姿勢相違前記閾値未満または前記閾値に等しいことが決定される場合、前記融合動作を実施することは、
前記手姿勢データを使用して、前記ハンドヘルドデバイス姿勢データを増大させること、
前記ハンドヘルドデバイス姿勢データを使用して、前記手姿勢データを増大させること、または
前記手姿勢データおよび前記ハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成すること
を含む、請求項3に記載の方法。
If it is determined that the pose difference is less than or equal to the threshold, performing the fusion operation comprises:
using the hand pose data to augment the handheld device pose data;
3. Using the hand-held device pose data to augment the hand pose data; or using the hand pose data and the hand-held device pose data to generate combined pose data. The method described in.
前記手姿勢センサを使用して、前記手姿勢データを捕捉することは、
前記手と関連付けられる複数の特徴点を識別することと、
前記複数の特徴点に基づいて、前記手の位置を決定することと
を含む、請求項1に記載の方法。
Capturing the hand posture data using the hand posture sensor comprises:
identifying a plurality of feature points associated with the hand;
and determining the position of the hand based on the plurality of feature points.
システムであって、
基準フレーム内の手の位置と前記手の配向とを含む手姿勢データを捕捉するように構成される手姿勢センサと、
前記基準フレーム内のハンドヘルドデバイスの位置と前記ハンドヘルドデバイスの配向とを含むハンドヘルドデバイス姿勢データを捕捉するように構成されるハンドヘルドデバイス姿勢センサであって、前記ハンドヘルドデバイス姿勢センサは、前記手姿勢センサと異なる、ハンドヘルドデバイス姿勢センサと、
前記手姿勢センサおよび前記ハンドヘルドデバイス姿勢センサと通信する1つまたはそれを上回るプロセッサであって、前記1つまたはそれを上回るプロセッサは、
前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違を決定することは、
前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を決定することと、
前記手の配向と前記ハンドヘルドデバイスの配向との間の配向相違を決定することであって、前記姿勢相違は、前記位置相違と前記配向相違とに基づいて、決定される、ことと
を含む、ことと、
前記姿勢相違に基づいて、融合動作を実施することと
を含む動作を実施するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
A system,
a hand posture sensor configured to capture hand posture data including a hand position within a reference frame and an orientation of the hand ;
a handheld device posture sensor configured to capture handheld device posture data including a position of the handheld device within the reference frame and an orientation of the handheld device, the handheld device posture sensor configured to Different handheld device posture sensors and
one or more processors in communication with the hand posture sensor and the handheld device posture sensor, the one or more processors comprising:
determining a posture difference between the hand posture data and the handheld device posture data, the determining the posture difference comprising:
determining a positional difference between the hand position and the handheld device position;
determining an orientation difference between the hand orientation and an orientation of the handheld device, the pose difference being determined based on the position difference and the orientation difference;
including, and
and one or more processors configured to perform an operation comprising: performing a fusion operation based on the pose difference.
前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、請求項9に記載のシステム。 10. The system of claim 9, wherein the positional difference is a distance between the hand position and the handheld device position. 前記姿勢相違が閾値を上回るまたは前記閾値未満であるか決定することをさらに含む、請求項に記載のシステム。 10. The system of claim 9 , further comprising determining whether the pose difference is above or below a threshold. 前記姿勢相違前記閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記ハンドヘルドデバイスが前記手によって保持されていないことを決定すること
を含む、請求項11に記載のシステム。
If it is determined that the pose difference exceeds the threshold, performing the fusion operation comprises:
12. The system of claim 11, comprising: determining that the handheld device is not held by the hand.
前記姿勢相違前記閾値未満または前記閾値に等しいことが決定される場合、前記融合動作を実施することは
前記ハンドヘルドデバイスが前記手によって保持されていることを決定すること
を含む、請求項11に記載のシステム。
12. If the pose difference is determined to be less than or equal to the threshold, performing the fusion operation comprises: determining that the handheld device is held by the hand . System described.
前記姿勢相違前記閾値を上回ることが決定される場合、前記融合動作を実施することは、
前記手姿勢データを抑制すること、または
前記ハンドヘルドデバイス姿勢データを抑制すること
を含む、請求項11に記載のシステム。
If it is determined that the pose difference exceeds the threshold, performing the fusion operation comprises:
12. The system of claim 11, comprising: suppressing the hand posture data; or suppressing the handheld device posture data.
前記姿勢相違前記閾値未満または前記閾値に等しいことが決定される場合、前記融合動作を実施することは、
前記手姿勢データを使用して、前記ハンドヘルドデバイス姿勢データを増大させること、
前記ハンドヘルドデバイス姿勢データを使用して、前記手姿勢データを増大させること、または
前記手姿勢データおよび前記ハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成すること
を含む、請求項11に記載のシステム。
If it is determined that the pose difference is less than or equal to the threshold, performing the fusion operation comprises:
using the hand pose data to augment the handheld device pose data;
12. Using the hand held device pose data to augment the hand pose data; or using the hand pose data and the hand held device pose data to generate combined pose data. system described in.
前記手姿勢センサを使用して、前記手姿勢データを捕捉することは、
前記手と関連付けられる複数の特徴点を識別することと、
前記複数の特徴点に基づいて、前記手の位置を決定することと
を含む、請求項9に記載のシステム。
Capturing the hand posture data using the hand posture sensor comprises:
identifying a plurality of feature points associated with the hand;
and determining the position of the hand based on the plurality of feature points.
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、手姿勢データとハンドヘルドデバイス姿勢データを融合させるための動作を実施させ、前記動作は、
手姿勢センサを使用して、基準フレーム内の手の位置と前記手の配向とを含む前記手姿勢データを捕捉することと、
ハンドヘルドデバイス姿勢センサを使用して、前記基準フレーム内のハンドヘルドデバイスの位置と前記ハンドヘルドデバイスの配向とを含む前記ハンドヘルドデバイス姿勢データを捕捉することであって、前記ハンドヘルドデバイス姿勢センサは、前記手姿勢センサと異なる、ことと、
前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違を決定することは、
前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を決定することと、
前記手の配向と前記ハンドヘルドデバイスの配向との間の配向相違を決定することであって、前記姿勢相違は、前記位置相違と前記配向相違とに基づいて、決定される、ことと
を含む、ことと、
前記姿勢相違に基づいて、融合動作を実施することと
を含む、非一過性コンピュータ可読媒体。
a non-transitory computer-readable medium, the non-transitory computer-readable medium comprising instructions, the instructions, when executed by one or more processors, performs an operation for fusing hand posture data and handheld device posture data, the operation comprising:
using a hand pose sensor to capture the hand pose data including the position of the hand within a frame of reference and the orientation of the hand ;
using a handheld device posture sensor to capture the handheld device posture data including a position of the handheld device within the reference frame and an orientation of the handheld device , the handheld device posture sensor being configured to capture the handheld device posture data including a position of the handheld device within the reference frame and an orientation of the handheld device; What is different from the sensor ?
determining a posture difference between the hand posture data and the handheld device posture data, the determining the posture difference comprising:
determining a positional difference between the hand position and the handheld device position;
determining an orientation difference between the hand orientation and an orientation of the handheld device, the pose difference being determined based on the position difference and the orientation difference;
including, and
and performing a fusion operation based on the pose difference.
前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、請求項17に記載の非一過性コンピュータ可読媒体。 18. The non-transitory computer-readable medium of claim 17 , wherein the positional difference is a distance between the hand position and the handheld device position. 前記姿勢相違が閾値を上回るかまたは前記閾値未満であるかを決定することをさらに含む、請求項17に記載の非一過性コンピュータ可読媒体。
18. The non-transitory computer-readable medium of claim 17 , further comprising determining whether the pose difference is above or below a threshold.
JP2022550932A 2020-02-26 2021-02-24 Hand and Totem Input Fusion for Wearable Systems Pending JP2023515526A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062981930P 2020-02-26 2020-02-26
US62/981,930 2020-02-26
PCT/US2021/019483 WO2021173725A1 (en) 2020-02-26 2021-02-24 Hand and totem input fusion for wearable systems

Publications (2)

Publication Number Publication Date
JP2023515526A JP2023515526A (en) 2023-04-13
JPWO2021173725A5 true JPWO2021173725A5 (en) 2024-02-16

Family

ID=77366947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550932A Pending JP2023515526A (en) 2020-02-26 2021-02-24 Hand and Totem Input Fusion for Wearable Systems

Country Status (5)

Country Link
US (1) US20210263592A1 (en)
EP (1) EP4111442A4 (en)
JP (1) JP2023515526A (en)
CN (1) CN115176306A (en)
WO (1) WO2021173725A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data
GB2608186A (en) * 2021-06-25 2022-12-28 Thermoteknix Systems Ltd Augmented reality system
US11815687B2 (en) * 2022-03-02 2023-11-14 Google Llc Controlling head-mounted device with gestures into wearable device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160098095A1 (en) * 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
US20150247729A1 (en) * 2012-09-04 2015-09-03 Deborah Meduna System and method for device bearing estimation
WO2016132371A1 (en) * 2015-02-22 2016-08-25 Technion Research & Development Foundation Limited Gesture recognition using multi-sensory data
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10261162B2 (en) * 2016-04-26 2019-04-16 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
WO2017201162A1 (en) * 2016-05-17 2017-11-23 Google Llc Virtual/augmented reality input device
US10146334B2 (en) 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US11302029B2 (en) * 2018-01-19 2022-04-12 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, information processing method, and program
US11481030B2 (en) * 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11107242B2 (en) * 2019-01-11 2021-08-31 Microsoft Technology Licensing, Llc Detecting pose using floating keypoint(s)

Similar Documents

Publication Publication Date Title
US9110469B2 (en) Self-propelled work apparatus, method, and computer-readable medium
KR101720655B1 (en) Device for provide the haptic feedback based on user behavior recognition and method thereof
KR102150928B1 (en) Robot control system
JP5983053B2 (en) Guidance display system, guidance display device, guidance display method, and guidance display program
US10981053B2 (en) Vibration control apparatus
JP2003337963A (en) Device and method for image processing, and image processing program and recording medium therefor
JP2012040655A (en) Method for controlling robot, program, and robot
KR102055677B1 (en) Mobile robot and method for controlling the same
KR20190136962A (en) Force-sense visualization apparatus, robot, and force-sense visualization program
JPWO2021173725A5 (en)
JP2008191711A5 (en)
JP2018072030A (en) On-vehicle device and method for specifying portable terminal
WO2014063526A1 (en) Method, device and system for achieving instant prompt
JP5218209B2 (en) Method for detecting relative movement between multiple objects
JP6264433B2 (en) Work equipment
JP6657048B2 (en) Processing result abnormality detection device, processing result abnormality detection program, processing result abnormality detection method, and moving object
JP2015145050A (en) Robot system, robot control device, robot control method and robot control program
JP2003340757A (en) Robot
JP2018121188A (en) Support system, user terminal, support method
JP6929043B2 (en) Image processing device, image processing method
JP4063131B2 (en) Image processing apparatus and tactile / force-sensing method
WO2023074472A1 (en) Remote control system and terminal device
JP2020109913A (en) Image processing device, control method of image processing device, and program
WO2023286249A1 (en) Communication assistance system, communication assistance method, and program
CN112975950B (en) Remote operation system and remote operation method