JPWO2021173839A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021173839A5
JPWO2021173839A5 JP2022550931A JP2022550931A JPWO2021173839A5 JP WO2021173839 A5 JPWO2021173839 A5 JP WO2021173839A5 JP 2022550931 A JP2022550931 A JP 2022550931A JP 2022550931 A JP2022550931 A JP 2022550931A JP WO2021173839 A5 JPWO2021173839 A5 JP WO2021173839A5
Authority
JP
Japan
Prior art keywords
user
feature points
gesture
location
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022550931A
Other languages
English (en)
Other versions
JP2023515525A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/019677 external-priority patent/WO2021173839A1/en
Publication of JP2023515525A publication Critical patent/JP2023515525A/ja
Publication of JPWO2021173839A5 publication Critical patent/JPWO2021173839A5/ja
Pending legal-status Critical Current

Links

Description

実施例56は、1つまたはそれを上回るプロセッサによって実行されると、1つまたはそれを上回るプロセッサに、実施例42-54のいずれかに記載の方法を実施させる、命令を備える、非一過性機械可読媒体である。
本発明は、例えば、以下を提供する。
(項目1)
仮想オブジェクトと相互作用する方法であって、前記方法は、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、前記仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む、方法。
(項目2)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目1に記載の方法。
(項目3)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目1に記載の方法。
(項目4)
前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、項目1に記載の方法。
(項目5)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目1に記載の方法。
(項目6)
前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することをさらに含む、項目1に記載の方法。
(項目7)
前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、項目6に記載の方法。
(項目8)
システムであって、
1つまたはそれを上回るプロセッサと、
機械可読媒体であって、前記機械可読媒体は、命令を備え、前記命令は、前記1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む動作を実施させる、機械可読媒体と
を備える、システム。
(項目9)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目8に記載のシステム。
(項目10)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目8に記載のシステム。
(項目11)
前記動作はさらに、前記多DOFコントローラのグラフィカル表現を表示することを含む、項目8に記載のシステム。
(項目12)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目8に記載のシステム。
(項目13)
前記動作はさらに、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することを含む、項目8に記載のシステム。
(項目14)
前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、項目13に記載のシステム。
(項目15)
非一過性機械可読媒体であって、前記非一過性機械可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む動作を実施させる、非一過性機械可読媒体。
(項目16)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目15に記載の非一過性機械可読媒体。
(項目17)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目15に記載の非一過性機械可読媒体。
(項目18)
前記動作はさらに、前記多DOFコントローラのグラフィカル表現を表示することを含む、項目15に記載の非一過性機械可読媒体。
(項目19)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目15に記載の非一過性機械可読媒体。
(項目20)
前記動作はさらに、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することを含む、項目15に記載の非一過性機械可読媒体。

Claims (20)

  1. 仮想オブジェクトと相互作用する方法であって、前記方法は、
    ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
    前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
    前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
    前記ユーザの手が、前記特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
    前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
    前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
    相互作用点を前記特定の場所に位置合わせすることと、
    近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
    光線を、前記近位点から、前記相互作用点を通して投射することと、
    前記光線に基づいて、前記仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
    前記複数の特徴点からの少なくとも3つの特徴点と関連付けられる角度を決定することと、
    前記角度に基づいて、前記多DOFコントローラと関連付けられるアクションイベントを検出することと
    を含む、方法。
  2. 前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、請求項1に記載の方法。
  4. 前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、請求項1に記載の方法。
  5. 前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、請求項1に記載の方法。
  6. 前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の前記画像を捕捉することをさらに含む、請求項1に記載の方法。
  7. 前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、請求項6に記載の方法。
  8. システムであって、
    1つまたはそれを上回るプロセッサと、
    機械可読媒体であって、前記機械可読媒体は、命令を備え、前記命令は、前記1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
    ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
    前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
    前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
    前記ユーザの手が、前記特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
    前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
    前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
    相互作用点を前記特定の場所に位置合わせすることと、
    近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
    光線を、前記近位点から、前記相互作用点を通して投射することと、
    前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
    前記複数の特徴点からの少なくとも3つの特徴点と関連付けられる角度を決定することと、
    前記角度に基づいて、前記多DOFコントローラと関連付けられるアクションイベントを検出することと
    を含む動作を実施させる、機械可読媒体と
    を備える、システム。
  9. 前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、請求項8に記載のシステム。
  10. 前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、請求項8に記載のシステム。
  11. 前記動作は前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、請求項8に記載のシステム。
  12. 前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、請求項8に記載のシステム。
  13. 前記動作は前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の前記画像を捕捉することをさらに含む、請求項8に記載のシステム。
  14. 前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、請求項13に記載のシステム。
  15. 非一過性機械可読媒体であって、前記非一過性機械可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
    ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
    前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
    前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
    前記ユーザの手が、前記特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
    前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
    前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
    相互作用点を前記特定の場所に位置合わせすることと、
    近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
    光線を、前記近位点から、前記相互作用点を通して投射することと、
    前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
    前記複数の特徴点からの少なくとも3つの特徴点と関連付けられる角度を決定することと、
    前記角度に基づいて、前記多DOFコントローラと関連付けられるアクションイベントを検出することと
    を含む動作を実施させる、非一過性機械可読媒体。
  16. 前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、請求項15に記載の非一過性機械可読媒体。
  17. 前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、請求項15に記載の非一過性機械可読媒体。
  18. 前記動作は前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、請求項15に記載の非一過性機械可読媒体。
  19. 前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、請求項15に記載の非一過性機械可読媒体。
  20. 前記動作は前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の前記画像を捕捉することをさらに含む、請求項15に記載の非一過性機械可読媒体。
JP2022550931A 2020-02-26 2021-02-25 ウェアラブルシステムのための手のジェスチャ入力 Pending JP2023515525A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062981934P 2020-02-26 2020-02-26
US62/981,934 2020-02-26
US202063027272P 2020-05-19 2020-05-19
US63/027,272 2020-05-19
PCT/US2021/019677 WO2021173839A1 (en) 2020-02-26 2021-02-25 Hand gesture input for wearable system

Publications (2)

Publication Number Publication Date
JP2023515525A JP2023515525A (ja) 2023-04-13
JPWO2021173839A5 true JPWO2021173839A5 (ja) 2024-02-13

Family

ID=77365449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550931A Pending JP2023515525A (ja) 2020-02-26 2021-02-25 ウェアラブルシステムのための手のジェスチャ入力

Country Status (5)

Country Link
US (2) US11983326B2 (ja)
EP (1) EP4111291A4 (ja)
JP (1) JP2023515525A (ja)
CN (1) CN115443445A (ja)
WO (1) WO2021173839A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020105606A1 (ja) * 2018-11-21 2021-09-30 ソニーグループ株式会社 表示制御装置、表示装置、表示制御方法及びプログラム
US11442549B1 (en) * 2019-02-07 2022-09-13 Apple Inc. Placement of 3D effects based on 2D paintings
WO2021173839A1 (en) 2020-02-26 2021-09-02 Magic Leap, Inc. Hand gesture input for wearable system
US11277597B1 (en) 2020-03-31 2022-03-15 Snap Inc. Marker-based guided AR experience
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
US11475634B2 (en) 2020-07-02 2022-10-18 Meta Platforms Technologies, Llc Generating an extended-reality lobby window for communication between networking system users
US11302063B2 (en) 2020-07-21 2022-04-12 Facebook Technologies, Llc 3D conversations in an artificial reality environment
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11556172B1 (en) * 2020-12-22 2023-01-17 Meta Platforms Technologies, Llc Viewpoint coordination on artificial reality models
CN116724285A (zh) 2020-12-29 2023-09-08 美国斯耐普公司 用于控制虚拟和图形元素的微手势
KR20230124077A (ko) 2020-12-30 2023-08-24 스냅 인코포레이티드 증강 현실 정밀 추적 및 디스플레이
WO2022216784A1 (en) * 2021-04-08 2022-10-13 Snap Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
KR20230170086A (ko) 2021-04-19 2023-12-18 스냅 인코포레이티드 가상 및 그래픽 엘리먼트들을 애니메이팅하고 제어하기 위한 손 제스처
US12099327B2 (en) 2021-06-28 2024-09-24 Meta Platforms Technologies, Llc Holographic calling for artificial reality
US11461962B1 (en) 2021-06-28 2022-10-04 Meta Platforms Technologies, Llc Holographic calling for artificial reality
US11831814B2 (en) 2021-09-03 2023-11-28 Meta Platforms Technologies, Llc Parallel video call and artificial reality spaces
US11921970B1 (en) 2021-10-11 2024-03-05 Meta Platforms Technologies, Llc Coordinating virtual interactions with a mini-map
CN114063772B (zh) * 2021-10-26 2024-05-31 深圳市鸿合创新信息技术有限责任公司 手势识别方法、装置、设备及介质
KR20230072757A (ko) * 2021-11-18 2023-05-25 삼성전자주식회사 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법
US11676329B1 (en) 2022-01-07 2023-06-13 Meta Platforms Technologies, Llc Mobile device holographic calling with front and back camera capture
US11815687B2 (en) * 2022-03-02 2023-11-14 Google Llc Controlling head-mounted device with gestures into wearable device
CN114911384B (zh) * 2022-05-07 2023-05-12 青岛海信智慧生活科技股份有限公司 镜子显示器及其远程控制方法
US11687228B1 (en) * 2022-06-17 2023-06-27 Truist Bank Drag and drop functions to start the process of applying for financial services
CN115344121A (zh) * 2022-08-10 2022-11-15 北京字跳网络技术有限公司 用于处理手势事件的方法、装置、设备和存储介质
WO2024053405A1 (ja) * 2022-09-07 2024-03-14 ソニーグループ株式会社 情報処理装置および情報処理方法
US20240103636A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Methods for manipulating a virtual object
CN116820251B (zh) * 2023-08-28 2023-11-07 中数元宇数字科技(上海)有限公司 一种手势轨迹交互方法、智能眼镜及存储介质
CN117348737A (zh) * 2023-12-06 2024-01-05 之江实验室 一种基于多通道交互的数据处理系统及方法
CN117373135B (zh) * 2023-12-07 2024-03-15 湖北星纪魅族集团有限公司 基于视觉的滑动手势识别方法、系统及相关设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983450B2 (en) * 2009-03-16 2011-07-19 The Boeing Company Method, apparatus and computer program product for recognizing a gesture
JPWO2011142317A1 (ja) * 2010-05-11 2013-07-22 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9880629B2 (en) * 2012-02-24 2018-01-30 Thomas J. Moscarillo Gesture recognition devices and methods with user authentication
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
US9864433B2 (en) * 2012-07-13 2018-01-09 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
US9696867B2 (en) * 2013-01-15 2017-07-04 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures
JP6195893B2 (ja) * 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
CN110442231A (zh) * 2013-06-27 2019-11-12 视力移动科技公司 用于与数字设备交互的直接指向检测的系统和方法
WO2016099561A1 (en) 2014-12-19 2016-06-23 Hewlett-Packard Development Company, Lp Gesture library
US10452195B2 (en) * 2014-12-30 2019-10-22 Samsung Electronics Co., Ltd. Electronic system with gesture calibration mechanism and method of operation thereof
US10606341B2 (en) * 2015-02-22 2020-03-31 Technion Research & Development Foundation Limited Gesture recognition using multi-sensory data
JP6658188B2 (ja) * 2016-03-24 2020-03-04 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR20230098927A (ko) 2016-03-31 2023-07-04 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들
WO2018048000A1 (ko) * 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체
CN106355598B (zh) * 2016-09-14 2019-09-10 南通大学 一种腕部及手指关节活动度的自动测量方法
US10692287B2 (en) * 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
US10782793B2 (en) 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
US11544871B2 (en) * 2017-12-13 2023-01-03 Google Llc Hand skeleton learning, lifting, and denoising from 2D images
US10739861B2 (en) * 2018-01-10 2020-08-11 Facebook Technologies, Llc Long distance interaction with artificial reality objects using a near eye display interface
US10296102B1 (en) * 2018-01-31 2019-05-21 Piccolo Labs Inc. Gesture and motion recognition using skeleton tracking
JP7341166B2 (ja) 2018-05-22 2023-09-08 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのトランスモード入力融合
US11320911B2 (en) * 2019-01-11 2022-05-03 Microsoft Technology Licensing, Llc Hand motion and orientation-aware buttons and grabbable objects in mixed reality
US11107265B2 (en) * 2019-01-11 2021-08-31 Microsoft Technology Licensing, Llc Holographic palm raycasting for targeting virtual objects
US11397463B2 (en) * 2019-01-12 2022-07-26 Microsoft Technology Licensing, Llc Discrete and continuous gestures for enabling hand rays
US11043192B2 (en) * 2019-06-07 2021-06-22 Facebook Technologies, Llc Corner-identifiying gesture-driven user interface element gating for artificial reality systems
US11189099B2 (en) * 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
WO2021173839A1 (en) 2020-02-26 2021-09-02 Magic Leap, Inc. Hand gesture input for wearable system

Similar Documents

Publication Publication Date Title
JPWO2021173839A5 (ja)
CN106846403B (zh) 一种三维空间中手部定位的方法、装置及智能设备
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
Kirstein et al. Interaction with a projection screen using a camera-tracked laser pointer
CN106933343B (zh) 用于识别虚拟现实头戴装置中的手势的设备和方法
JP2014503085A5 (ja)
TWI403922B (zh) 徒手人機介面操作系統及其方法
Kharlamov et al. TickTockRay: smartwatch-based 3D pointing for smartphone-based virtual reality
CN108135658B (zh) 手术控制设备、手术控制方法及存储介质
JPWO2019152286A5 (ja)
JP2017059062A5 (ja)
US20140139429A1 (en) System and method for computer vision based hand gesture identification
EP3188075B1 (en) Apparatus and method for recognizing hand gestures in a virtual reality headset
JPWO2020069006A5 (ja)
EP2146271A3 (en) Information processing device, information processing method, and information processing program
US20140267004A1 (en) User Adjustable Gesture Space
US11054896B1 (en) Displaying virtual interaction objects to a user on a reference plane
JP2017195552A5 (ja)
WO2019033576A1 (zh) 人脸姿态检测方法、装置及存储介质
WO2016008265A1 (zh) 一种定位位置的方法及装置
JP7234787B2 (ja) 作業分析装置、作業分析方法およびプログラム
WO2016017101A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2016141597A1 (zh) 一种触控方法、装置、终端及终端上的图形用户界面
JP5486721B2 (ja) 表示制御装置及び表示制御装置の制御方法、プログラム、記憶媒体
Roig-Maimó et al. Face Me! Head-tracker interface evaluation on mobile devices