JPWO2021173839A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021173839A5 JPWO2021173839A5 JP2022550931A JP2022550931A JPWO2021173839A5 JP WO2021173839 A5 JPWO2021173839 A5 JP WO2021173839A5 JP 2022550931 A JP2022550931 A JP 2022550931A JP 2022550931 A JP2022550931 A JP 2022550931A JP WO2021173839 A5 JPWO2021173839 A5 JP WO2021173839A5
- Authority
- JP
- Japan
- Prior art keywords
- user
- feature points
- gesture
- location
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 20
- 230000003993 interaction Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 description 1
Description
実施例56は、1つまたはそれを上回るプロセッサによって実行されると、1つまたはそれを上回るプロセッサに、実施例42-54のいずれかに記載の方法を実施させる、命令を備える、非一過性機械可読媒体である。
本発明は、例えば、以下を提供する。
(項目1)
仮想オブジェクトと相互作用する方法であって、前記方法は、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、前記仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む、方法。
(項目2)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目1に記載の方法。
(項目3)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目1に記載の方法。
(項目4)
前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、項目1に記載の方法。
(項目5)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目1に記載の方法。
(項目6)
前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することをさらに含む、項目1に記載の方法。
(項目7)
前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、項目6に記載の方法。
(項目8)
システムであって、
1つまたはそれを上回るプロセッサと、
機械可読媒体であって、前記機械可読媒体は、命令を備え、前記命令は、前記1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む動作を実施させる、機械可読媒体と
を備える、システム。
(項目9)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目8に記載のシステム。
(項目10)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目8に記載のシステム。
(項目11)
前記動作はさらに、前記多DOFコントローラのグラフィカル表現を表示することを含む、項目8に記載のシステム。
(項目12)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目8に記載のシステム。
(項目13)
前記動作はさらに、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することを含む、項目8に記載のシステム。
(項目14)
前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、項目13に記載のシステム。
(項目15)
非一過性機械可読媒体であって、前記非一過性機械可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む動作を実施させる、非一過性機械可読媒体。
(項目16)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目15に記載の非一過性機械可読媒体。
(項目17)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目15に記載の非一過性機械可読媒体。
(項目18)
前記動作はさらに、前記多DOFコントローラのグラフィカル表現を表示することを含む、項目15に記載の非一過性機械可読媒体。
(項目19)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目15に記載の非一過性機械可読媒体。
(項目20)
前記動作はさらに、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することを含む、項目15に記載の非一過性機械可読媒体。
本発明は、例えば、以下を提供する。
(項目1)
仮想オブジェクトと相互作用する方法であって、前記方法は、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、前記仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む、方法。
(項目2)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目1に記載の方法。
(項目3)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目1に記載の方法。
(項目4)
前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、項目1に記載の方法。
(項目5)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目1に記載の方法。
(項目6)
前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することをさらに含む、項目1に記載の方法。
(項目7)
前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、項目6に記載の方法。
(項目8)
システムであって、
1つまたはそれを上回るプロセッサと、
機械可読媒体であって、前記機械可読媒体は、命令を備え、前記命令は、前記1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む動作を実施させる、機械可読媒体と
を備える、システム。
(項目9)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目8に記載のシステム。
(項目10)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目8に記載のシステム。
(項目11)
前記動作はさらに、前記多DOFコントローラのグラフィカル表現を表示することを含む、項目8に記載のシステム。
(項目12)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目8に記載のシステム。
(項目13)
前記動作はさらに、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することを含む、項目8に記載のシステム。
(項目14)
前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、項目13に記載のシステム。
(項目15)
非一過性機械可読媒体であって、前記非一過性機械可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと
を含む動作を実施させる、非一過性機械可読媒体。
(項目16)
前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、項目15に記載の非一過性機械可読媒体。
(項目17)
前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、項目15に記載の非一過性機械可読媒体。
(項目18)
前記動作はさらに、前記多DOFコントローラのグラフィカル表現を表示することを含む、項目15に記載の非一過性機械可読媒体。
(項目19)
前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、項目15に記載の非一過性機械可読媒体。
(項目20)
前記動作はさらに、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の画像を捕捉することを含む、項目15に記載の非一過性機械可読媒体。
Claims (20)
- 仮想オブジェクトと相互作用する方法であって、前記方法は、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、前記特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、前記仮想オブジェクトと相互作用するための多DOFコントローラを形成することと、
前記複数の特徴点からの少なくとも3つの特徴点と関連付けられる角度を決定することと、
前記角度に基づいて、前記多DOFコントローラと関連付けられるアクションイベントを検出することと
を含む、方法。 - 前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、請求項1に記載の方法。
- 前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、請求項1に記載の方法。
- 前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、請求項1に記載の方法。
- 前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の前記画像を捕捉することをさらに含む、請求項1に記載の方法。
- 前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、請求項6に記載の方法。
- システムであって、
1つまたはそれを上回るプロセッサと、
機械可読媒体であって、前記機械可読媒体は、命令を備え、前記命令は、前記1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、前記特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと、
前記複数の特徴点からの少なくとも3つの特徴点と関連付けられる角度を決定することと、
前記角度に基づいて、前記多DOFコントローラと関連付けられるアクションイベントを検出することと
を含む動作を実施させる、機械可読媒体と
を備える、システム。 - 前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、請求項8に記載のシステム。
- 前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、請求項8に記載のシステム。
- 前記動作は、前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、請求項8に記載のシステム。
- 前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、請求項8に記載のシステム。
- 前記動作は、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の前記画像を捕捉することをさらに含む、請求項8に記載のシステム。
- 前記画像捕捉デバイスは、ウェアラブルシステムのヘッドセットに搭載される、請求項13に記載のシステム。
- 非一過性機械可読媒体であって、前記非一過性機械可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
ユーザの手の画像をウェアラブルシステムの1つまたはそれを上回る画像捕捉デバイスから受信することと、
前記画像を分析し、前記ユーザの手と関連付けられる複数の特徴点を検出することと、
前記画像を分析することに基づいて、前記ユーザの手が、複数のジェスチャから、特定のジェスチャを行っているかまたは行うように遷移しつつあるかどうかを決定することと、
前記ユーザの手が、前記特定のジェスチャを行っているかまたは行うように遷移しつつあることの決定に応答して、
前記特定のジェスチャに対応する前記複数の特徴点のサブセットを選択することと、
前記複数の特徴点のサブセットに対する特定の場所を決定することであって、前記特定の場所は、前記複数の特徴点のサブセットおよび前記特定のジェスチャに基づいて決定される、ことと、
相互作用点を前記特定の場所に位置合わせすることと、
近位点を前記ユーザの身体に沿った場所に位置合わせすることと、
光線を、前記近位点から、前記相互作用点を通して投射することと、
前記光線に基づいて、仮想オブジェクトと相互作用するための多DOFコントローラを形成することと、
前記複数の特徴点からの少なくとも3つの特徴点と関連付けられる角度を決定することと、
前記角度に基づいて、前記多DOFコントローラと関連付けられるアクションイベントを検出することと
を含む動作を実施させる、非一過性機械可読媒体。 - 前記複数のジェスチャは、握持ジェスチャ、ポイントジェスチャ、またはピンチジェスチャのうちの少なくとも1つを含む、請求項15に記載の非一過性機械可読媒体。
- 前記複数の特徴点のサブセットは、前記複数の特徴点の複数のサブセットから選択され、前記複数の特徴点の複数のサブセットのそれぞれは、前記複数のジェスチャからの異なるジェスチャに対応する、請求項15に記載の非一過性機械可読媒体。
- 前記動作は、前記多DOFコントローラのグラフィカル表現を表示することをさらに含む、請求項15に記載の非一過性機械可読媒体。
- 前記近位点が位置合わせされる場所は、前記ユーザの肩の推定される場所、前記ユーザの肘の推定される場所、または前記ユーザの肩の推定される場所と前記ユーザの肘の推定される場所との間にある、請求項15に記載の非一過性機械可読媒体。
- 前記動作は、前記1つまたはそれを上回る画像捕捉デバイスの画像捕捉デバイスによって、前記ユーザの手の前記画像を捕捉することをさらに含む、請求項15に記載の非一過性機械可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062981934P | 2020-02-26 | 2020-02-26 | |
US62/981,934 | 2020-02-26 | ||
US202063027272P | 2020-05-19 | 2020-05-19 | |
US63/027,272 | 2020-05-19 | ||
PCT/US2021/019677 WO2021173839A1 (en) | 2020-02-26 | 2021-02-25 | Hand gesture input for wearable system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023515525A JP2023515525A (ja) | 2023-04-13 |
JPWO2021173839A5 true JPWO2021173839A5 (ja) | 2024-02-13 |
Family
ID=77365449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022550931A Pending JP2023515525A (ja) | 2020-02-26 | 2021-02-25 | ウェアラブルシステムのための手のジェスチャ入力 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11983326B2 (ja) |
EP (1) | EP4111291A4 (ja) |
JP (1) | JP2023515525A (ja) |
CN (1) | CN115443445A (ja) |
WO (1) | WO2021173839A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020105606A1 (ja) * | 2018-11-21 | 2021-09-30 | ソニーグループ株式会社 | 表示制御装置、表示装置、表示制御方法及びプログラム |
US11442549B1 (en) * | 2019-02-07 | 2022-09-13 | Apple Inc. | Placement of 3D effects based on 2D paintings |
WO2021173839A1 (en) | 2020-02-26 | 2021-09-02 | Magic Leap, Inc. | Hand gesture input for wearable system |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
US11475634B2 (en) | 2020-07-02 | 2022-10-18 | Meta Platforms Technologies, Llc | Generating an extended-reality lobby window for communication between networking system users |
US11302063B2 (en) | 2020-07-21 | 2022-04-12 | Facebook Technologies, Llc | 3D conversations in an artificial reality environment |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11556172B1 (en) * | 2020-12-22 | 2023-01-17 | Meta Platforms Technologies, Llc | Viewpoint coordination on artificial reality models |
CN116724285A (zh) | 2020-12-29 | 2023-09-08 | 美国斯耐普公司 | 用于控制虚拟和图形元素的微手势 |
KR20230124077A (ko) | 2020-12-30 | 2023-08-24 | 스냅 인코포레이티드 | 증강 현실 정밀 추적 및 디스플레이 |
WO2022216784A1 (en) * | 2021-04-08 | 2022-10-13 | Snap Inc. | Bimanual interactions between mapped hand regions for controlling virtual and graphical elements |
KR20230170086A (ko) | 2021-04-19 | 2023-12-18 | 스냅 인코포레이티드 | 가상 및 그래픽 엘리먼트들을 애니메이팅하고 제어하기 위한 손 제스처 |
US12099327B2 (en) | 2021-06-28 | 2024-09-24 | Meta Platforms Technologies, Llc | Holographic calling for artificial reality |
US11461962B1 (en) | 2021-06-28 | 2022-10-04 | Meta Platforms Technologies, Llc | Holographic calling for artificial reality |
US11831814B2 (en) | 2021-09-03 | 2023-11-28 | Meta Platforms Technologies, Llc | Parallel video call and artificial reality spaces |
US11921970B1 (en) | 2021-10-11 | 2024-03-05 | Meta Platforms Technologies, Llc | Coordinating virtual interactions with a mini-map |
CN114063772B (zh) * | 2021-10-26 | 2024-05-31 | 深圳市鸿合创新信息技术有限责任公司 | 手势识别方法、装置、设备及介质 |
KR20230072757A (ko) * | 2021-11-18 | 2023-05-25 | 삼성전자주식회사 | 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법 |
US11676329B1 (en) | 2022-01-07 | 2023-06-13 | Meta Platforms Technologies, Llc | Mobile device holographic calling with front and back camera capture |
US11815687B2 (en) * | 2022-03-02 | 2023-11-14 | Google Llc | Controlling head-mounted device with gestures into wearable device |
CN114911384B (zh) * | 2022-05-07 | 2023-05-12 | 青岛海信智慧生活科技股份有限公司 | 镜子显示器及其远程控制方法 |
US11687228B1 (en) * | 2022-06-17 | 2023-06-27 | Truist Bank | Drag and drop functions to start the process of applying for financial services |
CN115344121A (zh) * | 2022-08-10 | 2022-11-15 | 北京字跳网络技术有限公司 | 用于处理手势事件的方法、装置、设备和存储介质 |
WO2024053405A1 (ja) * | 2022-09-07 | 2024-03-14 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
US20240103636A1 (en) * | 2022-09-23 | 2024-03-28 | Apple Inc. | Methods for manipulating a virtual object |
CN116820251B (zh) * | 2023-08-28 | 2023-11-07 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
CN117348737A (zh) * | 2023-12-06 | 2024-01-05 | 之江实验室 | 一种基于多通道交互的数据处理系统及方法 |
CN117373135B (zh) * | 2023-12-07 | 2024-03-15 | 湖北星纪魅族集团有限公司 | 基于视觉的滑动手势识别方法、系统及相关设备 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983450B2 (en) * | 2009-03-16 | 2011-07-19 | The Boeing Company | Method, apparatus and computer program product for recognizing a gesture |
JPWO2011142317A1 (ja) * | 2010-05-11 | 2013-07-22 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
CN102402680B (zh) * | 2010-09-13 | 2014-07-30 | 株式会社理光 | 人机交互系统中手部、指示点定位方法和手势确定方法 |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8854433B1 (en) * | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US9880629B2 (en) * | 2012-02-24 | 2018-01-30 | Thomas J. Moscarillo | Gesture recognition devices and methods with user authentication |
EP2680228B1 (en) * | 2012-06-25 | 2014-11-26 | Softkinetic Software | Improvements in or relating to three dimensional close interactions. |
US9864433B2 (en) * | 2012-07-13 | 2018-01-09 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
US9696867B2 (en) * | 2013-01-15 | 2017-07-04 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
JP6195893B2 (ja) * | 2013-02-19 | 2017-09-13 | ミラマ サービス インク | 形状認識装置、形状認識プログラム、および形状認識方法 |
CN110442231A (zh) * | 2013-06-27 | 2019-11-12 | 视力移动科技公司 | 用于与数字设备交互的直接指向检测的系统和方法 |
WO2016099561A1 (en) | 2014-12-19 | 2016-06-23 | Hewlett-Packard Development Company, Lp | Gesture library |
US10452195B2 (en) * | 2014-12-30 | 2019-10-22 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
US10606341B2 (en) * | 2015-02-22 | 2020-03-31 | Technion Research & Development Foundation Limited | Gesture recognition using multi-sensory data |
JP6658188B2 (ja) * | 2016-03-24 | 2020-03-04 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
KR20230098927A (ko) | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
WO2018048000A1 (ko) * | 2016-09-12 | 2018-03-15 | 주식회사 딥픽셀 | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 |
CN106355598B (zh) * | 2016-09-14 | 2019-09-10 | 南通大学 | 一种腕部及手指关节活动度的自动测量方法 |
US10692287B2 (en) * | 2017-04-17 | 2020-06-23 | Microsoft Technology Licensing, Llc | Multi-step placement of virtual objects |
US10782793B2 (en) | 2017-08-10 | 2020-09-22 | Google Llc | Context-sensitive hand interaction |
US11544871B2 (en) * | 2017-12-13 | 2023-01-03 | Google Llc | Hand skeleton learning, lifting, and denoising from 2D images |
US10739861B2 (en) * | 2018-01-10 | 2020-08-11 | Facebook Technologies, Llc | Long distance interaction with artificial reality objects using a near eye display interface |
US10296102B1 (en) * | 2018-01-31 | 2019-05-21 | Piccolo Labs Inc. | Gesture and motion recognition using skeleton tracking |
JP7341166B2 (ja) | 2018-05-22 | 2023-09-08 | マジック リープ, インコーポレイテッド | ウェアラブルシステムのためのトランスモード入力融合 |
US11320911B2 (en) * | 2019-01-11 | 2022-05-03 | Microsoft Technology Licensing, Llc | Hand motion and orientation-aware buttons and grabbable objects in mixed reality |
US11107265B2 (en) * | 2019-01-11 | 2021-08-31 | Microsoft Technology Licensing, Llc | Holographic palm raycasting for targeting virtual objects |
US11397463B2 (en) * | 2019-01-12 | 2022-07-26 | Microsoft Technology Licensing, Llc | Discrete and continuous gestures for enabling hand rays |
US11043192B2 (en) * | 2019-06-07 | 2021-06-22 | Facebook Technologies, Llc | Corner-identifiying gesture-driven user interface element gating for artificial reality systems |
US11189099B2 (en) * | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
WO2021173839A1 (en) | 2020-02-26 | 2021-09-02 | Magic Leap, Inc. | Hand gesture input for wearable system |
-
2021
- 2021-02-25 WO PCT/US2021/019677 patent/WO2021173839A1/en unknown
- 2021-02-25 EP EP21761499.9A patent/EP4111291A4/en active Pending
- 2021-02-25 JP JP2022550931A patent/JP2023515525A/ja active Pending
- 2021-02-25 US US17/185,597 patent/US11983326B2/en active Active
- 2021-02-25 CN CN202180030873.5A patent/CN115443445A/zh active Pending
-
2024
- 2024-04-12 US US18/633,947 patent/US20240272723A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2021173839A5 (ja) | ||
CN106846403B (zh) | 一种三维空间中手部定位的方法、装置及智能设备 | |
US8933882B2 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
Kirstein et al. | Interaction with a projection screen using a camera-tracked laser pointer | |
CN106933343B (zh) | 用于识别虚拟现实头戴装置中的手势的设备和方法 | |
JP2014503085A5 (ja) | ||
TWI403922B (zh) | 徒手人機介面操作系統及其方法 | |
Kharlamov et al. | TickTockRay: smartwatch-based 3D pointing for smartphone-based virtual reality | |
CN108135658B (zh) | 手术控制设备、手术控制方法及存储介质 | |
JPWO2019152286A5 (ja) | ||
JP2017059062A5 (ja) | ||
US20140139429A1 (en) | System and method for computer vision based hand gesture identification | |
EP3188075B1 (en) | Apparatus and method for recognizing hand gestures in a virtual reality headset | |
JPWO2020069006A5 (ja) | ||
EP2146271A3 (en) | Information processing device, information processing method, and information processing program | |
US20140267004A1 (en) | User Adjustable Gesture Space | |
US11054896B1 (en) | Displaying virtual interaction objects to a user on a reference plane | |
JP2017195552A5 (ja) | ||
WO2019033576A1 (zh) | 人脸姿态检测方法、装置及存储介质 | |
WO2016008265A1 (zh) | 一种定位位置的方法及装置 | |
JP7234787B2 (ja) | 作業分析装置、作業分析方法およびプログラム | |
WO2016017101A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2016141597A1 (zh) | 一种触控方法、装置、终端及终端上的图形用户界面 | |
JP5486721B2 (ja) | 表示制御装置及び表示制御装置の制御方法、プログラム、記憶媒体 | |
Roig-Maimó et al. | Face Me! Head-tracker interface evaluation on mobile devices |