JP2016507098A - 表面上でのジェスチャ認識のためのemgの使用 - Google Patents
表面上でのジェスチャ認識のためのemgの使用 Download PDFInfo
- Publication number
- JP2016507098A JP2016507098A JP2015552831A JP2015552831A JP2016507098A JP 2016507098 A JP2016507098 A JP 2016507098A JP 2015552831 A JP2015552831 A JP 2015552831A JP 2015552831 A JP2015552831 A JP 2015552831A JP 2016507098 A JP2016507098 A JP 2016507098A
- Authority
- JP
- Japan
- Prior art keywords
- body portion
- gesture
- determining whether
- sensed
- body part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Biomedical Technology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
表面に対するボディ部のジェスチャを検出する方法であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接する場合、前記ボディ部から感知された[筋肉]電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
を備える方法。
[C2]
前記ボディ部が前記表面に近接しているかどうかを決定することは、前記ボディ部に関連付けられた近接センサからの信号を監視することを備える、C1に記載の方法。
[C3]
感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
を備える、C1に記載の方法。
[C4]
感知された動き活動が前記ジェスチャを示すかどうかを決定することは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
を備える、C1に記載の方法。
[C5]
ジェスチャ基準のライブラリを提供することをさらに備え、各基準は異なるジェスチャに対応する、C4に記載の方法。
[C6]
前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定すること、
をさらに備える、C1に記載の方法。
[C7]
前記ボディ部が動いているかどうかを決定することは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
を備える、C6に記載の方法。
[C8]
前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信することをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、C1に記載の方法。
[C9]
表面に対するボディ部のジェスチャを検出するための装置であって、
前記ボディ部が前記表面に近接しているかどうかを決定するための手段と、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための手段と、
前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定するための手段と、
を備える、装置。
[C10]
前記ボディ部が前記表面に近接しているかどうかを決定するための前記手段は、前記ボディ部に関連付けられた近接センサからの信号を監視するように構成される、C9に記載の装置。
[C11]
感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための前記手段は、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
を行うように構成される、C9に記載の装置。
[C12]
感知された動き活動が前記ジェスチャを示すかどうかを決定するための前記手段は、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
を行うように構成される、C9に記載の装置。
[C13]
ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、C12に記載の装置。
[C14]
前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するための手段をさらに備える、C9に記載の装置。
[C15]
前記ボディ部が動いているかどうかを決定するための前記手段が、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
を行うように構成される、C14に記載の装置。
[C16]
前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するための手段をさらに備え、前記信号は、前記ユーザデバイスの動作に作用する、C9に記載の装置。
[C17]
表面に対するボディ部のジェスチャを検出するための装置であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定することと、
を行うように構成された、処理システム、
を備える、装置。
[C18]
前記処理システムは、前記ボディ部に関連付けられた近接センサからの信号を監視することによって、前記ボディ部が前記表面に近接しているかどうかを決定する、C17に記載の装置。
[C19]
前記処理システムは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
によって、感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定する、C17に記載の装置。
[C20]
前記処理システムは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
によって、感知された動き活動が前記ジェスチャを示すかどうかを決定する、C17に記載の装置。
[C21]
ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、C20に記載の装置。
[C22]
前記処理システムは、前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するように構成される、C17に記載の装置。
[C23]
前記処理システムは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
によって、前記ボディ部が動いているかどうかを決定する、C22に記載の装置。
[C24]
前記処理システムは、前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するように構成され、前記信号は、デバイスの動作に作用する、C17に記載の装置。
[C25]
表面に対するボディ部のジェスチャを検出するためのコンピュータプログラム製品であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
のためのコードを備えるコンピュータ可読媒体、
を備える、コンピュータプログラム製品。
[C26]
前記ボディ部が前記表面に近接しているかどうかを決定するためのコードは、前記ボディ部に関連付けられた近接センサからの信号を監視するためのコードを備える、C25に記載の製品。
[C27]
感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するためのコードは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
のためのコードを備える、C25に記載の製品。
[C28]
感知された動き活動が前記ジェスチャを示すかどうかを決定するためのコードは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
のためのコードを備える、C25に記載の製品。
[C29]
ジェスチャ基準のライブラリを定義するコードをさらに備え、各基準は異なるジェスチャに対応する、C28に記載の製品。
[C30]
前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するためのコードをさらに備える、C25に記載の製品。
[C31]
前記ボディ部が動いているかどうかを決定するためのコードは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
のためのコードを備える、C22に記載の装置。
[C32]
前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するためのコードをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、C25に記載の製品。
Claims (32)
- 表面に対するボディ部のジェスチャを検出する方法であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接する場合、前記ボディ部から感知された[筋肉]電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
を備える方法。 - 前記ボディ部が前記表面に近接しているかどうかを決定することは、前記ボディ部に関連付けられた近接センサからの信号を監視することを備える、請求項1に記載の方法。
- 感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
を備える、請求項1に記載の方法。 - 感知された動き活動が前記ジェスチャを示すかどうかを決定することは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
を備える、請求項1に記載の方法。 - ジェスチャ基準のライブラリを提供することをさらに備え、各基準は異なるジェスチャに対応する、請求項4に記載の方法。
- 前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定すること、
をさらに備える、請求項1に記載の方法。 - 前記ボディ部が動いているかどうかを決定することは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
を備える、請求項6に記載の方法。 - 前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信することをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、請求項1に記載の方法。
- 表面に対するボディ部のジェスチャを検出するための装置であって、
前記ボディ部が前記表面に近接しているかどうかを決定するための手段と、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための手段と、
前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定するための手段と、
を備える、装置。 - 前記ボディ部が前記表面に近接しているかどうかを決定するための前記手段は、前記ボディ部に関連付けられた近接センサからの信号を監視するように構成される、請求項9に記載の装置。
- 感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するための前記手段は、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
を行うように構成される、請求項9に記載の装置。 - 感知された動き活動が前記ジェスチャを示すかどうかを決定するための前記手段は、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
を行うように構成される、請求項9に記載の装置。 - ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、請求項12に記載の装置。
- 前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するための手段をさらに備える、請求項9に記載の装置。
- 前記ボディ部が動いているかどうかを決定するための前記手段が、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
を行うように構成される、請求項14に記載の装置。 - 前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するための手段をさらに備え、前記信号は、前記ユーザデバイスの動作に作用する、請求項9に記載の装置。
- 表面に対するボディ部のジェスチャを検出するための装置であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面と接触している場合、前記ボディ部から感知された動き活動が前記ジェスチャを示すかどうかを決定することと、
を行うように構成された、処理システム、
を備える、装置。 - 前記処理システムは、前記ボディ部に関連付けられた近接センサからの信号を監視することによって、前記ボディ部が前記表面に近接しているかどうかを決定する、請求項17に記載の装置。
- 前記処理システムは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
によって、感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定する、請求項17に記載の装置。 - 前記処理システムは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
によって、感知された動き活動が前記ジェスチャを示すかどうかを決定する、請求項17に記載の装置。 - ジェスチャ基準のライブラリをさらに備え、各基準は異なるジェスチャに対応する、請求項20に記載の装置。
- 前記処理システムは、前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するように構成される、請求項17に記載の装置。
- 前記処理システムは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
によって、前記ボディ部が動いているかどうかを決定する、請求項22に記載の装置。 - 前記処理システムは、前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するように構成され、前記信号は、デバイスの動作に作用する、請求項17に記載の装置。
- 表面に対するボディ部のジェスチャを検出するためのコンピュータプログラム製品であって、
前記ボディ部が前記表面に近接しているかどうかを決定することと、
前記ボディ部が前記表面に近接している場合、前記ボディ部から感知された電気的活動が、前記ボディ部と前記表面の接触を示すかどうかを決定することと、
前記ボディ部が前記表面に接触している場合、前記ボディ部から感知された動き活動が、前記ジェスチャを示すかどうかを決定することと、
のためのコードを備えるコンピュータ可読媒体、
を備える、コンピュータプログラム製品。 - 前記ボディ部が前記表面に近接しているかどうかを決定するためのコードは、前記ボディ部に関連付けられた近接センサからの信号を監視するためのコードを備える、請求項25に記載の製品。
- 感知された電気的活動が前記ボディ部と前記表面の接触を示すかどうかを決定するためのコードは、
表面上の前記ボディ部の配置に対応する電気的活動の基準と、前記ボディ部から感知された前記電気的活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記表面に接触していると結論付けることと、
のためのコードを備える、請求項25に記載の製品。 - 感知された動き活動が前記ジェスチャを示すかどうかを決定するためのコードは、
前記ジェスチャに対応する動き活動の基準と、前記ボディ部から感知された前記動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が前記ジェスチャを行ったと結論付けることと、
のためのコードを備える、請求項25に記載の製品。 - ジェスチャ基準のライブラリを定義するコードをさらに備え、各基準は異なるジェスチャに対応する、請求項28に記載の製品。
- 前記感知された電気的活動が前記ボディ部と表面の接触を示すかどうかを決定する前に、前記ボディ部が動いているかどうかを決定するためのコードをさらに備える、請求項25に記載の製品。
- 前記ボディ部が動いているかどうかを決定するためのコードは、
動きに対応する動き活動の基準と、前記ボディ部から感知された動き活動を比較することと、
前記基準が満たされるとき、前記ボディ部が動いていると結論付けることと、
のためのコードを備える、請求項22に記載の装置。 - 前記ジェスチャを検出することに応答して、ユーザデバイスに信号を通信するためのコードをさらに備え、前記信号は、前記ユーザデバイスの動作に作用するためのものである、請求項25に記載の製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/740,315 | 2013-01-14 | ||
US13/740,315 US9092664B2 (en) | 2013-01-14 | 2013-01-14 | Use of EMG for subtle gesture recognition on surfaces |
PCT/US2014/011136 WO2014110439A1 (en) | 2013-01-14 | 2014-01-10 | Use of emg for gesture recognition on surfaces |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016507098A true JP2016507098A (ja) | 2016-03-07 |
JP2016507098A5 JP2016507098A5 (ja) | 2017-02-02 |
JP6227669B2 JP6227669B2 (ja) | 2017-11-08 |
Family
ID=50071724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015552831A Active JP6227669B2 (ja) | 2013-01-14 | 2014-01-10 | 表面上でのジェスチャ認識のためのemgの使用 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9092664B2 (ja) |
EP (1) | EP2943855B1 (ja) |
JP (1) | JP6227669B2 (ja) |
KR (1) | KR102220893B1 (ja) |
CN (1) | CN104919397B (ja) |
WO (1) | WO2014110439A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022500729A (ja) * | 2018-09-20 | 2022-01-04 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実システムの神経筋制御 |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11941176B1 (en) | 2018-11-27 | 2024-03-26 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US20150124566A1 (en) * | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
KR20150065336A (ko) * | 2013-12-05 | 2015-06-15 | 삼성전자주식회사 | 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
US10585484B2 (en) * | 2013-12-30 | 2020-03-10 | Samsung Electronics Co., Ltd. | Apparatus, system, and method for transferring data from a terminal to an electromyography (EMG) device |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US20170265780A1 (en) * | 2014-12-09 | 2017-09-21 | Lg Innotek Co., Ltd. | Band type sensor and wearable device having the same |
CN107102778A (zh) * | 2015-01-19 | 2017-08-29 | 青岛海信移动通信技术股份有限公司 | 一种触摸屏检测方法及终端 |
CN106339076B (zh) | 2015-10-22 | 2019-11-15 | 北京智谷睿拓技术服务有限公司 | 基于动作识别的控制方法及控制装置 |
CN106371569A (zh) * | 2015-10-22 | 2017-02-01 | 北京智谷睿拓技术服务有限公司 | 动作识别方法及动作识别装置 |
US10990174B2 (en) | 2016-07-25 | 2021-04-27 | Facebook Technologies, Llc | Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors |
US20190121306A1 (en) | 2017-10-19 | 2019-04-25 | Ctrl-Labs Corporation | Systems and methods for identifying biological structures associated with neuromuscular source signals |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP3548994B1 (en) | 2016-12-02 | 2021-08-11 | Pison Technology, Inc. | Detecting and using body tissue electrical signals |
CN106821720B (zh) * | 2017-01-13 | 2020-05-19 | 北京安云世纪科技有限公司 | 一种穴位按摩的推送方法、装置及ar设备 |
US10902743B2 (en) | 2017-04-14 | 2021-01-26 | Arizona Board Of Regents On Behalf Of Arizona State University | Gesture recognition and communication |
CN109213305A (zh) * | 2017-06-29 | 2019-01-15 | 沈阳新松机器人自动化股份有限公司 | 一种基于表面肌电信号的手势识别方法 |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
US10802598B2 (en) | 2018-08-05 | 2020-10-13 | Pison Technology, Inc. | User interface control of responsive devices |
US11099647B2 (en) * | 2018-08-05 | 2021-08-24 | Pison Technology, Inc. | User interface control of responsive devices |
US10842407B2 (en) | 2018-08-31 | 2020-11-24 | Facebook Technologies, Llc | Camera-guided interpretation of neuromuscular signals |
CN112789577B (zh) | 2018-09-20 | 2024-04-05 | 元平台技术有限公司 | 增强现实系统中的神经肌肉文本输入、书写和绘图 |
US11199908B2 (en) | 2020-01-28 | 2021-12-14 | Pison Technology, Inc. | Wrist-worn device-based inputs for an operating system |
US11157086B2 (en) | 2020-01-28 | 2021-10-26 | Pison Technology, Inc. | Determining a geographical location based on human gestures |
US11397468B2 (en) | 2020-03-31 | 2022-07-26 | Apple Inc. | Skin-to-skin contact detection |
US11397466B2 (en) * | 2020-03-31 | 2022-07-26 | Apple Inc. | Skin-to-skin contact detection |
CN112315488A (zh) * | 2020-11-23 | 2021-02-05 | 宁波工业互联网研究院有限公司 | 一种基于肌电信号的人体运动状态识别方法 |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348382A (ja) * | 2003-05-21 | 2004-12-09 | Ntt Docomo Inc | 携帯型電子装置およびその制御方法 |
JP2005536260A (ja) * | 2002-08-22 | 2005-12-02 | ボディーメディア インコーポレイテッド | 人間の生理学的情報及びコンテキスト情報の検知装置 |
JP2006323690A (ja) * | 2005-05-19 | 2006-11-30 | Sony Corp | 検索装置,プログラム及び検索方法 |
JP2008304632A (ja) * | 2007-06-06 | 2008-12-18 | Casio Comput Co Ltd | カメラ及びカメラのレンズ鏡筒制御方法 |
WO2011156789A1 (en) * | 2010-06-10 | 2011-12-15 | Qualcomm Incorporated | Pre-fetching information based on gesture and/or location |
JP2012523191A (ja) * | 2009-04-07 | 2012-09-27 | アイデント・テクノロジー・アーゲー | 把持および近接検出のためのセンサーデバイスおよび方法 |
US20130005303A1 (en) * | 2011-06-29 | 2013-01-03 | Song Seungkyu | Terminal and control method thereof |
JP2013528871A (ja) * | 2010-07-20 | 2013-07-11 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実の近接感知 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60215504T2 (de) * | 2002-10-07 | 2007-09-06 | Sony France S.A. | Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US20090278798A1 (en) | 2006-07-26 | 2009-11-12 | The Research Foundation Of The State University Of New York | Active Fingertip-Mounted Object Digitizer |
US8860683B2 (en) * | 2007-04-05 | 2014-10-14 | Cypress Semiconductor Corporation | Integrated button activation sensing and proximity sensing |
US20110210931A1 (en) | 2007-08-19 | 2011-09-01 | Ringbow Ltd. | Finger-worn device and interaction methods and communication methods |
KR100934514B1 (ko) * | 2008-05-07 | 2009-12-29 | 엘지전자 주식회사 | 근접한 공간에서의 제스쳐를 이용한 사용자 인터페이스제어방법 |
US8170656B2 (en) * | 2008-06-26 | 2012-05-01 | Microsoft Corporation | Wearable electromyography-based controllers for human-computer interface |
CN101482773A (zh) * | 2009-01-16 | 2009-07-15 | 中国科学技术大学 | 一种多通道无线表面肌电信号采集装置及系统 |
JP4683148B2 (ja) | 2009-02-27 | 2011-05-11 | 株式会社デンソー | 電気機器 |
US8378967B2 (en) * | 2009-02-27 | 2013-02-19 | Denso Corporation | Wearable electrical apparatus |
US8581856B2 (en) | 2009-05-27 | 2013-11-12 | Microsoft Corporation | Touch sensitive display apparatus using sensor input |
CN101930285B (zh) * | 2009-11-23 | 2012-07-18 | 上海交通大学 | 基于表面肌电信号的手写识别方法 |
EP2539759A1 (en) | 2010-02-28 | 2013-01-02 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
WO2011151881A1 (ja) | 2010-05-31 | 2011-12-08 | 株式会社モバイルビジネスプロモート | 入力補助具 |
CN102854973A (zh) * | 2011-06-30 | 2013-01-02 | 德信互动科技(北京)有限公司 | 单机游戏实现装置和方法 |
CN102799270B (zh) * | 2012-07-04 | 2015-03-11 | 北京理工大学 | 一种基于静电和肌电探测的人机交互方法 |
-
2013
- 2013-01-14 US US13/740,315 patent/US9092664B2/en active Active
-
2014
- 2014-01-10 EP EP14703657.8A patent/EP2943855B1/en active Active
- 2014-01-10 KR KR1020157021340A patent/KR102220893B1/ko active IP Right Grant
- 2014-01-10 JP JP2015552831A patent/JP6227669B2/ja active Active
- 2014-01-10 CN CN201480004523.1A patent/CN104919397B/zh active Active
- 2014-01-10 WO PCT/US2014/011136 patent/WO2014110439A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005536260A (ja) * | 2002-08-22 | 2005-12-02 | ボディーメディア インコーポレイテッド | 人間の生理学的情報及びコンテキスト情報の検知装置 |
JP2004348382A (ja) * | 2003-05-21 | 2004-12-09 | Ntt Docomo Inc | 携帯型電子装置およびその制御方法 |
JP2006323690A (ja) * | 2005-05-19 | 2006-11-30 | Sony Corp | 検索装置,プログラム及び検索方法 |
JP2008304632A (ja) * | 2007-06-06 | 2008-12-18 | Casio Comput Co Ltd | カメラ及びカメラのレンズ鏡筒制御方法 |
JP2012523191A (ja) * | 2009-04-07 | 2012-09-27 | アイデント・テクノロジー・アーゲー | 把持および近接検出のためのセンサーデバイスおよび方法 |
WO2011156789A1 (en) * | 2010-06-10 | 2011-12-15 | Qualcomm Incorporated | Pre-fetching information based on gesture and/or location |
JP2013528871A (ja) * | 2010-07-20 | 2013-07-11 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実の近接感知 |
US20130005303A1 (en) * | 2011-06-29 | 2013-01-03 | Song Seungkyu | Terminal and control method thereof |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022500729A (ja) * | 2018-09-20 | 2022-01-04 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実システムの神経筋制御 |
US11941176B1 (en) | 2018-11-27 | 2024-03-26 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
Also Published As
Publication number | Publication date |
---|---|
JP6227669B2 (ja) | 2017-11-08 |
KR102220893B1 (ko) | 2021-02-25 |
KR20150107785A (ko) | 2015-09-23 |
CN104919397A (zh) | 2015-09-16 |
WO2014110439A1 (en) | 2014-07-17 |
CN104919397B (zh) | 2019-03-15 |
US20140198944A1 (en) | 2014-07-17 |
EP2943855B1 (en) | 2018-08-29 |
US9092664B2 (en) | 2015-07-28 |
EP2943855A1 (en) | 2015-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6227669B2 (ja) | 表面上でのジェスチャ認識のためのemgの使用 | |
US10048761B2 (en) | Classification of gesture detection systems through use of known and yet to be worn sensors | |
JP6407889B2 (ja) | 頭部装着型ディスプレイにおいて物理的握手を活用すること | |
US10139898B2 (en) | Distracted browsing modes | |
CN106687967B (zh) | 用于对与触敏设备的接触进行分类的方法和装置 | |
US20190318617A1 (en) | Electronic device and control method thereof | |
US10282024B2 (en) | Classifying contacts or associations with a touch sensitive device | |
TWI647625B (zh) | 判斷使用者之姿勢之影像偵測方法以及影像偵測裝置 | |
WO2015081558A1 (zh) | 控制终端设备的方法和穿戴式电子设备 | |
KR20190131087A (ko) | 저비용 힘-감지 디바이스를 위한 초 저전력 모드 | |
KR20190110690A (ko) | 복수의 입력 간에 매핑된 정보 제공 방법 및 이를 지원하는 전자 장치 | |
US10942603B2 (en) | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device | |
TWI502411B (zh) | 觸控偵測方法與觸控偵測裝置 | |
KR20190058289A (ko) | 적응형 저역 통과 필터를 사용하여 오디오에서 호흡 속도를 검출하는 기법 | |
WO2017028198A1 (zh) | 一种终端的休眠唤醒系统、方法及装置 | |
Sadat et al. | Recognizing human affection: Smartphone perspective | |
KR20230040151A (ko) | 전자 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6227669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |