JP2022522402A - ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 - Google Patents
ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 Download PDFInfo
- Publication number
- JP2022522402A JP2022522402A JP2021541045A JP2021541045A JP2022522402A JP 2022522402 A JP2022522402 A JP 2022522402A JP 2021541045 A JP2021541045 A JP 2021541045A JP 2021541045 A JP2021541045 A JP 2021541045A JP 2022522402 A JP2022522402 A JP 2022522402A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user
- processor
- instruction
- classification model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- General Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
いくつかの実装形態では、ウェアラブルシステム(たとえば、図2A、図3Aに図示)を装着しているユーザは、ジェスチャのセット(たとえば、G1、G2、およびG3)、またはただ1つのジェスチャを含む他の任意の数のジェスチャを連続して実施し得る。ユーザは、各ジェスチャを1回だけ実施し得る(すなわち、各ジェスチャの一回の動作を実施し得る)。このシステムは、ユーザがジェスチャを実施するときに神経筋信号(たとえば、EMG信号)を記録および記憶し得る。ジェスチャのセット内のジェスチャは、たとえば、G1=拳のジェスチャ、G2=開いた手のジェスチャ、およびG3=人差し指でつまむジェスチャを含むことができる。上記で論じたように、代替的にはユーザは、G1、G2、およびG3とは異なる他のタイプのジェスチャを実施することができる。換言すれば、ユーザは事前定義されたジェスチャのセットを実施することに制約されない。むしろ、いくつかの実施形態に従って使用される教師なし機械学習技法は、任意のタイプのジェスチャ(たとえば、腕または手のジェスチャ)を、それらの形態に関係なく識別するように構成され得る。
C=XXT
Si=log(P-(1/2)CiP-(1/2))
、および(Φ(x1),...,Φ(xm))として定義されるデータ行列
と表すことができ、ここで、第iデータ点はxi=Φ(x1)、すなわち、Xの第i列によって表すことができ、これはN次元ベクトルである。PCAなどの次元削減技法を実施して、たとえば、k≪Nについて、Xの元の表現と相関するデータのk次元表現
を求め得る。
であるものとし、PkをN次元の階数kの直交射影行列のセットと定義することによって、計算され得る。その後、再構成誤差、たとえば、元のデータおよび射影されたデータの間のL2距離の2乗の総和を最小化するk次元線形部分空間にN次元の入力データを射影することができる。したがって、PCAは、次式で与えられるフロベニウスノルムFの関数として計算される誤差値の最小化の直交射影行列解P*として定義することができる。
1.初期重心としてK個の点を選択する。
2.repeat
3.全ての点を最も近い重心に割り当てて、k個のクラスタを形成する。
4.各クラスタの重心を再計算する。
5.until 重心が変化しない
vk ただし、k∈[1,K]
上記で論じた訓練フェーズ中にユーザによって実施された各ジェスチャに対応する方向および平均的な大きさを計算した後、未見のジェスチャベクトルに対してジェスチャの分類を効果的に決定することができる。未見のジェスチャベクトルとは、未分類のユーザ定義のジェスチャから導出されるベクトルである。以下で論じるように、未見のジェスチャは、訓練フェーズ中に学習されたジェスチャと相関する場合に分類することができ、そのような未見のジェスチャベクトルの性質を推測することができ、これには、未見のジェスチャを実施している間にユーザによって加えられた力が含まれる。いくつかの実施形態では、未見のジェスチャのジェスチャベクトルは、訓練フェーズ中のジェスチャベクトルの生成と同様の方法で生成され得る。
ユーザは、16個の神経筋センサを有するウェアラブルシステム(たとえば、図2Aに示したウェアラブルデバイス)を装着し得る。ユーザはK個のジェスチャを実施し得、ここで、Kは1つまたは他の任意の数のジェスチャに相当し得る。ユーザは、各ジェスチャを実施している間に加える力を変化させながら、特定の期間、ジェスチャを実施し得る。分類モデルは、教師なし機械学習手法を介して実施されたジェスチャを識別し、識別されたジェスチャのそれぞれのカテゴリ表現を生成するように訓練され得る。カテゴリ表現は、識別されたジェスチャに関連する性質(たとえば、ジェスチャタイプ、ジェスチャの実施中に加えられた力の量など)を捕捉し得る。ユーザが学習されたジェスチャを実施するたびに、制御/コマンド信号がこのシステムによって生成され得るように、学習されたジェスチャおよび/または力がコマンド/制御信号にマッピングされ得る。訓練および使用は、アームバンドを含むウェアラブルシステムに限定されるものではなく、本明細書に記載の技法は、EMGセンサおよび/またはアームバンドとは異なる他のセンサ配置を使用して実装できることは理解されよう。
Claims (30)
- プロセッサと、
前記プロセッサに結合される複数の神経筋センサと、
命令を記憶するメモリと、
を備え、前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記複数の神経筋センサを介して、ユーザがジェスチャの第1の一回の動作を実施するときに、前記ユーザから第1の複数の神経筋信号を受信することと、
前記第1の複数の神経筋信号に基づいて分類モデルを訓練することであって、
前記第1の複数の神経筋信号から1つまたは複数の値を導出することであって、前記1つまたは複数の値は、前記ジェスチャの実施中に加えられる力とともに線形に変化する少なくとも1つの特徴を含む前記ジェスチャの顕著な特徴を示す、1つまたは複数の値を導出することと、
前記第1の複数の神経筋信号から導出された前記1つまたは複数の値に基づいて、前記分類モデルにおける前記ジェスチャの第1のカテゴリ表現を生成することと、
を含む、分類モデルを訓練することと、
前記複数の神経筋センサを介して、前記ユーザが前記ジェスチャの第2の一回の動作を実施するときに、前記ユーザから第2の複数の神経筋信号を受信することと、
前記分類モデルおよび前記第2の複数の神経筋信号に基づいて、前記ユーザが前記ジェスチャの前記第2の一回の動作を実施したと判定することと、
を行わせる、装置。 - 前記分類モデルにおける前記ジェスチャの前記カテゴリ表現は、教師なし機械学習技法を使用して生成される、請求項1に記載の装置。
- 前記ジェスチャの前記カテゴリ表現は、前記ジェスチャの実施中に加えられる力の値を示す力のスケールを含む、請求項1に記載の装置。
- 前記分類モデルはほぼリアルタイムで訓練される、請求項1に記載の装置。
- 前記複数の神経筋センサはウェアラブルデバイス上に配置される、請求項1に記載の装置。
- 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる力を示す少なくとも1つの値を決定すること
をさらに行わせる、請求項1に記載の装置。 - 前記ユーザが前記ジェスチャの前記第2の一回の動作を実施したと判定することは、
前記第2の複数の神経筋信号から1つまたは複数の第2の値を導出することと、
導出された前記1つまたは複数の第2の値に基づいて前記ジェスチャの第2のカテゴリ表現を生成することと、
前記ジェスチャの前記第1のカテゴリ表現と前記ジェスチャの前記第2のカテゴリ表現との間で計算される類似性指標に基づいて、前記ユーザが前記ジェスチャの前記第2の一回の動作を実施したと判定することと、
を含む、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ジェスチャの前記カテゴリ表現に基づいて、前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる力の推定値を決定すること
をさらに行わせる、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる力を示す前記少なくとも1つの値が所定の力の閾値を超えたという判定に応答して、前記装置から離れたデバイスに伝達される第1のコマンド信号を生成することと、
前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる前記力を示す前記少なくとも1つの値が前記所定の力の閾値を超えていないという判定に応答して、前記デバイスに伝達される第2のコマンド信号を生成することであって、前記第1のコマンド信号は前記第2のコマンド信号とは異なる、第2のコマンド信号を生成することと、
をさらに行わせる、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる力を示す少なくとも1つの値が所定の力の閾値を超えたという判定に応答して、前記装置から離れた第1のデバイスに伝達されるコマンド信号を生成することと、
前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる前記力を示す前記少なくとも1つの値が前記所定の力の閾値を超えていないという判定に応答して、前記装置から離れた第2に伝達される前記コマンド信号を生成することであって、前記第1のデバイスは第2のデバイスとは異なる、前記コマンド信号を生成することと、
をさらに行わせる、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ジェスチャの前記カテゴリ表現に基づいて、値のシーケンスを計算することであって、前記値のシーケンスからの各値は、前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる力を示し、前記値のシーケンスは、前記ジェスチャの前記第2の一回の動作の実施中に前記ユーザによって加えられる力の変化を示す、値のシーケンスを計算することと、
デバイスに伝達される少なくとも1つのコマンド信号を生成することであって、前記少なくとも1つのコマンド信号は前記力の変化を示す、少なくとも1つのコマンド信号を生成することと、
をさらに行わせる、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ユーザが前記ジェスチャの前記第2の一回の動作を実施したという前記判定に応答して、前記装置から離れたデバイスに伝達されるコマンド信号を生成することであって、前記コマンド信号は、前記デバイスによって表示されるグラフィックオブジェクトの外観を変更するように構成される、コマンド信号を生成すること
をさらに行わせる、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ユーザが前記ジェスチャの前記第2の一回の動作を実施したという前記判定に応答して、前記装置から離れたデバイスに伝達されるコマンド信号を生成することであって、前記コマンド信号は、前記デバイスによって表示されるグラフィックオブジェクトの位置を変更するように構成される、コマンド信号を生成すること
をさらに行わせる、請求項1に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記装置から離れたデバイスに伝達されるコマンド信号を生成することであって、前記コマンド信号は、前記ユーザが前記ジェスチャを実施した回数を示す、コマンド信号を生成すること
をさらに行わせる、請求項1に記載の装置。 - プロセッサと、
前記プロセッサに結合される複数の神経筋センサと、
命令を記憶するメモリと、
を備え、前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
第1の複数の神経筋信号および第2の複数の神経筋信号に基づいて分類モデルを訓練することであって、前記第1の複数の神経筋信号および前記第2の複数の神経筋信号は前記複数の神経筋センサを介して受信され、前記訓練することは、
クラスタリング技法に基づいて、第1のジェスチャの実施中に加えられる力とともに線形に変化する少なくとも1つの特徴を含む前記第1のジェスチャの顕著な特徴を示す第1の値のセットと、第2のジェスチャの実施中に加えられる力とともに線形に変化する少なくとも1つの特徴を含む前記第2のジェスチャの顕著な特徴を示す第2の値のセットと、を導出することと、
前記分類モデルにおける前記第1のジェスチャのカテゴリ表現と前記第2のジェスチャのカテゴリ表現とを生成することと、
を含む、分類モデルを訓練することと、
第3の複数の神経筋信号および前記分類モデルに少なくとも部分的に基づいて、ユーザが前記第1のジェスチャまたは前記第2のジェスチャの以後の動作を実施したかを判定することと、
を行わせる、装置。 - 前記第1のジェスチャの前記カテゴリ表現および前記第2のジェスチャの前記カテゴリ表現は、教師なし機械学習技法を使用して作成される、請求項15に記載の装置。
- 前記分類モデルはほぼリアルタイムで訓練される、請求項15に記載の装置。
- 前記複数の神経筋センサはウェアラブルデバイス内に配置される、請求項15に記載の装置。
- 前記第1のジェスチャの前記カテゴリ表現は、前記第1のジェスチャの実施中に加えられる力の値を示す力のスケールを含み、前記第2のジェスチャの前記カテゴリ表現は、前記第2のジェスチャの実施中に加えられる力の値を示す力のスケールを含む、請求項15に記載の装置。
- 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記複数の神経筋センサを介して、前記ユーザが前記第1のジェスチャの第1の一回の動作を実施するときに、前記ユーザから前記第1の複数の神経筋信号を受信することと、
前記複数の神経筋センサを介して、前記ユーザが前記第2のジェスチャの第1の一回の動作を実施するときに、前記ユーザから前記第2の複数の神経筋信号を受信することと、
をさらに行わせる、請求項15に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記第1のジェスチャの前記以後の動作の実施中に前記ユーザによって加えられる力を示す値、または前記第2のジェスチャの前記以後の動作の実施中に前記ユーザによって加えられる力を示す値を決定すること
をさらに行わせる、請求項15に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ユーザが前記第1のジェスチャの以後の動作を実施したという判定に応答して、前記装置から離れたデバイスに伝達される第1のコマンド信号を生成することであって、前記第1のコマンド信号は、前記第1のジェスチャの前記以後の動作の実施中に加えられる力を示す第1の力の値を含む、第1のコマンド信号を生成することと、
前記ユーザが前記第2のジェスチャの以後の動作を実施したという判定に応答して、前記デバイスに伝達される第2のコマンド信号を生成することであって、前記第2のコマンド信号は、前記第2のジェスチャの前記以後の動作の実施中に加えられる力を示す第2の力の値を含み、前記第1のコマンド信号は、前記デバイスに前記第2のコマンド信号とは異なる動作を実行させる、第2のコマンド信号を生成することと、
をさらに行わせる、請求項15に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記ユーザが前記第1のジェスチャを実施したという判定に応答して、前記装置から離れた第1のデバイスに伝達されるコマンド信号を生成することと、
前記ユーザが前記第2のジェスチャを実施したという判定に応答して、前記装置から離れた第2のデバイスに伝達される前記コマンド信号を生成することであって、前記第1のデバイスは前記第2のデバイスとは異なる、前記コマンド信号を生成することと、
をさらに行わせる、請求項15に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記装置から離れたデバイスに伝達される複数の信号を生成することであって、前記複数の信号のうちの各信号は、前記第1のジェスチャの以後の動作を示し、前記複数の信号のうちの各信号は、前記第1のジェスチャの前記以後の動作に基づいて計算される異なる力の値を示す、複数の信号を生成すること
をさらに行わせる、請求項15に記載の装置。 - 前記命令は、前記プロセッサによって実行された場合に、前記プロセッサに、
前記装置から離れたデバイスに伝達される複数の信号を生成することであって、前記複数の信号のうちの各信号は、前記第2のジェスチャの以後の動作を示し、前記複数の信号のうちの各信号は、前記第2のジェスチャの前記以後の動作に基づいて計算される異なる力の値を示す、複数の信号を生成すること
をさらに行わせる、請求項15に記載の装置。 - 前記ユーザが前記第1のジェスチャまたは前記第2のジェスチャの以後の動作を実施したかを判定することは、
前記第3の複数の神経筋信号から第3の値のセットを導出することと、
前記第3の値のセットと前記第1のジェスチャの前記カテゴリ表現との間で計算される第1の類似性指標値に基づいて、前記ユーザが前記第1のジェスチャの以後の動作を実施したと判定することと、
前記第3の値のセットと前記第2のジェスチャの前記カテゴリ表現との間で計算される第2の類似性指標値に基づいて、前記ユーザが前記第2のジェスチャの以後の動作を実施したと判定することと、
を含む、請求項15に記載の装置。 - ウェアラブルデバイスのプロセッサにおいて、前記ウェアラブルデバイスに含まれる複数の神経筋センサから複数の神経筋信号を受信することであって、前記複数の神経筋信号は、ユーザがジェスチャの一回の動作を実施するときに前記ユーザからサンプリングされる神経筋信号に対応する、複数の神経筋信号を受信することと、
教師なし機械学習技法を介して、前記ジェスチャの前記一回の動作に基づいて分類モデルを訓練することであって、前記分類モデルは前記ジェスチャのカテゴリ表現を含む、分類モデルを訓練することと、
前記ジェスチャの前記カテゴリ表現に基づいて、前記ユーザが前記ジェスチャの以後の一回の動作を実施したかを判定することと、
前記ジェスチャの前記以後の一回の動作の実施中に前記ユーザによって加えられる力に対応する少なくとも1つの力の値を決定することと、
前記ユーザが前記ジェスチャの前記以後の一回の動作を実施したという判定に応答してデバイスに伝達されるコマンド信号を生成することであって、前記コマンド信号は、前記ジェスチャと、前記ジェスチャの実施中に加えられる前記少なくとも1つの力の値とを示す、コマンド信号を生成することと、
を含む、方法。 - 前記分類モデルはほぼリアルタイムで訓練され、前記教師なし機械学習技法を介して前記分類モデルを訓練することは、
前記複数の神経筋信号に少なくとも基づいて前記分類モデルにおける前記ジェスチャの前記カテゴリ表現を生成することであって、前記カテゴリ表現は、前記ジェスチャの前記一回の動作の実施中に加えられる1つまたは複数の力の値を決定するようにモデル化される力のスケールを含む、前記カテゴリ表現を生成することと、
を含む、請求項27に記載の方法。 - 前記複数の神経筋信号は第1の複数の神経筋信号を含み、前記ジェスチャは第1のジェスチャを含み、前記方法は、
前記ユーザが第2のジェスチャの一回の動作を実施するかを判定するために、前記教師なし機械学習技法を介して前記分類モデルを再訓練することであって、前記第1のジェスチャは前記第2のジェスチャとは異なり、前記再訓練することは、
第2の複数の神経筋信号に少なくとも基づいて、前記分類モデルにおける前記第2のジェスチャのカテゴリ表現を生成することであって、前記第2のジェスチャの前記カテゴリ表現は、前記第2のジェスチャの前記一回の動作の実施中に加えられる1つまたは複数の力の値を決定するようにモデル化される力のスケールを含む、カテゴリ表現を生成すること
を含む、前記分類モデルを再訓練することと、
前記分類モデルに基づいて、第3の複数の神経筋信号が前記第1のジェスチャの一回の動作に対応するか、または前記第2のジェスチャの一回の動作に対応するかを判定することと、
をさらに含む、請求項27に記載の方法。 - 前記コマンド信号は、前記デバイスに、前記動作のパラメータとして前記少なくとも1つの力の値を使用して動作を実行させる、請求項27に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/020065 WO2020176106A1 (en) | 2019-02-28 | 2019-02-28 | Methods and apparatus for unsupervised machine learning for classification of gestures and estimation of applied forces |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522402A true JP2022522402A (ja) | 2022-04-19 |
JP7312838B2 JP7312838B2 (ja) | 2023-07-21 |
Family
ID=72238637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541045A Active JP7312838B2 (ja) | 2019-02-28 | 2019-02-28 | ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3897890A4 (ja) |
JP (1) | JP7312838B2 (ja) |
CN (1) | CN113557069A (ja) |
WO (1) | WO2020176106A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT202100002627A1 (it) * | 2021-02-05 | 2022-08-05 | Virtual Factory S R L | Apparato comprendente un guanto dotato di sensori elettromiografici per il controllo di impianti da remoto in realtà virtuale |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07248873A (ja) * | 1994-03-08 | 1995-09-26 | Sharp Corp | 筋電信号を用いた制御装置 |
JP2013506216A (ja) * | 2009-09-29 | 2013-02-21 | モベア エス.アー | ジェスチャを認識するためのシステムおよび方法 |
JP2016507851A (ja) * | 2013-02-22 | 2016-03-10 | サルミック ラブス インコーポレイテッド | ジェスチャに基づいて制御するための筋活動センサ信号と慣性センサ信号とを結合する方法および装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8447704B2 (en) * | 2008-06-26 | 2013-05-21 | Microsoft Corporation | Recognizing gestures from forearm EMG signals |
US20150323998A1 (en) * | 2014-05-06 | 2015-11-12 | Qualcomm Incorporated | Enhanced user interface for a wearable electronic device |
US10854104B2 (en) * | 2015-08-28 | 2020-12-01 | Icuemotion Llc | System for movement skill analysis and skill augmentation and cueing |
US20170259167A1 (en) * | 2016-03-14 | 2017-09-14 | Nathan Sterling Cook | Brainwave virtual reality apparatus and method |
-
2019
- 2019-02-28 JP JP2021541045A patent/JP7312838B2/ja active Active
- 2019-02-28 EP EP19917067.1A patent/EP3897890A4/en active Pending
- 2019-02-28 CN CN201980093147.0A patent/CN113557069A/zh active Pending
- 2019-02-28 WO PCT/US2019/020065 patent/WO2020176106A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07248873A (ja) * | 1994-03-08 | 1995-09-26 | Sharp Corp | 筋電信号を用いた制御装置 |
JP2013506216A (ja) * | 2009-09-29 | 2013-02-21 | モベア エス.アー | ジェスチャを認識するためのシステムおよび方法 |
JP2016507851A (ja) * | 2013-02-22 | 2016-03-10 | サルミック ラブス インコーポレイテッド | ジェスチャに基づいて制御するための筋活動センサ信号と慣性センサ信号とを結合する方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3897890A1 (en) | 2021-10-27 |
JP7312838B2 (ja) | 2023-07-21 |
WO2020176106A1 (en) | 2020-09-03 |
CN113557069A (zh) | 2021-10-26 |
EP3897890A4 (en) | 2022-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10905383B2 (en) | Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces | |
US11069148B2 (en) | Visualization of reconstructed handstate information | |
US11587242B1 (en) | Real-time processing of handstate representation model estimates | |
US10950047B2 (en) | Techniques for anonymizing neuromuscular signal data | |
US10489986B2 (en) | User-controlled tuning of handstate representation model parameters | |
US10481699B2 (en) | Armband for tracking hand motion using electrical impedance measurement | |
US20190228330A1 (en) | Handstate reconstruction based on multiple inputs | |
EP4331473A2 (en) | Method and apparatus for recognizing gait task | |
US11179066B2 (en) | Real-time spike detection and identification | |
Xu et al. | Gesture recognition using dual-stream CNN based on fusion of sEMG energy kernel phase portrait and IMU amplitude image | |
Shin et al. | Korean sign language recognition using EMG and IMU sensors based on group-dependent NN models | |
WO2011092549A1 (en) | Method and apparatus for assigning a feature class value | |
US20220142850A1 (en) | Method and apparatus for recognizing gait task | |
Ramadoss et al. | Computer vision for human-computer interaction using noninvasive technology | |
JP7312838B2 (ja) | ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 | |
Zafar et al. | Empowering human-robot interaction using sEMG sensor: Hybrid deep learning model for accurate hand gesture recognition | |
WO2022011344A1 (en) | System including a device for personalized hand gesture monitoring | |
Stival | Subject-independent modeling of semg signals for the motion of a single robot joint through gmm modelization | |
Ramadoss et al. | Research Article Computer Vision for Human-Computer Interaction Using Noninvasive Technology | |
Jin et al. | Integration of a Lightweight Customized 2D CNN Model to an Edge Computing System for Real-Time Multiple Gesture Recognition | |
Zhang et al. | Human activity recognition based on multi-modal fusion | |
Reddy | Multi-Feature Embedding and Deep Classification for Elderly Activity Recognition | |
Babu et al. | EYEBALL CURSOR MOVEMENT USING OPEN CV | |
SEREGNI | ERACLE wearable EMG gesture recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7312838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |