JP2013506216A - ジェスチャを認識するためのシステムおよび方法 - Google Patents
ジェスチャを認識するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2013506216A JP2013506216A JP2012531419A JP2012531419A JP2013506216A JP 2013506216 A JP2013506216 A JP 2013506216A JP 2012531419 A JP2012531419 A JP 2012531419A JP 2012531419 A JP2012531419 A JP 2012531419A JP 2013506216 A JP2013506216 A JP 2013506216A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- signals
- recognition system
- class
- gesture recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
Abstract
【選択図】 図2
Description
− 実体に関係するセンサの動作によって生成される信号を捕獲するためのモジュール210と、
− ジェスチャのクラス別に整理された、事前に捕獲された信号を格納するためのモジュール220と、
− ある時間ウィンドウにわたって捕獲された信号の少なくともいくつかと、格納された信号の前記クラスとを比較するためのモジュール230と、
− ある時間ウィンドウにわたって捕獲された前記信号の少なくともいくつかを前処理するためのモジュール240と
を備える。
− 改善のため、場合により前処理が必要とされる可能性がある、入力データの関連性
− 実行ごとに異なる、ジェスチャの実行速度
− ジェスチャ辞書に現れるジェスチャが明確に認識され、正しいクラスに属することを確実にすること(低い非検出の確率または高レベルの認識)を可能にし、学習データベースの一部を形成しないジェスチャを廃棄すること(誤警報の確率)を可能にし、間違ったクラスに割り当てられるジェスチャの数を最小限に抑えること(低レベルの誤検出)を可能にする、認識のロバスト性
− システムの応答時間および演算コスト
− 認識されるべきジェスチャの数およびエンリッチメントに提供されるべきこれらのジェスチャの実行数
− 多くのユーザを扱うためのロバスト性
− 所与のジェスチャの変形形態を管理する能力(例えば、低振幅のジェスチャおよび高振幅の同じジェスチャまたは特定の方向で行われたジェスチャおよび異なる方向で行われた同じジェスチャ)
− ジェスチャを開始および/または終了する瞬間を示す必要なしに、絶えず発動しているジェスチャ認識を管理する能力
− 入力信号に作用する前処理モジュール(PRE)240。このモジュールは、全てのクラスに対して同じ方法で構成することができるか、あるいは、1つまたは複数のクラス専用に構成することができる。
− 前処理された入力信号と同じ前処理作業が行われた参照信号とを比較するための比較モジュール(COMP)230。このモジュールは、認識されるべきジェスチャを表す信号と参照ジェスチャを表す信号との間の類似性を表すインジケータを提供する。
− 格納されるべき入力信号上で行われる、前処理モジュール(PRE)240の機能
− クラスに付随する前処理された信号SIG(i)および基準ベクトルCRIT(i)が格納される(iはクラスの数である)、格納モジュール(MEM)220の機能。新しいクラスによる格納された参照信号のエンリッチメントまたは新しい信号による既存のクラスのエンリッチメントが存在し得る。
− 有用でない信号の部分を除去する、または、有用な信号を切り取る機能(性能は、実際のジェスチャの前後の非活動期間を廃棄することによって有利に強化される)。非活動期間は、観察された信号の変動を使用することによって特定することができる。これらの変動が、十分な長い時間にわたって十分に少なければ、非活動期間と見なされる。ある種の閾値化が存在し、この切り取りは、ジェスチャの開始および終了を検出する(ジェスチャ間に中断がある場合)ため、ラインに沿って実行され得、スライディングウィンドウFにわたって実行される。
・ var(signal)F<Thの場合(Thは、ユーザによって定義される閾値)、期間は非活動であり、この期間にわたる信号は除去される。
・ また、前処理は、バターワースフィルタまたはスライディング平均フィルタなど、低域信号フィルタも含み得、それによって、通常のジェスチャに対する偏差による不適当な変動を除去することが可能になる。
− 信号をサブサンプリングする機能。場合により、有用でない信号の部分を除去する機能の後、前記サブサンプリング機能は、処理時間の大幅な削減を可能にし、特に、以下の形態をとることができる。
・ 時間信号の規則的な間引き(低域プリフィルタリングを用いる):実際には、本発明の一実施形態で使用される捕獲システムは、200Hzでサンプリングされるため、この場合5Hz(特に人間のジェスチャのダイナミクスによく適する周波数)でサンプリングされた最終信号を得るには、複数のセグメント、例えば40ポイントにわたってフィルタ平均化を使用することは有利である。平均化された信号(ウィンドウ上で中心を決定)は、以下のように表される。
・ 前記間引きを実行後は、間引きされたポイントの系列を比較モジュール230の分類機能に送信するか、または、間引きされたポイントの系列を場合により伴う信号の密度を表す系列を送信する[軌道上のこのスライディングウィンドウ内で見られる近位のポイントは、間引きされたポイントの系列の標本を生成し、これらのポイントの数は、信号の密度の尺度であり(図4を参照)、認識されるべきジェスチャのための識別因子であり得る]。
− 場合によりサブサンプリング機能の後に実行され得る、信号正規化機能(低減による正規化と呼ばれる)。この正規化機能は、実行される場合、信号のエネルギー(信号のエネルギーは、信号を二乗したものの平均である)によって、このサブサンプリング機能によって出力された信号を除することにある。したがって、この正規化により、以下の式に従って、信号のダイナミクスを克服することが可能になる。
− 前記クラスiのジェスチャの2−2距離全ての平均と等しいクラス内の距離
− クラスiとクラスjとの間のそれぞれの距離が、クラスiの要素とクラスjの要素との間の全ての距離の平均に等しい、クラス間の距離のセット
− クラスの中心に相当する1つまたは複数の「平均」代表信号を計算する。CRIT(i)に含まれる関連するクラス内の距離によって場合により除される、クラスiの平均例と比較した新しい例の距離は、クラスiにおけるその出現に関連するインジケータを提供する。数個の平均代表信号が計算される場合、特に、数人のユーザがシステムの使用を意図する場合、これらは、同じジェスチャを実行するさまざまな方法を示すよう有利に選択され得る。あるいは
− クラス間の境界をより良く定義する「境界」代表信号を計算する。新しい要素は、その要素が見られるゾーンのクラスに付随することになる。この方法は、例のデータベースが非常に実質的であり、クラス間の境界が複雑である場合に適切である。
− 単に1つの操作手順(3軸の加速度計または3軸のジャイロスコープを用いる)を有する場合、分類されるべき3軸の信号と参照ジェスチャのデータベースからの信号の1つとの間のコストを計算することができ、このコストは、3次元のユークリッド距離に関与し、したがって、距離行列のみに取り組むことを可能にし、それによって、処理時間を有利に削減する(操作回数を増加する、1つのセンサチャネル当たりのコストの計算と比較して)。
− 2つの操作手順を利用することができる場合、
・ 6次元の信号のDTWコストを計算することができる(3軸のジャイロスコープからの情報と連結された3軸の加速度計からの情報を含むベクトルを用いる)。
・ マージされたコストを計算することができる。そこで、最終コストは、2種のコストから得られるものである(1つの操作手順当たり1つのコスト)。このオプションにより、それぞれの捕獲手順の相補特性から有利に利益を得て、それらを組み合わせることが可能になる。
・ 対のコスト(加速度計コストおよびジャイロスコープコスト)をMERGEブロックに提供することができる。
・ 手順の1つに好都合なコストを計算することができる。例えば、DTW経路が、操作手順の1つ(最も関連しているもの)に対して計算され、他の手順のコストが、この経路にわたって計算される(第1の手順のコストを補充するため、またはそうではない)。したがって、既に記載した通り、2種のコストから得られるものすなわち対のコストを提供することができる。
・ N次元の信号のDTWコストを計算することができる。
・ マージされたコストを計算することができる。そこで、最終コストは、M種のコストから得られるものである(1つの手順当たり1つのコスト)。このオプションにより、それぞれの捕獲手順の相補特性から有利に利益を得て、それらを組み合わせることが可能になる。
・ M種のコストのセットをMERGEブロックに提供することができる。
・ 操作手順の1つに好都合なコストを計算することができる。例えば、DTW経路は、手順の1つ(最も関連しているもの)に対して計算され、他の手順のコストは、この経路にわたって計算される(第1の手順のコストを補充するため、またはそうではない)。したがって、既に記載した通り、M種のコストから得られるものすなわち対のコストを提供することができる。
− スカラーのコスト(加速度計のコストのみ、ジャイロスコープのコストのみ、またはマージされたコスト)を有する場合、以下のいずれかのような最も近くの隣接クラスを有する。
・ 最適なコストの値が何であっても、テストされたジェスチャを最も近くの隣接クラスに割り当てることを決定する。したがって、拒否されるクラスはない。これにより、最大レベルの認識が可能となるが、誤警報のレベルは相補的なものとなる。あるいは
・ 決定閾値を設定する。この閾値を上回る場合、ジェスチャを拒否クラスに割り当てる。この閾値を下回る場合、ジェスチャを最も近くの隣接クラスに割り当てる。そこで、閾値を調節するため、上で説明された相対コストを慎重に使用する。これにより、認識レベルと誤警報レベルとの間の所望の妥協案に従って、この閾値を最適化することができる。
− 対のコストを有する場合、1種のコスト当たり1つのより近いクラスを有し、そこで、得られたクラスを比較する。同じクラスが存在する場合、ジェスチャをこのクラスに割り当てる。そうでない場合、ジェスチャを拒否クラスに配置する。この方法により、閾値パラメータを管理することなく、拒否クラスを得ることが可能になる。
S=s1,s2,...,si,...sn
T=t1,t2,...,tj,...tm
W=w(s1),(w2),...,w(sk),...w(sp)
δ(i,j)=|s1−tj|
または
δ(i,j)=(s1−tj)2
である。
− 下部の曲線:ジャイロスコープの測定値のみが使用されている場合
− 中央の曲線:加速度計の測定値のみが使用されている場合
− 上部の曲線:両方のセンサからの測定値が使用されている場合
− 動作感知センサからの信号の捕獲、調節、および送信を実行する低レベルの機能を制御するためのライブラリ
− 機能を制御するためのモジュール(自動文字認識)および電子機器、楽器のセット、スポーツの訓練用シミュレーション、ゲームなどを制御するためのモジュール
− ファイルX(j).Appの特性を抽出する
− 可動中心アルゴリズムを適用してK個のコアを得る。各コアに付随するものは、起こり得るジェスチャのリストである。
それぞれのサンプリング期間で、
For それぞれの加速信号:
傾向を抽出する
If 新しいエピソードが検出される
「分析されるべきジェスチャ」フラグを1に設定する
End If
End For
If 分析されるべきジェスチャ=1:
For それぞれの加速信号
エピソードが検出される前の期間の時間ウィンドウDにわたって特性を抽出する
End For
− 抽出され、その中心が決定され、低減された特性とK個のコアとの間のユークリッド距離を計算する
− 最も近いコアを選択して起こり得るジェスチャのリストを提案する(If 最も近いコアまでの距離が閾値距離よりも大きい 決定=0)
− 信号Sと起こり得るジェスチャのリストに相当する例X(j).Appとの間のDTW距離を計算する
If 距離が拒否閾値よりも大きい
決定=0
Otherwise
決定=k(kは、最短のDTW距離を有するファイルに付随するジェスチャの数)
End If
「分析されるべきジェスチャ」フラグを0に設定する
End If
End For
− 信号の時間的挙動における著しい変化が検出される場合にのみ呼び出す。
− 信号と比較されるべき学習データベース内のジェスチャの例の数を低減する。
Claims (29)
- 実体のジェスチャを認識するためのシステムであって、前記実体の前記動作によって生成される信号を捕獲するためのモジュールと、捕獲およびジェスチャのクラスに整理された信号を表すデータを格納するためのモジュールと、ある時間ウィンドウにわたって捕獲された前記信号の少なくともいくつかと、格納された信号の前記クラスとを比較するためのモジュールとを備え、ある時間ウィンドウにわたって捕獲された前記信号の少なくともいくつかを前処理するためのモジュールをさらに備え、前記前処理は、前記捕獲された信号内で非活動期間に対応する信号の閾値化を行うことによる除去機能、前記捕獲された信号のサブサンプリング機能、および前記信号の低減による正規化機能を含む群から選択される機能の少なくとも1つを備える、システム。
- 前記正規化は、前記捕獲された信号の低減前にその中心を決定することを含む、請求項1に記載のジェスチャ認識システム。
- 前記実体の前記動作によって生成される信号を捕獲するための前記モジュールは、3軸に沿った慣性測定を行うための少なくとも1つのセンサを備える、請求項1に記載のジェスチャ認識システム。
- ある時間ウィンドウにわたって捕獲された前記信号を比較するための前記モジュールは、動的時間伸縮アルゴリズムを実行することによって前記比較を実施する、請求項1に記載のジェスチャ認識システム。
- 前記格納モジュールは、それぞれの信号クラスに対して、それぞれのクラスに属する前記信号に対する少なくとも1つの信号距離測定値を表すデータベクトルを含む、請求項4に記載のジェスチャ認識システム。
- 格納された信号のそれぞれのクラスに対して、それぞれのクラスに属する前記信号に対する少なくとも1つの信号距離測定値を表す前記データベクトルは、少なくとも1つのクラス内の距離測定値および前記クラスと、格納された他のそれぞれのクラスとの間の複数の距離の測定値を含む、請求項5に記載のジェスチャ認識システム。
- 前記クラス内の距離測定値は、2つのクラスの信号間のペアワイズ距離の平均に等しく、1つのクラスに属するジェスチャを表す信号間のそれぞれの距離は、DTWタイプの変形経路上の前記信号のサンプルの系列間の二乗平均平方根偏差の最小値として計算される、請求項6に記載のジェスチャ認識システム。
- 前記クラス間の距離測定値は、2つのクラスの信号間のペアワイズ距離の平均に等しく、1つのクラスに属するジェスチャを表す信号間のそれぞれの距離は、DTWタイプの変形経路上の前記信号のサンプルの系列間の二乗平均平方根偏差の最小値として計算される、請求項6に記載のジェスチャ認識システム。
- 前記動的時間伸縮アルゴリズムは、前記格納モジュールに格納された参照信号の前記クラスを表す前記ベクトルとともに、ある時間ウィンドウにわたって捕獲された前記信号の前記距離の測定値に基づいて、ある時間ウィンドウにわたって捕獲された前記信号によって表されるジェスチャ認識基準を使用する、請求項4に記載のジェスチャ認識システム。
- 前記距離測定値は、クラス内の距離測定値によって正規化される、請求項9に記載のジェスチャ認識システム。
- 前記距離測定値は、DTWアルゴリズムを使用して、分類されるべき信号についての少なくとも1つのセンサの複数の軸に関する測定値からなるベクトルと、前記参照信号に関する同じ成分からなるベクトルとの間のユークリッド距離の行列の要素を通じて、最小コスト経路に沿って、前記少なくとも1つの測定信号と前記複数の参照信号との間の類似度指数を計算することによって得られる、請求項9に記載のジェスチャ認識システム。
- 前記距離測定値は、DTWアルゴリズムを使用して、前記測定ベクトルと前記参照ベクトルのスカラー積の微分からなる行列の要素を通じて、最小コスト経路に沿って、少なくとも1つの測定信号と前記複数の参照信号との間の類似度指数を計算することによって得られる、請求項9に記載のジェスチャ認識システム。
- 前記信号を捕獲するための前記モジュールは、少なくとも2つのセンサを備える、請求項9に記載のジェスチャ認識システム。
- 前記少なくとも2つのセンサに対する前記比較モジュールから来るデータをマージするためのモジュールをさらに備える、請求項13に記載のジェスチャ認識システム。
- 前記少なくとも2つのセンサに対する前記比較モジュールから来る前記データをマージするための前記モジュールは、前記少なくとも2つのセンサに対する前記比較モジュールから来る前記データ間で投票機能を実行することができる、請求項14に記載のジェスチャ認識システム。
- 前記距離測定値は、i)DTWアルゴリズムを使用して、分類されるべき前記信号についての前記少なくとも2つのセンサの複数の軸に関する測定値からなるベクトルと、前記参照信号に関する同じ成分からなるベクトルとの間のユークリッド距離の行列の要素を通じて、最小コスト経路に沿って、前記少なくとも1つの測定信号と前記複数の参照信号との間の類似度指数を計算することであって、前記類似度指数は、前記距離測定値を構成することと、ii)DTWアルゴリズムを使用して、それぞれのセンサに対して、分類されるべき前記信号についての前記少なくとも2つのセンサのうちの1つのセンサの前記複数の軸に関する前記測定値からなる前記ベクトルと、前記参照信号に関する同じ成分からなる前記ベクトルとの間の前記ユークリッド距離の行列を通じて、前記最小コスト経路に沿って、前記少なくとも1つの測定信号と前記複数の参照信号との間の類似度指数を計算することに次いで、全ての前記センサについての前記計算出力としてもたらされた前記類似度指数を乗ずることによって前記距離測定値を計算することとを含む群に属する作業によって得られる、請求項15に記載のジェスチャ認識システム。
- 前記距離測定値は、それぞれのセンサに対して、前記測定ベクトルと前記参照ベクトルのスカラー積の微分からなる行列の要素を通じて、最小コスト経路に沿って、前記少なくとも1つの測定信号と前記複数の参照信号との間の類似度指数を計算することに次いで、全ての前記センサについての前記計算出力としてもたらされた前記類似度指数を乗ずることによって前記距離測定値を計算することによって得られる、請求項14に記載のジェスチャ認識システム。
- 前記距離測定値は、DTWアルゴリズムを使用して、それぞれのセンサに対して、分類されるべき前記信号についての前記少なくとも2つのセンサのうちの1つのセンサの複数の軸に関する測定値からなるベクトルと、前記参照信号に関する同じ成分からなるベクトルとの間のユークリッド距離からなる行列の要素、または前記測定ベクトルと前記参照ベクトルのスカラー積の微分からなる行列の要素を通じて、最小コスト経路に沿って、前記少なくとも1つの測定信号と前記複数の参照信号との間の類似度指数を計算することに次いで、全ての前記センサについての前記計算出力としてもたらされた前記類似度指数を乗ずることによって前記距離測定値を計算することとを含む群に属する作業によって得られる、請求項14に記載のジェスチャ認識システム。
- 前記前処理モジュールは、非活動期間に対応する信号を除去するため、選択されたある時間ウィンドウにわたって同じく選択された閾値を下回る信号の変動を取り除くことによって、前記捕獲された信号内で閾値化除去機能を実行する、請求項1に記載のジェスチャ認識システム。
- 前記前処理モジュールは、前記捕獲された信号を選択された低減率で間引きした後で、前記低減率と一致するスライディング空間または時間ウィンドウにわたって前記低減された信号の平均を得ることによって、前記捕獲された信号に関するサブサンプリング機能を実行する、請求項1に記載のジェスチャ認識システム。
- 前記間引きを表すデータは、前記格納モジュールによって格納され、前記比較モジュールへの入力として送信される、請求項20に記載のジェスチャ認識システム。
- 前記前処理モジュールは、非活動期間に対応する信号を除去するための前記捕獲された信号内における除去機能、前記捕獲された信号に関するサブサンプリング機能、および前記捕獲された信号の低減による正規化機能を連続して実行する、請求項1に記載のジェスチャ認識システム。
- 前記捕獲された信号の少なくともいくつかおよび前記比較モジュールの前記出力の少なくともいくつかは、その中での処理のため、前記格納モジュールへの入力としてもたらされ得、前記処理作業の結果は、前記比較モジュールの現行の処理作業で取り入れられる、請求項1に記載のジェスチャ認識システム。
- 前記前処理モジュールの出力側に、前記比較モジュールの実行を開始することができる傾向抽出モジュールをさらに備える、請求項1に記載のジェスチャ認識システム。
- 前記傾向抽出モジュールは、ある時間ウィンドウにわたって捕獲された前記信号の1つの特徴的な量の変動が所定の閾値に反する場合に、前記比較モジュールの前記実行を開始する、請求項24に記載のジェスチャ認識システム。
- 前記格納モジュールの入力側に、ジェスチャのファミリを表すK個のクラスグループに編成するためのクラス再編成モジュールをさらに備える、請求項1に記載のジェスチャ認識システム。
- 前記比較モジュールを開始することにより、その前記比較信号が最も近いK個のグループの1つを選択する機能の実行が起動され、次いで、前記比較信号と前記選択されたグループのジェスチャとの間で動的時間伸縮アルゴリズムが起動される、請求項25に記載のジェスチャ認識システム。
- 実体のジェスチャを認識する方法であって、少なくとも3自由度で、前記実体の前記動作によって生成される信号を捕獲する工程と、ある時間ウィンドウにわたって捕獲された前記信号の少なくともいくつかと、実体のジェスチャを表すクラスにおいて格納および整理された信号のクラスとを比較する工程とを含み、前記比較工程の前に、ある時間ウィンドウにわたって捕獲された前記信号の少なくともいくつかを前処理する工程をさらに含み、前記前処理は、前記捕獲された信号内で閾値化を行って非活動期間に対応する信号を除去することによる除去機能、前記捕獲された信号のサブサンプリング機能、および前記信号の低減による正規化機能を含む群から選択される機能の少なくとも1つを含む、方法。
- 前記正規化は、前記捕獲された信号の低減前にその中心を決定することを含む、請求項28に記載の実体のジェスチャ認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0956717A FR2950713A1 (fr) | 2009-09-29 | 2009-09-29 | Systeme et procede de reconnaissance de gestes |
FR0956717 | 2009-09-29 | ||
PCT/EP2010/064501 WO2011039283A1 (fr) | 2009-09-29 | 2010-09-29 | Systeme et procede de reconnaissance de gestes |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013506216A true JP2013506216A (ja) | 2013-02-21 |
JP6064280B2 JP6064280B2 (ja) | 2017-01-25 |
Family
ID=42184453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012531419A Expired - Fee Related JP6064280B2 (ja) | 2009-09-29 | 2010-09-29 | ジェスチャを認識するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20120323521A1 (ja) |
EP (1) | EP2483758B1 (ja) |
JP (1) | JP6064280B2 (ja) |
CN (1) | CN102640085B (ja) |
FR (1) | FR2950713A1 (ja) |
WO (1) | WO2011039283A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014238695A (ja) * | 2013-06-07 | 2014-12-18 | セイコーエプソン株式会社 | 電子機器及びタップ操作検出方法 |
JP2014238696A (ja) * | 2013-06-07 | 2014-12-18 | セイコーエプソン株式会社 | 電子機器及びタップ操作検出方法 |
KR102057705B1 (ko) * | 2018-01-31 | 2019-12-19 | 계명대학교 산학협력단 | 동작 인식을 위한 지능형 장치 및 그 제어 방법 |
JP2022522402A (ja) * | 2019-02-28 | 2022-04-19 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 |
Families Citing this family (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9737796B2 (en) | 2009-07-08 | 2017-08-22 | Steelseries Aps | Apparatus and method for managing operations of accessories in multi-dimensions |
US8719714B2 (en) | 2009-07-08 | 2014-05-06 | Steelseries Aps | Apparatus and method for managing operations of accessories |
JP5489572B2 (ja) * | 2009-07-29 | 2014-05-14 | キヤノン株式会社 | 加速度検出装置及びその制御方法、プログラム |
US8896457B2 (en) * | 2010-02-26 | 2014-11-25 | Thl Holding Company, Llc | Method, system and wireless device with event detection for monitoring protective headgear |
US9323337B2 (en) * | 2010-12-29 | 2016-04-26 | Thomson Licensing | System and method for gesture recognition |
US9110510B2 (en) * | 2011-06-03 | 2015-08-18 | Apple Inc. | Motion pattern classification and gesture recognition |
US10223710B2 (en) | 2013-01-04 | 2019-03-05 | Visa International Service Association | Wearable intelligent vision device apparatuses, methods and systems |
FR2985583B1 (fr) * | 2012-01-06 | 2014-01-17 | Movea | Dispositif de commande gestuelle d'un systeme, et procede associe |
US20130254152A1 (en) * | 2012-03-23 | 2013-09-26 | Palo Alto Research Center Incorporated | Distributed system and methods for modeling population-centric activities |
CN103455135A (zh) * | 2012-06-01 | 2013-12-18 | 腾讯科技(深圳)有限公司 | 控制被控设备的控制方法、系统 |
US20140002338A1 (en) * | 2012-06-28 | 2014-01-02 | Intel Corporation | Techniques for pose estimation and false positive filtering for gesture recognition |
US9147057B2 (en) | 2012-06-28 | 2015-09-29 | Intel Corporation | Techniques for device connections using touch gestures |
US20140045463A1 (en) * | 2012-08-10 | 2014-02-13 | Silverplus, Inc. | Wearable Communication Device |
US9323985B2 (en) * | 2012-08-16 | 2016-04-26 | Microchip Technology Incorporated | Automatic gesture recognition for a sensor system |
US9927876B2 (en) | 2012-09-28 | 2018-03-27 | Movea | Remote control with 3D pointing and gesture recognition capabilities |
US9164622B2 (en) * | 2012-10-09 | 2015-10-20 | Facebook, Inc. | Denoising touch gesture input |
WO2015112108A1 (en) * | 2012-11-28 | 2015-07-30 | Visa International Service Association | Multi disparate gesture actions and transactions apparatuses, methods and systems |
US9746926B2 (en) | 2012-12-26 | 2017-08-29 | Intel Corporation | Techniques for gesture-based initiation of inter-device wireless connections |
US10528135B2 (en) | 2013-01-14 | 2020-01-07 | Ctrl-Labs Corporation | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display |
US9409087B2 (en) * | 2013-03-15 | 2016-08-09 | Steelseries Aps | Method and apparatus for processing gestures |
US9604147B2 (en) | 2013-03-15 | 2017-03-28 | Steelseries Aps | Method and apparatus for managing use of an accessory |
US9687730B2 (en) | 2013-03-15 | 2017-06-27 | Steelseries Aps | Gaming device with independent gesture-sensitive areas |
US9235338B1 (en) * | 2013-03-15 | 2016-01-12 | Amazon Technologies, Inc. | Pan and zoom gesture detection in a multiple touch display |
US9415299B2 (en) | 2013-03-15 | 2016-08-16 | Steelseries Aps | Gaming device |
US9423874B2 (en) | 2013-03-15 | 2016-08-23 | Steelseries Aps | Gaming accessory with sensory feedback device |
US10152082B2 (en) | 2013-05-13 | 2018-12-11 | North Inc. | Systems, articles and methods for wearable electronic devices that accommodate different user forms |
CN104156058B (zh) * | 2013-05-14 | 2018-08-07 | 研祥智能科技股份有限公司 | 生成控制指令的方法和系统 |
EP3005280B1 (en) | 2013-05-30 | 2019-05-08 | Atlas Wearables, Inc. | Portable computing device and analyses of personal data captured therefrom |
TWI506461B (zh) * | 2013-07-16 | 2015-11-01 | Univ Nat Taiwan Science Tech | 人體動作的辨識方法與裝置 |
US11243611B2 (en) | 2013-08-07 | 2022-02-08 | Nike, Inc. | Gesture recognition |
US11426123B2 (en) | 2013-08-16 | 2022-08-30 | Meta Platforms Technologies, Llc | Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US9788789B2 (en) | 2013-08-30 | 2017-10-17 | Thalmic Labs Inc. | Systems, articles, and methods for stretchable printed circuit boards |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
US10281953B2 (en) | 2013-11-29 | 2019-05-07 | Motiv Inc. | Wearable device and data transmission method |
US9582034B2 (en) | 2013-11-29 | 2017-02-28 | Motiv, Inc. | Wearable computing device |
CN104731307B (zh) * | 2013-12-20 | 2019-05-10 | 孙伯元 | 一种体感动作识别方法及人机交互装置 |
CN104216351B (zh) * | 2014-02-10 | 2017-09-29 | 美的集团股份有限公司 | 家用电器语音控制方法及系统 |
US10199008B2 (en) | 2014-03-27 | 2019-02-05 | North Inc. | Systems, devices, and methods for wearable electronic devices as state machines |
CN104598017A (zh) * | 2014-05-15 | 2015-05-06 | 电子科技大学 | 服务于盲人的交互式手势识别系统 |
US9880632B2 (en) * | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
CN104183115B (zh) * | 2014-08-28 | 2017-03-29 | 北京慧物科联科技有限公司 | 一种可识别物联网家庭手势操作的遥控器 |
CN104267835B (zh) * | 2014-09-12 | 2017-08-08 | 西安闻泰电子科技有限公司 | 自适应手势识别方法 |
KR101628482B1 (ko) * | 2014-09-18 | 2016-06-21 | 현대자동차주식회사 | 무선신호 분석을 통한 동작 인식 시스템 및 그 방법 |
US20160091965A1 (en) * | 2014-09-30 | 2016-03-31 | Microsoft Corporation | Natural motion-based control via wearable and mobile devices |
US9807221B2 (en) | 2014-11-28 | 2017-10-31 | Thalmic Labs Inc. | Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link |
US10163000B2 (en) * | 2015-01-14 | 2018-12-25 | Samsung Electronics Co., Ltd. | Method and apparatus for determining type of movement of object in video |
US10078780B2 (en) * | 2015-03-27 | 2018-09-18 | Intel Corporation | Gesture recognition mechanism |
CN104794414B (zh) * | 2015-03-31 | 2017-07-04 | 浙江水利水电学院 | 一种基于rfid技术的人体静态姿态识别方法 |
US10078435B2 (en) | 2015-04-24 | 2018-09-18 | Thalmic Labs Inc. | Systems, methods, and computer program products for interacting with electronically displayed presentation materials |
CN105321318A (zh) * | 2015-09-29 | 2016-02-10 | 王增乾 | 紧急呼叫信号发送识别装置 |
CN105193100A (zh) * | 2015-09-29 | 2015-12-30 | 王增乾 | 手控式背景音乐播放器 |
US10156907B2 (en) * | 2015-12-14 | 2018-12-18 | Invensense, Inc. | Device for analyzing the movement of a moving element and associated method |
US20170177929A1 (en) * | 2015-12-21 | 2017-06-22 | Intel Corporation | Crowd gesture recognition |
US10599919B2 (en) * | 2015-12-31 | 2020-03-24 | Microsoft Technology Licensing, Llc | Detection of hand gestures using gesture language discrete values |
US10678337B2 (en) * | 2016-01-04 | 2020-06-09 | The Texas A&M University System | Context aware movement recognition system |
US10579169B2 (en) * | 2016-03-08 | 2020-03-03 | Egalax_Empia Technology Inc. | Stylus and touch control apparatus for detecting tilt angle of stylus and control method thereof |
US10514770B2 (en) * | 2016-06-17 | 2019-12-24 | Texas Instruments Incorporated | Hidden Markov model-based gesture recognition with FMCW radar |
US10747327B2 (en) * | 2016-06-28 | 2020-08-18 | Intel Corporation | Technologies for adaptive downsampling for gesture recognition |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
US10990174B2 (en) | 2016-07-25 | 2021-04-27 | Facebook Technologies, Llc | Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors |
CA3033852C (en) * | 2016-08-15 | 2023-04-11 | Georgia Tech Research Corporation | Electronic device and method of controlling the same |
CN106339104B (zh) * | 2016-08-24 | 2019-02-15 | 广州市香港科大霍英东研究院 | 智能手表的文本输入方法及装置 |
EP3767547A1 (en) * | 2016-09-06 | 2021-01-20 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
EP3497629B1 (en) | 2016-09-06 | 2020-11-04 | Deepmind Technologies Limited | Generating audio using neural networks |
US11080591B2 (en) | 2016-09-06 | 2021-08-03 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
CN110023963B (zh) | 2016-10-26 | 2023-05-30 | 渊慧科技有限公司 | 使用神经网络处理文本序列 |
KR20180050947A (ko) | 2016-11-07 | 2018-05-16 | 삼성전자주식회사 | 대표 파형 제공 장치 및 방법 |
US11042262B2 (en) * | 2017-02-01 | 2021-06-22 | Opentv, Inc. | Menu modification based on controller manipulation data |
CN107330240A (zh) * | 2017-05-22 | 2017-11-07 | 华东师范大学 | 一种基于双手环传感器的智能远程特护监控系统及方法 |
WO2019016764A1 (en) * | 2017-07-21 | 2019-01-24 | Sage Senses Inc. | METHOD, SYSTEM AND APPARATUS FOR RECOGNIZING GESTURES |
CN112040858A (zh) | 2017-10-19 | 2020-12-04 | 脸谱科技有限责任公司 | 用于识别与神经肌肉源信号相关的生物结构的系统和方法 |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11567573B2 (en) | 2018-09-20 | 2023-01-31 | Meta Platforms Technologies, Llc | Neuromuscular text entry, writing and drawing in augmented reality systems |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US20190244062A1 (en) * | 2018-02-04 | 2019-08-08 | KaiKuTek Inc. | Gesture recognition method, gesture recognition system, and performing device therefore |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
US11521740B2 (en) | 2018-06-06 | 2022-12-06 | International Business Machines Corporation | Natural language processing of a motion alphabet for unsupervised clinical scoring |
CN108986777A (zh) * | 2018-06-14 | 2018-12-11 | 森兰信息科技(上海)有限公司 | 通过体感进行音乐模拟的方法、体感设备及乐器终端 |
CN112996430A (zh) | 2018-08-31 | 2021-06-18 | 脸谱科技有限责任公司 | 神经肌肉信号的相机引导的解释 |
EP3886693A4 (en) | 2018-11-27 | 2022-06-08 | Facebook Technologies, LLC. | METHOD AND DEVICE FOR AUTOCALIBRATION OF A PORTABLE ELECTRODE SENSING SYSTEM |
CN110163130B (zh) * | 2019-05-08 | 2021-05-28 | 清华大学 | 一种用于手势识别的特征预对齐的随机森林分类系统及方法 |
US11227593B2 (en) * | 2019-06-28 | 2022-01-18 | Rovi Guides, Inc. | Systems and methods for disambiguating a voice search query based on gestures |
EP3758023B1 (en) * | 2019-06-28 | 2022-02-09 | Associação Fraunhofer Portugal Research | Method and device for assessing physical movement of an operator during a work cycle execution on an industrial manufacturing work station |
KR102081854B1 (ko) * | 2019-08-01 | 2020-02-26 | 전자부품연구원 | 3d edm을 이용한 수어 또는 제스처 인식 방법 및 장치 |
CN111240485A (zh) * | 2020-01-14 | 2020-06-05 | 浙江大学宁波理工学院 | 基于Kinect骨骼信息的篮球裁判手势识别的方法 |
CN111580660B (zh) * | 2020-05-09 | 2022-03-18 | 清华大学 | 一种操作触发方法、装置、设备及可读存储介质 |
CN111797777B (zh) * | 2020-07-07 | 2023-10-17 | 南京大学 | 基于时空语义特征的手语识别系统及方法 |
FR3112407B1 (fr) * | 2020-07-09 | 2023-11-03 | Ippon Innovation | Procédé statistique non supervisé de détection multivariée de courbes atypiques |
US11109099B1 (en) * | 2020-08-27 | 2021-08-31 | Disney Enterprises, Inc. | Techniques for streaming a media title based on user interactions with an internet of things device |
CN114515146B (zh) * | 2020-11-17 | 2024-03-22 | 北京机械设备研究所 | 基于电学测量的智能手势识别方法及系统 |
US11579704B2 (en) * | 2021-03-24 | 2023-02-14 | Meta Platforms Technologies, Llc | Systems and methods for adaptive input thresholding |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
CN113129340B (zh) * | 2021-06-15 | 2021-09-28 | 萱闱(北京)生物科技有限公司 | 操作设备的运动轨迹分析方法、装置、介质和计算设备 |
US20220404915A1 (en) * | 2021-06-16 | 2022-12-22 | Joshua D. Chapman | Human computer interface system that corrects for shaky input |
US11829531B2 (en) * | 2021-09-13 | 2023-11-28 | Htc Corporation | Human-computer interaction method and system and non-transitory computer readable storage medium |
CN114647362B (zh) * | 2022-03-22 | 2024-04-12 | 天马微电子股份有限公司 | 显示面板的触控算法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219703A (ja) * | 1994-02-03 | 1995-08-18 | Canon Inc | ジェスチャー入力方法及びその装置 |
JPH11136573A (ja) * | 1997-10-27 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 映像情報一斉付加方法およびその方法を記録した記録媒体 |
JP2000250945A (ja) * | 1999-02-26 | 2000-09-14 | Fuji Xerox Co Ltd | 手書きノート用インデックス発生方法、インクワードの等価クラス識別方法、コンピュータリーダブル媒体及びコンピュータ |
JP2004157994A (ja) * | 2002-10-07 | 2004-06-03 | Sony France Sa | 自由空間に作られるジェスチャを解析する方法及び装置 |
JP2004192150A (ja) * | 2002-12-09 | 2004-07-08 | National Institute Of Advanced Industrial & Technology | 画像認識装置、その特徴抽出方法、記録媒体およびプログラム |
WO2008069241A1 (ja) * | 2006-12-06 | 2008-06-12 | Alps Electric Co., Ltd. | モーションセンシングプログラム及びそれを備えた電子コンパス |
JP2009165826A (ja) * | 2008-01-11 | 2009-07-30 | Sony Computer Entertainment America Inc | ジェスチャカタログ生成および認識 |
JP2009531788A (ja) * | 2006-03-29 | 2009-09-03 | アマゾン・テクノロジーズ・インコーポレイテツド | レンダリングのためにトークンベースファイルへの文字列を含むディジタル画像の変換 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5288938A (en) * | 1990-12-05 | 1994-02-22 | Yamaha Corporation | Method and apparatus for controlling electronic tone generation in accordance with a detected type of performance gesture |
US5687254A (en) * | 1994-06-06 | 1997-11-11 | Xerox Corporation | Searching and Matching unrecognized handwriting |
GB2367660B (en) * | 2000-04-13 | 2004-01-14 | Ibm | Methods and apparatus for automatic page break detection |
WO2003001340A2 (en) | 2001-06-22 | 2003-01-03 | Motion Sense Corporation | Gesture recognition system and method |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US7292662B2 (en) * | 2003-03-26 | 2007-11-06 | Infineon Technologies Ag | Feed forward clock and data recovery unit |
US20040250218A1 (en) * | 2003-06-06 | 2004-12-09 | Microsoft Corporation | Empathetic human-machine interfaces |
FI117308B (fi) * | 2004-02-06 | 2006-08-31 | Nokia Corp | Eleohjausjärjestelmä |
GB2419433A (en) * | 2004-10-20 | 2006-04-26 | Glasgow School Of Art | Automated Gesture Recognition |
US20080174550A1 (en) * | 2005-02-24 | 2008-07-24 | Kari Laurila | Motion-Input Device For a Computing Terminal and Method of its Operation |
US8427426B2 (en) * | 2005-05-27 | 2013-04-23 | Sony Computer Entertainment Inc. | Remote input device |
DE102007016408A1 (de) * | 2007-03-26 | 2008-10-02 | Ident Technology Ag | Mobiles Kommunikationsgerät und Eingabeeinrichtung hierfür |
-
2009
- 2009-09-29 FR FR0956717A patent/FR2950713A1/fr not_active Withdrawn
-
2010
- 2010-09-29 JP JP2012531419A patent/JP6064280B2/ja not_active Expired - Fee Related
- 2010-09-29 EP EP10759660.3A patent/EP2483758B1/fr active Active
- 2010-09-29 US US13/499,175 patent/US20120323521A1/en not_active Abandoned
- 2010-09-29 CN CN201080053760.9A patent/CN102640085B/zh not_active Expired - Fee Related
- 2010-09-29 WO PCT/EP2010/064501 patent/WO2011039283A1/fr active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219703A (ja) * | 1994-02-03 | 1995-08-18 | Canon Inc | ジェスチャー入力方法及びその装置 |
JPH11136573A (ja) * | 1997-10-27 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 映像情報一斉付加方法およびその方法を記録した記録媒体 |
JP2000250945A (ja) * | 1999-02-26 | 2000-09-14 | Fuji Xerox Co Ltd | 手書きノート用インデックス発生方法、インクワードの等価クラス識別方法、コンピュータリーダブル媒体及びコンピュータ |
JP2004157994A (ja) * | 2002-10-07 | 2004-06-03 | Sony France Sa | 自由空間に作られるジェスチャを解析する方法及び装置 |
JP2004192150A (ja) * | 2002-12-09 | 2004-07-08 | National Institute Of Advanced Industrial & Technology | 画像認識装置、その特徴抽出方法、記録媒体およびプログラム |
JP2009531788A (ja) * | 2006-03-29 | 2009-09-03 | アマゾン・テクノロジーズ・インコーポレイテツド | レンダリングのためにトークンベースファイルへの文字列を含むディジタル画像の変換 |
WO2008069241A1 (ja) * | 2006-12-06 | 2008-06-12 | Alps Electric Co., Ltd. | モーションセンシングプログラム及びそれを備えた電子コンパス |
JP2009165826A (ja) * | 2008-01-11 | 2009-07-30 | Sony Computer Entertainment America Inc | ジェスチャカタログ生成および認識 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014238695A (ja) * | 2013-06-07 | 2014-12-18 | セイコーエプソン株式会社 | 電子機器及びタップ操作検出方法 |
JP2014238696A (ja) * | 2013-06-07 | 2014-12-18 | セイコーエプソン株式会社 | 電子機器及びタップ操作検出方法 |
KR102057705B1 (ko) * | 2018-01-31 | 2019-12-19 | 계명대학교 산학협력단 | 동작 인식을 위한 지능형 장치 및 그 제어 방법 |
JP2022522402A (ja) * | 2019-02-28 | 2022-04-19 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 |
JP7312838B2 (ja) | 2019-02-28 | 2023-07-21 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | ジェスチャの分類および加えられた力の推定のための教師なし機械学習のための方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
US20120323521A1 (en) | 2012-12-20 |
JP6064280B2 (ja) | 2017-01-25 |
EP2483758B1 (fr) | 2019-06-26 |
FR2950713A1 (fr) | 2011-04-01 |
EP2483758A1 (fr) | 2012-08-08 |
CN102640085B (zh) | 2016-07-13 |
CN102640085A (zh) | 2012-08-15 |
WO2011039283A1 (fr) | 2011-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6064280B2 (ja) | ジェスチャを認識するためのシステムおよび方法 | |
CN105184325B (zh) | 一种移动智能终端 | |
Webber et al. | Human activity recognition with accelerometer and gyroscope: A data fusion approach | |
Yang et al. | Unlocking smart phone through handwaving biometrics | |
CN104731307B (zh) | 一种体感动作识别方法及人机交互装置 | |
KR101872907B1 (ko) | 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법 | |
CN108196668B (zh) | 一种便携式手势识别系统及方法 | |
Cao et al. | A fall detection method based on acceleration data and hidden Markov model | |
CN114167984A (zh) | 设备控制方法、装置、存储介质及电子设备 | |
Zhang et al. | Handwritten character recognition using orientation quantization based on 3D accelerometer | |
WO2018036023A1 (zh) | 智能手表的文本输入方法及装置 | |
Zhang et al. | Fine-grained and real-time gesture recognition by using IMU sensors | |
Iyer et al. | Generalized hand gesture recognition for wearable devices in IoT: Application and implementation challenges | |
US10578640B2 (en) | Determination of a mobility context for a user carrying a device fitted with inertial sensors | |
CN110929766B (zh) | 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 | |
CN111803902B (zh) | 泳姿识别方法、装置、可穿戴设备及存储介质 | |
WO2018014432A1 (zh) | 语音应用触发控制方法、装置及终端 | |
Li et al. | Interpreting sign components from accelerometer and sEMG data for automatic sign language recognition | |
Kao et al. | Design and implementation of interaction system between humanoid robot and human hand gesture | |
Tao et al. | Research on communication APP for deaf and mute people based on face emotion recognition technology | |
Rao et al. | Low cost hand gesture learning and recognition system based on hidden markov model | |
Song et al. | Magic Wand: Towards Plug-and-Play Gesture Recognition on Smartwatch | |
Zhang et al. | Stacked LSTM-Based Dynamic Hand Gesture Recognition with Six-Axis Motion Sensors | |
Pan et al. | Human Falling Recognition Based on Movement Energy Expenditure Feature | |
KR102471623B1 (ko) | 복수의 센서를 이용한 호흡 신호 측정 방법 및 이를 실행하는 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140527 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141024 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150331 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150617 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150813 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160202 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160406 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6064280 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |