JP6159260B2 - ジェスチャ認識システム - Google Patents

ジェスチャ認識システム Download PDF

Info

Publication number
JP6159260B2
JP6159260B2 JP2013554024A JP2013554024A JP6159260B2 JP 6159260 B2 JP6159260 B2 JP 6159260B2 JP 2013554024 A JP2013554024 A JP 2013554024A JP 2013554024 A JP2013554024 A JP 2013554024A JP 6159260 B2 JP6159260 B2 JP 6159260B2
Authority
JP
Japan
Prior art keywords
gesture
skin
electrode
body part
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013554024A
Other languages
English (en)
Other versions
JP2014505955A (ja
JP2014505955A5 (ja
Inventor
ディミトリ ヴィクトロヴィチ アレクセイ
ディミトリ ヴィクトロヴィチ アレクセイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45607798&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6159260(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2014505955A publication Critical patent/JP2014505955A/ja
Publication of JP2014505955A5 publication Critical patent/JP2014505955A5/ja
Application granted granted Critical
Publication of JP6159260B2 publication Critical patent/JP6159260B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ユーザのジェスチャを検出するジェスチャ検出装置及び方法、すなわち、ジェスチャが推測されることができるデータを収集する手段に関する。更に、本発明は、ユーザのジェスチャを認識するジェスチャ認識システム及び方法、すなわち、データを収集し、ジェスチャについて評価する手段に関する。
US2002/0075232A1において、ユーザによりなされたジェスチャの認識に対するシステムが記載され、前記システムは、伝導性ゴム層の電気抵抗が測定される手袋を有する。手袋の伸縮が、検出され、ユーザによりなされた手のジェスチャについて評価されることができる。
この背景の観点から、本発明の目的は、ユーザにより着用されるハードウェアの少しの努力でジェスチャを信頼できるように検出及び認識する手段を提供することである。
この目的は、請求項1に記載のジェスチャ検出装置、請求項2に記載の方法、請求項8に記載のジェスチャ認識システム、請求項9に記載の方法、及び請求項14に記載のコンピュータプログラムにより達成される。好適な実施例は、従属請求項において開示される。
第1の態様によると、本発明は、ユーザのジェスチャを検出するジェスチャ検出装置に関する。本発明に関連して、用語"ジェスチャ"は、広い意味で理解されるべきであり、生体がとることができるいかなる構成又は姿勢をも有する。特に、ジェスチャは、人体が自発的にとることができ、何らかの情報、例えばコマンドに対するシンボルを表す姿勢を有するべきである。本発明によるジェスチャ検出装置は、前記装置の前記ユーザの皮膚の電気特性を測定する少なくとも1つの電極を有する。実際に、2以上の電極が、典型的には、皮膚の所望の電気特性を測定するのに使用される。
第2の態様によると、本発明は、ユーザのジェスチャを検出する方法に関し、前記方法は、前記ユーザの皮膚の電気特性の測定を有する。前記方法は、一般的な形式において、前述のジェスチャ検出装置により実行されることができるプロシージャを有する。前記ジェスチャ検出装置に対してなされた見解、説明及び定義は、したがって、前記方法に対して類似的に適用され、逆も同様である。
前記ジェスチャ検出装置及び前記方法は、ユーザによりなされたジェスチャを検出するために、すなわちジェスチャが推測されることができるデータを提供するために、皮膚の電気特性の測定を利用する。このアプローチは、データ収集に対してハードウェア努力をほとんど必要としないという利点を持つ。必要とされるのは、前記ユーザの皮膚に接触する1つの(又は複数の)電極である。更に、異なるジェスチャは、常に前記ジェスチャを行う体部位を覆う皮膚に対して何らかの効果を生じ、これらの効果は、通常、皮膚の電気特性の変化を有するので、前記アプローチは、非常に高感度であり、信頼できる。前記変化は、典型的には、局所的であるので、前記電極は、好ましくは、関心のジェスチャにより最も影響を受ける皮膚の領域(例えば最大に伸縮される領域)に取り付けられる。
以下に、上で規定された前記ジェスチャ検出装置及び前記方法の両方に関する本発明の様々な実施例が、記載される。
測定される前記皮膚の電気特性は、一般に、異なるジェスチャにより影響を受けるいかなる特性又は値であってもよい。好ましくは、これは、受動的電気特性、すなわち前記ユーザの体により又は体内で電圧の能動的な発生を有さない特性である。受動的電気特性は、例えば、前記皮膚の容量、及び最も好適なオプションである前記皮膚の電気伝導度を有する。電気伝導度(又は、同等に、電気インピーダンス)は、容易に測定されることができる特性であり、同時に、前記特性は、ジェスチャが通常は前記皮膚の異なる領域の伸縮を伴い、前記皮膚の局所伝導度に影響を与えるので、異なるジェスチャに対して高感度である。
前記皮膚の測定された電気特性は、前述の電気特性の1つの変化、特に前記皮膚の電気伝導度の変化を更に有することができる。前記皮膚の電気特性は、通常は、ジェスチャの他に様々な影響に依存するので、このような特性の特定の値は、しばしば、対応するジェスチャを曖昧でなく決定することを可能にしない。例えば、前記皮膚の電気伝導度が人の感情状態により影響を受けることは周知である。この理由で、電気特性の変化は、しばしば、ジェスチャのより信頼できるインジケータを提供する。電気特性の変化は、特にジェスチャがとられる又は止められる場合に、すなわちあるジェスチャから他のジェスチャへの遷移中に、生じることができる。このようなジェスチャ間の遷移中に、前記皮膚の電気特性に対する他の影響(例えば感情的状態)は、通常は、一定のままである。前記電気特性の変化は、したがって、高い信頼性で、前記ジェスチャの変化に起因することができる。電気特性の"変化"が、変化率(すなわち速度)を表す単一の値及び前記特性の"軌道"を表す複数の値を有することができる。
ジェスチャが、(人間又は動物の)体がとることができるいかなる構成又は姿勢をも有することができると、既に述べられた。多くの実際的な重要な場合に、手が、情報を伝達するのに人間の(発話の次に)最も自然かつ多用途の"道具"であるので、ジェスチャは、手の姿勢を有する。
電気的皮膚特性を測定する前記少なくとも1つの電極は、好ましくは、ユーザの手又は手首に取り付けられる。これは、手の姿勢の前述の好適な検出を可能にする。
本発明の他の好適な実施例において、1つ又は複数の電極は、皮膚に取り付けられる及び/又は体の一部(例えば手首)の周りに巻きつけられることができる可撓性のキャリア、例えば織物マット上に配置される。このように、通常は小さい電極の付着は、より快適にされることができる。更に、前記キャリアは、特に複数の電極間の相互距離について、電極の適切な配置を保証するのを助ける。
前記ジェスチャ検出装置は、典型的には、全てが詳細に述べられるわけではないアシスタントコンポーネント、例えば(測定)データを他の装置に送信する通信装置又は電源(バッテリ)を更に有する。
第3の態様によると、本発明は、以下の2つの主要なコンポーネント、すなわち、
−上に記載された種類のジェスチャ検出装置、すなわちユーザの皮膚の電気特性を測定する少なくとも1つの電極を持つ装置と、
−前述のジェスチャ検出装置により提供された測定データからジェスチャを認識するデータ処理装置と、
を有するジェスチャ認識システムに関する。前記データ処理装置は、例えば、マイクロプロセッサ又はFPGAを有することができる。
第4の態様によると、本発明は、ユーザのジェスチャを認識する方法に関し、前記方法は、前記ユーザの皮膚のでき特性の測定データからのジェスチャの認識を有する。
本発明の第3及び第4の態様による前記ジェスチャ認識システム及び前記方法は、ジェスチャの認識、すなわち、これらのデータに対して可能なジェスチャのセットから1つのジェスチャを割り当てる目的での測定データの評価又は解釈に関する。前記データ処理装置を用いて、前記ジェスチャ認識システムは、このような評価を自動的に行うことを可能にするコンポーネントを有する。この自動認識プロシージャの結果は、他のコンポーネントにより、例えばVCR又はCD/DVDプレイヤ等のようなCE装置を制御するのに、使用されることができる。
本発明の第3及び第4の態様による前記ジェスチャ認識システム及び前記方法が、皮膚の電気特性の測定を使用する限り、前記ジェスチャ検出装置及び関連した方法に対して上で行われた見解、説明及び定義は、適用される。更に、前記システム及び前記方法は、以下に記載される特定の実施例で実現されることができる。
1つの特定の実施例によると、複数の時間的に連続した測定データは、ジェスチャを認識するように評価される。前記測定データは、1つのジェスチャ又は複数の連続したジェスチャに属しうる。このアプローチは、(一般に生物学的パラメータに関する)電気的皮膚特性に対して特徴的である測定データの高い変動性に取り組む方法を提供する。前記アプローチは、単一の測定値が、しばしば、何らかのジェスチャに対する信頼できる関連付けを可能にしないことを考慮に入れる。この理由で、(最初は未知である)ジェスチャに属する複数の測定データが、収集され、これらのデータは、典型的には、前記電気特性の変動性によって拡散される。データの全体的なセットは、しかしながら、典型的には、特定のジェスチャにより信頼できるように関連付けられた特徴的範囲又は間隔にわたり分散される。したがって、ある期間、例えば数秒に対する電気特性の測定は、一般にジェスチャ認識の精度を増すのを助けることができる。
関連する実施例によると、ジェスチャは、ジェスチャ間の遷移中に得られた測定データから認識される。既に上で説明されたように、電気特性の変化を測定することは、しばしば、関連付けられたジェスチャを、より信頼できる形で推測するのに使用されることができる。これは、前記変化がジェスチャ間の遷移による場合に特に真である。
前記ジェスチャ認識システムの特定の実施例において、前記ジェスチャ検出装置及び前記データ処理装置は、無線通信リンクを介して(機能的に)結合された物理的に分離したコンポーネントである。ユーザにより運ばれなければならない前記ジェスチャ検出装置は、可能な限り軽く作成されることができるのに対し、ジェスチャ認識及びデータ評価に対する必要な計算パワーは、(固定)データ処理装置内に収容されることができる。
前記ジェスチャ認識システムの他の実施例によると、前記ジェスチャ検出装置及び前記データ処理装置は、一体化された装置を構成する。このアプローチの利点は、最小量のデータ、特に認識されたジェスチャのみが外に通信されなければならないことである。
本発明の第4の態様による前記認識方法は、典型的には、計算装置の助けで、例えば前記ジェスチャ検出装置の前記データ処理装置で、実現される。結果的に、本発明は、計算装置上で実行される場合に本発明によるいずれかの方法の機能を提供するコンピュータプログラムを含む。
更に、本発明は、機械可読形式で前記コンピュータプログラムを記憶し、前記データキャリア上に記憶された前記プログラムが計算装置上で実行される場合に本発明の方法の少なくとも1つを実行するデータキャリア、例えばフロッピーディスク、ハードディスク、EPROM又はコンパクトディスク(CD−ROM)を含む。前記データキャリアは、以前の段落において述べられた前記計算装置の前記プログラムを記憶するのに特に適していることができる。
近年、このようなソフトウェアは、しばしば、ダウンロード用にインターネット又は企業イントラネット上で提供され、したがって、本発明は、本発明によるコンピュータプログラムをローカル又はワイドエリアネットワーク上で送信することをも含む。
本発明のこれら及び他の態様は、以下に記載される実施例を参照して説明され、明らかになる。これらの実施例は、添付の図面の助けで、例として記載される。
図の同様の参照番号は、同一又は同様のコンポーネントを指す。
ユーザの手に取り付けられたジェスチャ検出装置の上面図(左)及び底面図(右)を示す。 認識されることができる手の異なるジェスチャを示す。 2つの別個の装置により実現されるジェスチャ認識システムのコンポーネントを概略的に示す。 一体化された装置により実現されるジェスチャ認識システムのコンポーネントを概略的に示す。
ユーザと被制御装置との間のジェスチャベースのインタラクションは、古典的なボタン又はマウスの使用に取って代わることができる前途有望な新しいインタフェース設計と見なされる。しかしながら、現在、(タッチスクリーン"2D"ジェスチャを除いて)このアプローチの商業的応用は少ししか存在しない。これは、ジェスチャのロバストかつ単純な認識が難しいという事実による。
ジェスチャ認識に対する多くのアプローチは、重大な不利点、例えば特定の(高価かつ不便な)スーツ又は手袋を着用する必要性を持つ。ビデオベースのジェスチャ認識は、通常、ユーザが追加の装置を着用又は保持することを要求しないが、複数の他の不利点を持つ。例えば、前記ユーザの手は、常にカメラに見える必要があり、これは、特定の事情(例えば自転車に乗っている、外を歩いている等)においてこのアプローチを完全に使用不可能にする。更に、ロバスト性は、照明及びコントラストに非常に依存し、これは、環境又は一日の時間に劇的に依存する。
この観点から、ジェスチャ検出及び認識に対する新しいアプローチが、ここで提案される。このアプローチの本質的フィーチャは、皮膚及び身体伝導度並びに/又は姿勢若しくはジェスチャを認識するための時間の変化の使用である。
図1は、前述の一般的な原理によって異なる手のジェスチャを検出するジェスチャ検出装置110を概略的に示す。ジェスチャ検出装置110は、4つの電極120A、120B、120C及び120Dが固定の場所において一体化されている第1の可撓性キャリア又はパッチ111を有する。第1の可撓性パッチ111は、図1の左側部分に示されるようにユーザの手1の上側に取り付けられる。
加えて、ジェスチャ検出装置110は、単一の電極120Eを持つ第2の可撓性パッチ112を有し、前記パッチ112は、図1の右側部分に示されるように手のひら/手首に取り付けられる(図1が同じ手1の上面図及び底面図を示すことに注意すべきである)。
提案された方法の基本原理は、ユーザの皮膚上に配置された2つの点(コネクタ)の間の伝導度(又は抵抗)の測定である。ジェスチャ検出装置110を用いて、例えば、いずれか2つの電極の間の伝導度(例えば電極120Aと120Bとの間の伝導度SAB)が測定されることができる。前記ユーザが手の姿勢を変化させると、例えば皮膚が二点間で伸びるため前記伝導度も変化する。異なるジェスチャは、前記伝導度に異なる効果を持ち、異なるジェスチャのいくつかの例が図2に示される。
図3は、本発明によるジェスチャ認識システム100を概略的に示す。ジェスチャ認識システム100は、2つの主要なコンポーネント、すなわち、1.ジェスチャ認識に対して必要とされる生データを提供するジェスチャ検出装置110と、2.ジェスチャ検出装置110により提供された測定データを評価するようにプログラムされたデータ処理装置150(又は"認識エンジン")とを有する。
ジェスチャ検出装置110は、例えば図1の電極120A−120Eを持つ弾性パッチ111及び112により実現される、伝導度測定ユニットを有する。更に、これは、前記伝導度測定ユニットにより提供された測定データをデータ処理装置150に通信する無線通信ユニット120(図1に示されない)を有する。更に、バッテリが、前記通信ユニットに電力を供給し、伝導度を測定するのに必要とされる。
データ処理装置150の結果に基づいて、様々なコンポーネント及び/又はプロセスが、他のモジュール160において制御されることができる。これらのモジュール160及びデータ処理装置150は、例えば、媒体層170に属することができる。
図4は、データ処理装置150'がジェスチャ検出装置110'と一体化される、変更されたジェスチャ認識システム100'を示す。無線通信ユニット120は、認識プロセスの結果を被制御装置170に通信するのに使用されることができる。
図4の実施例において、前記ユーザにより着用される前記装置は、何らかの処理パワーを必要とする。しかしながら、生データが送信される必要が無いので、データ転送は、大幅に低減される。
本発明の上の実施例は、様々な形に変更されることができる。例えば、伝導度は、二点間でのみ測定される場合、多くのジェスチャは、伝導度に対して同じ又は非常に小さい効果のみを持つので、認識されることができるジェスチャのセットは、かなり限定される。2つの測定点(電極)の適切な場所も、認識可能な手の姿勢のセットに影響を与える。この理由で、伝導度が、2より多い点の間で測定されることは、好ましい。
皮膚の伝導度は、多くの要因により影響を受け、したがって、即時の伝導度を測定することは、通常、(たとえ較正の直後だとしても)ジェスチャの良好な推定を与えない。代わりに、短い時間期間にわたる値の範囲が、測定されることができる。この値の"ストリング"は、ジェスチャを認識するのに使用されることができる。フラットタッチパネル上の2次元ジェスチャを認識するのに使用される技術が、このような値のストリングを認識するのに使用されることができる。例えば、SVM(サポートベクターマシン)法は、このために使用されることができる。この方法に関する細部は、文献(例えばCorinna Cortes and V. Vapnik, "Support-Vector Networks", Machine Learning, 20, 1995)に見つけられることができる。
更に、伝導度の変化が、決定されることができる。この変化は、あるジェスチャから他のジェスチャへの遷移(例えば拳から開いた手のひらへの遷移)中、又はジェスチャが既に行われている場合のいずれかに測定されることができる。
図1は、可撓性の薄い装置110が(医療パッチと同様に)単純に皮膚に"くっつけられる"実施例を示す。手における付着に依存して、手首の周りに巻きつけられるリストバンドの形式で作られた"リストバンドユーザインタフェース"設計が、代わりに好適でありうる。
要約すると、本発明は、ジェスチャベースのインタラクションをサポートする控えめな方法を開示する。前記方法は、例えば指及び手の姿勢(例えば拳、開いた手のひら、OK等)を識別することを可能にする。これは前記ユーザの身体上の少数のスポットにおいて皮膚及び身体の伝導度を測定することに基づく。皮膚及び身体の伝導度の差に基づいて、特定の姿勢が一意的に識別されることができる。
本発明の本質的なフィーチャは、前記方法の拡張性であり、すなわち所要の精度及び所要のジェスチャのセットに基づいて、伝導度が測定される所要の接点の場所及び数が、推定されることができる。最も単純な場合に、2つの接点のみが要求される。したがって、軽量民生用アプリケーションに対して、無線通信を備えた単純な平らなパッチのような装置が、作成されることができる。
本発明によるユーザインタフェースは、例えば、CL装置(タッチレスインタラクションから利益を得るキッチン器具、mp3プレイヤのような携帯型装置等)及びヘルスケア装置等を含む異なる器具及びシステムとの単純な楽なジェスチャインタラクションをサポートするのに使用されることができる。
最終的に、本出願において、用語"有する"が他の要素又はステップを除外せず、不定冠詞"1つの"が複数を除外せず、単一のプロセッサ又は他のユニットが複数の手段の機能を満たしてもよいことが指摘される。本発明は、あらゆる新規な特徴的フィーチャ及び特徴的フィーチャのあらゆる組み合わせにある。更に、請求項内の参照符号は、その範囲を限定すると解釈されるべきではない。

Claims (6)

  1. ユーザの身体部分のジェスチャを検出するジェスチャ認識システムであって、当該システムは、
    前記身体部分における皮膚の第1領域と電気的に接続される第1電極、及び、前記身体部分における皮膚の、前記第1領域と異なる第2領域と、電気的に接続される第2電極を有し、
    前記ジェスチャの検出が、前記第1電極と前記第2電極との間の電気伝導度測定することを含み、前記ジェスチャが、前記身体部分の前記皮膚の特定の領域の伸び又は前記身体部分の前記皮膚の他の特定の領域の縮みを含み、
    前記電気伝導度が前記伸び又は前記縮みに依存する、
    ジェスチャ認識システム。
  2. 前記ジェスチャの検出が、ある期間にわたる前記電気伝導度の変化の検出を含む、請求項1に記載のジェスチャ認識システム。
  3. 前記第1電極及び前記第2電極は前記システムの使用中に可撓性キャリアによって前記皮膚に取り付けられる、請求項1又は請求項2に記載のジェスチャ認識システム。
  4. ユーザの身体部分のジェスチャを検出するための方法であって、当該方法は、前記身体部分における皮膚の第1領域と電気的に接続される第1電極、及び、前記身体部分における皮膚の、前記第1領域と異なる第2領域と、電気的に接続される第2電極を使用し、
    前記ジェスチャの検出が、前記第1電極と前記第2電極との間の電気伝導度測定することを含み、前記ジェスチャが、前記身体部分の前記皮膚の特定の領域の伸び又は前記身体部分の前記皮膚の他の特定の領域の縮みを含み、
    前記電気伝導度が前記伸び又は前記縮みに依存する、
    方法。
  5. 前記ジェスチャの検出が、ある期間にわたる前記電気伝導度の変化の検出を含む、請求項4に記載の方法。
  6. 前記第1電極及び前記第2電極は前記システムの使用中に可撓性キャリアによって前記皮膚に取り付けられる、請求項4又は請求項5に記載の方法。
JP2013554024A 2011-02-21 2012-02-06 ジェスチャ認識システム Expired - Fee Related JP6159260B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11155199 2011-02-21
EP11155199.0 2011-02-21
PCT/IB2012/050523 WO2012114216A1 (en) 2011-02-21 2012-02-06 Gesture recognition system

Publications (3)

Publication Number Publication Date
JP2014505955A JP2014505955A (ja) 2014-03-06
JP2014505955A5 JP2014505955A5 (ja) 2015-03-26
JP6159260B2 true JP6159260B2 (ja) 2017-07-05

Family

ID=45607798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013554024A Expired - Fee Related JP6159260B2 (ja) 2011-02-21 2012-02-06 ジェスチャ認識システム

Country Status (7)

Country Link
US (1) US9261967B2 (ja)
EP (1) EP2678757B1 (ja)
JP (1) JP6159260B2 (ja)
CN (1) CN103370674B (ja)
BR (1) BR112013020998A2 (ja)
RU (1) RU2605357C2 (ja)
WO (1) WO2012114216A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103340633B (zh) * 2013-07-26 2015-06-10 中山大学 一种基于生物电阻抗的睡眠姿势识别方法
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
KR20150065336A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
DE102014204889A1 (de) * 2014-03-17 2015-09-17 Zumtobel Lighting Gmbh System zum Ansteuern von Verbrauchern einer Haushaltsleittechnik mittels Muskelimpulsen wenigstens eines Benutzers und entsprechendes Verfahren
US9740396B1 (en) * 2014-06-25 2017-08-22 Amazon Technologies, Inc. Adaptive gesture recognition
US20160085311A1 (en) * 2014-09-24 2016-03-24 Sony Corporation Control unit and method of interacting with a graphical user interface
CN104318248B (zh) * 2014-10-21 2018-04-06 北京智谷睿拓技术服务有限公司 动作识别方法及动作识别装置
US9886084B2 (en) * 2014-11-11 2018-02-06 Intel Corporation User input via elastic deformation of a material
JP6558717B2 (ja) * 2015-03-12 2019-08-14 株式会社ニコン 入力機器、入力方法及びコンピュータプログラム
US11589814B2 (en) 2015-06-26 2023-02-28 Carnegie Mellon University System for wearable, low-cost electrical impedance tomography for non-invasive gesture recognition
JP6170973B2 (ja) * 2015-09-29 2017-07-26 レノボ・シンガポール・プライベート・リミテッド 携帯情報端末、情報処理方法、及び、プログラム
WO2017058700A1 (en) * 2015-09-30 2017-04-06 3M Innovative Properties Company System and method for optimizing body and object interactions
US10324494B2 (en) * 2015-11-25 2019-06-18 Intel Corporation Apparatus for detecting electromagnetic field change in response to gesture
WO2018011720A1 (en) * 2016-07-13 2018-01-18 Ramot At Tel Aviv University Ltd. Novel biosignal acquisition method and algorithms for wearable devices
US11844602B2 (en) 2018-03-05 2023-12-19 The Medical Research Infrastructure And Health Services Fund Of The Tel Aviv Medical Center Impedance-enriched electrophysiological measurements
CN109009718A (zh) * 2018-08-10 2018-12-18 中国科学院合肥物质科学研究院 一种基于电阻抗技术结合手势控制轮椅的方法
JP2019185821A (ja) * 2019-07-19 2019-10-24 株式会社ニコン 入力機器、入力方法及びコンピュータプログラム
CN114515146B (zh) * 2020-11-17 2024-03-22 北京机械设备研究所 基于电学测量的智能手势识别方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2310377A (en) 1996-02-24 1997-08-27 Philips Electronics Nv Processing device for monitoring psychological condition
US20020075232A1 (en) 1997-08-15 2002-06-20 Wolfgang Daum Data glove
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6415176B1 (en) 1999-10-18 2002-07-02 Massachusetts Institute Of Technology Sensing and display of skin conductivity
US6720984B1 (en) 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
US20080072691A1 (en) * 2004-06-10 2008-03-27 Koninklijke Philips Electronics, N.V. Method and System for Generating Control Signals for Controlling a Controllable Device
JP2006133932A (ja) * 2004-11-04 2006-05-25 Citizen Watch Co Ltd 入力装置
US8280503B2 (en) 2008-10-27 2012-10-02 Michael Linderman EMG measured during controlled hand movement for biometric analysis, medical diagnosis and related analysis
US8280169B2 (en) 2005-12-21 2012-10-02 Michael Linderman Recordation of handwriting and hand movement using electromyography
TWI311067B (en) 2005-12-27 2009-06-21 Ind Tech Res Inst Method and apparatus of interactive gaming with emotion perception ability
WO2008032661A1 (fr) * 2006-09-12 2008-03-20 National Institute Of Advanced Industrial Science And Technology Procédé de mesure de valeur de distribution et système de mesure utilisant un capteur de valeur de distribution pour celui-ci
KR100793079B1 (ko) 2006-12-08 2008-01-10 한국전자통신연구원 손목착용형 사용자 명령 입력 장치 및 그 방법
RU80036U1 (ru) * 2008-06-24 2009-01-20 Александр Петрович Алексеев Манипулятор для ввода информации
US8170656B2 (en) * 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
JP5375828B2 (ja) * 2008-08-29 2013-12-25 日本電気株式会社 位置情報入力装置および位置情報入力方法
US8378967B2 (en) * 2009-02-27 2013-02-19 Denso Corporation Wearable electrical apparatus

Also Published As

Publication number Publication date
RU2013143019A (ru) 2015-03-27
BR112013020998A2 (pt) 2019-02-26
CN103370674B (zh) 2017-09-12
EP2678757A1 (en) 2014-01-01
JP2014505955A (ja) 2014-03-06
US20130321009A1 (en) 2013-12-05
EP2678757B1 (en) 2017-08-16
RU2605357C2 (ru) 2016-12-20
WO2012114216A1 (en) 2012-08-30
CN103370674A (zh) 2013-10-23
US9261967B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
JP6159260B2 (ja) ジェスチャ認識システム
US10970936B2 (en) Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11301048B2 (en) Wearable device for detecting light reflected from a user
EP3843617B1 (en) Camera-guided interpretation of neuromuscular signals
McIntosh et al. EMPress: Practical hand gesture classification with wrist-mounted EMG and pressure sensing
Zhang et al. Static and dynamic human arm/hand gesture capturing and recognition via multiinformation fusion of flexible strain sensors
US11016569B2 (en) Wearable device and method for providing feedback of wearable device
Sato et al. Touché: enhancing touch interaction on humans, screens, liquids, and everyday objects
US10905374B2 (en) Method and wearable device for performing actions using body sensor array
CN108268131A (zh) 用于手势辨识的控制器及其手势辨识的方法
JP2011516915A (ja) モーションコンテンツベースの学習装置及び方法
US20220155866A1 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
US20220253146A1 (en) Combine Inputs from Different Devices to Control a Computing Device
US20200209963A1 (en) Control device and control method for robot arm
JP2017073076A (ja) 行動判定装置及び行動判定方法
JP7297268B2 (ja) センサ
Dinesh et al. Monitoring and Feedback System in Smart Chair to Prevent Thoracic Kyphosis Disease
CN110393532A (zh) 动作检测方法、装置、电子穿戴设备和存储介质

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161017

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20161209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170609

R150 Certificate of patent or registration of utility model

Ref document number: 6159260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees