JP4430368B2 - 自由空間に作られるジェスチャを解析する方法及び装置 - Google Patents

自由空間に作られるジェスチャを解析する方法及び装置 Download PDF

Info

Publication number
JP4430368B2
JP4430368B2 JP2003348730A JP2003348730A JP4430368B2 JP 4430368 B2 JP4430368 B2 JP 4430368B2 JP 2003348730 A JP2003348730 A JP 2003348730A JP 2003348730 A JP2003348730 A JP 2003348730A JP 4430368 B2 JP4430368 B2 JP 4430368B2
Authority
JP
Japan
Prior art keywords
gesture
signature
signal
command
sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003348730A
Other languages
English (en)
Other versions
JP2004157994A (ja
Inventor
タナカ、アトー
フィストゥル、ジュリアン
Original Assignee
ソニー フランス エスアー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー フランス エスアー filed Critical ソニー フランス エスアー
Publication of JP2004157994A publication Critical patent/JP2004157994A/ja
Application granted granted Critical
Publication of JP4430368B2 publication Critical patent/JP4430368B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、利用できる情報が自由空間に作られたジェスチャから得られるジェスチャ解析の技術分野に関する。
例えば、ジェスチャ解析は、ジェスチャ認識であり、所謂ジェスチャ判別によるメディアプレーヤ又は他の機器へのリアルタイム(実時間)コマンド(命令)入力を行う時に実行される。この解析は、ジェスチャを伴う人体(ボディ)により作られる信号から特定のジェスチャのサインを得ることを必要とする。この信号は、典型的には、筋電図描画(ElectroMyoGraphic:以下、EMGと略す場合がある)信号であり、ジェスチャを作り出す筋肉領域における皮膚の表面において検出される。
更に、一般的な分野に於ける人体運動解析にあっては、初期の研究の大部分は、医療用アプリケーションであり、特に整形外科及び人工補綴制御等で行われていた。これらにあっては、この種の解析は管理された環境において明確に定めた運動をする患者に対して行われる。特に、これらの運動は人体の固定基準部分から解析される。例えば、前腕の運動は、一般に肘又は肩を、例えば台を使用して基準点に静止させて行われる。このように制約された状態では、運動解析は自由空間で作られるジェスチャとは言えない。これに対して、ジェスチャにおいては、人体及び肢の絶対基準又は基点を必要とすることなく自由運動が許される。
最近、特に制御装置又は人体の運動にフィードバックを与えるため、自由空間において作られるジェスチャから利用可能な情報を引き出すことが可能なマン−マシンインタフェース技術に対する要求が高まっている。例えば、このようなマン−マシンインタフェースは、音楽/ビデオ(メディア)プレーヤ機能、ビデオゲーム、シミュレータ、パーソナルコンピュータ、家電機器等への操作命令を出すアプリケーションがあり、また音楽及びその他の芸術的表現の作成にも使用可能であるが、本発明はこれらに何ら限定されるものではない。
このような状況において、自由空間におけるジェスチャから有用な情報を抽出することは、人体の一部が固定基準点に身体的又は物理的に制約された状況では問題とされなかった技術的な挑戦を必要とする。特に、センサ出力における生データ信号から受け入れ可能な信頼性及び速度で適切なサインを作り、その作られたサインから対応するジェスチャを判別するには、何か有効なアルゴリズムが必要である。
特に、このアルゴリズムでは2つの動作モードで動作する。その1つは、学習又は訓練モードであり、選択された1セットのジェスチャと、対応する生データ信号から抽出されたその最終情報との相関を確立する。今1つは、認識モードであり、学習モードで取得した相関を利用して、その対応するジェスチャからコマンドのような特定の最終情報を判別することである。
3次元空間における腕の動きを解析する既知の技術の一例は、Proceeding of the IEEE Conference on Multimedia and Exposition, 2000に出版されたO. A. Alsayeghによる「EMGに基づくヒューマン−マシンインタフェースシステム」と題する論文に開示されている。このアプローチでは、EMG電極が肩及び腕の関節に配置され、それらの出力信号は前処理段階で周波数フィルタリングされる。次に、それらの包絡線を抽出する。ローカル(部分)及びグローバル(全体)の最大値及び最小値(極値)を代表する制御点を包絡線から抽出する。最後に、一時的なサインを、記録された極値の時間ベースで作り、対応するジェスチャを判別する。更に詳しくいえば、前処理されたEMG信号は、包絡線の2つの連続する極値間の各時間間隔の時間積分である。次に、対象物のそれぞれ異なる筋肉に対応する3つの相互に直交する軸により定義される特徴空間にプロットを行う。これらの筋肉の各々について、包絡線信号の特定の時間積分を対応する軸にプロットする。それぞれの特定のジェスチャに対して、連続するプロット点は、その空間における楕円形を形成し、これがジェスチャのサインを構成する。次に、これらの楕円形は、将来のジェスチャの基準として作用する。研究の結果、上述する方法により12の異なる腕のジェスチャが認識可能であることが判明した。
しかしながら、上述した従来技術では、ジェスチャを高速及び正確に認識することが困難であるという課題があった。
そこで、本発明は、一層明確なジェスチャ認識が可能なジェスチャ認識方法及び装置を提供することを目的とする。すなわち、本発明は、異なるアプローチを意図するものであり、これに限定するものではないが、原理的には高速且つ正確なジェスチャ認識を実現するとともに、主に手の動きを含む如く、余り明確でないジェスチャでも使用可能にする。本発明による技術は、ジェスチャを作り出す対象及びインタフェースされる電子機器間の高度に応答性が優れ且つ直感的な相互作用を得ることができ、民生分野、業務分野及び研究分野へのアプリケーションに効果的に使用可能である。
特に、第1の発明のジェスチャのサイン抽出方法は、ジェスチャを作り出す筋肉運動を表す少なくとも1つの時間進展信号を得て、該時間進展信号により得られる少なくとも1つのパラメータ値を決定することにより、自由空間で作られたジェスチャのサインを抽出するジェスチャのサイン抽出方法であって、前記時間進展信号を複数のサブフレームに分割するステップと、いくつかのサブフレームに対して、定められたサブフレームの少なくとも一部に亘る前記時間進展信号により得られる少なくとも1つのパラメータ値を決定するステップと、前記パラメータ値を前記定められたサブフレームに特に割り当てた次元に沿うベクトルの成分として表現するステップとを有し、その結果得られるベクトルが、そのジェスチャのサインを形成し、更に、ジェスチャ判別モードを設け、学習モードで取得した前もって学習したジェスチャのセットの中から解析されたジェスチャを判別し、各学習したジェスチャはサインベクトルとして表現され、判別中のジェスチャの判別の決定は、判別中のジェスチャがまだ能動的な前記時間進展信号として生じている間に行われることを特徴とする。
付随的な特徴は、以下のとおりである。すなわち、パラメータ値を決定しそれをベクトルの成分として表現するステップは、時間進展信号が進行中にひき続くサブフレームを占有するまで繰り返し実行され、その結果得られるサインを形成するベクトルが時間進展信号の進行中に増加する次元数を獲得するようにする。
学習した各ジェスチャは、その学習したサインが取得され、決定されたサブフレーム数に対応する決定された次元数を有することができ、判別の決定は、その決定されたサブフレーム数に関し、判別中のジェスチャの時間進展信号によりカバーされる、より少ないサブフレーム数に基づいて行われる。
更にこの方法は、学習される所定クラスのジェスチャに対して次のステップからなるジェスチャ学習モードにより構成される。すなわち、反復的にそのジェスチャを作りそのサインを取得することにより、そのクラスのジェスチャの1セットのサインを取得し、そのセットのサインを蓄積し、及びその学習したクラスのジェスチャ、更にオプションでそのクラスのジェスチャに関連するコマンドに対応するそのセットのサインに関する対応を蓄積する。
更にその方法は、判別中のジェスチャが現に作られているジェスチャ判別モードを備え、それは現在判別中のジェスチャの少なくとも部分サインベクトルを生成するステップ、この部分サインベクトルは現在利用可能な数のパラメータ値に制限され、これにより学習したサインベクトルより少ない次元を有し、作られた少なくとも1つの部分サインベクトルに対し、多くの学習したサインのうちどのサインがその部分サインベクトルに最も適合するか決定するステップ、及びその決定ステップを使用して判別中のジェスチャのサインの決定を行うステップを備えている。
1つの変形例では、決定は、学習したサインを取得するのに使用された合計サブフレーム数よりも少ない制限された固定のサブフレーム数により定められる期間中に取得した部分サイン数に基づいて行うことができる。
他の変形例では、決定は、学習したサインの中でどのサインが最もその部分サインベクトルに適合するかを決定するステップの結果の関数で可変するサブフレーム数をカバーする期間に亘り取得した部分サイン数から行われる。
更に好ましくは、この方法は、時間進展信号により作られる包絡線により抽出するステップを備え、このパラメータ値は、その包絡線のパラメータ値である。例えば、このパラメータ値は、包絡線の信号レベル、包絡線のパワーレベル、包絡線のエネルギレベルの少なくとも1つの値であり、その値は、好ましくは検討中のサブフレームの期間中に亘り平均化される。
このジェスチャ判別モードにおける各サブフレームの期間は、好ましくは学習モードにおける対応するサブフレームの期間と等しくされ、また、サブフレームは、実質的に均一な期間とすることができる。更にこの方法は、時間進展信号の振幅における閾値のクロシング(交差)を検出してジェスチャの開始を監視するステップを備え、最初のサブフレームの開始その閾値のクロシング時間と一致させる。
この時間進展信号は、複数のセンサの1つからの筋電図描画(EMG)信号であり、各センサの出力信号は、独立チャネルとして処理される。時間進展信号は、下肢、好ましくは前腕及び更に好ましくは前腕の頂部近傍に取り付けられた少なくとも1個のセンサから取得し、肢、好ましくは手首、手又は指の末端の動きを含むジェスチャを表す信号を生成する。
時間進展信号は、相反する筋肉位置におけるセンサから取得することが可能である。この方法は、機器にコマンド(命令)を与えるために応用でき、少なくとも1つのサインが特定のコマンドに対応する。ジェスチャは、機器に対して、例えばplay(再生)、skip(飛ばし)、pause(一時停止)等の動作状態にさせる、選択されたトリガコマンドに対応させることができる。少なくとも1つのサインは、指差し動作、手のひらを開く動作、手首の回転、手を握る動作、手首を内側に曲げる動作、手首を外側に曲げる動作のジェスチャのうちの1つのジェスチャから抽出することが可能である。
この方法は、例えば「play:再生」を命令するための指差し動作、例えば「stop:停止」を命令するための手のひらを開く、例えば「fast forward:早送り」、「rewind:巻き戻し」又は「song seek/fast play:曲検索/高速再生」を命令するための手首の回転、例えば「pause/mute:一時停止/消音」のための手のひらの閉じ、例えば「next track:次トラック」又は「step volume up:ボリューム(音量)のステップ状アップ」のための手首の(内側への)曲げ及び「previous track:前トラック」又は「step volume down:ボリューム(音量)のステップダウン」のための手首の外側への曲げの一連のコマンドジェスチャから取った少なくとも1つのコマンドによるメディアプレーヤのコマンド(命令)に使用可能である。
更に、この方法は、ジェスチャを作り出すために含まれる筋肉運動を表す信号から実質的に連続した可変のコマンド出力を発生するステップを備えることが可能である。この実質的に連続して変化するコマンド出力は、ジェスチャの作成に含まれる筋肉運動を表す信号の自然振動の関数及び/又はその信号の包絡線の関数として変化するようにすることも可能である。更にこの実質的に連続して変化するコマンド出力は、ジェスチャ判別により作られたコマンドと独立にすることが可能である。この実質的に連続して変化するコマンドパラメータは、ジェスチャ判別により作られたコマンドに関連する量を制御するようにすることが可能である。
実質的に連続して変化するコマンド出力が抽出される信号及びサインが取得される信号は、例えばそれぞれの腕の如く相互に異なる筋肉領域(部位)から源を発することが可能である。この実質的に連続して変化するコマンド出力が抽出される信号及びサインが取得される信号は、例えば同じ腕の如く共通の筋肉領域から源を発することが可能である。
第2の発明のジェスチャのサイン取得装置は、ジェスチャの作成に関与する筋肉運動を表す少なくとも1つの時間進展信号を抽出し、該時間進展信号により生み出される少なくとも1つのパラメータを決定することにより、自由空間で作られるジェスチャのサインを得るジェスチャのサイン取得装置において、前記時間進展信号を複数のサブフレームに時間分割する手段と、定められたサブフレームの一部に亘る前記時間進展信号により生み出される少なくとも1つのパラメータ値を決定する手段と、前記定められたサブフレームに特に割り当てられた次元に沿うベクトル成分として当該パラメータ値を表す手段とを備え、その結果得られるベクトルは、前記ジェスチャのサインを形成し、更に、ジェスチャ判別モードを設け、学習モードで取得した前もって学習したジェスチャのセットの中から解析されたジェスチャを判別し、各学習したジェスチャはサインベクトルとして表現され、判別中のジェスチャの判別の決定は、判別中のジェスチャがまだ能動的な前記時間進展信号として生じている間に行われることを特徴とする。
本発明の他の実施例によると、本発明は上述した実施例による方法を実行する装置に関する。本発明の更に他の実施例によると、本発明は上述した実施例による装置に関し、人が装着可能な(ウェアラブル)ユニットに収められ、更に抽出されたコマンド入力をコマンド実行装置に送る手段を備えている。
本発明の更に他の実施例によると、本発明は、ユーザのコマンドに応答する装着可能な装置に関し、上述した実施例における何れかによる装置を備えることを特徴とする。本発明の更に他の実施例によると、本発明は、上述した実施例の何れかによる装置に関し、ユーザのコマンド入力を装置に送ることを特徴とする。
第3の発明のコンピュータプログラムは、デジタルコンピュータのメモリ内にローディングされるコンピュータプログラムにおいて、そのコンピュータプログラムがコンピュータ上で走らされるとき、請求項1乃至25のいずれか1項に記載のステップを前記コンピュータに実行させる。
本発明によれば、高速且つ正確なジェスチャ認識を実現するとともに、主に手の動きを含む如く、余り明確でないジェスチャでも使用可能にする。更に本発明による技術は、ジェスチャを作り出す対象及びインタフェースされる電子機器間の高度に応答性が優れ且つ直感的な相互作用を得ることができ、民生用分野、業務用分野及び研究分野へのアプリケーションに効果的に使用可能である。
以下、本発明による自由空間に作られるジェスチャを解析する方法及び装置の実施例の構成及び動作を、添付図面を参照して詳細に説明する。図1を参照すると、対象物(サブジェクト)1は、本発明により解析されるジェスチャを作り出すものである。このジェスチャは、腕(アーム)の前腕1a、手首1b及び手1cのレベルにおける運動が関与する。この例において、ジェスチャは、手首1bを実質的に曲げることなく手1cを開いており、ある定められたコマンドを表す。このジェスチャを作り出す全体の筋肉運動は、前腕1aの上部近傍に配置された2個1セットの筋電図描画(EMG)センサ2a、2bにより検出される。典型的には、これらのセンサ2a、2bは、例えばセンサ取付アームバンド4の内側の適切な位置に配置させることにより、その領域の相反する筋肉からの信号を検出するように構成されている。それ以外の数のセンサを使用することも可能である。
ここで、運動は自由空間で行われ、したがって腕又は人体(身体)の絶対基準位置はなく、同じジェスチャを、例えば顔の前であっても作ることができることに注目されたい。
各センサ2a、2bから取得したデータは、デジタル化され且つフォーマット化されて、例えばブルートゥース「Bluetooth」の如き無線転送プロトコルによりデータ取得インタフェース6へ送られ、ここで生の信号が抽出され前処理される。次に、この信号は、ジェスチャ解析ユニット8に供給され、ここで現在作られているジェスチャとそれが表すコマンドとの間の相関が確立される。この相関の結果は、コマンド(命令)発生/フォーマット化ユニット10へ送られ、ここでそのコマンドをそれが意図する、例えばメディアプレーヤ等の被制御装置12により利用可能な形態にする。
ジェスチャ解析ユニット8により実行される一方のセンサ(例えばセンサ2b)からの信号に対する基本な解析を図2に示す。同じ解析は、他のセンサ(例えばセンサ2a)からの信号に対しても並行して実行されることが理解されよう。これらのセンサ2a、2bからの前処理された生信号は、データ取得インタフェース6による前処理に供され、前処理されたEMG信号(以下、EMG信号という)14としてジェスチャ解析ユニット8へ送られる。このEMG信号14は、一般に時間進展信号(time-evolving signal)と呼ばれるものの例をなす。
ジェスチャ解析ユニット8において、EMG信号14のレベルは絶えず監視され、そのレベルが所定の第1の閾値Sthreshを超えると、直ちに信号解析プログラムをトリガする。特に、その閾値Sthreshと交差(クロス)すると、時間t0からスタートする時間カウントが開始される。この時間t0は、時間窓又はフレームFの開始を規定する。
EMG信号14の包絡線16は、当業者が周知の標準的な信号フィルタ技術を使用して抽出される。この包絡線16は、時間変動信号(典型的には電圧)であり、これは通常のEMG信号14の振動の周期よりも十分に長い時間スケールでのEMG信号14の変調又は変動を表す。この包絡線16のカーブ(曲線)は、一般に図示の如くEMG信号14又はその二乗の通常の山(ピーク)及び谷値を有する。このEMG信号14は、最初に整流してもよい。
時間t0からスタートして進展するフレームFは、連続するサブフレームSF1〜SF8に分割される。隣接するサブフレームの境界における時間t0〜t8は、予め設定される。一例として、各サブフレームSF1〜SF8は、同じ時間幅Dを有するが、この幅Dは異なるサブフレームに対して一様である必要はない。この幅Dは、ジェスチャの事前解析により実験的に固定され、少なくとも選択された最小数のサブフレームが包絡線16の存在中に作られるように選択される。このサブフレームは、包絡線の1セットのパラメータ値中に包絡線のサインが得られるようにし、各値は、その対応するサブフレームSF1〜SF8中に包絡線の特徴部を反映する。特に、各値は、ベクトル空間である特徴空間18の各直交次元に沿う大きさを表す。サインは、典型的には全ての直交次元の値が0である点である特徴空間の基点に対するベクトル量で表される。したがって、古典的な数学ルールによると、サインのサインベクトル空間は、n個1セットの直交単位ベクトルSiで定義される(ここで、iは、1〜nの全ての値である)。これにより、サインベクトルは、点S(Psf1・s1,Psf2・s2,Psf3・s3,・・・,Psfn・sn)で表示される。ここで、各係数Psfiは、パラメータ値と等しいスカラー係数(特別の単位)であり、サブフレームSFiに亘る包絡線の部分に決定される。
ユークリッド空間において、基点からのサインベクトルの大きさ|S|は、単に次式で表される。
|S|=[(Psw1)2+(Psw2)2+(Psw3)2,・・・,+(Pswn)2]1/2
この例において、検討されるパラメータPiは、対応するサブフレームSFiを占有する部分の包絡線16の時間平均化された信号レベル(電圧)である。この包絡線信号の平均化は、種々の異なる方法で行うことが可能であり、例えば、検討中のサブフレームに亘る1セットのサンプルされた信号値の平均化(最も簡単なフォームでは、サブフレームの初期及び最終信号値の単なる平均値を取る)、又は進展する信号の時間積分をサブフレームに亘り行い且つその幅Dで割る。
本発明の変形例では、包絡線信号のレベルの代わりに、パラメータは、例えば次の1つ又は組合せであってもよい。すなわち、
−検討するサブフレームに亘る包絡線16の平均パワー(この場合の包絡線16は、生信号レベルを、好ましくは整流し二乗して得る)
−包絡線16のエネルギ
−信号レベル、パワー又はエネルギの変化率
−その他
同様に、パラメータの時間平均化は、次の数学的特性により置換可能である。例えば、
−サブフレーム内の最小値又は最大値
−サブフレーム内の所定セットのサンプル値の中間値
−その他
包絡線16は、そのパラメータ値を決定するEMG信号14の好適形態をなすが、包絡線16に頼ることなく、EMG信号14のパラメータを検討する変形例を考慮することも可能であり、このパラメータは、この場合にはEMC信号14から直接得る。また、このパラメータは、上述したパラメータの何れか、又はEMG信号14の周波数特性、例えばサブフレーム中の平均時間、その他であってもよい。
サインは、包絡線16が時間的に進展し、順次のサブフレームを占有するに連れて、リアルタイム、すなわち進行形で取得される。したがって、包絡線16がサブフレームSF1(時間t1)を超えて時間的に進展するや否や、時間平均化された包絡線16の信号レベルPsf1は、そのサブフレームSF1で決定され(特別単位で)、そしてサインベクトルSの第1の直交次元に特別割り当てられたメモリ部に蓄積される。この手順は、サイクル状に反復され、各反復はサインベクトルSの次の直交成分値を取得することとなる。
サインベクトルSは、それぞれ多次元の特徴空間(これは現実のn次元を有する)18を形成する直交軸APsf1、APsf2、APsf3の直交成分の最初の3つを図的に表す。この目的で、各軸APsfiは、決定されたパラメータの特別単位で進められる。この表現において、成分APsfiの大きさは、その大きさが決定されるや否や対応する軸APsfiに沿ってプロットされ、特に成分APsfiの各大きさは、その直交軸APsfiに沿ってプロットされるとき、その表現中に示される。
その特徴空間表現におけるサインベクトルSは、基点に対する単一のマッピングされた点の位置として表される。この特徴空間表現におけるこの点は、ベクトル成分Psf1の第1の大きさPsf1が決定されるや否や存在し始め、その点はリアルタイムで進展し、更に多くの値Psfiが利用可能になるに連れて、特徴空間18の次元数が順次増加する。
ベクトル成分の大きさが利用可能になるとき、インクレメント状に包絡線のサインベクトルSを取得する上述したアプローチは、ジェスチャをリアルタイムで判別するのに有効である。もし必要であれば、包絡線のサインを完全に明示する完全なnベクトル成分のサブセット(部分集合)のみで、すなわち詳細を後述する如く、全ての可能な時間サブフレームを検討する前にジェスチャを得ることを可能にする。
複数のセンサ2a、2bからの信号を並列に管理するとき、上述したサインベクトル取得手順は、対応する抽出された各包絡線のマルチチャネル解析を単に合成する。特に、例えば2センサシステムでは、各3個のセンサ2a、2bからのEMG信号14は、それぞれ各2包絡線に同じであるサブフレームSF1〜SF8に分割される対応する包絡線を生じる。
そして、この各3個の2センサは、同時にサブフレームSFi毎に2つのパラメータ値Paswi、Pbswiを生じ、各々サインベクトルSの対応する直交成分の大きさとなる。一般的に、nサブフレーム及びjセンサチャネルの完全なサインは、n*j直交成分を有し、すなわち、特徴空間表現にn*j次元を占有し、そして一度にj直交ベクトルのセットが取得される。したがって、2センサの完全なサインは、S(Pasf1,Pbsf1,Pasf2,Pbsf2,Pasf3,Pbsf3,・・・,Pasfn,Pbsfn)により与えられ、ここで、各P値は、サインベクトル空間の対応する単位ベクトル(ここでは、簡単のために示さない)の係数(決定されたパラメータ値)である。換言すると、サインベクトルSは、対応する次元に対してインデックスされたP係数値として蓄積される。
次に、このサイン形成技術を、例えば1セットの学習したジェスチャクラスから解析中のジェスチャのクラスを認識するためのジェスチャ判別アプリケーションに、どのように使用するかについて説明する。このアプリケーションは、学習モード(又は訓練モードとも呼ばれる)と判別モードよりなる。ここで、「クラス」の用語は、ジェスチャのタイプを判別するために使用され、ここで使用される約束では、考慮するジェスチャの各特別タイプ(例えば、指差し、手首の回転等)に、それぞれの指定クラスGxが割り当てられる。ここで、サフィックスxは、ジェスチャのユニークな識別子である。この手順は、時間幅D及びサブフレームSFが、実験的に予め決定されている段階からスタートする。これらのファクタは、完全なフレームFの長さに対応して検討され、それ自身は開始閾値Sthresh及び包絡線レベルが所定レベルから低下することに対応する終了閾値Tthreshの表現で決定される。
学習モードでは、包絡線は予め定められたサブフレームSF1〜SF8の全てについて解析され、その後に参照するための最も完全なフォームを取得する。学習モードは、管理されるタイプであり、入力として供給されるそのクラス及び、更にもし必要であれば、このジェスチャのクラスに関連する特定コマンドとの相関においてジェスチャが学習される。
学習モードのために可能なプロトコルは、図3のフローチャートにより与えられる。このプロトコルは、学習されるジェスチャのクラスである指定Gkの選択(ステップA2)及びもし必要ならば、選択されたジェスチャのクラスに関連するコマンドCk(ステップA4)で始まる。これらが管理された学習パラメータをなす。次に、センサ取付アームバンド4が装着された対象に対応するクラスのジェスチャを行わせる(ステップA6)。そして、そのジェスチャの2n次元のサインを決定する(ステップA8)。この例における2n次元は、各2センサ2a、2bに対しnサブフレームSF1〜SFnに亘り開発される。ステップA6、A8を、指定回数y実行され(ステップA10)、そしてこのように習得したy個のサインS1、S2、S3、・・・、Syがメモリに蓄積される(ステップA12)。実際問題として、蓄積される量は、各ジェスチャについて上述の如く取得されたパラメータ値である。図3は、蓄積された1つのサインSIのサイン内容(コンテンツ)を示し、これらは2n個の値S(Pasf1,Pbsf1,Pasf2,Pbsf2,Pasf3,Pbsf3,・・・,Pasfn、Pbsfn)により構成される。
更に、メモリは、サインのセットS1、S2、S3、・・・、Sy及び、i)ジェスチャの選択されたクラスGk及び、ii)選択されたコマンドCk間の対応を蓄積する(ステップA12)。この結果として生じる対応は、メモリ蓄積ボックスMS内に示されるようにメモリ内に蓄積される。
換言すると、メモリは、サインベクトルS1〜Sy、ジェスチャGx及び命令Cxを連結するインデックスされた対応表(テーブル)を含んでいる。ジェスチャ判別がコマンドの目的で使用されないアプリケーションにあっては、上述したコマンドCxとの対応は、単に無視可能である。
上述の手順は、学習される各新たなジェスチャのクラスについて同様に実行される。したがって、m個の異なるジェスチャのクラスを学習する一般的な場合には、各クラスを同じ数yで反復されるジェスチャがサンプルされると仮定して、合計m*yの蓄積されたサインとなる。これらは、まとめられて学習された集成を形成し、各々特定ジェスチャ及びアプリケーションが必要とする場合には特定コマンドに相関する対応表を有する。
ジェスチャの各クラスGxに対して、y個のサインベクトルは、個人差のために同一ではないが、ベクトル値はある共通範囲内に入る。特徴空間表現において、この共通範囲は、学習されたジェスチャGxに対してプロットされたy個のポイント(点)のクラスタに対応することとなろう。1つのクラスタの学習されたサイン点は、好ましくは最小の可能な変動を示すべきである。
学習フェーズでは、m個の上述した範囲は良好に分離され、又は等価的に特徴空間におけるm個の対応するクラスタが良好に分離され、各学習したジェスチャが明確に区別可能にする。一旦必要とするジェスチャ数が上述の如く学習されると、ジェスチャ判別モードが開始できる。このジェスチャ判定モードにおいて、作られたジェスチャ(以下、「候補」ジェスチャ、又は判別中のジェスチャという)Gcは、解析されてクラスGを決定する。一旦判別されると、ジェスチャは、対応するコマンドCを送るため、フィードバックを発生するため又はその他の目的に使用される。
ジェスチャ判別モードは、学習モードと同じパラメータ設定における候補ジェスチャのサインベクトルScの抽出よりなる。特に、学習モードで用いられたサブフレームのタイミング及び時間幅Dは、ジェスチャ判別モードのために保持される。しかし、後述の如く、サブフレームの幾つかのみが一般的に検討され、判別は候補ジェスチャのサインの部分フォームに基づく。
次に、典型的には最近傍解析(nearest neighbor analysis)である比較技術をその部分サインScに適用し、学習した集成のサイン中で最も近い一致を決定する。次に、候補ジェスチャGcは、学習した集成における一致サインの1つと同じクラスのジェスチャに源を発するとされる。
本発明の実施例によるジェスチャ判別ルーチンの中核アスペクトを、1つのセンサチャネルに対し、図4のフローチャートに示す。そして、同じ手順が全てのアクティブセンサに並列に適用される。
この手順は、開始閾値Sthreshを交差することにより判別されたジェスチャGcの開始を検出することによりスタートする(ステップA14)。包絡線パラメータの決定に必要なデータは、利用のために連続ベースでサンプル及び累積され(ステップA16)、更にi番目のサブフレームSFiに関連する変数インデックスiを1に設定する(ステップA18)。現在のサブフレームSFiが終了する瞬間が検出され(ステップA20)、そのサブフレームSFiの包絡線部のパラメータ値Psfiが決定される(ステップA22)。この値は、サインベクトルScに関連する単位ベクトルの係数である(ステップA24)。次に、最近傍解析を実行し、候補サインベクトルの最新フォーム間のベクトル分離を学習した集成のサインベクトルと比較する。部分的に占有された次元、すなわち最初のiベクトル成分に対し解析を行うことに注目されたい。マルチチャネルの場合には、ステップA24における他のセンサからの成分を、ステップA26で実行される最近傍解析に組み込む。最近傍解析において、学習された集成のサインは、標準技術を使用して、解析される現在のサインScと同じ番号の次元を有するフォームに利用される。
学習された集成における判別された最近傍に関連するジェスチャのクラスが、後に参照するために記録される(ステップA28)。次に、手順をステップA20にループバックして、次のサブフレームに対して上述した動作を反復する。ステップA14〜A24も実行され、学習モードにおけるサインベクトルを取得し、この場合にはこれらのステップに続いて図3の、例えばステップA10等が行われる。
強制的に、候補サインGcと学習された集成の最も近いサイン間のベクトル空間におけるユークリッド距離が予め決められた制限値δを超えてはならないようにしてもよい。これにより、さもなければ許容できない判別誤差率を生じ得るスプリアス又は不十分に判別されるジェスチャを取り除くようにする。
この例において、最近傍解析(ステップA26)における最善の一致確認が、ルーチンにより得られる。すなわち、候補サインベクトルGc及び学習された集成の各サインベクトル間の分離を計算し、次にこの分離が最小となる学習された集成のサインベクトルを選択する。
ステップA28の反復により、幾つかの最近傍を判別した後、決定アルゴリズムが働くようにする(ステップA30)。その目的は、ステップA28の反復により決定されたそれぞれの最近傍値内で学習された集成の最も近傍する1つを選択することによる決定を行うことであるが、これらは同じである必要はない。そのアルゴリズムが一度選択を行うと、その選択された最近傍サインに帰するジェスチャのクラスは、対応表への適切な入力から回収され、候補サインベクトルに割り当てられる(ステップA32)。
好ましい実施例では、候補サインを判別するサーチは、進行形、すなわち図4の右の時間スケールから分かるように、リアルタイムで行われることに注目されたい。ここで、最近傍解析(ステップA28)の結果は、実質的に対応するサブフレームが終わると直ちに得られる。小さい遅延時間εは、ステップA20〜A28の実行時間に対応する。換言すると、この手順は、最近傍解析又は等価マッチング技法を行う前に候補サインベクトルの完全なセットのベクトル成分を得るまで待つ必要はない。これは、典型的な実用状態で、最初のサブフレームはジェスチャのクラスを識別するため十分に信頼できる判別を提供することは困難であるが、候補ジェスチャの包絡線が終了閾値Tthreshに到達する十分前にクラスが判別できる場合が多いという、出願人の観測に従っている。
1つの形態では、これは、候補ジェスチャの包絡線の進展をカバーするn個のサブフレーム間の制限されたセットのサブフレームに基づいて判別の決定を前もって確立することにより実現される。例えば、最初のサブフレームSF1からスタートする最初の連続するr個のサブフレームから取ったパラメータ値に基づいて決定を行う必要を強制する。ここで、r<nである。この形態の実行は、図5に例示されるが、このケースではr=4サブフレームである。
最初のサブフレームSF1のパラメータが取得されるや否や、対応する部分サインベクトルSが最初の次元に対して確立される。この値は、上述の如く対応する次元に対し、学習された集成のサインベクトルと比較(最近傍解析ステップA26)が行われる。この早期の比較結果は、最も近いマッチングのため対応するジェスチャとして記録される。次のサブフレームSF2のパラメータ値が取得されると、直ちに上述の動作が反復される。この場合には、対応する部分サインベクトルは、第1及び第2の直交次元の両方に確立される。第2の比較結果は、同様に記録される。
このように、この手順がサブフレームSFrまでの各サブフレームに対して継続される。そして、毎回の判別のために提出されるサインベクトルは、既に取得済みの成分と組み立てられ、現在取得された成分により補足される。
r個の全てのサブフレームSF1〜SFrのプロセス(処理)が完了すると、r個のセットの判別結果が得られ、これから最終決定が行われる(決定アルゴリズムのステップA30)。この決定は、異なる決定アルゴリズム及び統計技術により行うことが可能である。また、順次得られる結果は、より多くのパラメータ値を含むことにより一層信頼性が高くなるという事実に基づいて、重み付け係数を適用可能である。
上述は、判別決定プロセス発生の終りが、時間的に制限された(少なくとも最初の出力決定が出力される、利用されるデータ取得は、時間trに終わる)一例である。その効果の1つは、時点t0からスタートする既知及び一定期間の後に出力される決定を得ることが保証されることである。
他のアプローチによると、判別の決定時点は、時間的に可変し、その時点は現在処分される結果との一貫性により決定される。この実行形態(フォーム)は、図6に示されている。ここで、この手順は、連続するサブフレームに対するサインベクトル成分の確立及び毎回ジェスチャ判別を得る点に関して上述と同様である。しかし、この場合には、順次取得した判別結果は、順次比較される。予め確立された規則に従って、処分される結果が圧倒的に特定の1つのジェスチャクラスであると一旦決定されると、そのジェスチャクラスの候補ジェスチャを判別する決定が行われる。そこで、この決定は、可変数のサブフレーム処理の終りに、利用のために出力され、その数は、累積された判別結果の一貫性に依存する。サインベクトルへの入力の進展は、図6中に矢印SAで示される。この矢印は、サブフレームの通過と時間的に対応して進むので、最近傍解析ステップA26及び決定アルゴリズムA30には、この決定アルゴリズムが判別の決定する時間までに、対応する時間フレームからより多くのベクトル成分が入力できる。このアプローチの効果は、当初一貫性に欠けると思われる信号に、より多くのサンプリングサブフレームを与えることにより、均一な高い判別の信頼性を保証することである。
両方のアプローチにおいて、更なるサブフレームからのベクトル成分が、最近傍解析に提供でき、例えば先に出力された誤った決定を訂正する可能性を提供する。これら全てのアプローチにおいて、人に対して視覚又は聴覚によるプロンプト(注意)を送り、もし得られた結果が、r個のサブフレームの終り(時間制限による変形の場合)又は完全なフレームFの終り(決定出力の可変時間による変形の場合)に満足できる結果を生じないとき、例えばもし余りにも多くの結果が強制限界δの外となるとき、そのジェスチャを反復させるようにする。
このように学習された集成のクラスで満足する相関が見つかると直ちに判別された候補ジェスチャの決定を行う可能性は、判別速度に大きく貢献し、人に対して高い応答性及び直感的なジェスチャインタフェースの印象を与える。本発明によるジェスチャ判別は、手及び手首のレベルで表現されるジェスチャの判別に特に適している。
例えば、図7A、7B((a)〜(f))は、それぞれ上述したジェスチャ判別技法を使用して高い信頼性でジェスチャのセットの1つの判別及び識別を示し、これにより例えばパーソナル又はコンポーネントシステムオーディオCD(コンパクトディスク)又はカセットプレーヤ、ビデオテープレコーダ(VTR)、PCミュージックプレーヤ等のメディアプレーヤにコマンドを与える。
図7A、7Bに示す例において、特定のコンパクトディスクプレーヤに関連する各ジェスチャは、次の如くコマンドを伝える。
a)指差し=>play:再生(図7A(a)参照)
b)手のひらを開く=>stop:停止(図7A(b)参照)
c)手首の回転(時計方向又は反時計方向)=>seek:検索−fast forward早送り/song search:曲検索(すなわち、CDの高速再生でトラックに沿って迅速に進む)(図7A(c)参照)
d)こぶし形成=>pause:一時停止又はmute:消音(図7B(d)参照)
e)手首の曲げ(手首の内側への曲げ)=>次のトラックへのジャンプ(図7B(e)参照)
f)手首を伸ばす(手首の外側への曲げ)=>前のトラックへのジャンプ(図7B(f)参照)
上述した6種類のジェスチャは、直感的表現、自由空間内での実行容易性及び上述したジェスチャ判別技法により他のジェスチャから良好に識別する能力に関し、特に賢明な選択であると本願の出願人により判明された。
図8は、本発明によるジェスチャからコマンドを発する完全なシステムの基本ユニットを示す簡略ブロック図である。図8において、センサ2a、2b及び2c(単に2個であってもよい)は、センサ取付アームバンド4内に配置され、このセンサ取付アームバンド4には、更に、生EMG信号を送信するブルートゥース(Bluetooth)無線インタフェースモジュール(アンテナ付き、以下、ブルートゥースインタフェースモジュールという)20、及びこのブルートゥースインタフェースモジュール20とセンサ2を駆動するバッテリ22が設けられている。これに代わって、センサ信号は、他の無線プロトコル又は有線リンクにより送信することも可能である。この例では、センサ取付アームバンド4は、ジェスチャ判別のために必要な全ての装着可能なハードウェアを含んでいる。したがって、ブルートゥースインタフェースモジュール20は、フォーマット化及び送信の前に生信号をデジタル化するアナログ/デジタル変換器をも組み込んでいる。変形例にあっては、センサ取付アームバンド4は、単にセンサ2a〜2cのみを含むように簡易化し、これらを別の装着可能な、例えばウエストパックの如きユニットに有線でリンクされる。このユニットは、装着可能なハードウェア用のバッテリ、センサ信号のアナログ/デジタル変換器及びブルートゥースプロトコルモジュールにより構成される。
受信側において、送信された生EMG信号は、ブルートゥースインタフェース24により検出され、これから生EMG信号はそれぞれ前処理を行うフィルタ26及び利得制御ユニット28へ送られる。ブルートゥースインタフェース24〜利得制御ユニット28は、図1に示すデータ取得インタフェース6に対応する。
前処理されたEMG信号14の包絡線16は、包絡線抽出ユニット30により抽出され、フレーム開始/終了検出ユニット32と平均信号レベル決定ユニット34の双方へ送られる。フレーム開始/終了検出ユニット32は、その中で包絡線16が利用される完全なフレームFを確立する作用を有する。すなわち、それぞれ開始閾値Sthresh及び終了閾値Tthreshの交差により決定されるフレームの開始及び終了時間である。
フレーム開始/終了検出ユニット32は、異なるサブフレームSF1、SF2を確立するサブフレーム管理ユニット36と協働する。このために、サブフレーム管理ユニット36は、プログラマブルであり、フレームの判別に最適である適切な(数及び時間幅において)サブフレームにスライス(分割)する。更に、このサブフレーム管理ユニット36は、信号を平均信号レベル決定ユニット34へ送り、検討する連続するサブフレームの時間境界t0、t1、t2、t3、・・・を示す。このようにして、平均信号レベル決定ユニット34は、供給される時間境界によるサブフレームの時間幅Dに対応する期間に亘り平均化された包絡線16の信号レベルを計算する。
毎回、サブフレームの平均信号値が取得され、リアルタイムのサインベクトル形成ユニット38に送られ、このサインベクトル形成ユニット38は、インクレメント状にサインScを発生する。このようにして取得したサインは、サインのライブラリを構成し、特に学習モードで学習された集成を形成するサイン蓄積ユニット40及び最近傍解析又はその等価解析を実行するサイン比較/判別ユニット42の双方に送られる。サイン比較/判別ユニット42は、リアルタイムでサイン蓄積ユニット40にアクセスし、現在のサイン及び蓄積されたサイン間における最近傍解析又はその他の等価な比較を行う。
サイン比較/判別ユニット42は、リアルタイムでこのように判別した最近傍するジェスチャの関連クラスを決定ユニット44に出力する。この決定ユニット44は、上述した決定アルゴリズムを実行し、その決定した選択、すなわちジェスチャの選択された判別クラスをコマンド発生/フォーマット化ユニット10に出力する。このコマンド発生/フォーマット化ユニット10は、被制御装置12、例えば図中のCDプレーヤにより認識可能な形態にコマンドをフォーマット化する。更に、このコマンド発生/フォーマット化ユニット10は、被制御装置12の通信ポート46とインタフェースする通信インタフェースを備える。このポートは、また例えばブルートゥースインタフェース、赤外線又は無線周波数ポート、又はコマンド発生/フォーマット化ユニット10に繋がる有線リンクであってもよい。
コマンド発生/フォーマット化ユニット10は、異なるコマンドフォーマット及び通信プロトコルを蓄積することができ、ジェスチャ装置の上流部であるデータ取得インタフェース6、ジェスチャ解析ユニット8を異なるタイプ及びモデルの被制御装置12に普遍的に適用可能にする。
装置全体の動作は、例えばパーソナルコンピュータ(PC)に見られるメモリ(記憶装置)、CPU(中央演算処理装置)及び必要なコントローラ、インタフェースボード等により構成される中央管理ユニット48により取り扱われる。ジェスチャ判別システム100の異なる動作パラメータは、例えば中央管理ユニット48へのデータ交換ポートを有するPCよりなるユーザコンフィギュレーションインタフェース50により構成可能である。
上述したセンサ2〜ユーザコンフィギュレーションインタフェース50により実行される異なる動作の少なくとも幾つかを実行するソフトウェアコードは、CD−ROM(読出し専用メモリ)等のソフトウェアコードキャリア52内に収められている。このソフトウェアコードキャリア52は、中央管理ユニット48の適切なリーダ(読出し装置)内に挿入可能であり、これにより実行可能なプログラムを含むそのソフトウェアコードがロードされ、上述の如きジェスチャ判別又はその実施例の一部を実行する。
生EMG信号又は筋肉運動を表すその他の信号は、上述したジェスチャ解析技法と別に又は一体に使用でき、図9の例に示す応答システムへのコマンド又は信号入力のより一層連続した形態を表現することが可能である。ここで、図9は、バイオ信号制御パーソナル音楽システム60のアーキテクチャを示す。このバイオ信号制御パーソナル音楽システム60は、ユーザバイオ信号(シグナル)コマンド発生器62と、音響効果処理機能を有するCDプレーヤ等の音楽プレーヤ(演奏器)64とにより構成される。
この例において、ユーザバイオ信号コマンド発生器62は、図1及び図8の装置、すなわち1セットのセンサ2a〜2c、センサ取付アームバンド(以下、第1のアームバンドという)4、データ取得インタフェース6、ジェスチャ解析ユニット8及びコマンド発生/フォーマット化ユニット10を組み込んでいる。これらのシステムコンポーネントであるセンサ2〜コマンド発生/フォーマット化10は、図1乃至図8を参照して上述した技法により、図7A、7Bのジェスチャのジェスチャ判別コマンドを実行するように構成される。これにより、ユーザは、対応するジェスチャ(それぞれ指差し、手を開く、手首の回転、手を閉じ、手首の曲げ、手首の伸ばし)を行うことにより、音楽プレーヤ64に(そのコマンド入力インタフェース66を介して)、必要なコマンド(play:再生、stop:停止、song search:曲検索、pause:一時停止、next track:次トラック、previous track:前トラック)を送る。次に、これらのコマンドは、通常の方法で、モータ駆動及び関連するサーボを含む音楽プレーヤの駆動機構68に作用する。
これと並行して、ユーザは、音楽「スカルプト」コマンド、すなわち音楽プレーヤ64により作られる音の特性に影響するコマンドを入力可能である。また、これらのスカルプトコマンドは、筋肉繊維のオリジン(発生源)から取られ、第1のアームバンド4に類似した第2のアームバンド4’に収容されている第2のセットのEMGセンサ2a’、2b’、2c’により検出される。典型的には、第1及び第2のアームバンド4、4’は、それぞれ例えば左前腕と右前腕である異なる前腕に装着される。
第2のセットのセンサ2a’〜2c’の出力は、第1のアームバンド4の場合と同様に、ブルートゥースプロトコルを使用してデータ取得インタフェース6の対応するチャネルに送られる。そのデータ取得インタフェース6において、これらの信号は前処理され、右腕に対応する適切にシェーピングされた生EMG右信号(以下、右腕EMG信号という)14’を得る。この右腕のEMG信号14’は、音楽スカルプトユニット70に直接送られるとともに、ジェスチャ解析ユニット8の包絡線抽出ユニット30に送られる。この目的で、包絡線抽出ユニット30には、付加チャネルが設けられ、それぞれのセンサの入力された右腕EMG信号14’のチャネルから、それぞれの包絡線(以下、右腕包絡線という)16’を抽出し、そしてこれらの右腕包絡線16’を音楽スカルプトユニット70の対応する入力に直接送る。
音楽スカルプトユニット70は、前処理された生右腕EM信号14’及びそれが受ける右腕包絡線16’の何れか一方又は両方から利用可能な特性を抽出する。例えば、これらの特性は、音楽スカルプトユニット70に供給される右腕EMG信号14’及び右腕包絡線16’の全て又は選択された1つの周波数、振幅、時間変動、エネルギ、パワー等であってもよい。これらの特性から、音楽スカルプトユニット70は、フィルタリング、リズムインポジション又は発生、ビート抽出(テンポの制御用)、及び残響、DJ(ディスクジョッキー)効果(スクラッチング、逆再生等)の特殊音楽効果等の対応するサウンド影響コマンドを作る。次に、これらサウンド影響コマンドをフォーマット化し、このコマンドをコマンド入力インタフェース66に送り、そしてこれらは音楽プレーヤ64のサウンド処理ユニット72に入力される。コマンド発生/フォーマット化ユニット10及び音楽スカルプトユニット70からのコマンドは、ブルートゥース無線プロトコル、赤外線又は無線周波数リンク又は有線リンクを介して音楽プレーヤ64のコマンド入力インタフェース66に送られる。
サウンド処理ユニット72は、受け取ったサウンド影響コマンドを実行して必要なスカルプトを生成する。これにより得られるサウンドは、再生されるCD(又はその他のメディア)に記録されたサウンドよりなり、このようにして生成したスカルプトは増幅器74を介してスピーカ76及び/又はヘッドホン出力78に送られる。
以上のコマンドは、第2のアームバンド4’の信号から抽出された実質的に連続して変化するコマンドの出力の例であり、これらのコマンドは、第1のアームバンド4の信号から抽出され、ジェスチャ判別によって生成されたコマンドとは無関係である。しかしながら、他の実施例及びアプリケーションでは、連続的に変化するコマンドパラメータは、これに代わって、ジェスチャ判別により作られる付随するコマンドに直接関係するように行うことができる。これは、例えば以下のa)及びb)の如く異なる方法で実現可能である。
a)例えば図9に示す構成の右前腕と左前腕からの分離した筋肉領域を使用する。一例として、判別されたコマンドジェスチャは、指差しであり、「play:再生」モードを命令すると認識され、連続的に変化する量の別のジェスチャは、再生モードの音量レベルを設定するか、又はどのくらい離れたトラックから再生を開始するかを設定する。表示ベースのアプリケーションでは、同様のアプローチで、指差しによりバックライトのスイッチオンを指定し、連続的に制御される量のジェスチャとして、バックライトの強度レベルを設定する。他の例として、ジェスチャ解析によりテープの早送り又は巻き戻しを命令し、これとは別になされる連続して制御されるコマンドジェスチャにより可変速度が決定される。及び/又は、
b)実質的に同じ筋肉領域を使用し、同じジェスチャが判別されたコマンド及びそのコマンドに関連する実質的に連続して変化する量を表す信号を生成する。一例として、先に述べた例の指差しジェスチャは、再生モードの設定及び再生レベル又は再生開始位置の決定の両方を行うことが可能である。ここで、再生レベルは、ジェスチャの強さ(速度、勢い、テンション又は大きさ)により決定され、これはセンサ信号及びその包絡線から直接検出される。この合成されたジェスチャのアプローチにおいて、同じセンサをコマンド及びそれに関連する実質的に変化する量の両方に使用され、この場合には、EMG信号14、14’及び包絡線16、16’は1つ且つ同じものになる。
連続的に変化するコマンド出力を作るセンサのEMG信号14’及び/又はその包絡線16’の解析は、単に強度値又は対応するジェスチャの全体又は部分の期間のサインを得るパラメータに使用されるパラメータの如きその他のパラメータを得る必要があるのみである。
本発明は、アプリケーション、ソフトウェア及びハードウェアの実現、センサ技術、センサ位置、解析されるジェスチャ、作られるコマンド又はフィードバック等に関して、種々の形態で実行可能であることが明白である。
更に、ジェスチャ判別及びコマンド実行機能(すなわち、センサ2〜被制御装置12)の完全なハードウェアは、(必要に応じて適切なデータ伝送リンクを使用して)装着可能な形態で実現することができる。コマンドを受ける被制御装置は、例えば身体に装着可能なコンピュータ、パーソナルデジタルアシスタント(PDA)、モニタ、メディアプレーヤ、医療機器等であってもよい。
既に上述したアプリケーション及びインプレメンテーション(実現)に加えて、本発明は次のように使用可能である。
−民生用機器分野:メディアプレーヤ、ビデオゲーム、楽器の制御、家庭電気機器(ランプ、キッチン及びガーデン用機器、音声配信、電動機器等)への命令、
−業務用機器分野:レコーディングスタジオ、舞台照明制御等、
−芸術分野:楽器の制御、グラフィックアニメーション、カラージェネレーション(着色)、DJ音響効果(スクラッチング、ミキシング、フェーディング等)
−教育環境分野:授業(プレイスタイル、身体表現等の解析)、
−健康及び介護分野:サインランゲージ(手話)の音声合成、シンボルの表示又はタイプされた語による自動翻訳
−産業分野:オンラインプロセスパラメータ、機械類、信号のジェスチャによる制御
−運輸分野:陸上、航空又は海上輸送機のジェスチャ命令による制御
−命令、制御及びインテリジェンス
−その他
本発明により解析されるジェスチャを実行するEMGセンサが前腕に取り付けられた対象機器の簡単な構成図である。 本発明の実施例においてセンサ信号からジェスチャのサインを生じさせる説明図である。 本発明の好適実施例によるジェスチャ判別アプリケーションにおける学習モードのフローチャートを示す図である。 本発明の好適実施例によるジェスチャ判別アプリケーションにおけるジェスチャ判別モードのフローチャートを示す図である。 判別の決定出力が時間的に束縛される本発明の一実施例における判別モードの説明図である。 判別の決定出力が時間的に変動する本発明の一実施例における判別モードの説明図である。 (a)〜(c)は、メディアプレーヤを制御する好適実施例により判別される3つの異なる手/手首のジェスチャの例を示す図である。 (d)〜(f)は、メディアプレーヤを制御する好適実施例により判別される3つの異なる手/手首のジェスチャの例を示す図である。 本発明によるジェスチャサイン抽出方法を実行するジェスチャ判別コマンドシステムを形成する実施例のブロック図である。 筋肉活性化信号から音楽スカルプトコマンドを別途入力する付加手段を有する図8のシステムに基づくユーザバイオシグナル(信号)コマンド発生器の実施例のブロック図である。
符号の説明
1 人体(ユーザの身体)、2a,2b センサ、4 センサ取付アームバンド、6 データ取得インタフェース、8 ジェスチャ解析ユニット、10 コマンド発生/フォーマット化ユニット、12 被制御装置、30 包絡線抽出ユニット、32 フレーム開始/終了検出ユニット、34 平均信号レベル決定ユニット、36 サブフレーム管理ユニット、38 リアルタイムサインベクトル形成ユニット、40 ジェスチャサインメモリ蓄積ユニット、42 サイン比較/判別ユニット、44 決定ユニット

Claims (31)

  1. ジェスチャを作り出す筋肉運動を表す少なくとも1つの時間進展信号を得て、該時間進展信号により得られる少なくとも1つのパラメータ値を決定することにより、自由空間で作られたジェスチャのサインを抽出するジェスチャのサイン抽出方法において、
    前記時間進展信号を複数のサブフレームに分割するステップと、
    いくつかのサブフレームに対して、定められたサブフレームの少なくとも一部に亘る前記時間進展信号により得られる少なくとも1つのパラメータ値を決定するステップと、
    前記パラメータ値を前記定められたサブフレームに特に割り当てた次元に沿うベクトルの成分として表現するステップと
    を有し、
    その結果得られるベクトルが、そのジェスチャのサインを形成し、
    更に、ジェスチャ判別モードを設け、学習モードで取得した前もって学習したジェスチャのセットの中から解析されたジェスチャを判別し、各学習したジェスチャはサインベクトルとして表現され、判別中のジェスチャの判別の決定は、判別中のジェスチャがまだ能動的な前記時間進展信号として生じている間に行われる
    ことを特徴とするジェスチャのサイン抽出方法。
  2. 前記パラメータ値を決定するステップ及びそれをベクトルの成分として表現するステップは、前記時間進展信号が進行中にひき続くサブフレームを占有するまで繰り返し実行され、その結果得られるサインを形成するベクトルが前記時間進展信号の進行中に増加する次元数を獲得するようにした
    ことを特徴とする請求項1に記載のジェスチャのサイン抽出方法。
  3. 前記学習した各ジェスチャは、その学習したサインが取得され、決定されたサブフレーム数に対応する決定された次元数を有することができ、前記判別の決定は、その決定されたサブフレーム数に関し、判別中のジェスチャの前記時間進展信号によりカバーされる、より少ないサブフレーム数に基づいて行われる
    ことを特徴とする請求項に記載のジェスチャのサイン抽出方法。
  4. 更に、学習される所定クラスのジェスチャに対してジェスチャ学習モードが設けられ、このジェスチャ学習モードが、反復的にそのジェスチャを作りそのサインを取得することにより、そのクラスのジェスチャの1セットのサインを取得するステップと、
    そのセットのサインを蓄積するステップと、
    その学習したクラスのジェスチャ、更にオプションでそのクラスのジェスチャに関連するコマンドに対応するそのセットのサインに関する対応を蓄積するステップと
    を有する請求項1乃至のいずれか1項に記載のジェスチャのサイン抽出方法。
  5. 更に、判別中のジェスチャが現に作られているジェスチャ判別モードを有し、このジェスチャ判別モードは、
    現在判別中のジェスチャの少なくとも部分サインベクトルを生成するステップと、
    この部分サインベクトルは現在利用可能な数のパラメータ値に制限され、これにより学習したサインベクトルより少ない次元を有し、作られた少なくとも1つの部分サインベクトルに対し、多くの学習したサインのうちどのサインがその部分サインベクトルに最も適合するか決定するステップと、
    その決定ステップを使用して判別中のジェスチャのサインの決定を行うステップと
    を有する請求項に記載のジェスチャのサイン抽出方法。
  6. 前記サインの決定は、学習したサインを取得するのに使用された合計サブフレーム数よりも少なく制限された固定のサブフレーム数により定められる期間中に取得した部分サイン数に基づいて行う
    ことを特徴とする請求項に記載のジェスチャのサイン抽出方法。
  7. 前記サインの決定は、学習したサインの中でどのサインが最もその部分サインベクトルに適合するかを決定するステップの結果の関数で可変するサブフレーム数をカバーする期間に亘り取得した部分サイン数から行う
    ことを特徴とする請求項に記載のジェスチャのサイン抽出方法。
  8. 更に、前記時間進展信号により作られる包絡線により前記パラメータ値を抽出するステップを有し、
    前記パラメータ値は前記包絡線のパラメータ値である
    ことを特徴とする請求項1乃至のいずれか1項に記載のジェスチャのサイン抽出方法。
  9. 前記パラメータ値は、前記包絡線の信号レベル、前記包絡線のパワーレベル、前記包絡線のエネルギレベルの少なくとも1つの値であり、その値は、前記サブフレームの期間中に亘り平均化される
    ことを特徴とする請求項に記載のジェスチャのサイン抽出方法。
  10. 前記ジェスチャ判別モードにおける各サブフレームの期間は、少なくとも学習モードにおける対応するサブフレームの期間と等しくされる
    ことを特徴とする請求項3乃至のいずれか1項に記載のジェスチャのサイン抽出方法。
  11. 前記サブフレームは、実質的に均一な期間である
    ことを特徴とする請求項1乃至10のいずれか1項に記載のジェスチャのサイン抽出方法。
  12. 更に、前記時間進展信号の振幅における閾値のクロシング(交差)を検出してジェスチャの開始を監視するステップを有し、
    最初のサブフレームの開始を、その閾値のクロシング時間と一致させる
    ことを特徴とする請求項1乃至11のいずれか1項に記載のジェスチャのサイン抽出方法。
  13. 前記時間進展信号は、複数のセンサの1つからの筋電図描画(EMG)信号であり、各センサの出力信号は、独立チャネルとして処理される
    ことを特徴とする請求項1乃至12のいずれか1項に記載のジェスチャのサイン抽出方法。
  14. 前記時間進展信号は、下肢、或いは前腕及び前腕の頂部近傍に取り付けられた少なくとも1個のセンサから取得し、肢、少なくとも手首、手又は指の末端の動きを含むジェスチャを表す信号を生成する
    ことを特徴とする請求項1乃至11のいずれか1項に記載のジェスチャのサイン抽出方法。
  15. 前記時間進展信号は、相反する筋肉位置におけるセンサから取得する
    ことを特徴とする請求項14に記載のジェスチャのサイン抽出方法。
  16. 当該ジェスチャのサイン抽出方法は、ジェスチャに応じて予め設定されたコマンドによって制御される機器にコマンド(命令)を与えるために応用でき、少なくとも1つのサインが特定のコマンドに対応する
    ことを特徴とする請求項1乃至15のいずれか1項に記載のジェスチャのサイン抽出方法。
  17. 前記ジェスチャは、前記機器に対して、少なくともplay(再生)、skip(飛ばし)、pause(一時停止)を含む動作状態にさせる、選択されたトリガコマンドに対応させる
    ことを特徴とする請求項16に記載のジェスチャのサイン抽出方法。
  18. 上記少なくとも1つのサインは、指差し動作、手のひらを開く動作、手首の回転、手を握る動作、手首を内側に曲げる動作、手首を外側に曲げる動作のジェスチャのうちの1つのジェスチャから抽出す
    とを特徴とする請求項16又は17に記載のジェスチャのサイン抽出方法。
  19. 「再生」を命令するための指差し動作、「停止」を命令するための手のひらを開く動作、「早送り」、「巻き戻し」又は「曲検索/高速再生」を命令するための手首の回転動作、「一時停止/消音」のための手のひらの閉じる動作、「次トラック」又は「音量のステップ状アップ」のための手首の内側への曲げ動作及び「前トラック」又は「音量のステップダウン」のための手首の外側への曲げ動作の一連のコマンドジェスチャから取った少なくとも1つのコマンドによるメディアプレーヤのコマンド(命令)に使用可能である
    ことを特徴とする請求項18に記載のジェスチャのサイン抽出方法。
  20. 更に、ジェスチャを作り出すために含まれる筋肉運動を表す信号から実質的に連続した可変のコマンド出力を発生するステップを有する
    請求項1乃至19のいずれか1項に記載のジェスチャのサイン抽出方法。
  21. 前記実質的に連続して変化するコマンド出力は、ジェスチャの作成に含まれる筋肉運動を表す信号の自然振動の関数及び/又はその信号の前記包絡線の関数として変化する
    ことを特徴とする請求項20に記載のジェスチャのサイン抽出方法。
  22. 前記実質的に連続して変化するコマンド出力は、ジェスチャ判別により作られたコマンドと独立である
    ことを特徴とする請求項20又は21に記載のジェスチャのサイン抽出方法。
  23. 前記実質的に連続して変化するコマンドパラメータは、ジェスチャ判別により生成されたコマンドに関連する量を制御する
    ことを特徴とする請求項20又は21に記載のジェスチャのサイン抽出方法。
  24. 前記実質的に連続して変化するコマンド出力が抽出される信号及びサインが取得される信号は、それぞれ相互に異なる筋肉領域(部位)から源を発する
    ことを特徴とする請求項20乃至23のいずれか1項に記載のジェスチャのサイン抽出方法。
  25. 前記実質的に連続して変化するコマンド出力が抽出される信号及びサインが取得される信号は、共通の筋肉領域から源を発する
    ことを特徴とする請求項20乃至24のいずれか1項に記載のジェスチャのサイン抽出方法。
  26. ジェスチャの作成に関与する筋肉運動を表す少なくとも1つの時間進展信号を抽出し、該時間進展信号により生み出される少なくとも1つのパラメータを決定することにより、自由空間で作られるジェスチャのサインを得るジェスチャのサイン取得装置において、
    前記時間進展信号を複数のサブフレームに時間分割する手段と、
    定められたサブフレームの一部に亘る前記時間進展信号により生み出される少なくとも1つのパラメータ値を決定する手段と、
    前記定められたサブフレームに特に割り当てられた次元に沿うベクトル成分として当該パラメータ値を表す手段と
    を備え、
    その結果得られるベクトルは、前記ジェスチャのサインを形成し、
    更に、ジェスチャ判別モードを設け、学習モードで取得した前もって学習したジェスチャのセットの中から解析されたジェスチャを判別し、各学習したジェスチャはサインベクトルとして表現され、判別中のジェスチャの判別の決定は、判別中のジェスチャがまだ能動的な前記時間進展信号として生じている間に行われる
    ことを特徴とするジェスチャのサイン取得装置。
  27. 請求項1乃至25のいずれか1項に記載のジェスチャのサイン抽出方法を実行することを特徴とする請求項26に記載のジェスチャのサイン取得装置。
  28. 人が装着可能なユニットに収められ、更に、抽出されたコマンド入力をコマンド実行装置に送る手段を備える請求項26又は27に記載のジェスチャのサイン取得装置。
  29. ユーザのコマンドに応答する装着可能なジェスチャのサイン取得装置において、請求項26乃至28のいずれか1項に記載のジェスチャのサイン取得装置を構成する
    ことを特徴とする装着可能なジェスチャのサイン取得装置。
  30. ユーザのコマンド入力を前記ジェスチャのサイン取得装置に送る
    ことを特徴とする請求項26乃至29のいずれか1項に記載の装着可能なジェスチャのサイン取得装置。
  31. デジタルコンピュータのメモリ内にローディングされるコンピュータプログラムにおいて、そのコンピュータプログラムがコンピュータ上で走らされるとき、請求項1乃至25のいずれか1項に記載のステップを前記コンピュータに実行させる
    とを特徴とするコンピュータプログラム。
JP2003348730A 2002-10-07 2003-10-07 自由空間に作られるジェスチャを解析する方法及び装置 Expired - Fee Related JP4430368B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP02292474A EP1408443B1 (en) 2002-10-07 2002-10-07 Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition

Publications (2)

Publication Number Publication Date
JP2004157994A JP2004157994A (ja) 2004-06-03
JP4430368B2 true JP4430368B2 (ja) 2010-03-10

Family

ID=32011044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003348730A Expired - Fee Related JP4430368B2 (ja) 2002-10-07 2003-10-07 自由空間に作られるジェスチャを解析する方法及び装置

Country Status (4)

Country Link
US (1) US7333090B2 (ja)
EP (1) EP1408443B1 (ja)
JP (1) JP4430368B2 (ja)
DE (1) DE60215504T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101842459B1 (ko) 2011-04-12 2018-05-14 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US20040012643A1 (en) * 2002-07-18 2004-01-22 August Katherine G. Systems and methods for visually communicating the meaning of information to the hearing impaired
FI117308B (fi) 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US7176886B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Spatial signatures
JP2008501169A (ja) * 2004-06-01 2008-01-17 スイスコム モービル アーゲー 触覚的制御によるデータ送信システム
US20080072691A1 (en) * 2004-06-10 2008-03-27 Koninklijke Philips Electronics, N.V. Method and System for Generating Control Signals for Controlling a Controllable Device
FI119746B (fi) * 2004-06-24 2009-02-27 Nokia Corp Elektronisen laitteen ohjaaminen
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
JP2006172439A (ja) * 2004-11-26 2006-06-29 Oce Technologies Bv 手操作を用いたデスクトップスキャン
JP2006155244A (ja) * 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
US8659546B2 (en) 2005-04-21 2014-02-25 Oracle America, Inc. Method and apparatus for transferring digital content
US20070178950A1 (en) * 2006-01-19 2007-08-02 International Business Machines Corporation Wearable multimodal computing device with hands-free push to talk
DE102006009291A1 (de) 2006-03-01 2007-09-06 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
US8111243B2 (en) 2006-03-30 2012-02-07 Cypress Semiconductor Corporation Apparatus and method for recognizing a tap gesture on a touch sensing device
US8144125B2 (en) 2006-03-30 2012-03-27 Cypress Semiconductor Corporation Apparatus and method for reducing average scan rate to detect a conductive object on a sensing device
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US7698002B2 (en) * 2006-09-29 2010-04-13 Nellcor Puritan Bennett Llc Systems and methods for user interface and identification in a medical device
US8547114B2 (en) 2006-11-14 2013-10-01 Cypress Semiconductor Corporation Capacitance to code converter with sigma-delta modulator
US20080156989A1 (en) * 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US8736420B2 (en) 2007-01-29 2014-05-27 At&T Intellectual Property I, L.P. Methods, systems, and products for controlling devices
US8144126B2 (en) 2007-05-07 2012-03-27 Cypress Semiconductor Corporation Reducing sleep current in a capacitance sensing system
JP2008305198A (ja) * 2007-06-07 2008-12-18 Fujitsu Component Ltd 入力システム及び入力装置
US9500686B1 (en) 2007-06-29 2016-11-22 Cypress Semiconductor Corporation Capacitance measurement system and methods
US8570053B1 (en) 2007-07-03 2013-10-29 Cypress Semiconductor Corporation Capacitive field sensor with sigma-delta modulator
US8169238B1 (en) 2007-07-03 2012-05-01 Cypress Semiconductor Corporation Capacitance to frequency converter
DE102007038392B8 (de) * 2007-07-11 2015-08-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vorhersage eines Kontrollverlustes über einen Muskel
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition
US8525798B2 (en) 2008-01-28 2013-09-03 Cypress Semiconductor Corporation Touch sensing
US8358142B2 (en) 2008-02-27 2013-01-22 Cypress Semiconductor Corporation Methods and circuits for measuring mutual and self capacitance
US8319505B1 (en) 2008-10-24 2012-11-27 Cypress Semiconductor Corporation Methods and circuits for measuring mutual and self capacitance
US9104273B1 (en) 2008-02-29 2015-08-11 Cypress Semiconductor Corporation Multi-touch sensing method
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US9037530B2 (en) 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
US8170656B2 (en) * 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
WO2010011923A1 (en) 2008-07-24 2010-01-28 Gesturetek, Inc. Enhanced detection of circular engagement gesture
JP5432260B2 (ja) * 2008-07-25 2014-03-05 クアルコム,インコーポレイテッド ウェーブエンゲージメントジェスチャの改良された検出
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US8321174B1 (en) 2008-09-26 2012-11-27 Cypress Semiconductor Corporation System and method to measure capacitance of capacitive sensor array
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8547326B2 (en) * 2009-02-24 2013-10-01 Blackberry Limited Handheld electronic device having gesture-based control and a method of using same
EP2430794A4 (en) * 2009-04-16 2014-01-15 Hewlett Packard Development Co MANAGING COMMONLY USED CONTENT IN VIRTUAL COLLABORATION SYSTEMS
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
WO2011127459A1 (en) 2010-04-09 2011-10-13 Zoll Medical Corporation Systems and methods for ems device communications interface
US20110172550A1 (en) 2009-07-21 2011-07-14 Michael Scott Martin Uspa: systems and methods for ems device communication interface
DE102009037316A1 (de) 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US9051769B2 (en) * 2009-08-21 2015-06-09 Uusi, Llc Vehicle assembly having a capacitive sensor
US11634937B2 (en) 2009-08-21 2023-04-25 Uusi, Llc Vehicle assembly having a capacitive sensor
US10954709B2 (en) 2009-08-21 2021-03-23 Uusi, Llc Vehicle assembly having a capacitive sensor
US10017977B2 (en) 2009-08-21 2018-07-10 Uusi, Llc Keyless entry assembly having capacitance sensor operative for detecting objects
US9705494B2 (en) 2009-08-21 2017-07-11 Uusi, Llc Vehicle assemblies having fascia panels with capacitance sensors operative for detecting proximal objects
US9845629B2 (en) 2009-08-21 2017-12-19 Uusi, Llc Vehicle keyless entry assembly having capacitance sensor operative for detecting objects
FR2950713A1 (fr) * 2009-09-29 2011-04-01 Movea Sa Systeme et procede de reconnaissance de gestes
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US8917905B1 (en) 2010-04-15 2014-12-23 Don K. Dill Vision-2-vision control system
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US20120016641A1 (en) * 2010-07-13 2012-01-19 Giuseppe Raffa Efficient gesture processing
US9204823B2 (en) 2010-09-23 2015-12-08 Stryker Corporation Video monitoring system
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9146673B2 (en) 2010-11-05 2015-09-29 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9721481B2 (en) * 2010-11-11 2017-08-01 Echostar Ukraine L.L.C. Hearing and speech impaired electronic device control
US8893054B2 (en) 2010-12-08 2014-11-18 At&T Intellectual Property I, L.P. Devices, systems, and methods for conveying gesture commands
US9250798B2 (en) * 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US8787006B2 (en) 2011-01-31 2014-07-22 Apple Inc. Wrist-worn electronic device and methods therefor
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8752200B2 (en) 2011-07-12 2014-06-10 At&T Intellectual Property I, L.P. Devices, systems and methods for security using magnetic field based identification
DE102011112371A1 (de) 2011-09-02 2013-03-07 Audi Ag Vorrichtung zur Einstellung wenigstens eines Betriebsparameters wenigstens eines Fahrzeugsystems eines Kraftfahrzeugs
DE102011116122A1 (de) * 2011-10-15 2013-04-18 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen einer Bedienvorrichtungin einem Fahrzeug und Bedienvorrichtung
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
EP2797796A4 (en) * 2011-12-29 2015-09-16 Intel Corp SYSTEMS, METHOD AND DEVICE FOR CONTROLLING GESTURE INITIATIONS AND TERMINATIONS
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
EP2698686B1 (en) 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
JP2015533248A (ja) 2012-09-28 2015-11-19 ゾール メディカル コーポレイションZOLL Medical Corporation Ems環境内で三次元対話をモニタするためのシステム及び方法
JP5929698B2 (ja) * 2012-10-17 2016-06-08 ソニー株式会社 通信システムおよびプログラム
DE102012024212A1 (de) * 2012-12-11 2014-06-12 Volkswagen Aktiengesellschaft Verfahren und Einrichtung zur automatisierten Analyse eines Fertigungsprozesses, insbesondere eines Fertigungsprozesses für ein Kraftfahrzeug
US10528135B2 (en) 2013-01-14 2020-01-07 Ctrl-Labs Corporation Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
US9092664B2 (en) * 2013-01-14 2015-07-28 Qualcomm Incorporated Use of EMG for subtle gesture recognition on surfaces
TWI515605B (zh) * 2013-01-29 2016-01-01 緯創資通股份有限公司 手勢辨識與控制方法及其裝置
DE102013001773A1 (de) 2013-01-31 2014-07-31 Audi Ag Verfahren zum Betreiben einer Vorrichtung zum Wiedergeben von Medieninhalten sowie Vorrichtung zum Wiedergeben von Medieninhalten
EP2959394B1 (en) 2013-02-22 2021-05-12 Facebook Technologies, LLC. Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
DE102013003033A1 (de) 2013-02-22 2014-08-28 Audi Ag Verfahren zum Betreiben einer Wiedergabeeinrichtung sowie Vorrichtung mit einer solchen Wiedergabeeinrichtung
US9274606B2 (en) * 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
WO2014147785A1 (ja) * 2013-03-21 2014-09-25 富士通株式会社 動作検知装置,動作検知方法,プログラム及び記録媒体
WO2014165476A1 (en) 2013-04-01 2014-10-09 Gollakota Shyamnath Devices, systems, and methods for detecting gestures using wireless communication signals
US10620709B2 (en) * 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9234742B2 (en) * 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
WO2014186370A1 (en) 2013-05-13 2014-11-20 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices that accommodate different user forms
US9408316B2 (en) 2013-07-22 2016-08-02 Thalmic Labs Inc. Systems, articles and methods for strain mitigation in wearable electronic devices
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US11426123B2 (en) 2013-08-16 2022-08-30 Meta Platforms Technologies, Llc Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
KR102165077B1 (ko) * 2013-08-21 2020-10-13 삼성전자주식회사 생체신호 인터페이스 장치 및 생체신호 인터페이스 장치의 동작 방법
CA2921954A1 (en) * 2013-08-23 2015-02-26 Thalmic Labs Inc. Systems, articles, and methods for human-electronics interfaces
US9788789B2 (en) 2013-08-30 2017-10-17 Thalmic Labs Inc. Systems, articles, and methods for stretchable printed circuit boards
US9372535B2 (en) 2013-09-06 2016-06-21 Thalmic Labs Inc. Systems, articles, and methods for electromyography-based human-electronics interfaces
US9483123B2 (en) 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
KR101499348B1 (ko) * 2013-10-08 2015-03-04 재단법인대구경북과학기술원 손목 밴드형 기기 제어장치
WO2015054419A1 (en) * 2013-10-08 2015-04-16 University Of Washington Through Its Center For Commercialization Devices, systems, and methods for controlling devices using gestures
US20160299570A1 (en) * 2013-10-24 2016-10-13 Apple Inc. Wristband device input using wrist movement
DE102013226682A1 (de) * 2013-12-19 2015-06-25 Zf Friedrichshafen Ag Armbandsensor und Verfahren zum Betreiben eines Armbandsensors
US10585484B2 (en) 2013-12-30 2020-03-10 Samsung Electronics Co., Ltd. Apparatus, system, and method for transferring data from a terminal to an electromyography (EMG) device
EP3105655A1 (en) 2014-02-12 2016-12-21 Koninklijke Philips N.V. Movement detection apparatus for detecting a hand movement
CN106102504A (zh) 2014-02-14 2016-11-09 赛尔米克实验室公司 用于弹性电力缆线的系统、制品和方法以及采用弹性电力缆线的可佩戴电子装置
DE102014204889A1 (de) * 2014-03-17 2015-09-17 Zumtobel Lighting Gmbh System zum Ansteuern von Verbrauchern einer Haushaltsleittechnik mittels Muskelimpulsen wenigstens eines Benutzers und entsprechendes Verfahren
US10199008B2 (en) 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
DE102014207637A1 (de) 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
DE102014212660A1 (de) * 2014-06-30 2015-12-31 Trumpf Medizin Systeme Gmbh + Co. Kg Steuerungsvorrichtung für ein Medizingerät
JP5991498B2 (ja) * 2014-07-08 2016-09-14 パナソニックIpマネジメント株式会社 筋電位計測装置及び筋電位計測方法
CN105373214B (zh) * 2014-08-25 2018-11-02 深圳Tcl新技术有限公司 终端控制方法和系统
WO2016080557A1 (ko) * 2014-11-17 2016-05-26 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US9807221B2 (en) 2014-11-28 2017-10-31 Thalmic Labs Inc. Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link
CN107003740A (zh) * 2014-12-09 2017-08-01 Lg 伊诺特有限公司 带式传感器和具有带式传感器的可佩戴式设备
WO2016104266A1 (ja) * 2014-12-24 2016-06-30 ソニー株式会社 電子機器および電子機器の制御方法
CN104639966A (zh) * 2015-01-29 2015-05-20 小米科技有限责任公司 遥控方法及装置
US9294802B1 (en) * 2015-01-30 2016-03-22 Rovi Guides, Inc. Gesture control based on prosthetic nerve signal detection
JP6459684B2 (ja) * 2015-03-23 2019-01-30 カシオ計算機株式会社 情報出力装置、情報出力方法及びプログラム
FR3034887B1 (fr) * 2015-04-08 2019-09-13 Jean-Roger Mathieu Amilien Thomas Dispositif et procede de commande gestuelle en temps reel de signal audio
US10078435B2 (en) 2015-04-24 2018-09-18 Thalmic Labs Inc. Systems, methods, and computer program products for interacting with electronically displayed presentation materials
KR20160133305A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 제스쳐 인식 방법, 컴퓨팅 장치 및 제어 장치
CN105058396A (zh) * 2015-07-31 2015-11-18 深圳先进技术研究院 机器人示教系统及其控制方法
CN105345823B (zh) * 2015-10-29 2017-12-19 广东工业大学 一种基于空间力信息的工业机器人自由驱动示教方法
KR102433533B1 (ko) * 2015-12-09 2022-08-18 한국전자기술연구원 모션 학습을 통한 인지 기반 제어 방법 및 시스템
KR101873031B1 (ko) * 2016-04-11 2018-07-02 연세대학교 원주산학협력단 수화 인식 시스템 및 방법
US10685219B2 (en) 2016-01-27 2020-06-16 University Industry Foundation, Yonsei University Wonju Campus Sign language recognition system and method
US10817798B2 (en) * 2016-04-27 2020-10-27 Mogees Limited Method to recognize a gesture and corresponding device
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
US10296097B2 (en) * 2016-07-15 2019-05-21 International Business Machines Corporation Controlling a computer system using epidermal electronic devices
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US10168776B2 (en) 2016-08-23 2019-01-01 International Business Machines Corporation Remote control via proximity data
US20180058846A1 (en) * 2016-08-23 2018-03-01 International Business Machines Corporation Remote Control Via Proximity Data
US20180059786A1 (en) * 2016-08-23 2018-03-01 International Business Machines Corporation Remote Control Via Proximity Data
US10070799B2 (en) 2016-12-02 2018-09-11 Pison Technology, Inc. Detecting and using body tissue electrical signals
US11321951B1 (en) * 2017-01-19 2022-05-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
US10796599B2 (en) * 2017-04-14 2020-10-06 Rehabilitation Institute Of Chicago Prosthetic virtual reality training interface and related methods
DE102017004214A1 (de) 2017-04-29 2018-10-31 INPRO Innovationsgesellschaft für fortgeschrittene Produktionssysteme in der Fahrzeugindustrie mbH Verfahren zur Identifikation standardisierter industrie- und anwendungsfallspezifischer Freihandbefehle
CN107378944B (zh) * 2017-06-20 2020-12-25 东南大学 一种基于主成分分析法的多维表面肌电信号假手控制方法
US10481699B2 (en) 2017-07-27 2019-11-19 Facebook Technologies, Llc Armband for tracking hand motion using electrical impedance measurement
RU2678494C1 (ru) 2017-08-24 2019-01-29 Самсунг Электроникс Ко., Лтд. Устройство и способ для биометрической идентификации пользователя с использованием рч (радиочастотного) радара
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
EP3743892A4 (en) * 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
KR101875472B1 (ko) * 2018-03-05 2018-07-06 연세대학교 원주산학협력단 지화 인식 시스템 및 방법
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN108960177B (zh) * 2018-07-13 2020-12-22 浪潮金融信息技术有限公司 一种将手势进行数字化处理的方法及装置
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10802598B2 (en) 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
US10905350B2 (en) 2018-08-31 2021-02-02 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
DE102018008366B4 (de) 2018-10-23 2020-06-18 INPRO Innovationsgesellschaft für fortgeschrittene Produktionssysteme in der Fahrzeugindustrie mbH Verfahren und Anlage zum gestenbasierten Steuern eines Prüfprozesses an einem industriellen teilautomatisierten Sichtprüfplatzes eines industriellen technischen Prozesses oder einer industriellen technischen Produktionsanlage
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
JP7295046B2 (ja) 2019-01-23 2023-06-20 株式会社ミツバ 装置操作システムおよび装置制御方法
CN111046731B (zh) * 2019-11-11 2023-07-25 中国科学院计算技术研究所 基于表面肌电信号进行手势识别的迁移学习方法和识别方法
KR20210078283A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 센서 신호로부터 사용자의 제스처를 인식하는 전자 장치 및 이를 이용한 제스처 인식 방법
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
US11157086B2 (en) 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
WO2022030968A1 (ko) * 2020-08-04 2022-02-10 삼성전자 주식회사 제스처를 인식하는 전자 장치 및 그 동작 방법
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
DE19612949C1 (de) * 1996-04-01 1997-08-14 Siemens Ag Verfahren zur Erkennung mindestens eines fingerförmigen Objekts in einem ersten, handförmigen Objekt durch einen Rechner
US5990865A (en) * 1997-01-06 1999-11-23 Gard; Matthew Davis Computer interface device
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6244873B1 (en) * 1998-10-16 2001-06-12 At&T Corp. Wireless myoelectric control apparatus and methods
US6720984B1 (en) * 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101842459B1 (ko) 2011-04-12 2018-05-14 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법

Also Published As

Publication number Publication date
JP2004157994A (ja) 2004-06-03
DE60215504D1 (de) 2006-11-30
EP1408443B1 (en) 2006-10-18
DE60215504T2 (de) 2007-09-06
EP1408443A1 (en) 2004-04-14
US20040068409A1 (en) 2004-04-08
US7333090B2 (en) 2008-02-19

Similar Documents

Publication Publication Date Title
JP4430368B2 (ja) 自由空間に作られるジェスチャを解析する方法及び装置
CN104035556B (zh) 触觉效果的自动适配
US9171531B2 (en) Device and method for interpreting musical gestures
US8880208B2 (en) Device and method for controlling the playback of a file of signals to be reproduced
WO2007005625A2 (en) Systems and methods for synchronizing music
Visi et al. Interactive machine learning of musical gesture
Di Donato et al. Myo Mapper: a Myo armband to OSC mapper
JP4617467B2 (ja) 学習支援装置、仮想ヒューマンインタフェース装置、仮想ヒューマンインタフェース方法、仮想ヒューマンインタフェースシステム、これらの装置を実現するプログラムおよび記録媒体
Tindale et al. Training surrogate sensors in musical gesture acquisition systems
Nymoen Methods and technologies for analysing links between musical sound and body motion
Fabiani et al. Systems for interactive control of computer generated music performance
Hayafuchi et al. MusicGlove: A Wearable Musical Controller for Massive Media Library.
Topper et al. Piano-playing robotic arm
Petersen et al. Development of a aural real-time rhythmical and harmonic tracking to enable the musical interaction with the waseda flutist robot
JPH09185716A (ja) 動作判定方法および動作判定装置
EP3979245A1 (en) System and method for providing interactive storytelling
Grunberg et al. Synthetic emotions for humanoids: perceptual effects of size and number of robot platforms
Jylhä Sonic gestures and rhythmic interaction between the human and the computer
De Prisco et al. A customizable recognizer for orchestral conducting gestures based on neural networks
Nakra Searching for meaning in gestural data
Willier et al. Juggling gestures analysis for music control
Ramires Automatic transcription of vocalized percussion
Di Donato Designing embodied human-computer interactions in music performance
Humphrey A computational system for the automatic creation of music playlists for rhythmic auditory stimulation in recreational running
Dutoit et al. Quarterly Progress Scientific Report

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081202

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121225

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees