JP6527307B2 - 把持された物体を用いたモーション認識方法及びその装置並びにシステム - Google Patents
把持された物体を用いたモーション認識方法及びその装置並びにシステム Download PDFInfo
- Publication number
- JP6527307B2 JP6527307B2 JP2014023149A JP2014023149A JP6527307B2 JP 6527307 B2 JP6527307 B2 JP 6527307B2 JP 2014023149 A JP2014023149 A JP 2014023149A JP 2014023149 A JP2014023149 A JP 2014023149A JP 6527307 B2 JP6527307 B2 JP 6527307B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- state
- writing
- motion recognition
- wrist
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
- A61B5/1122—Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/681—Wristwatch-type devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6824—Arm or wrist
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
- G06V30/1423—Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Description
ユーザ身体のモーションを解釈する一般的な技術として、機器に動作検知用の加速度センサなどを取付けてモーションを解読する方法がある。この技術は、ユーザの精密な動作より簡単な動作を解釈するとき適する。
この場合、ユーザが機器の前に存在することが前提でなければならないため、ユーザは身体と分離した機器を別に管理しなければならない。
また、画像においてユーザの身体が重なっている状態ではモーションを容易に解釈することができないという問題があった。
前記把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップは、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定するステップを含むことが好ましい。
前記筆記動作によるユーザの手首状態を推定するステップは、前記把持された物体を用いた前記筆記動作による加速度を検出するステップと、前記加速度により前記手首状態を推定するステップとを含むことが好ましい。
前記ユーザに対応する生体信号を検出するステップと、前記生体信号による動きアーチファクト(motion artifact)を用いて、推定された前記物体の状態の誤差を補正するステップとをさらに有することが好ましい。
前記物体の状態を連続的に追跡して生成された形態(figure)を格納するステップをさらに有することが好ましい。
前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記物体を把持するために前記ユーザによって加えられた力の強度を推定するステップを含み、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成するステップをさらに含むことが好ましい。
前記物体状態推定部は、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定する筆記面接触推定部を含むことが好ましい。
前記手首状態推定部は、前記把持された物体を用いた筆記動作による6軸に対する加速度を検出する加速度検出部を含み、前記加速度により前記手首の位置変化又は前記手首の回転の少なくとも1つを含む前記手首状態を推定することが好ましい。
前記ユーザに対応する生体信号を検出する生体信号検出部と、前記生体信号による動きアーチファクト(motion artifact)を用いて、前記推定された物体の状態の誤差を補正する物体状態補正部をさらに備えることが好ましい。
前記制御信号は、前記モーション認識装置が前記形態で前記外部機器の予め決められた部分を活性化するユーザ動作を検出した場合、前記外部機器が前記予め決められた部分に対応する動作を行うようにする制御命令を備えることが好ましい。
前記外部機器は、前記認識された文字に基づいて識別されることが好ましい。
前記外部機器によって行われる動作は、前記認識された文字に基づいて決定されることが好ましい。
前記外部機器は、前記外部機器を示す前記形態の認識に基づいて識別されることが好ましい。
前記形態の領域は、前記決定された動作を行う前記外部機器の一部分の図形であり、前記ユーザが前記一部分を選択した場合、前記決定された動作を前記外部機器が行うように指示する前記制御信号を送信するステップをさらに有することが好ましい。
また、加速度検出部を用いてユーザの手を含む腕の大きい動きを把握し、筋電図センサを用いて個別の指を握ったり開いたりするユーザ動作、手首の動きなどを推定することができる。
また、予め決められた入出力装置や格納装置に当該ユーザ動作と関連する情報を送信してユーザにフィードバックを与えることができる。例えば、ユーザが筆記中である字、文章ないし絵を入出力装置で表示することができる。
例えば、モーション認識装置は、制御しようとする外部機器を制御するためのディスプレイが必要でなくてもよい。他の例として、データを入力するためのモーション認識装置以外の別途装備が必要でなくてもよい。ユーザはこのようなモーション認識装置を介して直観的に外部機器を制御することができる。
また、ノート筆記されたデータ入力を無線でクラウドサーバなどに便利に送信することができる。また、外部機器を制御するためのアイコンを紙に、そして、筆記道具などでポインティン(Pointing)して外部機器を制御することができる。
ユーザは、タッチ検出に基づいたキーボードを用いるために別途の使用法を習得しなければならず、使用法は直観的でないこともある。
また、ウェアラブル装置(Wearable Device)などのように小型化したモバイル装置が増加しつつ、タッチベースの入力装置を用いて装置を制御することがユーザにとって不便さを感じることもある。
ここで、モーション認識装置110は、ユーザ190によって把持された物体180の状態を推定する。
例えば、モーション認識装置110は、把持された物体180の状態を連続的に追跡することで、物体180を用いてユーザ190が筆記した内容を認識する。以下の本明細書で「筆記」とは、ユーザが物体を用いて特定内容を作成するユーザ動作として、字、文章及び図形(絵)などを作成するユーザ動作を含み得る。
モーション認識装置110は、モーション信号、生体信号又はその他の形態の信号のうち少なくとも1つ以上を検出する少なくとも1つ以上のセンサを含み得る。
モーション認識装置110は、検出された様々な種類の生体信号、モーション信号などを組み合わせて、筆記する人体(例えば、手、手首、腕など)の各部位の動きを精密に推定する。ユーザ190は、本実施形態に係るモーション認識装置110を着用することによって、ノートなどに自在かつ直観的に筆記した内容を直接にコンピュータ読み出し可能なデータ形態で格納したり、筆記した内容に基づいて特定の外部機器とのインタラクション(interaction)を行う。
例えば、モーション認識装置110は、ユーザ190からのモーションを認識して推定するとき、モーション認識装置110は有線又は無線で外部機器へモーションを示すデータを送信し、外部機器は後で用いるためにデータを格納してもよい。
把持できる形体の物体は、手で握ることができる長い形体の物体(例えば、箸など)を含んでもよい。把持された物体180は、把持された物体180の尖っている終端の動きが記録されるように、ユーザ180によって操作される尖っている終端を有し、記録された動きは筆記された内容として生成する。
ここで、モーション認識システムは、モーション認識装置210、格納装置220、入出力装置230、及び外部機器240を備える。
本実施形態では外部機器240を示しているが、この装置はシステム内部に実現されてもよい。さらに、図2において、格納装置220、入出力装置230、及び外部機器240がモーション認識装置210の外部に示しているが、格納装置220、入出力装置230、及び外部機器240の全て又は少なくとも1つはモーション認識装置の内部又は一部として実現してもよい。
モーション認識装置210は、認識された筆記内容を格納装置220に格納したり、入出力装置230に伝達したり、筆記した内容に基づいて外部機器240を制御したりする。
モーション認識装置210がユーザの筆記201を認識する具体的な方法及び活用は下記の図3〜図12を参照して詳細に説明する。
下記のステップは、モーション認識装置に含まれた検出部及び処理部によって行う。
本実施形態によれば、筆記動作により発生するサウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する。
例えば、筆記動作により発生するサウンドは、物体と接触面(例えば、紙面など)との間の摩擦音を含む。
本明細書において、「接触面」は、把持された物体が表面上に筆記するために接触を形成することのできる表面(筆記面)を示す一般的な用語として使用する。
例えば、筆記は紙面上に行われるが、他の適切な平面も他の実施形態として適用され得る。
ステップS310は、筆記動作が開始したことを示す摩擦音を解釈する。
又は、ユーザが取った特定の手の形状(例えば、ペンを握る姿勢)を検出すると、筆記動作が開始されたと判断する。ここで、筆記動作はユーザが把持した物体を用いて筆記するモーションを含む。
ここで、手首状態は、手首の位置、手首の位置変化、回転角度、回転方向などを含む。
ユーザ190は筆記動作が発生するとき手首を動かすため、手首がどのように動くかに関する情報は筆記動作の推論のために役に立つため、モーション認識装置は把持された物体180がどのように操作されたかに関する情報を提供する。
例えば、モーション認識装置は、加速度センサを介して筆記動作による加速度を検出して手首の相対的な位置変化を推定する。加速度センサが6軸に対する加速度を検出する場合、手首の回転角度、回転方向を推定する。
ここで、関節動作は、手首と関連する人体部位における関節の動き(例えば、指及び腕を曲げる動作)を含んでもよい。
具体的には、モーション認識装置は、筆記動作による手首と関連する人体部位の筋電図(EMGデータ)を検出し、検出された筋電図に基づいて筋肉の収縮と弛緩による関節動作を推定する。例えば、手首と関連する人体部位は、指の関節、手首の関節、腕の関節、肩の関節などを含んでもよい。手首と関連する人体部位はこれに限定されることなく、EMGデータは他の人体部位から導き出されてもよい。
ここで、把持された物体の状態は、ユーザが物体を把持した姿勢及び動きによる物体の位置、物体が筆記面と接触する位置、物体の傾き、物体が押さえられた程度などを含む。
例えば、モーション認識装置は、物体が筆記面と接触する部分の位置を手首状態及び関節動作により推定する。
モーション認識装置は、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するか、又は物体を連続的に追跡して生成された形態(figure)を格納する。
例えば、物体を連続的に追跡して生成された形態は、コンピュータで読み出し可能なデータで格納するか、又は活用する。把持された物体の状態を追跡することでモーション認識装置は、ユーザが把持された物体を用いて筆記動作による筆記内容を示す情報を提供する。
ユーザが物体を用いて筆記中であるか否かは、上述した図3に示すように、筆記動作が開始されたか否かに基づいて判断する。
例えば、筆記動作により発生するサウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する。
ここで、ユーザが筆記中ではないと判断されると、モーション認識装置は筆記動作が開始するまで待機する。
モーション認識装置は、手首と関連する人体部位の関節動作からユーザが物体を把持した力の強度を推定する。
ステップS451において、測定された力は、ユーザ190が物体180を把持するために、ユーザの手の一部によって加えられる力である。例えば、ユーザが物体を握るために指を曲げるとき発生する筋肉の筋電図信号を検出し、筋電図信号の強度からユーザが物体を把持した力の強度を推定する。
太さは、把持された物体180と筆記面間との接触が占める軌跡(footprint)の太さを示す。
ここで、太さは、ユーザが筆記した内容の字の太さ、線の太さ、消しゴムで消す範囲、及び筆記修正道具が及ぼす効果の範囲を含んでもよい。
具体的には、モーション認識装置は、ステップS451で測定(推定)された力の強度に対応する太さを設定して上述した字や線の範囲などに適用する。例えば、力の強度が大きく推定されるほど、太さは力の強度に比例して大きく設定する。筆記修正道具は、筆記した内容を消す消しゴム、ブラシ効果を与えるブラシなどを含む。
ここで、モーション認識装置は、ユーザが物体を把持した姿勢又は筆記動作によるサウンドの少なくとも1つを用いて物体の種類を識別する。
把持された物体の種類は、全体的な形態及び使用目的に対応する。
物体の種類を識別する具体的な方法は下記で詳細に説明する。
例えば、ユーザが物体を把持した姿勢がペンのように長い形の物体を把持した姿勢であれば、モーション認識装置はユーザによって把持された物体を筆記のための道具として識別する。
また、消しゴムのように太い形の物体を把持した姿勢であれば、モーション認識装置はユーザによって把持された物体を筆記を消す道具と識別する。
ただし、これに限定されることなく、モーション認識装置はユーザによって把持された物体の種類を各物体の固有な形に応じてユーザが取る姿勢に対応する道具として識別する。例えば、異なる方法で握られたり、特定のデザインされた(contoured)把持された物体は、把持された物体の特定種類に属するものと認識されてもよい。
ここで、筆記動作によるサウンドは、物体と筆記面の接触面(例えば、紙面など)との間の摩擦音を含む。サウンドは把持された物体の適切な種類を識別するために分析される。
例えば、モーション認識装置は、物体と接触面との間の摩擦音が頻繁にす早く発生すると、把持された物体を消す道具として識別し、摩擦音が頻繁に発生せずゆっくり発生すると、把持された物体が筆記道具として識別してもよい。
このような方法は、所定の時間周期の間にどれほど多いサウンドが発生するかを追跡したり、又は、摩擦音の速度及び周期を追跡することによって実現され得る。例えば、把持された物体が筆記道具又は消しゴムであるかを判断するために閾値又は測量が存在し得る。
このような波形が測定された場合、信号分析に基づいて識別されるよう摩擦音を特性化(characterize)してもよい。
例えば、モーション認識装置は、筆記道具と紙面との間の摩擦音に対するサウンド波形及び消しゴムと紙面との間の摩擦音に対するサウンド波形を予め格納してもよい。モーション認識装置は、物体と紙面との間の摩擦音を予め格納されたサウンド波形と比較して把持された物体の種類を識別してもよい。このような比較に基づいて、モーション認識装置は、把持された物体を筆記道具又は消しゴムに分類する。例えば、分類はすでに存在する波形が把持された物体を用いて生成された波形と最も類似するかに基づく。
例えば、ユーザが「レッド(red)」と言った場合、モーション認識装置はユーザの音声を認識し、把持された物を「レッドペン」のように識別することができる。ただし、把持された物体が必ず音声認識された結果と同一でない場合もあり、音声認識命令は他の入力形態を指示してもよい。
例えば、ユーザはブラックペンで筆記しながらも、上述したように色を音声で認識させることによって、色などを自由に変更しながら筆記することができる。したがって、ユーザがブラックペンに筆記するとき、ユーザが「ブルー」と言った場合、ペンの色変換を示す。ただし、ユーザが消しゴム使用時、ユーザが「ブルー」と言った場合、ペンに対して色変換をしたように、消しゴムからペン種類に物体の種類を変えてもよい。
モーション認識装置は、上述した図3に示したものと近似して、把持された物体の状態を連続的に追跡して筆記内容に対応するデータを生成する。ここで、モーション認識装置はステップS452で設定された太さで筆記を生成してもよい。
モーション認識装置は、上述した図3に示したものと近似して、把持された物体の状態を連続的に追跡して筆記を修正する。ここで、モーション認識装置は、ステップS452において、設定された太さで筆記を修正する効果を適用し得る。
具体的には、上述したステップS452、ステップS454及びステップS455により生成及び修正された筆記内容に対応するデータに基づいて形態を生成する。
例えば、物体を把持した強度に応じて筆記の軌跡の太さを異ならせながら、音声により認識した色で筆記した内容に対応する形態を生成してもよい。
例えば、ユーザが物体をこれ以上把持しない場合、物体を把持した姿勢が筆記するための姿勢ではない場合、一定時間以上、物体と接触面との間の摩擦音が検出されない場合、などにおいて筆記動作が終了したと判断する。
ただし、ユーザが筆記を終了したと判断される他のイベントがあってもよく、これらは単なる例示に過ぎない。本実施形態によれば、筆記動作が終了したと判断された場合には、モーション認識を終了し、筆記動作が終了していないと判断された場合には上述したステップS410に戻る。
図5に示すように、ユーザ590が特定内容を筆記すると、モーション認識装置510は物体580の状態を連続的に追跡して生成した形態を格納する。
本実施形態によれば、モーション認識装置510は、生成された形態を通信網、クラウドサービスなどを用いて格納装置520に格納する。ここで、格納装置520はサーバを含んでもよい。
モーション認識装置610は、物体680の状態を連続的に追跡して生成した、外部機器640を制御するための制御信号を送信する。
制御信号を受信すると、外部機器640は、予め決められた(予め設定された)動作を実行する。
外部機器640は、上述した制御信号を受信すると、対応する電話番号に電話する。
このような例示は、ユーザが潜在的に作成しようとする筆記内容が意味を有するものを示す。様々な例示において、筆記内容は入力を提供するものとして認識してもよく、外部機器640で行われる命令を提供するものとして認識されてもよい。
他の例として、モーション認識装置610は、物体680の状態を連続的に追跡して生成した形態を入出力装置に無線又は有線で単に伝達してもよい。入出力装置は、伝えられた形態を表示してもよい。
モーション認識装置710は、物体780の状態を連続的に追跡した形態に対応する外部機器740を選択し、選択された外部機器740を制御するための信号を制御信号に生成する。
ここで、物体780の状態を連続的に追跡した形態は、外部機器740の名称、形状などを含んでもよい。把持された物体780の状態を連続的に追跡することによって、生成された形態が外部機器740とマッチングする単語又は図形(絵)を含んでいると、形態は制御される外部機器740としていずれかの外部機器740であるかを識別、判断するために使用される。
モーション認識装置710は、筆記された名称に対応する外部機器740を選択し、選択された外部機器740を制御する。ここで、モーション認識装置710は、図7に示すように「エアコン」のリモコンが筆記されたことを認識し、エアコンの冷房温度を調節する。本実施形態によれば、ユーザ790がリモコンのボタンに対応する部分(図で、筆記された△、▽)をタップ(tap)すると、モーション認識装置710がタップするユーザ動作を検出して外部機器740の「エアコン」の冷房温度を調節せよとの制御信号を生成する。
モーション認識装置810は、物体の状態を連続的に追跡した形態に対応する外部機器840を制御するための制御信号を生成する。
ここで、予め決められた部分801は、生成された形態で特定座標に対応する地点を含んでもよい。
モーション認識装置810は、自然形状及び予め決められた部分801と残り形態との間の関係に基づいて、予め決められた部分801が本質的に特定機能を含むかどうかを認識する。
モーション認識装置810は、筆記された形態で予め決められた部分(例えば、シャッター)801に対し活性化するユーザ動作(例えば、タップするユーザ動作)を検出すると、対応する動作(例えば、撮影)を行わせる制御命令を含む制御信号を生成する。
例えば、ユーザ動作は、図8Aに示すように、ユーザが指で予め決められた部分801をタップする動作、図8Bに示すようにユーザが把持した物体880を用いて予め決められた部分801をタップする動作を含んでもよい。
外部機器840(例えば、カメラ)は、制御信号を受信すると、予め決められた動作(例えば、撮影)を行う。
ここで、ユーザ990が着用したモーション認識装置910は、加速度検出部を介して検出した加速度信号を用いて手首の空間的な動きを含む手首状態を推定する。
モーション認識装置910は、ユーザ990のいずれの手首でも位置してもよいが、本実施形態によれば、モーション認識装置910は、ユーザ990が頻繁に使用する手の手首上に位置してもよい。
また、他の実施形態によれば、モーション認識装置は、ユーザの両手首に位置してもよい。また、さらに他の実施形態によれば、複数のモーション認識装置910をユーザ990の同じ手首上に用いて、分析のための情報を共に収集してもよい。
例えば、モーション認識装置910は、図9Aに示すようなヒジ関節の動作による手首の位置変化、図9Bに示すような肩関節の動作による手首の位置変化などを推定する。
本発明の実施形態によるモーション認識装置910が6軸に対する加速度検出部を含む場合、モーション認識装置910は、6軸に対する加速度信号から手首の回転角度及び回転方向などを推定できる。
ここで、モーション認識装置1010は筋電図検出部を介して検出した筋電図信号を用いて手首と関連する部位の関節運動を推定する。上述したようにEMG信号は、人体部位がどのように動くかに関する情報を提供するために用いられる筋骨格を介して伝えられる特定電気信号を示す。
また、モーション認識装置1010は、図10Cに示すような手首の回転方向、回転角度、回転強度などを推定する。
上述したようにモーション認識装置1010は、EMG信号を受信してもよく、図10A〜図10Cに示すような手首動きの多様な形態を特定するためにEMG信号を解釈し得る。
また、図10Fに示すようにユーザが指を折ることなく力を集中するユーザ動作(例えば、タップ)をとった場合も推定できる。
図10A〜図10Cに対して、図10D〜図10FはEMG信号から測定される潜在的な筋肉活動の多様な形態を示す。
ただし、全体の手の動きを示す代わりに、図10A〜図10C、図10D〜図10Eは優れた指の動きを示し、図10Fは指が圧力を加える能力を示す。
本実施形態によれば、モーション認識装置1010は、図9及び図10A〜Fに示すような手首と関連する部位の関節動作(例えば、指の曲げ、手首の折れなど)に基づいて、図10Gに示すようにユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定する。
ここで、モーション認識装置1100は、動作開始検出部1110、手首状態推定部1120、関節動作推定部1130、物体状態推定部1140、及び信号生成部1150を備える。
動作開始検出部1110は、筆記動作により発生するサウンドを検出するサウンド検出部と、サウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する動作開始判断部を備える。
ここで、筆記動作により発生するサウンドは、物体と接触面との間の摩擦音を含んでもよい。
手首状態推定部1120は、把持された物体を用いた筆記動作により6軸に対する加速度を検出する加速度検出部を含み、加速度により手首の位置変化又は手首の回転の少なくとも1つを含む手首状態を推定する。
関節動作推定部1130は、筆記動作により手首と関連する人体部位で発生する筋電図を検出する筋電図検出部を含み、検出された筋電図により関節動作を推定する。
関節動作推定部1130は、ユーザが物体を把持した力の強度を推定する把持強度推定部を備え、推定された力の強度は筆記生成部で用いられてもよい。
物体状態推定部1140は、物体が筆記面と接触する部分の位置を手首状態及び関節動作により推定する筆記面接触推定部を含んでもよい。
さらに、実施形態として、内容を認識するためにテキスト又は図形(絵)の筆記を処理してもよい。
例えば、テキスト命令(textual command)は「e−mail」送信の命令を含んでもよく、パラメータはEメールアドレスであってもよい。又は、図8に示したように、ユーザの意図を理解するために図形を解釈してもよい。
信号生成部1150は、物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部を含んでもよい。
筆記生成部は、物体の状態を連続的に追跡し、力の強度に対応する太さにて形態を生成してもよい。筆記生成部は、物体を把持した姿勢、筆記動作によるサウンド、及びユーザの音声の内の少なくとも1つを用いて物体の種類を識別する物体識別部を含み、物体の種類による動作を行って形態を生成してもよい。
例えば、物体の種類による動作は、文字及び文章を生成する動作及び図形(絵)を生成したり修正する動作を含んでもよい。
ここで、信号生成部1150は、生成された制御信号を通信部を介して外部機器、入出力装置、及び格納装置の内の少なくとも1つに送信してもよい。例えば、通信部は、有線又は無線(例えば、ブルートゥース(登録商標)、Wi−Fi、ジグビー(登録商標)など)で他の装置と通信できる。
ここで、モーション認識装置は、生体信号検出部を取付けたユーザの動きにより発生する動きアーチファクト(motion artifact)を生体信号から抽出し、動きアーチファクトからユーザの動きを逆追跡する。
物体状態補正部は、逆追跡したユーザ動きに基づいて物体状態推定部で推定した物体の状態を補正する。
ここで、モーション認識装置1100は、生体信号から抽出した動きアーチファクト(motion artifact)に基づいてユーザ動作を推定する。
モーション認識装置1200は、検出部1210、処理部1220、格納部1230、及び通信部1240を備える。
例えば、検出部1210は、筋電図センサ、サウンドセンサ、心電図センサ、フォトプレチスモグラフィ(PPG、Photoplethysmography)、インピーダンスセンサを含んでもよい。
ここで、生体信号は、心電図、眼電図、筋電図及び脳電図を含んでもよい。
サウンド信号は、モーション認識装置1200周辺のサウンド及びユーザの音声などを含んでもよい。
加速度信号は、直線運動に対する3軸の加速度信号及び各軸を基準とする回転運動に対する3軸の加速度信号を含んでもよい。
検出部1210で検出された生体信号、加速度信号、及びサウンド信号を用いてユーザによって把持された物体の状態を推定し、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する。
例えば、筋電図信号から手首と関連する人体部位の関節動作を推定し、加速度信号から手首状態を推定し、推定された手首状態及び関節動作から物体の状態を推定する。
具体的には、上述した図3及び図4にて示した方法と近似して物体の状態を推定する。
本実施形態によれば、格納部1230は、物体の状態を連続的に追跡して生成された形態(figure)を格納してもよい。
ここで、通信部1240は、有線又は無線で外部機器、格納装置、及び入出力装置と通信してもよい。
例えば、通信部1240は、無線でモーション認識装置1200が使用可能な外部機器、格納装置、及び入出力装置を検索してもよい。
このようなユーザインターフェースは、別途の入出力装置が不要な新しい形態の直観的かつ自然なユーザインターフェースである。
本発明に係るモーション認識装置は、加速度検出部を用いてユーザの手を含む腕の大きい動きを把握し、筋電図センサを用いて個別の指を握ったり開いたりするユーザ動作、手首の動きなどを推定するすることができる。
このような実施形態がモーション認識装置を手首装着モーション認識装置に特定する一方、他の実施形態としてモーション認識装置に対する代替形態を提供してもよい。
例えば、ユーザが筆記中である文字、文章、及び図形(絵)などを入出力装置で表示してもよい。
例えば、モーション認識装置は、制御しようとする外部機器を制御するためのディスプレイが必要でなくてもよい。
他の例として、データを入力するためのモーション認識装置以外の別途装置を必要とすることはない。ユーザはこのようなモーション認識装置を介して直観的に外部機器を制御することができる。
また、外部機器を制御するためのアイコンを紙に、そして、筆記道具などでポインティン(Pointing)して外部機器を制御することができる。
例えば、実施形態で説明した装置及び構成要素は、例えば、プロセッサ、パイプラインプロセッサ(pipeline processor)、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は、命令(instruction)を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて実現してもよい。
ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するため、どのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に、永久的、又は、一時的に具体化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。
ソフトウェア及びデータは、1つ以上のコンピュータ読み出し可能な記録媒体に格納されてもよい。
コンピュータで読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合わせて含むことができる。
記録媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に公示された使用可能なものであってもよい。
180 物体
190 ユーザ
201 ノート筆記
210 モーション認識装置
220 格納装置
230 入出力装置
240 外部機器
1110 動作開始検出部
1120 手首状態推定部
1130 関節動作推定部
1140 物体状態推定部
1150 信号生成部
1210 検出部
1220 処理部
1230 格納部
1240 通信部
Claims (23)
- 把持された物体を用いた筆記動作をユーザの手首に装着されたモーション認識装置によるモーション認識方法であって、
前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップと、
前記把持された物体を用いた前記筆記動作によるユーザの手首状態を推定するステップと、
前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定するステップと、
把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップとを有し、
前記把持された物体の種類を識別するステップと、
前記物体の状態を連続的に追跡し、前記物体の種類に対応する動作を行うステップと、をさらに有し、
前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップは、前記筆記動作により発生するサウンド及び前記筆記動作による前記物体に対する把持行為を検出した場合、前記筆記動作が開始されたと判断するステップを含み、
前記筆記動作により発生するサウンドは、物体と接触面との間の摩擦音を含み、
前記把持された物体の種類を識別するステップは、前記物体を把持した姿勢、前記筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別するステップを含み、
前記筆記動作は、筆記動作、筆記を修正する動作、及び筆記を消去する動作を含むことを特徴とする把持された物体を用いたモーション認識方法。 - 前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
- 前記把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップは、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定するステップを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
- 前記筆記動作によるユーザの手首状態を推定するステップは、前記把持された物体を用いた前記筆記動作による加速度を検出するステップと、
前記加速度により前記手首状態を推定するステップとを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。 - 前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記筆記動作による前記手首と関連する人体部位の筋電図情報を検出するステップと、
前記筋電図情報により前記関節動作を推定するステップとを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。 - 前記ユーザに対応する生体信号を検出するステップと、
前記生体信号による動きアーチファクト(motion artifact)を用いて、推定された前記物体の状態の誤差を補正するステップとをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。 - 前記物体の状態を連続的に追跡して生成された形態(figure)を格納するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
- 前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記物体を把持するために前記ユーザによって加えられた力の強度を推定するステップを含み、
前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成するステップをさらに含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。 - 把持された物体を用いた筆記動作を行うユーザの手首に装着され、
前記把持された物体を用いた前記筆記動作によるユーザの手首状態を推定する手首状態推定部と、
前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定する関節動作推定部と、
把持された前記物体の状態を前記手首状態及び前記関節動作により推定する物体状態推定部とを備え、
前記把持された物体を用いた前記筆記動作の開始を検出する動作開始検出部をさらに備え、
前記動作開始検出部は、前記筆記動作により発生するサウンドを検出する音声検出部と、
前記筆記動作により発生する前記サウンド及び前記筆記動作による前記物体に対する把持行為を検出した場合、前記筆記動作が開始されたと判断する動作開始判断部とを含み、
前記物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部をさらに備え、
前記関節動作推定部は、前記ユーザが前記物体を把持するために前記ユーザによって加えられた力の強度を推定する把持強度推定部を含み、
前記筆記生成部は、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成し、
前記筆記生成部は、前記物体を把持した姿勢、前記筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別する物体識別部を含み、前記物体の種類による動作を行って前記形態を生成し、
前記筆記動作により発生するサウンドは、前記物体と接触面との間の摩擦音を含み、
前記筆記動作は、筆記動作、筆記を修正する動作、及び筆記を消去する動作を含むことを特徴とする把持された物体を用いたモーション認識装置。 - 前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する信号生成部をさらに備えることを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
- 前記物体状態推定部は、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定する筆記面接触推定部を含むことを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
- 前記手首状態推定部は、前記把持された物体を用いた前記筆記動作による6軸に対する加速度を検出する加速度検出部を含み、
前記加速度により前記手首の位置変化又は前記手首の回転の少なくとも1つを含む前記手首状態を推定することを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。 - 前記関節動作推定部は、前記筆記動作により前記手首と関連する人体部位で発生する筋電図情報を検出する筋電図検出部を含み、
前記筋電図情報により前記関節動作を推定することを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。 - 前記ユーザに対応する生体信号を検出する生体信号検出部と、
前記生体信号による動きアーチファクト(motion artifact)を用いて、前記推定された物体の状態の誤差を補正する物体状態補正部をさらに備えることを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。 - 請求項9に記載のモーション認識装置と、
外部機器と、を備え、
前記モーション認識装置は、物体の状態を連続的に追跡して生成した外部機器を制御するための制御信号を送信し、
前記外部機器は、前記制御信号を受信した場合、前記制御信号に対応する予め決められた動作を行うことを特徴とする把持された物体を用いたモーション認識システム。 - 前記モーション認識装置は、前記物体の状態を連続的に追跡した形態(figure)に対応する外部機器を選択し、前記選択された外部機器を制御するための信号を前記制御信号で生成することを特徴とする請求項15に記載の把持された物体を用いたモーション認識システム。
- 前記制御信号は、前記モーション認識装置が前記形態で前記外部機器の予め決められた部分を活性化するユーザ動作を検出した場合、前記外部機器が前記予め決められた部分に対応する動作を行うようにする制御命令を備えることを特徴とする請求項16に記載の把持された物体を用いたモーション認識システム。
- 把持された物体を用いたユーザの手首に装着されたモーション認識装置によるモーション認識方法であって、
前記把持された物体を用いた前記ユーザの動作の開始を検出するステップと、
ユーザの手首状態及び前記手首と関連する人体部位の関節動作により前記把持された物体の状態を推定するステップと、
前記把持された物体の状態を連続的に追跡することによって生成される、字、文章、及び図形の少なくとも1つを含む形態(figure)を格納するステップと、
前記形態に対応する外部機器を識別するために前記形態を認識し、前記外部機器によって行われる動作を決定するステップと、
前記外部機器が前記決定された動作を行うように指示する制御信号を前記外部機器に送信するステップとを有し、
前記把持された物体を用いた前記ユーザの動作の開始を検出するステップは、前記ユーザの動作により発生するサウンド及び前記ユーザの動作による前記物体に対する把持行為を検出した場合、前記ユーザの動作が開始されたと判断するステップを含み、
前記ユーザの動作により発生するサウンドは、物体と接触面との間の摩擦音を含むことを特徴とする把持された物体を用いたモーション認識方法。 - 前記形態は、文字であり、
前記形態を認識し、前記外部機器によって行われる動作を決定するステップは、前記文字を認識するステップを含むことを特徴とする請求項18に記載の把持された物体を用いたモーション認識方法。 - 前記外部機器は、前記認識された文字に基づいて識別されることを特徴とする請求項19に記載の把持された物体を用いたモーション認識方法。
- 前記外部機器によって行われる動作は、前記認識された文字に基づいて決定されることを特徴とする請求項19に記載の把持された物体を用いたモーション認識方法。
- 前記外部機器は、前記外部機器を示す前記形態の認識に基づいて識別されることを特徴とする請求項18に記載の把持された物体を用いたモーション認識方法。
- 前記形態の領域は、前記決定された動作を行う前記外部機器の一部分の図形であり、
前記ユーザが前記一部分を選択した場合、前記決定された動作を前記外部機器が行うように指示する前記制御信号を送信するステップをさらに有することを特徴とする請求項22に記載の把持された物体を用いたモーション認識方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0068870 | 2013-06-17 | ||
KR1020130068870A KR102170321B1 (ko) | 2013-06-17 | 2013-06-17 | 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019006957A Division JP2019075169A (ja) | 2013-06-17 | 2019-01-18 | 把持された物体を用いたモーション認識方法及びその装置並びにシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015001978A JP2015001978A (ja) | 2015-01-05 |
JP6527307B2 true JP6527307B2 (ja) | 2019-06-05 |
Family
ID=50473019
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014023149A Active JP6527307B2 (ja) | 2013-06-17 | 2014-02-10 | 把持された物体を用いたモーション認識方法及びその装置並びにシステム |
JP2019006957A Pending JP2019075169A (ja) | 2013-06-17 | 2019-01-18 | 把持された物体を用いたモーション認識方法及びその装置並びにシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019006957A Pending JP2019075169A (ja) | 2013-06-17 | 2019-01-18 | 把持された物体を用いたモーション認識方法及びその装置並びにシステム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10019078B2 (ja) |
EP (1) | EP2815699A1 (ja) |
JP (2) | JP6527307B2 (ja) |
KR (1) | KR102170321B1 (ja) |
CN (1) | CN104238736B (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
US20150253859A1 (en) * | 2014-03-05 | 2015-09-10 | Google Inc. | System and method for physical manipulation of object and type of object as input |
CN104571517A (zh) * | 2014-12-31 | 2015-04-29 | 杨皓 | 一种人体动作对电子设备进行输入及控制的方法 |
CN104656896B (zh) | 2015-02-10 | 2018-09-18 | 北京智谷睿拓技术服务有限公司 | 确定输入信息的方法和设备 |
CN104615248B (zh) * | 2015-02-10 | 2018-07-31 | 北京智谷睿拓技术服务有限公司 | 确定输入信息的方法和设备 |
US10285627B2 (en) * | 2015-04-15 | 2019-05-14 | Pixart Imaging Inc. | Action recognition system and method thereof |
CN106200887A (zh) * | 2015-05-04 | 2016-12-07 | 原相科技股份有限公司 | 动作辨识系统及其方法 |
CN106293048B (zh) * | 2015-07-31 | 2019-05-07 | 北京智谷睿拓技术服务有限公司 | 输入信息确定方法和设备 |
CN106371564B (zh) * | 2015-08-28 | 2020-06-23 | 北京智谷睿拓技术服务有限公司 | 输入信息确定方法和设备 |
CN106249853B (zh) * | 2015-09-15 | 2019-03-19 | 北京智谷睿拓技术服务有限公司 | 交互方法和设备 |
KR102343616B1 (ko) | 2015-11-16 | 2021-12-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102570068B1 (ko) * | 2015-11-20 | 2023-08-23 | 삼성전자주식회사 | 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치 |
KR102466995B1 (ko) * | 2015-12-21 | 2022-11-14 | 삼성전자주식회사 | 사용자 인증 장치 및 방법 |
CN107153470A (zh) * | 2016-03-02 | 2017-09-12 | 中国科学院软件研究所 | 一种多通道健康鼠标系统及健康状况监测方法 |
KR101775080B1 (ko) * | 2016-06-07 | 2017-09-05 | 동국대학교 산학협력단 | Nui/nux에 기반하여 드로잉 영상을 처리하는 장치 및 방법 |
KR102619443B1 (ko) | 2016-09-30 | 2023-12-28 | 삼성전자주식회사 | 손목 온도 리듬 획득 장치 및 방법, 심부 체온 리듬 획득 장치 및 방법과, 웨어러블 디바이스 |
KR102655584B1 (ko) | 2017-01-02 | 2024-04-08 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어 방법 |
KR102329761B1 (ko) * | 2017-05-26 | 2021-11-22 | 삼성전자주식회사 | 외부 장치의 선택 및 제어를 위한 전자 장치와 그의 동작 방법 |
EP3435202A1 (de) | 2017-07-25 | 2019-01-30 | Siemens Healthcare GmbH | Zuordnen eines werkzeuges zu einer greifgeste |
JP7071717B2 (ja) * | 2017-09-05 | 2022-05-19 | 株式会社国際電気通信基礎技術研究所 | イベント系列抽出装置、イベント系列抽出方法およびイベント抽出プログラム |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
WO2019095050A1 (en) * | 2017-11-14 | 2019-05-23 | Biointeractive Technologies, Inc. | Apparatus and methods for detecting, quantifying, and providing feedback on user gestures |
WO2019134141A1 (zh) * | 2018-01-05 | 2019-07-11 | 深圳市汇顶科技股份有限公司 | 主动笔的压力检测方法、装置和主动笔 |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
CN112789577B (zh) * | 2018-09-20 | 2024-04-05 | 元平台技术有限公司 | 增强现实系统中的神经肌肉文本输入、书写和绘图 |
CN109291696A (zh) * | 2018-09-29 | 2019-02-01 | 上海掌门科技有限公司 | 一种通过书写装置采集心电信号的方法与设备 |
CN113423341A (zh) | 2018-11-27 | 2021-09-21 | 脸谱科技有限责任公司 | 用于可穿戴电极传感器系统的自动校准的方法和装置 |
CN109960404B (zh) * | 2019-02-15 | 2020-12-18 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
DE102019204714A1 (de) * | 2019-04-03 | 2020-10-08 | Technische Hochschule Lübeck | Verfahren und Stift zur Personenidentifikation und Schrifterkennung |
CN110658889A (zh) * | 2019-09-23 | 2020-01-07 | 上海闻泰信息技术有限公司 | 可穿戴设备控制方法、装置、设备及存储介质 |
CN110664404B (zh) * | 2019-09-30 | 2021-10-26 | 华南理工大学 | 一种基于表面肌电信号的躯干代偿检测和消除系统 |
CN110827987B (zh) * | 2019-11-06 | 2021-03-23 | 西安交通大学 | 一种多抓取模式下腕关节力矩的肌电连续预测方法及系统 |
JP6747704B1 (ja) * | 2020-04-07 | 2020-08-26 | ポジティブワン株式会社 | 割当制御装置、割当制御システム、及び割当制御方法 |
WO2021100502A1 (ja) * | 2019-11-18 | 2021-05-27 | ポジティブワン株式会社 | 割当制御装置、割当制御システム、及び割当制御方法 |
CN111288986B (zh) * | 2019-12-31 | 2022-04-12 | 中科彭州智慧产业创新中心有限公司 | 一种运动识别方法及运动识别装置 |
JP2022042362A (ja) * | 2020-09-02 | 2022-03-14 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN112687085B (zh) * | 2020-12-23 | 2021-10-26 | 邢台职业技术学院 | 一种幼升小阶段学生“三姿”培养的智能辅助工具 |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6133144U (ja) * | 1984-07-31 | 1986-02-28 | カシオ計算機株式会社 | ペン型手書き入力装置 |
JP2659653B2 (ja) | 1992-07-27 | 1997-09-30 | 日本電信電話株式会社 | ロボットハンド制御装置 |
JP3310398B2 (ja) | 1993-07-12 | 2002-08-05 | 株式会社日立製作所 | 筆記データ入力装置およびそれを用いた筆記データ認識システム |
JP2698320B2 (ja) | 1993-08-31 | 1998-01-19 | 日本電信電話株式会社 | 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム |
JPH10301702A (ja) * | 1997-04-30 | 1998-11-13 | Ricoh Co Ltd | ペン型入力装置及びそのパタ−ン認識方法 |
JP3677149B2 (ja) | 1998-05-26 | 2005-07-27 | 日本電信電話株式会社 | 手首装着型入力装置 |
US6831632B2 (en) | 2001-04-09 | 2004-12-14 | I. C. + Technologies Ltd. | Apparatus and methods for hand motion tracking and handwriting recognition |
JP2002358149A (ja) | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
JP4379214B2 (ja) | 2004-06-10 | 2009-12-09 | 日本電気株式会社 | 携帯端末装置 |
KR100650041B1 (ko) * | 2004-10-12 | 2006-11-28 | 학교법인연세대학교 | 가속도 센서를 이용한 동잡음 제거수단을 구비하는오실로메트릭 방식 혈압계 |
KR100680023B1 (ko) | 2004-12-06 | 2007-02-07 | 한국전자통신연구원 | 생체신호를 이용한 착용형 휴대폰 입력 장치 및 그 제어방법 |
US9155487B2 (en) * | 2005-12-21 | 2015-10-13 | Michael Linderman | Method and apparatus for biometric analysis using EEG and EMG signals |
TWI301590B (en) | 2005-12-30 | 2008-10-01 | Ibm | Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition |
KR100793079B1 (ko) | 2006-12-08 | 2008-01-10 | 한국전자통신연구원 | 손목착용형 사용자 명령 입력 장치 및 그 방법 |
JP2008305199A (ja) | 2007-06-07 | 2008-12-18 | Fujitsu Component Ltd | 入力システム及びプログラム |
JP4927009B2 (ja) | 2008-03-12 | 2012-05-09 | ヤフー株式会社 | 手書き文字認識装置 |
CN101969848B (zh) * | 2008-03-14 | 2012-11-28 | 皇家飞利浦电子股份有限公司 | 对外部运动因素引起的加速度不敏感的活动监视系统 |
JP2009266097A (ja) * | 2008-04-28 | 2009-11-12 | Toshiba Corp | 入力機器 |
WO2009137119A1 (en) * | 2008-05-09 | 2009-11-12 | Medtronic, Inc. | Peripheral nerve field stimulation control |
US8764850B2 (en) * | 2008-07-31 | 2014-07-01 | Northwestern University | Bi-modal ankle-foot device |
US8776264B2 (en) * | 2009-04-03 | 2014-07-15 | Ware Llc | Garments for providing access for sensors to contact skin |
JP4988016B2 (ja) * | 2009-08-27 | 2012-08-01 | 韓國電子通信研究院 | 指の動き検出装置およびその方法 |
KR101234111B1 (ko) * | 2009-10-13 | 2013-02-19 | 한국전자통신연구원 | 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법 |
US20140194726A1 (en) * | 2013-01-04 | 2014-07-10 | Neurotrek, Inc. | Ultrasound Neuromodulation for Cognitive Enhancement |
TWI393579B (zh) * | 2009-11-13 | 2013-04-21 | Inst Information Industry | The state of the muscle movement state analysis system, methods and computer program products |
US8830212B2 (en) * | 2010-06-01 | 2014-09-09 | Vladimir Vaganov | System and method for digital recording of handpainted, handdrawn and handwritten information |
KR20110137587A (ko) | 2010-06-17 | 2011-12-23 | 한국전자통신연구원 | 공간 입출력 인터페이싱 장치 및 방법 |
JP5621464B2 (ja) * | 2010-09-24 | 2014-11-12 | 富士ゼロックス株式会社 | 動作検出装置、記録システム及びプログラム |
JP2012073830A (ja) * | 2010-09-29 | 2012-04-12 | Pioneer Electronic Corp | インターフェース装置 |
US20130045774A1 (en) * | 2010-12-07 | 2013-02-21 | Sigza Authentication Systems | Smart Phone Writing Method and Apparatus |
KR101159475B1 (ko) | 2010-12-10 | 2012-06-25 | 숭실대학교산학협력단 | 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법 |
KR101800182B1 (ko) | 2011-03-16 | 2017-11-23 | 삼성전자주식회사 | 가상 객체 제어 장치 및 방법 |
EP2709522B1 (en) * | 2011-05-20 | 2016-09-14 | Nanyang Technological University | System for synergistic neuro-physiological rehabilitation and/or functional development |
KR20120133351A (ko) | 2011-05-31 | 2012-12-10 | 주식회사 네오펙트 | 모바일 연동 장갑형 데이터 입력장치 |
US9218058B2 (en) | 2011-06-16 | 2015-12-22 | Daniel Bress | Wearable digital input device for multipoint free space data collection and analysis |
US20140267024A1 (en) * | 2013-03-15 | 2014-09-18 | Eric Jeffrey Keller | Computing interface system |
-
2013
- 2013-06-17 KR KR1020130068870A patent/KR102170321B1/ko active IP Right Grant
-
2014
- 2014-02-04 US US14/172,481 patent/US10019078B2/en active Active
- 2014-02-10 JP JP2014023149A patent/JP6527307B2/ja active Active
- 2014-03-20 EP EP14160869.5A patent/EP2815699A1/en not_active Ceased
- 2014-04-09 CN CN201410141577.4A patent/CN104238736B/zh active Active
-
2018
- 2018-06-06 US US16/001,114 patent/US10649549B2/en active Active
-
2019
- 2019-01-18 JP JP2019006957A patent/JP2019075169A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019075169A (ja) | 2019-05-16 |
CN104238736B (zh) | 2019-02-15 |
US20140368474A1 (en) | 2014-12-18 |
KR102170321B1 (ko) | 2020-10-26 |
US10019078B2 (en) | 2018-07-10 |
KR20140146346A (ko) | 2014-12-26 |
JP2015001978A (ja) | 2015-01-05 |
EP2815699A1 (en) | 2014-12-24 |
US10649549B2 (en) | 2020-05-12 |
US20180284912A1 (en) | 2018-10-04 |
CN104238736A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6527307B2 (ja) | 把持された物体を用いたモーション認識方法及びその装置並びにシステム | |
US10970936B2 (en) | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment | |
US11567573B2 (en) | Neuromuscular text entry, writing and drawing in augmented reality systems | |
US9367139B2 (en) | Systems, articles, and methods for gesture identification in wearable electromyography devices | |
US10534431B2 (en) | Tracking finger movements to generate inputs for computer systems | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
US9389694B2 (en) | Systems, articles, and methods for gesture identification in wearable electromyography devices | |
US10528135B2 (en) | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display | |
JP2022500729A (ja) | 拡張現実システムの神経筋制御 | |
JP2010108500A (ja) | 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法 | |
JP2017518572A (ja) | ペンおよびコンピューティングデバイスのインタラクションのためのマルチデバイスマルチユーザセンサ相関 | |
JP2017517813A (ja) | ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 | |
JP6144743B2 (ja) | ウェアラブル装置 | |
US9946395B2 (en) | User interface method and apparatus | |
US20160320846A1 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
Devi et al. | Low cost tangible glove for translating sign gestures to speech and text in Hindi language | |
JP2010086367A (ja) | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 | |
KR101337429B1 (ko) | 입력 장치 | |
TWI822054B (zh) | 人機互動方法、人機互動系統及非暫態電腦可讀取儲存媒體 | |
JP2009151631A (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
WO2022204614A1 (en) | Wrist-wearable controller for head-mounted device (hmd) or other user device with camera input | |
Odagaki et al. | Touch interface for sensing fingertip force in mobile device using electromyogram |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190118 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6527307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |