JP6527307B2 - 把持された物体を用いたモーション認識方法及びその装置並びにシステム - Google Patents

把持された物体を用いたモーション認識方法及びその装置並びにシステム Download PDF

Info

Publication number
JP6527307B2
JP6527307B2 JP2014023149A JP2014023149A JP6527307B2 JP 6527307 B2 JP6527307 B2 JP 6527307B2 JP 2014023149 A JP2014023149 A JP 2014023149A JP 2014023149 A JP2014023149 A JP 2014023149A JP 6527307 B2 JP6527307 B2 JP 6527307B2
Authority
JP
Japan
Prior art keywords
user
state
writing
motion recognition
wrist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014023149A
Other languages
English (en)
Other versions
JP2015001978A (ja
Inventor
尚 駿 金
尚 駿 金
勝 槿 尹
勝 槿 尹
昌 穆 崔
昌 穆 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015001978A publication Critical patent/JP2015001978A/ja
Application granted granted Critical
Publication of JP6527307B2 publication Critical patent/JP6527307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Description

ユーザのモーションを認識する装置及び方法に関し、把持された物体を用いたモーション認識方法及びその装置並びにシステムに関する。
近年、スマートフォン、タブレットPC、PDA(Personal Digital Assistants)のような様々な携帯用電子機器の使用が増加しつつある。
ユーザ身体のモーションを解釈する一般的な技術として、機器に動作検知用の加速度センサなどを取付けてモーションを解読する方法がある。この技術は、ユーザの精密な動作より簡単な動作を解釈するとき適する。
他の技術として、機器に動作検知用カメラを取付けてカメラによって取得した画像情報を解読する方法がある。
この場合、ユーザが機器の前に存在することが前提でなければならないため、ユーザは身体と分離した機器を別に管理しなければならない。
また、画像においてユーザの身体が重なっている状態ではモーションを容易に解釈することができないという問題があった。
本発明は上記従来のモーション認識方法における問題点に鑑みてなされたものであって、本発明の目的は、ノート筆記及び描画のようなユーザ動作を精密に認識することのできるユーザインターフェースを有する把持された物体を用いたモーション認識方法及びその装置並びにシステムを提供することにある。
上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識方法は、把持された物体を用いた筆記動作をユーザの手首に装着されたモーション認識装置によるモーション認識方法であって、前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップと、前記把持された物体を用いた前記筆記動作によるユーザの手首状態を推定するステップと、前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定するステップと、把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップとを有し、前記把持された物体の種類を識別するステップと、前記物体の状態を連続的に追跡し、前記物体の種類に対応する動作を行うステップと、をさらに有し、前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップは、前記筆記動作により発生するサウンド及び前記筆記動作による前記物体に対する把持行為を検出した場合、前記筆記動作が開始されたと判断するステップを含み、前記筆記動作により発生するサウンドは、物体と接触面との間の摩擦音を含み、前記把持された物体の種類を識別するステップは、前記物体を把持した姿勢、前記筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別するステップを含み、前記筆記動作は、筆記動作、筆記を修正する動作、及び筆記を消去する動作を含むことを特徴とする。
前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するステップをさらに有することが好ましい。
記把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップは、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定するステップを含むことが好ましい。
前記筆記動作によるユーザの手首状態を推定するステップは、前記把持された物体を用いた前記筆記動作による加速度を検出するステップと、前記加速度により前記手首状態を推定するステップとを含むことが好ましい。
前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記筆記動作による前記手首と関連する人体部位の筋電図情報を検出するステップと、前記筋電図情報により前記関節動作を推定するステップとを含むことが好ましい。
前記ユーザに対応する生体信号を検出するステップと、前記生体信号による動きアーチファクト(motion artifact)を用いて、推定された前記物体の状態の誤差を補正するステップとをさらに有することが好ましい。
前記物体の状態を連続的に追跡して生成された形態(figure)を格納するステップをさらに有することが好ましい。
前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記物体を把持するために前記ユーザによって加えられた力の強度を推定するステップを含み、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成するステップをさらに含むことが好ましい。
上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識装置は、把持された物体を用いた筆記動作を行うユーザの手首に装着され、前記把持された物体を用いた前記筆記動作によるユーザの手首状態を推定する手首状態推定部と、前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定する関節動作推定部と、把持された前記物体の状態を前記手首状態及び前記関節動作により推定する物体状態推定部とを備え、前記把持された物体を用いた前記筆記動作の開始を検出する動作開始検出部をさらに備え、前記動作開始検出部は、前記筆記動作により発生するサウンドを検出する音声検出部と、前記筆記動作により発生する前記サウンド及び前記筆記動作による前記物体に対する把持行為を検出した場合、前記筆記動作が開始されたと判断する動作開始判断部とを含み、前記物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部をさらに備え、前記関節動作推定部は、前記ユーザが前記物体を把持するために前記ユーザによって加えられた力の強度を推定する把持強度推定部を含み、前記筆記生成部は、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成し、前記筆記生成部は、前記物体を把持した姿勢、前記筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別する物体識別部を含み、前記物体の種類による動作を行って前記形態を生成し、前記筆記動作により発生するサウンドは、前記物体と接触面との間の摩擦音を含み、前記筆記動作は、筆記動作、筆記を修正する動作、及び筆記を消去する動作を含むことを特徴とする。
前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する信号生成部をさらに備えることが好ましい。
記物体状態推定部は、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定する筆記面接触推定部を含むことが好ましい。
前記手首状態推定部は、前記把持された物体を用いた筆記動作による6軸に対する加速度を検出する加速度検出部を含み、前記加速度により前記手首の位置変化又は前記手首の回転の少なくとも1つを含む前記手首状態を推定することが好ましい。
前記関節動作推定部は、前記筆記動作により前記手首と関連する人体部位で発生する筋電図情報を検出する筋電図検出部を含み、前記筋電図情報により前記関節動作を推定することが好ましい。
前記ユーザに対応する生体信号を検出する生体信号検出部と、前記生体信号による動きアーチファクト(motion artifact)を用いて、前記推定された物体の状態の誤差を補正する物体状態補正部をさらに備えることが好ましい。
上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識システムは、本発明に係るモーション認識装置と、外部機器と、を備え、前記モーション認識装置は、物体の状態を連続的に追跡して生成した外部機器を制御するための制御信号を送信し、前記外部機器は、前記制御信号を受信した場合、前記制御信号に対応する予め決められた動作を行うことを特徴とする。
前記モーション認識装置は、前記物体の状態を連続的に追跡した形態(figure)に対応する外部機器を選択し、前記選択された外部機器を制御するための信号を前記制御信号で生成することが好ましい。
前記制御信号は、前記モーション認識装置が前記形態で前記外部機器の予め決められた部分を活性化するユーザ動作を検出した場合、前記外部機器が前記予め決められた部分に対応する動作を行うようにする制御命令を備えることが好ましい。
また、上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識方法は、把持された物体を用いたユーザの手首に装着されたモーション認識装置によるモーション認識方法であって、前記把持された物体を用いた前記ユーザの動作の開始を検出するステップと、ユーザの手首状態及び前記手首と関連する人体部位の関節動作により前記把持された物体の状態を推定するステップと、前記把持された物体の状態を連続的に追跡することによって生成される、字、文章、及び図形の少なくとも1つを含む形態(figure)を格納するステップと、前記形態に対応する外部機器を識別するために前記形態を認識し、前記外部機器によって行われる動作を決定するステップと、前記外部機器が前記決定された動作を行うように指示する制御信号を前記外部機器に送信するステップとを有し、前記把持された物体を用いた前記ユーザの動作の開始を検出するステップは、前記ユーザの動作により発生するサウンド及び前記ユーザの動作による前記物体に対する把持行為を検出した場合、前記ユーザの動作が開始されたと判断するステップを含み、前記ユーザの動作により発生するサウンドは、物体と接触面との間の摩擦音を含むことを特徴とする。

前記形態は、文字を含み、前記形態を認識し、前記外部機器によって行われる動作を決定するステップは、前記文字を認識するステップを含むことが好ましい。
前記外部機器は、前記認識された文字に基づいて識別されることが好ましい。
前記外部機器によって行われる動作は、前記認識された文字に基づいて決定されることが好ましい。
前記外部機器は、前記外部機器を示す前記形態の認識に基づいて識別されることが好ましい。
前記形態の領域は、前記決定された動作を行う前記外部機器の一部分の図形であり、前記ユーザが前記一部分を選択した場合、前記決定された動作を前記外部機器が行うように指示する前記制御信号を送信するステップをさらに有することが好ましい。
本発明に係る把持された物体を用いたモーション認識方法及びその装置並びにシステムによれば、モーション認識装置は、ノート筆記及び描写するようなユーザ動作を精密に認識することのできるユーザインターフェース(UI、User Interface)を提供することができ、このようなユーザインターフェースは、別途の入出力装置が不要な新しい形態の直観的かつ自然なユーザインターフェースである。
また、モーション認識装置は、生体信号検出部、加速度検出部などを用いて手の動きを精密に推定し、これに基づいてノート筆記型の直観的なユーザインターフェースを提供することができる。
また、加速度検出部を用いてユーザの手を含む腕の大きい動きを把握し、筋電図センサを用いて個別の指を握ったり開いたりするユーザ動作、手首の動きなどを推定することができる。
また、予め決められた入出力装置や格納装置に当該ユーザ動作と関連する情報を送信してユーザにフィードバックを与えることができる。例えば、ユーザが筆記中である字、文章ないし絵を入出力装置で表示することができる。
また、本発明に係るモーション認識装置は、直観的かつ自然な筆記型ユーザインターフェースを提供することができる。
例えば、モーション認識装置は、制御しようとする外部機器を制御するためのディスプレイが必要でなくてもよい。他の例として、データを入力するためのモーション認識装置以外の別途装備が必要でなくてもよい。ユーザはこのようなモーション認識装置を介して直観的に外部機器を制御することができる。
また、ノート筆記されたデータ入力を無線でクラウドサーバなどに便利に送信することができる。また、外部機器を制御するためのアイコンを紙に、そして、筆記道具などでポインティン(Pointing)して外部機器を制御することができる。
本発明の一実施形態による把持された物体を用いたモーション認識装置の形状を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識システムの概略的な構成を示すブロック図である。 本発明の一実施形態による把持された物体を用いたモーション認識方法を説明するためのフローチャートである。 本発明の一実施形態による把持された物体を用いたモーションを認識して物体の状態を連続的に追跡する方法を説明するためのフローチャートである。 本発明の一実施形態による把持された物体を用いたモーション認識装置が認識結果を格納する工程を概略的に示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。 本発明の他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。 本発明のさらに他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。 本発明のさらに他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる空間的な動きの例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる空間的な動きの例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。 本発明の一実施形態により把持された物体を用いたモーションを認識する装置が検出できる関節動作の例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置がユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定することを示す図である。 本発明の一実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。 本発明の他の実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。
次に、本発明に係る物体を用いたモーション認識方法及びその装置並びにシステムを実施するための形態の具体例を図面を参照しながら説明する。
タッチ検出に基づいた入力装置を含むモバイル装置のユーザインターフェース(User interface)は、ユーザのタッチを検出してキーボードを認識する。
ユーザは、タッチ検出に基づいたキーボードを用いるために別途の使用法を習得しなければならず、使用法は直観的でないこともある。
また、ウェアラブル装置(Wearable Device)などのように小型化したモバイル装置が増加しつつ、タッチベースの入力装置を用いて装置を制御することがユーザにとって不便さを感じることもある。
図1は、本発明の一実施形態による把持された物体180を用いたモーション認識装置110の形状を示す図である。
ここで、モーション認識装置110は、ユーザ190によって把持された物体180の状態を推定する。
例えば、モーション認識装置110は、把持された物体180の状態を連続的に追跡することで、物体180を用いてユーザ190が筆記した内容を認識する。以下の本明細書で「筆記」とは、ユーザが物体を用いて特定内容を作成するユーザ動作として、字、文章及び図形(絵)などを作成するユーザ動作を含み得る。
本実施形態によると、例えば、モーション認識装置110は、ユーザ190によって、ユーザ190の手首に取り付けられる。
モーション認識装置110は、モーション信号、生体信号又はその他の形態の信号のうち少なくとも1つ以上を検出する少なくとも1つ以上のセンサを含み得る。
モーション認識装置110は、検出された様々な種類の生体信号、モーション信号などを組み合わせて、筆記する人体(例えば、手、手首、腕など)の各部位の動きを精密に推定する。ユーザ190は、本実施形態に係るモーション認識装置110を着用することによって、ノートなどに自在かつ直観的に筆記した内容を直接にコンピュータ読み出し可能なデータ形態で格納したり、筆記した内容に基づいて特定の外部機器とのインタラクション(interaction)を行う。
また、筆記した内容は、モーション認識装置110と通信して外部データ格納領域として機能する外部機器に格納されてもよい。
例えば、モーション認識装置110は、ユーザ190からのモーションを認識して推定するとき、モーション認識装置110は有線又は無線で外部機器へモーションを示すデータを送信し、外部機器は後で用いるためにデータを格納してもよい。
ここで、物体180は、ユーザが特定内容を筆記するために用いる道具として、ペン、鉛筆、スタイラスペン、筆、及びユーザが任意に把持できる形体の物体などを含んでもよい。
把持できる形体の物体は、手で握ることができる長い形体の物体(例えば、箸など)を含んでもよい。把持された物体180は、把持された物体180の尖っている終端の動きが記録されるように、ユーザ180によって操作される尖っている終端を有し、記録された動きは筆記された内容として生成する。
図2は、本発明の一実施形態による把持された物体を用いたモーション認識システムの概略的な構成を示すブロック図である。
ここで、モーション認識システムは、モーション認識装置210、格納装置220、入出力装置230、及び外部機器240を備える。
本実施形態では外部機器240を示しているが、この装置はシステム内部に実現されてもよい。さらに、図2において、格納装置220、入出力装置230、及び外部機器240がモーション認識装置210の外部に示しているが、格納装置220、入出力装置230、及び外部機器240の全て又は少なくとも1つはモーション認識装置の内部又は一部として実現してもよい。
本実施形態に係るモーション認識装置210を着用したユーザがノートを筆記すると、モーション認識装置210はノート筆記201を認識する。
モーション認識装置210は、認識された筆記内容を格納装置220に格納したり、入出力装置230に伝達したり、筆記した内容に基づいて外部機器240を制御したりする。
モーション認識装置210がユーザの筆記201を認識する具体的な方法及び活用は下記の図3〜図12を参照して詳細に説明する。
図3は、本発明の一実施形態による把持された物体を用いたモーション認識方法を説明するためのフローチャートである。
下記のステップは、モーション認識装置に含まれた検出部及び処理部によって行う。
ステップS310において、モーション認識装置は、筆記動作(writing action)の開始を検出する。
本実施形態によれば、筆記動作により発生するサウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する。
例えば、筆記動作により発生するサウンドは、物体と接触面(例えば、紙面など)との間の摩擦音を含む。
本明細書において、「接触面」は、把持された物体が表面上に筆記するために接触を形成することのできる表面(筆記面)を示す一般的な用語として使用する。
例えば、筆記は紙面上に行われるが、他の適切な平面も他の実施形態として適用され得る。
ステップS310は、筆記動作が開始したことを示す摩擦音を解釈する。
又は、ユーザが取った特定の手の形状(例えば、ペンを握る姿勢)を検出すると、筆記動作が開始されたと判断する。ここで、筆記動作はユーザが把持した物体を用いて筆記するモーションを含む。
次に、ステップS320において、モーション認識装置は、筆記動作による手首状態を推定する。
ここで、手首状態は、手首の位置、手首の位置変化、回転角度、回転方向などを含む。
ユーザ190は筆記動作が発生するとき手首を動かすため、手首がどのように動くかに関する情報は筆記動作の推論のために役に立つため、モーション認識装置は把持された物体180がどのように操作されたかに関する情報を提供する。
例えば、モーション認識装置は、加速度センサを介して筆記動作による加速度を検出して手首の相対的な位置変化を推定する。加速度センサが6軸に対する加速度を検出する場合、手首の回転角度、回転方向を推定する。
続いて、ステップS330において、モーション認識装置は、筆記動作による関節動作(joint motion)を推定する。
ここで、関節動作は、手首と関連する人体部位における関節の動き(例えば、指及び腕を曲げる動作)を含んでもよい。
具体的には、モーション認識装置は、筆記動作による手首と関連する人体部位の筋電図(EMGデータ)を検出し、検出された筋電図に基づいて筋肉の収縮と弛緩による関節動作を推定する。例えば、手首と関連する人体部位は、指の関節、手首の関節、腕の関節、肩の関節などを含んでもよい。手首と関連する人体部位はこれに限定されることなく、EMGデータは他の人体部位から導き出されてもよい。
次に、ステップS340において、モーション認識装置は、把持された物体の状態を手首状態及び関節動作により推定する。
ここで、把持された物体の状態は、ユーザが物体を把持した姿勢及び動きによる物体の位置、物体が筆記面と接触する位置、物体の傾き、物体が押さえられた程度などを含む。
例えば、モーション認識装置は、物体が筆記面と接触する部分の位置を手首状態及び関節動作により推定する。
本実施形態によれば、モーション認識装置は、把持された物体の推定された状態における不正確性を補正するためにユーザの生体信号を検出し、生体信号による動きアーチファクト(motion artifact)を用いて推定された物体の状態で誤差を補正する。動きアーチファクト(motion artifact)を用いた補正は、後述の図11を参照して詳細に説明する。
続いて、ステップS350において、モーション認識装置は、物体の状態を連続的に追跡する。
モーション認識装置は、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するか、又は物体を連続的に追跡して生成された形態(figure)を格納する。
例えば、物体を連続的に追跡して生成された形態は、コンピュータで読み出し可能なデータで格納するか、又は活用する。把持された物体の状態を追跡することでモーション認識装置は、ユーザが把持された物体を用いて筆記動作による筆記内容を示す情報を提供する。
ここで、物体を連続的に追跡して生成された“形態”は、ユーザが物体を用いて筆記した内容がモーション認識装置によって認識されたものであり、上述したようにユーザが作成した字、文章及び図形(絵)などが認識された結果として含まれ得る。
図4は、本発明の一実施形態による把持された物体を用いたモーションを認識して物体の状態を連続的に追跡する方法を説明するためのフローチャートである。
ステップS410において、モーション認識装置はユーザが物体を用いて筆記中であるか否かを判断する。
ユーザが物体を用いて筆記中であるか否かは、上述した図3に示すように、筆記動作が開始されたか否かに基づいて判断する。
例えば、筆記動作により発生するサウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する。
ここで、ユーザが筆記中ではないと判断されると、モーション認識装置は筆記動作が開始するまで待機する。
次に、ステップS451において、モーション認識装置は、ユーザが物体を把持した力の強度を測定する。
モーション認識装置は、手首と関連する人体部位の関節動作からユーザが物体を把持した力の強度を推定する。
ステップS451において、測定された力は、ユーザ190が物体180を把持するために、ユーザの手の一部によって加えられる力である。例えば、ユーザが物体を握るために指を曲げるとき発生する筋肉の筋電図信号を検出し、筋電図信号の強度からユーザが物体を把持した力の強度を推定する。
続いて、ステップS452において、モーション認識装置は筆記の太さを設定する。
太さは、把持された物体180と筆記面間との接触が占める軌跡(footprint)の太さを示す。
ここで、太さは、ユーザが筆記した内容の字の太さ、線の太さ、消しゴムで消す範囲、及び筆記修正道具が及ぼす効果の範囲を含んでもよい。
具体的には、モーション認識装置は、ステップS451で測定(推定)された力の強度に対応する太さを設定して上述した字や線の範囲などに適用する。例えば、力の強度が大きく推定されるほど、太さは力の強度に比例して大きく設定する。筆記修正道具は、筆記した内容を消す消しゴム、ブラシ効果を与えるブラシなどを含む。
一方、ステップS451と並行して、ステップS453において、モーション認識装置はユーザによって把持された物体の種類を識別する。
ここで、モーション認識装置は、ユーザが物体を把持した姿勢又は筆記動作によるサウンドの少なくとも1つを用いて物体の種類を識別する。
把持された物体の種類は、全体的な形態及び使用目的に対応する。
物体の種類を識別する具体的な方法は下記で詳細に説明する。
本実施形態によれば、モーション認識装置は、ユーザが物体を把持した姿勢を用いて物体の種類を識別する。
例えば、ユーザが物体を把持した姿勢がペンのように長い形の物体を把持した姿勢であれば、モーション認識装置はユーザによって把持された物体を筆記のための道具として識別する。
また、消しゴムのように太い形の物体を把持した姿勢であれば、モーション認識装置はユーザによって把持された物体を筆記を消す道具と識別する。
ただし、これに限定されることなく、モーション認識装置はユーザによって把持された物体の種類を各物体の固有な形に応じてユーザが取る姿勢に対応する道具として識別する。例えば、異なる方法で握られたり、特定のデザインされた(contoured)把持された物体は、把持された物体の特定種類に属するものと認識されてもよい。
他の実施形態によれば、モーション認識装置は、筆記動作によるサウンドを用いてユーザによって把持された物体の種類を識別してもよい。
ここで、筆記動作によるサウンドは、物体と筆記面の接触面(例えば、紙面など)との間の摩擦音を含む。サウンドは把持された物体の適切な種類を識別するために分析される。
例えば、モーション認識装置は、物体と接触面との間の摩擦音が頻繁にす早く発生すると、把持された物体を消す道具として識別し、摩擦音が頻繁に発生せずゆっくり発生すると、把持された物体が筆記道具として識別してもよい。
このような方法は、所定の時間周期の間にどれほど多いサウンドが発生するかを追跡したり、又は、摩擦音の速度及び周期を追跡することによって実現され得る。例えば、把持された物体が筆記道具又は消しゴムであるかを判断するために閾値又は測量が存在し得る。
他の例として、モーション認識装置は、物体と接触面との間の摩擦音のサウンド波形を測定し、サウンド波形に対応する道具がユーザによって把持されたと識別してもよい。
このような波形が測定された場合、信号分析に基づいて識別されるよう摩擦音を特性化(characterize)してもよい。
例えば、モーション認識装置は、筆記道具と紙面との間の摩擦音に対するサウンド波形及び消しゴムと紙面との間の摩擦音に対するサウンド波形を予め格納してもよい。モーション認識装置は、物体と紙面との間の摩擦音を予め格納されたサウンド波形と比較して把持された物体の種類を識別してもよい。このような比較に基づいて、モーション認識装置は、把持された物体を筆記道具又は消しゴムに分類する。例えば、分類はすでに存在する波形が把持された物体を用いて生成された波形と最も類似するかに基づく。
更なる例として、モーション認識装置は、ユーザの音声を認識して把持された物体の種類を識別してもよい。
例えば、ユーザが「レッド(red)」と言った場合、モーション認識装置はユーザの音声を認識し、把持された物を「レッドペン」のように識別することができる。ただし、把持された物体が必ず音声認識された結果と同一でない場合もあり、音声認識命令は他の入力形態を指示してもよい。
例えば、ユーザはブラックペンで筆記しながらも、上述したように色を音声で認識させることによって、色などを自由に変更しながら筆記することができる。したがって、ユーザがブラックペンに筆記するとき、ユーザが「ブルー」と言った場合、ペンの色変換を示す。ただし、ユーザが消しゴム使用時、ユーザが「ブルー」と言った場合、ペンに対して色変換をしたように、消しゴムからペン種類に物体の種類を変えてもよい。
続いて、ステップS453にてモーション認識装置は、ユーザによって把持された物体を鉛筆のような筆記道具として判断した場合、ステップS454において、筆記内容に対応するデータを生成する。
モーション認識装置は、上述した図3に示したものと近似して、把持された物体の状態を連続的に追跡して筆記内容に対応するデータを生成する。ここで、モーション認識装置はステップS452で設定された太さで筆記を生成してもよい。
そして、ステップS453にてモーション認識装置は、ユーザによって把持された物体を消しゴムのような筆記修正道具として判断した場合、ステップS455において、筆記を修正する。
モーション認識装置は、上述した図3に示したものと近似して、把持された物体の状態を連続的に追跡して筆記を修正する。ここで、モーション認識装置は、ステップS452において、設定された太さで筆記を修正する効果を適用し得る。
続いてステップS456において、モーション認識装置は識別された物体の種類による動作を行ってユーザが筆記した内容に対応する形態(figure)を生成する。
具体的には、上述したステップS452、ステップS454及びステップS455により生成及び修正された筆記内容に対応するデータに基づいて形態を生成する。
例えば、物体を把持した強度に応じて筆記の軌跡の太さを異ならせながら、音声により認識した色で筆記した内容に対応する形態を生成してもよい。
次に、ステップS457において、モーション認識装置は、ユーザが筆記動作を終了したか否かを判断する。
例えば、ユーザが物体をこれ以上把持しない場合、物体を把持した姿勢が筆記するための姿勢ではない場合、一定時間以上、物体と接触面との間の摩擦音が検出されない場合、などにおいて筆記動作が終了したと判断する。
ただし、ユーザが筆記を終了したと判断される他のイベントがあってもよく、これらは単なる例示に過ぎない。本実施形態によれば、筆記動作が終了したと判断された場合には、モーション認識を終了し、筆記動作が終了していないと判断された場合には上述したステップS410に戻る。
図5は、本発明の一実施形態により把持された物体を用いたモーション認識装置が認識結果を格納する工程を概略的に示す図である。
図5に示すように、ユーザ590が特定内容を筆記すると、モーション認識装置510は物体580の状態を連続的に追跡して生成した形態を格納する。
本実施形態によれば、モーション認識装置510は、生成された形態を通信網、クラウドサービスなどを用いて格納装置520に格納する。ここで、格納装置520はサーバを含んでもよい。
図6は、本発明の一実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。
モーション認識装置610は、物体680の状態を連続的に追跡して生成した、外部機器640を制御するための制御信号を送信する。
制御信号を受信すると、外部機器640は、予め決められた(予め設定された)動作を実行する。
例えば、モーション認識装置610を着用したユーザ690が把持した物体680を用いて、図に示すように、電話番号(例えば、123−456−7890)及び「call」という内容を筆記する。把持された物体680の動きを追跡することによって、モーション認識装置610は、ユーザが筆記した内容がハイフン(−)、命令(例えば、「call」)を含む数字の羅列であるかどうかを認識する。このような認識に基づいて、モーション認識装置610は記載した電話番号に「電話」しようとするユーザ意図を推定することができる。
したがって、モーション認識装置610は、筆記された電話番号に電話せよとの命令を含む制御信号を、予め接続された外部機器640(例えば、スマートフォン)に対して無線送信する。
外部機器640は、上述した制御信号を受信すると、対応する電話番号に電話する。
このような例示は、ユーザが潜在的に作成しようとする筆記内容が意味を有するものを示す。様々な例示において、筆記内容は入力を提供するものとして認識してもよく、外部機器640で行われる命令を提供するものとして認識されてもよい。
他の例として、モーション認識装置610は、物体680の状態を連続的に追跡して生成した形態を入出力装置に無線又は有線で単に伝達してもよい。入出力装置は、伝えられた形態を表示してもよい。
図7は、本発明の他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。
モーション認識装置710は、物体780の状態を連続的に追跡した形態に対応する外部機器740を選択し、選択された外部機器740を制御するための信号を制御信号に生成する。
ここで、物体780の状態を連続的に追跡した形態は、外部機器740の名称、形状などを含んでもよい。把持された物体780の状態を連続的に追跡することによって、生成された形態が外部機器740とマッチングする単語又は図形(絵)を含んでいると、形態は制御される外部機器740としていずれかの外部機器740であるかを識別、判断するために使用される。
例えば、モーション認識装置710を着用したユーザ790が把持した物体780を用いて図に示すように、外部機器740の名称(例えば、「エアコン」)を筆記し、リモコンボタンを描写する。
モーション認識装置710は、筆記された名称に対応する外部機器740を選択し、選択された外部機器740を制御する。ここで、モーション認識装置710は、図7に示すように「エアコン」のリモコンが筆記されたことを認識し、エアコンの冷房温度を調節する。本実施形態によれば、ユーザ790がリモコンのボタンに対応する部分(図で、筆記された△、▽)をタップ(tap)すると、モーション認識装置710がタップするユーザ動作を検出して外部機器740の「エアコン」の冷房温度を調節せよとの制御信号を生成する。
図8A及び図8Bは、本発明のさらに他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。
モーション認識装置810は、物体の状態を連続的に追跡した形態に対応する外部機器840を制御するための制御信号を生成する。
本実施形態によると、制御信号は、連続的に追跡された形態による予め決められた部分801に対し活性化するユーザ動作を検出した場合における、外部機器840が予め決められた部分801に対応する動作を行わせる制御命令を含む。
ここで、予め決められた部分801は、生成された形態で特定座標に対応する地点を含んでもよい。
モーション認識装置810は、自然形状及び予め決められた部分801と残り形態との間の関係に基づいて、予め決められた部分801が本質的に特定機能を含むかどうかを認識する。
例えば、モーション認識装置810を着用したユーザ890が把持した物体を用いて図8A及び図8Bに示すように外部機器840に対応する形態を筆記する。
モーション認識装置810は、筆記された形態で予め決められた部分(例えば、シャッター)801に対し活性化するユーザ動作(例えば、タップするユーザ動作)を検出すると、対応する動作(例えば、撮影)を行わせる制御命令を含む制御信号を生成する。
例えば、ユーザ動作は、図8Aに示すように、ユーザが指で予め決められた部分801をタップする動作、図8Bに示すようにユーザが把持した物体880を用いて予め決められた部分801をタップする動作を含んでもよい。
外部機器840(例えば、カメラ)は、制御信号を受信すると、予め決められた動作(例えば、撮影)を行う。
図9A及び図9Bは、本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる空間的な動きの例を示す図である。
ここで、ユーザ990が着用したモーション認識装置910は、加速度検出部を介して検出した加速度信号を用いて手首の空間的な動きを含む手首状態を推定する。
モーション認識装置910は、ユーザ990のいずれの手首でも位置してもよいが、本実施形態によれば、モーション認識装置910は、ユーザ990が頻繁に使用する手の手首上に位置してもよい。
また、他の実施形態によれば、モーション認識装置は、ユーザの両手首に位置してもよい。また、さらに他の実施形態によれば、複数のモーション認識装置910をユーザ990の同じ手首上に用いて、分析のための情報を共に収集してもよい。
例えば、モーション認識装置910は、図9Aに示すようなヒジ関節の動作による手首の位置変化、図9Bに示すような肩関節の動作による手首の位置変化などを推定する。
このような検出(測定)は、モーション認識装置910がモーション特性を推論する(例えば、手首の状態及び位置変化等の推定)を推定ために用いられる出力を有するモーション認識装置910に含まれた適切なセンサを用いて行われる。
本発明の実施形態によるモーション認識装置910が6軸に対する加速度検出部を含む場合、モーション認識装置910は、6軸に対する加速度信号から手首の回転角度及び回転方向などを推定できる。
図10A〜図10Fは、本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。
ここで、モーション認識装置1010は筋電図検出部を介して検出した筋電図信号を用いて手首と関連する部位の関節運動を推定する。上述したようにEMG信号は、人体部位がどのように動くかに関する情報を提供するために用いられる筋骨格を介して伝えられる特定電気信号を示す。
例えば、モーション認識装置1010は、図10Aに示すような上下方向に対する手首の折れ程度、図10Bに示すような左右方向に対する手首の折れ程度、及び折れ方向などを推定する。
また、モーション認識装置1010は、図10Cに示すような手首の回転方向、回転角度、回転強度などを推定する。
上述したようにモーション認識装置1010は、EMG信号を受信してもよく、図10A〜図10Cに示すような手首動きの多様な形態を特定するためにEMG信号を解釈し得る。
他の例として、モーション認識装置1010は、図10D及び図10Eに示すような指の折れ程度及び折れ方向などを推定する。
また、図10Fに示すようにユーザが指を折ることなく力を集中するユーザ動作(例えば、タップ)をとった場合も推定できる。
図10A〜図10Cに対して、図10D〜図10FはEMG信号から測定される潜在的な筋肉活動の多様な形態を示す。
ただし、全体の手の動きを示す代わりに、図10A〜図10C、図10D〜図10Eは優れた指の動きを示し、図10Fは指が圧力を加える能力を示す。
図10Gは、本発明の一実施形態による把持された物体を用いたモーション認識装置がユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定することを示す図である。
本実施形態によれば、モーション認識装置1010は、図9及び図10A〜Fに示すような手首と関連する部位の関節動作(例えば、指の曲げ、手首の折れなど)に基づいて、図10Gに示すようにユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定する。
図11は、本発明の一実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。
ここで、モーション認識装置1100は、動作開始検出部1110、手首状態推定部1120、関節動作推定部1130、物体状態推定部1140、及び信号生成部1150を備える。
動作開始検出部1110は、把持された物体を用いた筆記動作の開始を検出する。
動作開始検出部1110は、筆記動作により発生するサウンドを検出するサウンド検出部と、サウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する動作開始判断部を備える。
ここで、筆記動作により発生するサウンドは、物体と接触面との間の摩擦音を含んでもよい。
手首状態推定部1120は、把持された物体を用いた筆記動作によるユーザの手首状態を推定する。
手首状態推定部1120は、把持された物体を用いた筆記動作により6軸に対する加速度を検出する加速度検出部を含み、加速度により手首の位置変化又は手首の回転の少なくとも1つを含む手首状態を推定する。
関節動作推定部1130は、筆記動作により手首と関連する人体部位の関節動作を推定する。
関節動作推定部1130は、筆記動作により手首と関連する人体部位で発生する筋電図を検出する筋電図検出部を含み、検出された筋電図により関節動作を推定する。
関節動作推定部1130は、ユーザが物体を把持した力の強度を推定する把持強度推定部を備え、推定された力の強度は筆記生成部で用いられてもよい。
物体状態推定部1140は、把持された物体の状態を手首状態及び関節動作により推定する。
物体状態推定部1140は、物体が筆記面と接触する部分の位置を手首状態及び関節動作により推定する筆記面接触推定部を含んでもよい。
さらに、実施形態として、内容を認識するためにテキスト又は図形(絵)の筆記を処理してもよい。
例えば、テキスト命令(textual command)は「e−mail」送信の命令を含んでもよく、パラメータはEメールアドレスであってもよい。又は、図8に示したように、ユーザの意図を理解するために図形を解釈してもよい。
信号生成部1150は、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する。
信号生成部1150は、物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部を含んでもよい。
筆記生成部は、物体の状態を連続的に追跡し、力の強度に対応する太さにて形態を生成してもよい。筆記生成部は、物体を把持した姿勢、筆記動作によるサウンド、及びユーザの音声の内の少なくとも1つを用いて物体の種類を識別する物体識別部を含み、物体の種類による動作を行って形態を生成してもよい。
例えば、物体の種類による動作は、文字及び文章を生成する動作及び図形(絵)を生成したり修正する動作を含んでもよい。
ここで、信号生成部1150は、生成された制御信号を通信部を介して外部機器、入出力装置、及び格納装置の内の少なくとも1つに送信してもよい。例えば、通信部は、有線又は無線(例えば、ブルートゥース(登録商標)、Wi−Fi、ジグビー(登録商標)など)で他の装置と通信できる。
本実施形態によれば、モーション認識装置1100は、ユーザの生体信号を検出する生体信号検出部及び推定された物体の状態を検出された生体信号による動きアーチファクト(motion artifact)を用いて補正する物体状態補正部を含んでもよい。
ここで、モーション認識装置は、生体信号検出部を取付けたユーザの動きにより発生する動きアーチファクト(motion artifact)を生体信号から抽出し、動きアーチファクトからユーザの動きを逆追跡する。
物体状態補正部は、逆追跡したユーザ動きに基づいて物体状態推定部で推定した物体の状態を補正する。
例えば、生体信号は、心電図(ECG、electrocardiogram)、眼電図(EOG、electrooculogram)、筋電図(EMG、electromyogram)、脳電図(EEG、electroencephalogram)などを含んでもよい。
ここで、モーション認識装置1100は、生体信号から抽出した動きアーチファクト(motion artifact)に基づいてユーザ動作を推定する。
図12は、本発明の他の実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。
モーション認識装置1200は、検出部1210、処理部1220、格納部1230、及び通信部1240を備える。
検出部1210は、生体信号、サウンド信号、加速度信号などを検出する。
例えば、検出部1210は、筋電図センサ、サウンドセンサ、心電図センサ、フォトプレチスモグラフィ(PPG、Photoplethysmography)、インピーダンスセンサを含んでもよい。
ここで、生体信号は、心電図、眼電図、筋電図及び脳電図を含んでもよい。
サウンド信号は、モーション認識装置1200周辺のサウンド及びユーザの音声などを含んでもよい。
加速度信号は、直線運動に対する3軸の加速度信号及び各軸を基準とする回転運動に対する3軸の加速度信号を含んでもよい。
処理部1220は、本発明の一実施形態による把持された物体を用いたモーション認識方法を行う。
検出部1210で検出された生体信号、加速度信号、及びサウンド信号を用いてユーザによって把持された物体の状態を推定し、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する。
例えば、筋電図信号から手首と関連する人体部位の関節動作を推定し、加速度信号から手首状態を推定し、推定された手首状態及び関節動作から物体の状態を推定する。
具体的には、上述した図3及び図4にて示した方法と近似して物体の状態を推定する。
格納部1230は、上述した図3及び図4に示した方法を行わせる命令語を含む1つ以上のプログラムを格納する。
本実施形態によれば、格納部1230は、物体の状態を連続的に追跡して生成された形態(figure)を格納してもよい。
通信部1240は、処理部1220で生成した制御信号を外部機器に伝達する。
ここで、通信部1240は、有線又は無線で外部機器、格納装置、及び入出力装置と通信してもよい。
例えば、通信部1240は、無線でモーション認識装置1200が使用可能な外部機器、格納装置、及び入出力装置を検索してもよい。
本発明に係るモーション認識装置は、ノート筆記及び描画するようなユーザ動作を精密に認識することのできるユーザインターフェース(UI、User Interface)を提供する。
このようなユーザインターフェースは、別途の入出力装置が不要な新しい形態の直観的かつ自然なユーザインターフェースである。
本発明に係るモーション認識装置は、生体信号検出部、加速度検出部などを用いて手の動きを精密に推定し、これに基づいてノート筆記型の直観的なユーザインターフェースを提供することができる。
本発明に係るモーション認識装置は、加速度検出部を用いてユーザの手を含む腕の大きい動きを把握し、筋電図センサを用いて個別の指を握ったり開いたりするユーザ動作、手首の動きなどを推定するすることができる。
本発明の一実施形態によれば、手首型ウェアラブル装置を着用したユーザが任意の筆記道具で任意の紙に筆記したり図形(絵)を描けば、モーション認識装置が当該ユーザ動作を認識することができる。
このような実施形態がモーション認識装置を手首装着モーション認識装置に特定する一方、他の実施形態としてモーション認識装置に対する代替形態を提供してもよい。
モーション認識装置は、予め決められた入出力装置や格納装置に当該ユーザ動作と関連する情報を送信してユーザにフィードバックを与えることができる。
例えば、ユーザが筆記中である文字、文章、及び図形(絵)などを入出力装置で表示してもよい。
本発明に係るモーション認識装置は、直観的かつ自然な筆記型ユーザインターフェースを提供することができる。
例えば、モーション認識装置は、制御しようとする外部機器を制御するためのディスプレイが必要でなくてもよい。
他の例として、データを入力するためのモーション認識装置以外の別途装置を必要とすることはない。ユーザはこのようなモーション認識装置を介して直観的に外部機器を制御することができる。
本発明の一実施形態に係るモーション認識装置は、ノート筆記されたデータ入力を無線でクラウドサーバなどに便利に送信することができる。
また、外部機器を制御するためのアイコンを紙に、そして、筆記道具などでポインティン(Pointing)して外部機器を制御することができる。
以上で説明した装置は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組み合わせで実現してもよい。
例えば、実施形態で説明した装置及び構成要素は、例えば、プロセッサ、パイプラインプロセッサ(pipeline processor)、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は、命令(instruction)を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて実現してもよい。
処理装置は、オペレーションシステム(OS)及びオペレーションシステム上で行われる1つ以上のソフトウェアアプリケーションを実行できる。また、処理装置はソフトウェアの実行に応答して、データをアクセス、格納、操作、処理及び生成する。理解の便宜のために、処理装置は1つが使用されるものと説明する場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又は、このうちの1つ以上の組み合わせを含んでもよく、所望のとおりに動作するよう処理装置を構成したり独立的又は結合的に処理装置を命令してもよい。
ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するため、どのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に、永久的、又は、一時的に具体化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。
ソフトウェア及びデータは、1つ以上のコンピュータ読み出し可能な記録媒体に格納されてもよい。
実施形態に係る方法は、様々なコンピュータ手段によって実行することができるプログラム命令形態で実現され、コンピュータで読み取り可能な記録媒体に記録することができる。
コンピュータで読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合わせて含むことができる。
記録媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に公示された使用可能なものであってもよい。
尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
110、1100、1200 モーション認識装置
180 物体
190 ユーザ
201 ノート筆記
210 モーション認識装置
220 格納装置
230 入出力装置
240 外部機器
1110 動作開始検出部
1120 手首状態推定部
1130 関節動作推定部
1140 物体状態推定部
1150 信号生成部
1210 検出部
1220 処理部
1230 格納部
1240 通信部

Claims (23)

  1. 把持された物体を用いた筆記動作をユーザの手首に装着されたモーション認識装置によるモーション認識方法であって、
    前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップと、
    前記把持された物体を用いた前記筆記動作によるユーザの手首状態を推定するステップと、
    前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定するステップと、
    把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップとを有し、
    前記把持された物体の種類を識別するステップと、
    前記物体の状態を連続的に追跡し、前記物体の種類に対応する動作を行うステップと、をさらに有し、
    前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップは、前記筆記動作により発生するサウンド及び前記筆記動作による前記物体に対する把持行為を検出した場合、前記筆記動作が開始されたと判断するステップを含み、
    前記筆記動作により発生するサウンドは、物体と接触面との間の摩擦音を含み、
    前記把持された物体の種類を識別するステップは、前記物体を把持した姿勢、前記筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別するステップを含み、
    前記筆記動作は、筆記動作、筆記を修正する動作、及び筆記を消去する動作を含むことを特徴とする把持された物体を用いたモーション認識方法。
  2. 前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  3. 前記把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップは、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定するステップを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  4. 前記筆記動作によるユーザの手首状態を推定するステップは、前記把持された物体を用いた前記筆記動作による加速度を検出するステップと、
    前記加速度により前記手首状態を推定するステップとを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  5. 前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記筆記動作による前記手首と関連する人体部位の筋電図情報を検出するステップと、
    前記筋電図情報により前記関節動作を推定するステップとを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  6. 前記ユーザに対応する生体信号を検出するステップと、
    前記生体信号による動きアーチファクト(motion artifact)を用いて、推定された前記物体の状態の誤差を補正するステップとをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  7. 前記物体の状態を連続的に追跡して生成された形態(figure)を格納するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  8. 前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記物体を把持するために前記ユーザによって加えられた力の強度を推定するステップを含み、
    前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成するステップをさらに含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
  9. 把持された物体を用いた筆記動作を行うユーザの手首に装着され、
    前記把持された物体を用いた前記筆記動作によるユーザの手首状態を推定する手首状態推定部と、
    前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定する関節動作推定部と、
    把持された前記物体の状態を前記手首状態及び前記関節動作により推定する物体状態推定部とを備え、
    前記把持された物体を用いた前記筆記動作の開始を検出する動作開始検出部をさらに備え、
    前記動作開始検出部は、前記筆記動作により発生するサウンドを検出する音声検出部と、
    前記筆記動作により発生する前記サウンド及び前記筆記動作による前記物体に対する把持行為を検出した場合、前記筆記動作が開始されたと判断する動作開始判断部とを含み、
    前記物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部をさらに備え、
    前記関節動作推定部は、前記ユーザが前記物体を把持するために前記ユーザによって加えられた力の強度を推定する把持強度推定部を含み、
    前記筆記生成部は、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成し、
    前記筆記生成部は、前記物体を把持した姿勢、前記筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別する物体識別部を含み、前記物体の種類による動作を行って前記形態を生成し、
    前記筆記動作により発生するサウンドは、前記物体と接触面との間の摩擦音を含み、
    前記筆記動作は、筆記動作、筆記を修正する動作、及び筆記を消去する動作を含むことを特徴とする把持された物体を用いたモーション認識装置。
  10. 前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する信号生成部をさらに備えることを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
  11. 前記物体状態推定部は、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定する筆記面接触推定部を含むことを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
  12. 前記手首状態推定部は、前記把持された物体を用いた前記筆記動作による6軸に対する加速度を検出する加速度検出部を含み、
    前記加速度により前記手首の位置変化又は前記手首の回転の少なくとも1つを含む前記手首状態を推定することを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
  13. 前記関節動作推定部は、前記筆記動作により前記手首と関連する人体部位で発生する筋電図情報を検出する筋電図検出部を含み、
    前記筋電図情報により前記関節動作を推定することを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
  14. 前記ユーザに対応する生体信号を検出する生体信号検出部と、
    前記生体信号による動きアーチファクト(motion artifact)を用いて、前記推定された物体の状態の誤差を補正する物体状態補正部をさらに備えることを特徴とする請求項9に記載の把持された物体を用いたモーション認識装置。
  15. 請求項9に記載のモーション認識装置と、
    外部機器と、を備え、
    前記モーション認識装置は、物体の状態を連続的に追跡して生成した外部機器を制御するための制御信号を送信し、
    前記外部機器は、前記制御信号を受信した場合、前記制御信号に対応する予め決められた動作を行うことを特徴とする把持された物体を用いたモーション認識システム。
  16. 前記モーション認識装置は、前記物体の状態を連続的に追跡した形態(figure)に対応する外部機器を選択し、前記選択された外部機器を制御するための信号を前記制御信号で生成することを特徴とする請求項15に記載の把持された物体を用いたモーション認識システム。
  17. 前記制御信号は、前記モーション認識装置が前記形態で前記外部機器の予め決められた部分を活性化するユーザ動作を検出した場合、前記外部機器が前記予め決められた部分に対応する動作を行うようにする制御命令を備えることを特徴とする請求項16に記載の把持された物体を用いたモーション認識システム。
  18. 把持された物体を用いたユーザの手首に装着されたモーション認識装置によるモーション認識方法であって、
    前記把持された物体を用いた前記ユーザの動作の開始を検出するステップと、
    ユーザの手首状態及び前記手首と関連する人体部位の関節動作により前記把持された物体の状態を推定するステップと、
    前記把持された物体の状態を連続的に追跡することによって生成される、字、文章、及び図形の少なくとも1つを含む形態(figure)を格納するステップと、
    前記形態に対応する外部機器を識別するために前記形態を認識し、前記外部機器によって行われる動作を決定するステップと、
    前記外部機器が前記決定された動作を行うように指示する制御信号を前記外部機器に送信するステップとを有し、
    前記把持された物体を用いた前記ユーザの動作の開始を検出するステップは、前記ユーザの動作により発生するサウンド及び前記ユーザの動作による前記物体に対する把持行為を検出した場合、前記ユーザの動作が開始されたと判断するステップを含み、
    前記ユーザの動作により発生するサウンドは、物体と接触面との間の摩擦音を含むことを特徴とする把持された物体を用いたモーション認識方法。
  19. 前記形態は、文字であり、
    前記形態を認識し、前記外部機器によって行われる動作を決定するステップは、前記文字を認識するステップを含むことを特徴とする請求項18に記載の把持された物体を用いたモーション認識方法。
  20. 前記外部機器は、前記認識された文字に基づいて識別されることを特徴とする請求項19に記載の把持された物体を用いたモーション認識方法。
  21. 前記外部機器によって行われる動作は、前記認識された文字に基づいて決定されることを特徴とする請求項19に記載の把持された物体を用いたモーション認識方法。
  22. 前記外部機器は、前記外部機器を示す前記形態の認識に基づいて識別されることを特徴とする請求項18に記載の把持された物体を用いたモーション認識方法。
  23. 前記形態の領域は、前記決定された動作を行う前記外部機器の一部分の図形であり、
    前記ユーザが前記一部分を選択した場合、前記決定された動作を前記外部機器が行うように指示する前記制御信号を送信するステップをさらに有することを特徴とする請求項22に記載の把持された物体を用いたモーション認識方法。
JP2014023149A 2013-06-17 2014-02-10 把持された物体を用いたモーション認識方法及びその装置並びにシステム Active JP6527307B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0068870 2013-06-17
KR1020130068870A KR102170321B1 (ko) 2013-06-17 2013-06-17 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019006957A Division JP2019075169A (ja) 2013-06-17 2019-01-18 把持された物体を用いたモーション認識方法及びその装置並びにシステム

Publications (2)

Publication Number Publication Date
JP2015001978A JP2015001978A (ja) 2015-01-05
JP6527307B2 true JP6527307B2 (ja) 2019-06-05

Family

ID=50473019

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014023149A Active JP6527307B2 (ja) 2013-06-17 2014-02-10 把持された物体を用いたモーション認識方法及びその装置並びにシステム
JP2019006957A Pending JP2019075169A (ja) 2013-06-17 2019-01-18 把持された物体を用いたモーション認識方法及びその装置並びにシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019006957A Pending JP2019075169A (ja) 2013-06-17 2019-01-18 把持された物体を用いたモーション認識方法及びその装置並びにシステム

Country Status (5)

Country Link
US (2) US10019078B2 (ja)
EP (1) EP2815699A1 (ja)
JP (2) JP6527307B2 (ja)
KR (1) KR102170321B1 (ja)
CN (1) CN104238736B (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US20150253859A1 (en) * 2014-03-05 2015-09-10 Google Inc. System and method for physical manipulation of object and type of object as input
CN104571517A (zh) * 2014-12-31 2015-04-29 杨皓 一种人体动作对电子设备进行输入及控制的方法
CN104656896B (zh) 2015-02-10 2018-09-18 北京智谷睿拓技术服务有限公司 确定输入信息的方法和设备
CN104615248B (zh) * 2015-02-10 2018-07-31 北京智谷睿拓技术服务有限公司 确定输入信息的方法和设备
US10285627B2 (en) * 2015-04-15 2019-05-14 Pixart Imaging Inc. Action recognition system and method thereof
CN106200887A (zh) * 2015-05-04 2016-12-07 原相科技股份有限公司 动作辨识系统及其方法
CN106293048B (zh) * 2015-07-31 2019-05-07 北京智谷睿拓技术服务有限公司 输入信息确定方法和设备
CN106371564B (zh) * 2015-08-28 2020-06-23 北京智谷睿拓技术服务有限公司 输入信息确定方法和设备
CN106249853B (zh) * 2015-09-15 2019-03-19 北京智谷睿拓技术服务有限公司 交互方法和设备
KR102343616B1 (ko) 2015-11-16 2021-12-28 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102570068B1 (ko) * 2015-11-20 2023-08-23 삼성전자주식회사 동작 인식 방법, 동작 인식 장치 및 웨어러블 장치
KR102466995B1 (ko) * 2015-12-21 2022-11-14 삼성전자주식회사 사용자 인증 장치 및 방법
CN107153470A (zh) * 2016-03-02 2017-09-12 中国科学院软件研究所 一种多通道健康鼠标系统及健康状况监测方法
KR101775080B1 (ko) * 2016-06-07 2017-09-05 동국대학교 산학협력단 Nui/nux에 기반하여 드로잉 영상을 처리하는 장치 및 방법
KR102619443B1 (ko) 2016-09-30 2023-12-28 삼성전자주식회사 손목 온도 리듬 획득 장치 및 방법, 심부 체온 리듬 획득 장치 및 방법과, 웨어러블 디바이스
KR102655584B1 (ko) 2017-01-02 2024-04-08 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
KR102329761B1 (ko) * 2017-05-26 2021-11-22 삼성전자주식회사 외부 장치의 선택 및 제어를 위한 전자 장치와 그의 동작 방법
EP3435202A1 (de) 2017-07-25 2019-01-30 Siemens Healthcare GmbH Zuordnen eines werkzeuges zu einer greifgeste
JP7071717B2 (ja) * 2017-09-05 2022-05-19 株式会社国際電気通信基礎技術研究所 イベント系列抽出装置、イベント系列抽出方法およびイベント抽出プログラム
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
WO2019095050A1 (en) * 2017-11-14 2019-05-23 Biointeractive Technologies, Inc. Apparatus and methods for detecting, quantifying, and providing feedback on user gestures
WO2019134141A1 (zh) * 2018-01-05 2019-07-11 深圳市汇顶科技股份有限公司 主动笔的压力检测方法、装置和主动笔
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
CN112789577B (zh) * 2018-09-20 2024-04-05 元平台技术有限公司 增强现实系统中的神经肌肉文本输入、书写和绘图
CN109291696A (zh) * 2018-09-29 2019-02-01 上海掌门科技有限公司 一种通过书写装置采集心电信号的方法与设备
CN113423341A (zh) 2018-11-27 2021-09-21 脸谱科技有限责任公司 用于可穿戴电极传感器系统的自动校准的方法和装置
CN109960404B (zh) * 2019-02-15 2020-12-18 联想(北京)有限公司 一种数据处理方法及装置
DE102019204714A1 (de) * 2019-04-03 2020-10-08 Technische Hochschule Lübeck Verfahren und Stift zur Personenidentifikation und Schrifterkennung
CN110658889A (zh) * 2019-09-23 2020-01-07 上海闻泰信息技术有限公司 可穿戴设备控制方法、装置、设备及存储介质
CN110664404B (zh) * 2019-09-30 2021-10-26 华南理工大学 一种基于表面肌电信号的躯干代偿检测和消除系统
CN110827987B (zh) * 2019-11-06 2021-03-23 西安交通大学 一种多抓取模式下腕关节力矩的肌电连续预测方法及系统
JP6747704B1 (ja) * 2020-04-07 2020-08-26 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法
WO2021100502A1 (ja) * 2019-11-18 2021-05-27 ポジティブワン株式会社 割当制御装置、割当制御システム、及び割当制御方法
CN111288986B (zh) * 2019-12-31 2022-04-12 中科彭州智慧产业创新中心有限公司 一种运动识别方法及运动识别装置
JP2022042362A (ja) * 2020-09-02 2022-03-14 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN112687085B (zh) * 2020-12-23 2021-10-26 邢台职业技术学院 一种幼升小阶段学生“三姿”培养的智能辅助工具
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6133144U (ja) * 1984-07-31 1986-02-28 カシオ計算機株式会社 ペン型手書き入力装置
JP2659653B2 (ja) 1992-07-27 1997-09-30 日本電信電話株式会社 ロボットハンド制御装置
JP3310398B2 (ja) 1993-07-12 2002-08-05 株式会社日立製作所 筆記データ入力装置およびそれを用いた筆記データ認識システム
JP2698320B2 (ja) 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
JPH10301702A (ja) * 1997-04-30 1998-11-13 Ricoh Co Ltd ペン型入力装置及びそのパタ−ン認識方法
JP3677149B2 (ja) 1998-05-26 2005-07-27 日本電信電話株式会社 手首装着型入力装置
US6831632B2 (en) 2001-04-09 2004-12-14 I. C. + Technologies Ltd. Apparatus and methods for hand motion tracking and handwriting recognition
JP2002358149A (ja) 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
KR100650041B1 (ko) * 2004-10-12 2006-11-28 학교법인연세대학교 가속도 센서를 이용한 동잡음 제거수단을 구비하는오실로메트릭 방식 혈압계
KR100680023B1 (ko) 2004-12-06 2007-02-07 한국전자통신연구원 생체신호를 이용한 착용형 휴대폰 입력 장치 및 그 제어방법
US9155487B2 (en) * 2005-12-21 2015-10-13 Michael Linderman Method and apparatus for biometric analysis using EEG and EMG signals
TWI301590B (en) 2005-12-30 2008-10-01 Ibm Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition
KR100793079B1 (ko) 2006-12-08 2008-01-10 한국전자통신연구원 손목착용형 사용자 명령 입력 장치 및 그 방법
JP2008305199A (ja) 2007-06-07 2008-12-18 Fujitsu Component Ltd 入力システム及びプログラム
JP4927009B2 (ja) 2008-03-12 2012-05-09 ヤフー株式会社 手書き文字認識装置
CN101969848B (zh) * 2008-03-14 2012-11-28 皇家飞利浦电子股份有限公司 对外部运动因素引起的加速度不敏感的活动监视系统
JP2009266097A (ja) * 2008-04-28 2009-11-12 Toshiba Corp 入力機器
WO2009137119A1 (en) * 2008-05-09 2009-11-12 Medtronic, Inc. Peripheral nerve field stimulation control
US8764850B2 (en) * 2008-07-31 2014-07-01 Northwestern University Bi-modal ankle-foot device
US8776264B2 (en) * 2009-04-03 2014-07-15 Ware Llc Garments for providing access for sensors to contact skin
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
KR101234111B1 (ko) * 2009-10-13 2013-02-19 한국전자통신연구원 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법
US20140194726A1 (en) * 2013-01-04 2014-07-10 Neurotrek, Inc. Ultrasound Neuromodulation for Cognitive Enhancement
TWI393579B (zh) * 2009-11-13 2013-04-21 Inst Information Industry The state of the muscle movement state analysis system, methods and computer program products
US8830212B2 (en) * 2010-06-01 2014-09-09 Vladimir Vaganov System and method for digital recording of handpainted, handdrawn and handwritten information
KR20110137587A (ko) 2010-06-17 2011-12-23 한국전자통신연구원 공간 입출력 인터페이싱 장치 및 방법
JP5621464B2 (ja) * 2010-09-24 2014-11-12 富士ゼロックス株式会社 動作検出装置、記録システム及びプログラム
JP2012073830A (ja) * 2010-09-29 2012-04-12 Pioneer Electronic Corp インターフェース装置
US20130045774A1 (en) * 2010-12-07 2013-02-21 Sigza Authentication Systems Smart Phone Writing Method and Apparatus
KR101159475B1 (ko) 2010-12-10 2012-06-25 숭실대학교산학협력단 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법
KR101800182B1 (ko) 2011-03-16 2017-11-23 삼성전자주식회사 가상 객체 제어 장치 및 방법
EP2709522B1 (en) * 2011-05-20 2016-09-14 Nanyang Technological University System for synergistic neuro-physiological rehabilitation and/or functional development
KR20120133351A (ko) 2011-05-31 2012-12-10 주식회사 네오펙트 모바일 연동 장갑형 데이터 입력장치
US9218058B2 (en) 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US20140267024A1 (en) * 2013-03-15 2014-09-18 Eric Jeffrey Keller Computing interface system

Also Published As

Publication number Publication date
JP2019075169A (ja) 2019-05-16
CN104238736B (zh) 2019-02-15
US20140368474A1 (en) 2014-12-18
KR102170321B1 (ko) 2020-10-26
US10019078B2 (en) 2018-07-10
KR20140146346A (ko) 2014-12-26
JP2015001978A (ja) 2015-01-05
EP2815699A1 (en) 2014-12-24
US10649549B2 (en) 2020-05-12
US20180284912A1 (en) 2018-10-04
CN104238736A (zh) 2014-12-24

Similar Documents

Publication Publication Date Title
JP6527307B2 (ja) 把持された物体を用いたモーション認識方法及びその装置並びにシステム
US10970936B2 (en) Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
US9367139B2 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
US10179407B2 (en) Dynamic multi-sensor and multi-robot interface system
US9389694B2 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
US10528135B2 (en) Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display
JP2022500729A (ja) 拡張現実システムの神経筋制御
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
JP2017518572A (ja) ペンおよびコンピューティングデバイスのインタラクションのためのマルチデバイスマルチユーザセンサ相関
JP2017517813A (ja) ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関
JP6144743B2 (ja) ウェアラブル装置
US9946395B2 (en) User interface method and apparatus
US20160320846A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit
Devi et al. Low cost tangible glove for translating sign gestures to speech and text in Hindi language
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
KR101337429B1 (ko) 입력 장치
TWI822054B (zh) 人機互動方法、人機互動系統及非暫態電腦可讀取儲存媒體
JP2009151631A (ja) 情報処理装置および情報処理方法、並びにプログラム
WO2022204614A1 (en) Wrist-wearable controller for head-mounted device (hmd) or other user device with camera input
Odagaki et al. Touch interface for sensing fingertip force in mobile device using electromyogram

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R150 Certificate of patent or registration of utility model

Ref document number: 6527307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250