JP2015001978A - Method of recognizing motion using gripped object, and device and system therefor - Google Patents

Method of recognizing motion using gripped object, and device and system therefor Download PDF

Info

Publication number
JP2015001978A
JP2015001978A JP2014023149A JP2014023149A JP2015001978A JP 2015001978 A JP2015001978 A JP 2015001978A JP 2014023149 A JP2014023149 A JP 2014023149A JP 2014023149 A JP2014023149 A JP 2014023149A JP 2015001978 A JP2015001978 A JP 2015001978A
Authority
JP
Japan
Prior art keywords
motion
state
user
wrist
motion recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014023149A
Other languages
Japanese (ja)
Other versions
JP6527307B2 (en
Inventor
尚 駿 金
Sang-Jun Kim
尚 駿 金
勝 槿 尹
sheng jin Yin
勝 槿 尹
昌 穆 崔
Chang-Mok Choi
昌 穆 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015001978A publication Critical patent/JP2015001978A/en
Application granted granted Critical
Publication of JP6527307B2 publication Critical patent/JP6527307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Abstract

PROBLEM TO BE SOLVED: To provide a method of recognizing a motion using a gripped object having a user interface capable of accurately recognizing a user action such as note writing and drawing, and a device and system therefor.SOLUTION: A method for recognizing a motion using a gripped object comprises steps of: estimating a state of a wrist of a user according to a writing action using the gripped object; estimating a joint motion of a body part of the user related to the wrist according to the writing action; and estimating a state of the gripped object according to the state of the wrist and the joint motion.

Description

ユーザのモーションを認識する装置及び方法に関し、把持された物体を用いたモーション認識方法及びその装置並びにシステムに関する。   The present invention relates to a device and method for recognizing a user's motion, and relates to a motion recognition method using a gripped object, and a device and system thereof.

近年、スマートフォン、タブレットPC、PDA(Personal Digital Assistants)のような様々な携帯用電子機器の使用が増加しつつある。
ユーザ身体のモーションを解釈する一般的な技術として、機器に動作検知用の加速度センサなどを取付けてモーションを解読する方法がある。この技術は、ユーザの精密な動作より簡単な動作を解釈するとき適する。
In recent years, the use of various portable electronic devices such as smartphones, tablet PCs, and PDAs (Personal Digital Assistants) is increasing.
As a general technique for interpreting the motion of the user's body, there is a method of decoding the motion by attaching an acceleration sensor for detecting motion to the device. This technique is suitable when interpreting simpler operations than the precise operations of the user.

他の技術として、機器に動作検知用カメラを取付けてカメラによって取得した画像情報を解読する方法がある。
この場合、ユーザが機器の前に存在することが前提でなければならないため、ユーザは身体と分離した機器を別に管理しなければならない。
また、画像においてユーザの身体が重なっている状態ではモーションを容易に解釈することができないという問題があった。
As another technique, there is a method of decoding image information acquired by a camera with an operation detection camera attached thereto.
In this case, since it must be assumed that the user exists in front of the device, the user must manage the device separated from the body separately.
In addition, there is a problem that motion cannot be easily interpreted when the user's body overlaps in the image.

本発明は上記従来のモーション認識方法における問題点に鑑みてなされたものであって、本発明の目的は、ノート筆記及び描画のようなユーザ動作を精密に認識することのできるユーザインターフェースを有する把持された物体を用いたモーション認識方法及びその装置並びにシステムを提供することにある。   The present invention has been made in view of the problems in the above-described conventional motion recognition method, and an object of the present invention is to provide a grip having a user interface capable of accurately recognizing user actions such as note writing and drawing. Another object of the present invention is to provide a motion recognition method, apparatus, and system using a formed object.

上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識方法は、把持された物体を用いた筆記動作によるユーザの手首状態を推定するステップと、前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定するステップと、把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップとを有することを特徴とする。   In order to achieve the above object, a motion recognition method using a grasped object according to the present invention includes a step of estimating a wrist state of a user by a writing operation using the grasped object, and the writing operation, The method includes estimating a joint motion of a human body part of the user related to a wrist, and estimating a state of the grasped object based on the wrist state and the joint motion.

前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するステップをさらに有することが好ましい。
前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップをさらに有することが好ましい。
前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップは、前記筆記動作により発生するサウンド又は前記筆記動作による前記物体に対する把持行為の少なくとも1つを検出した場合、前記筆記動作が開始されたと判断するステップを含むことが好ましい。
前記把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップは、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定するステップを含むことが好ましい。
前記筆記動作によるユーザの手首状態を推定するステップは、前記把持された物体を用いた前記筆記動作による加速度を検出するステップと、前記加速度により前記手首状態を推定するステップとを含むことが好ましい。
Preferably, the method further includes generating a control signal for continuously tracking the state of the object and controlling an external device.
It is preferable that the method further includes a step of detecting the start of the writing operation of the user using the gripped object.
The step of detecting the start of the writing operation of the user using the gripped object is detected when at least one of a sound generated by the writing operation or a gripping action on the object by the writing operation is detected. Preferably, the method includes the step of determining that the operation has started.
Preferably, the step of estimating the state of the gripped object by the wrist state and the joint motion includes a step of estimating a position of a portion of the object that contacts the writing surface by the wrist state and the joint motion. .
The step of estimating the wrist state of the user by the writing operation preferably includes a step of detecting an acceleration by the writing operation using the grasped object and a step of estimating the wrist state by the acceleration.

前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記筆記動作による前記手首と関連する人体部位の筋電図情報を検出するステップと、前記筋電図情報により前記関節動作を推定するステップとを含むことが好ましい。
前記ユーザに対応する生体信号を検出するステップと、前記生体信号による動きアーチファクト(motion artifact)を用いて、推定された前記物体の状態の誤差を補正するステップとをさらに有することが好ましい。
前記物体の状態を連続的に追跡して生成された形態(figure)を格納するステップをさらに有することが好ましい。
前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記物体を把持するために前記ユーザによって加えられた力の強度を推定するステップを含み、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成するステップをさらに含むことが好ましい。
前記把持された物体の種類を識別するステップと、前記物体の状態を連続的に追跡し、前記物体の種類による動作を行うステップとをさらに有することが好ましい。
The step of estimating the joint motion of the human body part related to the wrist by the writing operation includes the step of detecting electromyogram information of the human body part related to the wrist by the writing operation, and the electromyogram information based on the electromyogram information. Preferably estimating the joint motion.
Preferably, the method further includes a step of detecting a biological signal corresponding to the user and a step of correcting an error in the estimated state of the object using a motion artifact by the biological signal.
Preferably, the method further comprises storing a figure generated by continuously tracking the state of the object.
The step of estimating the joint motion of the human body part associated with the wrist by the writing operation includes the step of estimating the strength of the force applied by the user to hold the object, and continuously detecting the state of the object. Preferably further comprising the step of tracking and generating a shape with a thickness corresponding to the strength of the force.
Preferably, the method further includes the step of identifying the type of the gripped object, and the step of continuously tracking the state of the object and performing an operation according to the type of the object.

上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識装置は、把持された物体を用いた筆記動作によるユーザの手首状態を推定する手首状態推定部と、前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定する関節動作推定部と、把持された前記物体の状態を前記手首状態及び前記関節動作により推定する物体状態推定部とを備えることを特徴とする。   A motion recognition apparatus using a grasped object according to the present invention made to achieve the above object includes a wrist state estimation unit for estimating a wrist state of a user by a writing operation using the grasped object, and the writing operation. A joint motion estimator that estimates joint motion of the human body part of the user related to the wrist, and an object state estimator that estimates the state of the gripped object based on the wrist state and the joint motion. It is characterized by.

前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する信号生成部をさらに備えることが好ましい。
前記把持された物体を用いた前記筆記動作の開始を検出する動作開始検出部をさらに備えることが好ましい。
前記動作開始検出部は、前記筆記動作により発生するサウンドを検出する音声検出部と、前記筆記動作により発生する前記サウンド又は前記筆記動作による前記物体に対する把持行為の少なくとも1つを検出した場合、前記筆記動作が開始されたと判断する動作開始判断部とを含むことが好ましい。
前記物体状態推定部は、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定する筆記面接触推定部を含むことが好ましい。
前記手首状態推定部は、前記把持された物体を用いた筆記動作による6軸に対する加速度を検出する加速度検出部を含み、前記加速度により前記手首の位置変化又は前記手首の回転の少なくとも1つを含む前記手首状態を推定することが好ましい。
It is preferable to further include a signal generation unit that generates a control signal for continuously tracking the state of the object and controlling an external device.
It is preferable to further include an operation start detection unit that detects the start of the writing operation using the gripped object.
When the motion start detection unit detects at least one of a sound detection unit that detects a sound generated by the writing operation, and a grip action on the object by the sound generated by the writing operation or the writing operation, It is preferable to include an operation start determination unit that determines that the writing operation has started.
The object state estimation unit preferably includes a writing surface contact estimation unit that estimates a position of a portion of the object that contacts the writing surface based on the wrist state and the joint motion.
The wrist state estimation unit includes an acceleration detection unit that detects acceleration with respect to six axes by a writing operation using the grasped object, and includes at least one of a change in position of the wrist or rotation of the wrist due to the acceleration. It is preferable to estimate the wrist state.

前記関節動作推定部は、前記筆記動作により前記手首と関連する人体部位で発生する筋電図情報を検出する筋電図検出部を含み、前記筋電図情報により前記関節動作を推定することが好ましい。
前記ユーザに対応する生体信号を検出する生体信号検出部と、前記生体信号による動きアーチファクト(motion artifact)を用いて、前記推定された物体の状態の誤差を補正する物体状態補正部をさらに備えることが好ましい。
前記物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部をさらに備えることが好ましい。
前記関節動作推定部は、前記ユーザが前記物体を把持するために前記ユーザによって加えられた力の強度を推定する把持強度推定部を含み、前記筆記生成部は、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成することが好ましい。
前記筆記生成部は、前記物体を把持した姿勢、筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別する物体識別部を含み、前記物体の種類による動作を行って前記形態を生成することが好ましい。
The joint motion estimation unit includes an electromyogram detection unit that detects electromyogram information generated in a human body part related to the wrist by the writing operation, and estimates the joint motion from the electromyogram information. preferable.
The apparatus further includes a biological signal detection unit that detects a biological signal corresponding to the user, and an object state correction unit that corrects an error in the estimated state of the object using a motion artifact caused by the biological signal. Is preferred.
It is preferable to further include a writing generation unit that continuously tracks the state of the object and generates a figure.
The joint motion estimation unit includes a grip strength estimation unit that estimates a strength of a force applied by the user for the user to grip the object, and the writing generation unit continuously determines the state of the object. It is preferable to trace and generate a shape with a thickness corresponding to the strength of the force.
The writing generation unit includes an object identification unit that identifies the type of the object using at least one of a posture in which the object is gripped, a sound by a writing operation, and a user voice, and performs an operation according to the type of the object. It is preferable to go to generate the form.

上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識システムは、ユーザの手首状態及び前記手首と関連する人体部位の関節動作により把持された物体の状態を推定し、前記物体の状態を連続的に追跡して生成した外部機器を制御するための制御信号を送信するモーション認識装置と、前記制御信号を受信した場合、前記制御信号に対応する予め決められた動作を行う外部機器とを備えることを特徴とする。   The motion recognition system using the grasped object according to the present invention made to achieve the above object estimates the user's wrist state and the state of the grasped object by the joint motion of the human body part related to the wrist, A motion recognition device that transmits a control signal for controlling an external device generated by continuously tracking the state of the object, and a predetermined operation corresponding to the control signal when the control signal is received. And an external device to perform.

前記モーション認識装置は、前記物体の状態を連続的に追跡した形態(figure)に対応する外部機器を選択し、前記選択された外部機器を制御するための信号を前記制御信号で生成することが好ましい。
前記制御信号は、前記モーション認識装置が前記形態で前記外部機器の予め決められた部分を活性化するユーザ動作を検出した場合、前記外部機器が前記予め決められた部分に対応する動作を行うようにする制御命令を備えることが好ましい。
The motion recognition apparatus may select an external device corresponding to a figure in which the state of the object is continuously tracked, and generate a signal for controlling the selected external device using the control signal. preferable.
The control signal causes the external device to perform an operation corresponding to the predetermined portion when the motion recognition apparatus detects a user operation that activates the predetermined portion of the external device in the form. It is preferable to provide a control command to

また、上記目的を達成するためになされた本発明による把持された物体を用いたモーション認識方法は、把持された物体を用いたモーション認識方法において、ユーザの手首状態及び前記手首と関連する人体部位の関節動作により前記把持された物体の状態を推定するステップと、前記把持された物体の状態を連続的に追跡することによって生成される形態(figure)を格納するステップと、前記形態に対応する外部機器を識別するために前記形態を認識し、前記外部機器によって行われる動作を決定するステップと、前記外部機器が前記決定された動作を行うように指示する制御信号を前記外部機器に送信するステップとを有することを特徴とする。   Also, a motion recognition method using a grasped object according to the present invention made to achieve the above object is a motion recognition method using a grasped object, in which a user's wrist state and a human body part related to the wrist A step of estimating the state of the grasped object by the joint movement of the object, a step of storing a figure generated by continuously tracking the state of the grasped object, and corresponding to the form Recognizing the form to identify an external device, determining an operation performed by the external device, and transmitting a control signal instructing the external device to perform the determined operation to the external device And a step.

前記形態は、文字を含み、前記形態を認識し、前記外部機器によって行われる動作を決定するステップは、前記文字を認識するステップを含むことが好ましい。
前記外部機器は、前記認識された文字に基づいて識別されることが好ましい。
前記外部機器によって行われる動作は、前記認識された文字に基づいて決定されることが好ましい。
前記外部機器は、前記外部機器を示す前記形態の認識に基づいて識別されることが好ましい。
前記形態の領域は、前記決定された動作を行う前記外部機器の一部分の図形であり、前記ユーザが前記一部分を選択した場合、前記決定された動作を前記外部機器が行うように指示する前記制御信号を送信するステップをさらに有することが好ましい。
Preferably, the form includes a character, and the step of recognizing the form and determining an operation performed by the external device includes a step of recognizing the character.
Preferably, the external device is identified based on the recognized character.
The operation performed by the external device is preferably determined based on the recognized character.
The external device is preferably identified based on recognition of the form indicating the external device.
The area of the form is a figure of a part of the external device that performs the determined operation, and the control that instructs the external device to perform the determined operation when the user selects the part. Preferably, the method further includes the step of transmitting a signal.

本発明に係る把持された物体を用いたモーション認識方法及びその装置並びにシステムによれば、モーション認識装置は、ノート筆記及び描写するようなユーザ動作を精密に認識することのできるユーザインターフェース(UI、User Interface)を提供することができ、このようなユーザインターフェースは、別途の入出力装置が不要な新しい形態の直観的かつ自然なユーザインターフェースである。   According to the motion recognition method and apparatus and system using a gripped object according to the present invention, the motion recognition apparatus can accurately recognize user operations such as note writing and drawing. The user interface is a new type of intuitive and natural user interface that does not require a separate input / output device.

また、モーション認識装置は、生体信号検出部、加速度検出部などを用いて手の動きを精密に推定し、これに基づいてノート筆記型の直観的なユーザインターフェースを提供することができる。
また、加速度検出部を用いてユーザの手を含む腕の大きい動きを把握し、筋電図センサを用いて個別の指を握ったり開いたりするユーザ動作、手首の動きなどを推定することができる。
また、予め決められた入出力装置や格納装置に当該ユーザ動作と関連する情報を送信してユーザにフィードバックを与えることができる。例えば、ユーザが筆記中である字、文章ないし絵を入出力装置で表示することができる。
In addition, the motion recognition device can accurately estimate the hand movement using a biological signal detection unit, an acceleration detection unit, and the like, and can provide a notebook writing-type intuitive user interface based on the estimation.
In addition, it is possible to grasp a large movement of the arm including the user's hand using the acceleration detection unit, and to estimate a user's action of grasping or opening an individual finger or a wrist movement using an electromyogram sensor. .
Further, it is possible to give information to the user by transmitting information related to the user operation to a predetermined input / output device or storage device. For example, a character, a sentence, or a picture that the user is writing can be displayed on the input / output device.

また、本発明に係るモーション認識装置は、直観的かつ自然な筆記型ユーザインターフェースを提供することができる。
例えば、モーション認識装置は、制御しようとする外部機器を制御するためのディスプレイが必要でなくてもよい。他の例として、データを入力するためのモーション認識装置以外の別途装備が必要でなくてもよい。ユーザはこのようなモーション認識装置を介して直観的に外部機器を制御することができる。
また、ノート筆記されたデータ入力を無線でクラウドサーバなどに便利に送信することができる。また、外部機器を制御するためのアイコンを紙に、そして、筆記道具などでポインティン(Pointing)して外部機器を制御することができる。
Moreover, the motion recognition apparatus according to the present invention can provide an intuitive and natural writing type user interface.
For example, the motion recognition apparatus may not require a display for controlling an external device to be controlled. As another example, a separate device other than the motion recognition device for inputting data may not be required. The user can intuitively control the external device through such a motion recognition device.
Moreover, the data input written in the notebook can be conveniently transmitted to a cloud server or the like wirelessly. Further, the external device can be controlled by pointing an icon for controlling the external device on paper and pointing with a writing tool or the like.

本発明の一実施形態による把持された物体を用いたモーション認識装置の形状を示す図である。It is a figure which shows the shape of the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention. 本発明の一実施形態による把持された物体を用いたモーション認識システムの概略的な構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a motion recognition system using a grasped object according to an embodiment of the present invention. 本発明の一実施形態による把持された物体を用いたモーション認識方法を説明するためのフローチャートである。5 is a flowchart for explaining a motion recognition method using a grasped object according to an exemplary embodiment of the present invention. 本発明の一実施形態による把持された物体を用いたモーションを認識して物体の状態を連続的に追跡する方法を説明するためのフローチャートである。4 is a flowchart for explaining a method of recognizing motion using a grasped object and continuously tracking the state of the object according to an embodiment of the present invention. 本発明の一実施形態による把持された物体を用いたモーション認識装置が認識結果を格納する工程を概略的に示す図である。It is a figure which shows roughly the process in which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention stores a recognition result. 本発明の一実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。It is a figure which shows roughly the process in which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention controls an external apparatus. 本発明の他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。It is a figure which shows schematically the process in which the motion recognition apparatus using the hold | gripped object by other embodiment of this invention controls an external apparatus. 本発明のさらに他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。FIG. 11 is a diagram schematically illustrating a process in which a motion recognition apparatus using a grasped object according to still another embodiment of the present invention controls an external device. 本発明のさらに他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。FIG. 11 is a diagram schematically illustrating a process in which a motion recognition apparatus using a grasped object according to still another embodiment of the present invention controls an external device. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる空間的な動きの例を示す図である。It is a figure which shows the example of the spatial motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる空間的な動きの例を示す図である。It is a figure which shows the example of the spatial motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。It is a figure which shows the example of the joint motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。It is a figure which shows the example of the joint motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。It is a figure which shows the example of the joint motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。It is a figure which shows the example of the joint motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態により把持された物体を用いたモーションを認識する装置が検出できる関節動作の例を示す図である。It is a figure which shows the example of the joint motion which the apparatus which recognizes the motion using the object hold | gripped by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。It is a figure which shows the example of the joint motion which the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention can detect. 本発明の一実施形態による把持された物体を用いたモーション認識装置がユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定することを示す図である。The figure which shows that the motion recognition apparatus using the hold | gripped object by one Embodiment of this invention estimates the attitude | position in which the user hold | gripped the object, and estimates the state of an object from the attitude | position in which the object was hold | gripped, and the position of a wrist It is. 本発明の一実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。1 is a block diagram illustrating a detailed configuration of a motion recognition apparatus using a grasped object according to an embodiment of the present invention. 本発明の他の実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。It is a block diagram which shows the detailed structure of the motion recognition apparatus using the hold | gripped object by other embodiment of this invention.

次に、本発明に係る物体を用いたモーション認識方法及びその装置並びにシステムを実施するための形態の具体例を図面を参照しながら説明する。   Next, a specific example of a mode for carrying out a motion recognition method, apparatus, and system using an object according to the present invention will be described with reference to the drawings.

タッチ検出に基づいた入力装置を含むモバイル装置のユーザインターフェース(User interface)は、ユーザのタッチを検出してキーボードを認識する。
ユーザは、タッチ検出に基づいたキーボードを用いるために別途の使用法を習得しなければならず、使用法は直観的でないこともある。
また、ウェアラブル装置(Wearable Device)などのように小型化したモバイル装置が増加しつつ、タッチベースの入力装置を用いて装置を制御することがユーザにとって不便さを感じることもある。
A user interface of a mobile device including an input device based on touch detection detects a user touch and recognizes a keyboard.
The user must learn a separate usage to use a keyboard based on touch detection, and the usage may not be intuitive.
In addition, as mobile devices such as wearable devices increase in size, it may be inconvenient for a user to control devices using a touch-based input device.

図1は、本発明の一実施形態による把持された物体180を用いたモーション認識装置110の形状を示す図である。
ここで、モーション認識装置110は、ユーザ190によって把持された物体180の状態を推定する。
例えば、モーション認識装置110は、把持された物体180の状態を連続的に追跡することで、物体180を用いてユーザ190が筆記した内容を認識する。以下の本明細書で「筆記」とは、ユーザが物体を用いて特定内容を作成するユーザ動作として、字、文章及び図形(絵)などを作成するユーザ動作を含み得る。
FIG. 1 is a diagram illustrating a shape of a motion recognition device 110 using a grasped object 180 according to an embodiment of the present invention.
Here, the motion recognition apparatus 110 estimates the state of the object 180 held by the user 190.
For example, the motion recognition apparatus 110 recognizes the content written by the user 190 using the object 180 by continuously tracking the state of the grasped object 180. In the following description of the present application, “writing” may include a user action in which a user creates specific contents using an object, such as a letter, a sentence, and a figure (picture).

本実施形態によると、例えば、モーション認識装置110は、ユーザ190によって、ユーザ190の手首に取り付けられる。
モーション認識装置110は、モーション信号、生体信号又はその他の形態の信号のうち少なくとも1つ以上を検出する少なくとも1つ以上のセンサを含み得る。
モーション認識装置110は、検出された様々な種類の生体信号、モーション信号などを組み合わせて、筆記する人体(例えば、手、手首、腕など)の各部位の動きを精密に推定する。ユーザ190は、本実施形態に係るモーション認識装置110を着用することによって、ノートなどに自在かつ直観的に筆記した内容を直接にコンピュータ読み出し可能なデータ形態で格納したり、筆記した内容に基づいて特定の外部機器とのインタラクション(interaction)を行う。
According to the present embodiment, for example, the motion recognition device 110 is attached to the wrist of the user 190 by the user 190.
The motion recognition device 110 may include at least one or more sensors that detect at least one of a motion signal, a biological signal, or other form of signal.
The motion recognition device 110 accurately estimates the movement of each part of the human body (for example, hand, wrist, arm, etc.) to be written by combining various types of detected biological signals, motion signals, and the like. By wearing the motion recognition apparatus 110 according to the present embodiment, the user 190 stores the contents written freely and intuitively in a notebook or the like in a computer-readable data form, or based on the written contents. Interaction with a specific external device is performed.

また、筆記した内容は、モーション認識装置110と通信して外部データ格納領域として機能する外部機器に格納されてもよい。
例えば、モーション認識装置110は、ユーザ190からのモーションを認識して推定するとき、モーション認識装置110は有線又は無線で外部機器へモーションを示すデータを送信し、外部機器は後で用いるためにデータを格納してもよい。
The written content may be stored in an external device that communicates with the motion recognition device 110 and functions as an external data storage area.
For example, when the motion recognition apparatus 110 recognizes and estimates the motion from the user 190, the motion recognition apparatus 110 transmits data indicating the motion to the external device by wire or wireless, and the external device transmits the data for later use. May be stored.

ここで、物体180は、ユーザが特定内容を筆記するために用いる道具として、ペン、鉛筆、スタイラスペン、筆、及びユーザが任意に把持できる形体の物体などを含んでもよい。
把持できる形体の物体は、手で握ることができる長い形体の物体(例えば、箸など)を含んでもよい。把持された物体180は、把持された物体180の尖っている終端の動きが記録されるように、ユーザ180によって操作される尖っている終端を有し、記録された動きは筆記された内容として生成する。
Here, the object 180 may include a pen, a pencil, a stylus pen, a brush, a shaped object that can be arbitrarily held by the user, and the like as tools used by the user to write specific content.
Shaped objects that can be gripped may include long shaped objects that can be grasped by hand (eg, chopsticks, etc.). The gripped object 180 has a pointed end that is manipulated by the user 180 so that the movement of the pointed end of the gripped object 180 is recorded, and the recorded movement is written content Generate.

図2は、本発明の一実施形態による把持された物体を用いたモーション認識システムの概略的な構成を示すブロック図である。
ここで、モーション認識システムは、モーション認識装置210、格納装置220、入出力装置230、及び外部機器240を備える。
本実施形態では外部機器240を示しているが、この装置はシステム内部に実現されてもよい。さらに、図2において、格納装置220、入出力装置230、及び外部機器240がモーション認識装置210の外部に示しているが、格納装置220、入出力装置230、及び外部機器240の全て又は少なくとも1つはモーション認識装置の内部又は一部として実現してもよい。
FIG. 2 is a block diagram showing a schematic configuration of a motion recognition system using a grasped object according to an embodiment of the present invention.
Here, the motion recognition system includes a motion recognition device 210, a storage device 220, an input / output device 230, and an external device 240.
Although the external device 240 is shown in the present embodiment, this apparatus may be realized inside the system. Furthermore, in FIG. 2, the storage device 220, the input / output device 230, and the external device 240 are shown outside the motion recognition device 210, but all or at least one of the storage device 220, the input / output device 230, and the external device 240 One may be realized inside or as part of the motion recognition device.

本実施形態に係るモーション認識装置210を着用したユーザがノートを筆記すると、モーション認識装置210はノート筆記201を認識する。
モーション認識装置210は、認識された筆記内容を格納装置220に格納したり、入出力装置230に伝達したり、筆記した内容に基づいて外部機器240を制御したりする。
モーション認識装置210がユーザの筆記201を認識する具体的な方法及び活用は下記の図3〜図12を参照して詳細に説明する。
When a user who wears the motion recognition device 210 according to the present embodiment writes a note, the motion recognition device 210 recognizes the note writing 201.
The motion recognition device 210 stores the recognized writing content in the storage device 220, transmits it to the input / output device 230, and controls the external device 240 based on the written content.
A specific method and utilization by which the motion recognition apparatus 210 recognizes the user's writing 201 will be described in detail with reference to FIGS.

図3は、本発明の一実施形態による把持された物体を用いたモーション認識方法を説明するためのフローチャートである。
下記のステップは、モーション認識装置に含まれた検出部及び処理部によって行う。
FIG. 3 is a flowchart for explaining a motion recognition method using a grasped object according to an embodiment of the present invention.
The following steps are performed by a detection unit and a processing unit included in the motion recognition apparatus.

ステップS310において、モーション認識装置は、筆記動作(writing action)の開始を検出する。
本実施形態によれば、筆記動作により発生するサウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する。
例えば、筆記動作により発生するサウンドは、物体と接触面(例えば、紙面など)との間の摩擦音を含む。
本明細書において、「接触面」は、把持された物体が表面上に筆記するために接触を形成することのできる表面(筆記面)を示す一般的な用語として使用する。
例えば、筆記は紙面上に行われるが、他の適切な平面も他の実施形態として適用され得る。
ステップS310は、筆記動作が開始したことを示す摩擦音を解釈する。
又は、ユーザが取った特定の手の形状(例えば、ペンを握る姿勢)を検出すると、筆記動作が開始されたと判断する。ここで、筆記動作はユーザが把持した物体を用いて筆記するモーションを含む。
In step S310, the motion recognition device detects the start of a writing action.
According to the present embodiment, it is determined that the writing operation has been started when at least one of the gripping action on the sound or the object generated by the writing operation is detected.
For example, a sound generated by a writing operation includes a friction sound between an object and a contact surface (for example, a paper surface).
In this specification, “contact surface” is used as a general term indicating a surface (writing surface) on which a grasped object can make contact in order to write on the surface.
For example, writing is done on paper, but other suitable planes may be applied as other embodiments.
Step S310 interprets a friction sound indicating that the writing operation has started.
Or if the shape of the specific hand which the user took (for example, posture which grasps a pen) is detected, it will be judged that writing operation was started. Here, the writing operation includes a motion of writing using an object held by the user.

次に、ステップS320において、モーション認識装置は、筆記動作による手首状態を推定する。
ここで、手首状態は、手首の位置、手首の位置変化、回転角度、回転方向などを含む。
ユーザ190は筆記動作が発生するとき手首を動かすため、手首がどのように動くかに関する情報は筆記動作の推論のために役に立つため、モーション認識装置は把持された物体180がどのように操作されたかに関する情報を提供する。
例えば、モーション認識装置は、加速度センサを介して筆記動作による加速度を検出して手首の相対的な位置変化を推定する。加速度センサが6軸に対する加速度を検出する場合、手首の回転角度、回転方向を推定する。
Next, in step S320, the motion recognition apparatus estimates the wrist state due to the writing operation.
Here, the wrist state includes a wrist position, a wrist position change, a rotation angle, a rotation direction, and the like.
Since the user 190 moves the wrist when a writing motion occurs, information on how the wrist moves is useful for inferring the writing motion, so the motion recognizer is used to manipulate the grasped object 180 Provide information about.
For example, the motion recognition device detects an acceleration due to a writing operation via an acceleration sensor and estimates a relative position change of the wrist. When the acceleration sensor detects acceleration with respect to six axes, the wrist rotation angle and direction are estimated.

続いて、ステップS330において、モーション認識装置は、筆記動作による関節動作(joint motion)を推定する。
ここで、関節動作は、手首と関連する人体部位における関節の動き(例えば、指及び腕を曲げる動作)を含んでもよい。
具体的には、モーション認識装置は、筆記動作による手首と関連する人体部位の筋電図(EMGデータ)を検出し、検出された筋電図に基づいて筋肉の収縮と弛緩による関節動作を推定する。例えば、手首と関連する人体部位は、指の関節、手首の関節、腕の関節、肩の関節などを含んでもよい。手首と関連する人体部位はこれに限定されることなく、EMGデータは他の人体部位から導き出されてもよい。
Subsequently, in step S330, the motion recognition apparatus estimates a joint motion due to a writing motion.
Here, the joint motion may include a joint motion (for example, a motion of bending a finger and an arm) in a human body part related to the wrist.
Specifically, the motion recognition device detects an electromyogram (EMG data) of a human body part related to the wrist by a writing operation, and estimates joint motion due to muscle contraction and relaxation based on the detected electromyogram. To do. For example, a human body part associated with a wrist may include a finger joint, a wrist joint, an arm joint, a shoulder joint, and the like. The human body part associated with the wrist is not limited to this, and the EMG data may be derived from other human body parts.

次に、ステップS340において、モーション認識装置は、把持された物体の状態を手首状態及び関節動作により推定する。
ここで、把持された物体の状態は、ユーザが物体を把持した姿勢及び動きによる物体の位置、物体が筆記面と接触する位置、物体の傾き、物体が押さえられた程度などを含む。
例えば、モーション認識装置は、物体が筆記面と接触する部分の位置を手首状態及び関節動作により推定する。
Next, in step S340, the motion recognition apparatus estimates the state of the grasped object from the wrist state and the joint motion.
Here, the state of the gripped object includes the posture of the user gripping the object and the position of the object due to movement, the position where the object contacts the writing surface, the tilt of the object, the degree to which the object is pressed, and the like.
For example, the motion recognition apparatus estimates the position of the part where the object contacts the writing surface from the wrist state and the joint motion.

本実施形態によれば、モーション認識装置は、把持された物体の推定された状態における不正確性を補正するためにユーザの生体信号を検出し、生体信号による動きアーチファクト(motion artifact)を用いて推定された物体の状態で誤差を補正する。動きアーチファクト(motion artifact)を用いた補正は、後述の図11を参照して詳細に説明する。   According to the present embodiment, the motion recognition apparatus detects a user's biological signal to correct inaccuracy in the estimated state of the grasped object, and uses a motion artifact due to the biological signal. The error is corrected based on the estimated state of the object. Correction using motion artifact will be described in detail with reference to FIG. 11 described later.

続いて、ステップS350において、モーション認識装置は、物体の状態を連続的に追跡する。
モーション認識装置は、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するか、又は物体を連続的に追跡して生成された形態(figure)を格納する。
例えば、物体を連続的に追跡して生成された形態は、コンピュータで読み出し可能なデータで格納するか、又は活用する。把持された物体の状態を追跡することでモーション認識装置は、ユーザが把持された物体を用いて筆記動作による筆記内容を示す情報を提供する。
Subsequently, in step S350, the motion recognition apparatus continuously tracks the state of the object.
The motion recognition apparatus continuously generates a control signal for controlling the external device by tracking the state of the object, or stores a figure generated by continuously tracking the object.
For example, a form generated by continuously tracking an object is stored or utilized as computer-readable data. By tracking the state of the gripped object, the motion recognition apparatus provides information indicating the writing content by the writing operation using the object gripped by the user.

ここで、物体を連続的に追跡して生成された“形態”は、ユーザが物体を用いて筆記した内容がモーション認識装置によって認識されたものであり、上述したようにユーザが作成した字、文章及び図形(絵)などが認識された結果として含まれ得る。   Here, the “form” generated by continuously tracking the object is the one that the content written by the user using the object is recognized by the motion recognition device, and the character created by the user as described above, Sentences and figures (pictures) may be included as a result of recognition.

図4は、本発明の一実施形態による把持された物体を用いたモーションを認識して物体の状態を連続的に追跡する方法を説明するためのフローチャートである。   FIG. 4 is a flowchart illustrating a method for recognizing motion using a grasped object and continuously tracking the state of the object according to an embodiment of the present invention.

ステップS410において、モーション認識装置はユーザが物体を用いて筆記中であるか否かを判断する。
ユーザが物体を用いて筆記中であるか否かは、上述した図3に示すように、筆記動作が開始されたか否かに基づいて判断する。
例えば、筆記動作により発生するサウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する。
ここで、ユーザが筆記中ではないと判断されると、モーション認識装置は筆記動作が開始するまで待機する。
In step S410, the motion recognition apparatus determines whether the user is writing using an object.
Whether or not the user is writing using an object is determined based on whether or not the writing operation is started, as shown in FIG. 3 described above.
For example, when at least one of a gripping action for a sound or an object generated by a writing operation is detected, it is determined that the writing operation has started.
Here, if it is determined that the user is not writing, the motion recognition apparatus waits until the writing operation starts.

次に、ステップS451において、モーション認識装置は、ユーザが物体を把持した力の強度を測定する。
モーション認識装置は、手首と関連する人体部位の関節動作からユーザが物体を把持した力の強度を推定する。
ステップS451において、測定された力は、ユーザ190が物体180を把持するために、ユーザの手の一部によって加えられる力である。例えば、ユーザが物体を握るために指を曲げるとき発生する筋肉の筋電図信号を検出し、筋電図信号の強度からユーザが物体を把持した力の強度を推定する。
Next, in step S451, the motion recognition apparatus measures the strength of the force with which the user grips the object.
The motion recognition apparatus estimates the strength of the force with which the user grips the object from the joint motion of the human body part related to the wrist.
In step S451, the measured force is a force applied by a part of the user's hand in order for the user 190 to grip the object 180. For example, an electromyogram signal of a muscle generated when the user bends a finger to grasp the object is detected, and the strength of the force with which the user grips the object is estimated from the strength of the electromyogram signal.

続いて、ステップS452において、モーション認識装置は筆記の太さを設定する。
太さは、把持された物体180と筆記面間との接触が占める軌跡(footprint)の太さを示す。
ここで、太さは、ユーザが筆記した内容の字の太さ、線の太さ、消しゴムで消す範囲、及び筆記修正道具が及ぼす効果の範囲を含んでもよい。
具体的には、モーション認識装置は、ステップS451で測定(推定)された力の強度に対応する太さを設定して上述した字や線の範囲などに適用する。例えば、力の強度が大きく推定されるほど、太さは力の強度に比例して大きく設定する。筆記修正道具は、筆記した内容を消す消しゴム、ブラシ効果を与えるブラシなどを含む。
Subsequently, in step S452, the motion recognition apparatus sets a writing thickness.
The thickness indicates the thickness of the locus (footprint) occupied by the contact between the grasped object 180 and the writing surface.
Here, the thickness may include the thickness of the character written by the user, the thickness of the line, the range erased by the eraser, and the range of the effect exerted by the writing correction tool.
Specifically, the motion recognition apparatus sets a thickness corresponding to the strength of the force measured (estimated) in step S451 and applies it to the above-described character or line range. For example, as the strength of the force is estimated to be larger, the thickness is set to be larger in proportion to the strength of the force. The writing correction tool includes an eraser that erases the written content, a brush that gives a brush effect, and the like.

一方、ステップS451と並行して、ステップS453において、モーション認識装置はユーザによって把持された物体の種類を識別する。
ここで、モーション認識装置は、ユーザが物体を把持した姿勢又は筆記動作によるサウンドの少なくとも1つを用いて物体の種類を識別する。
把持された物体の種類は、全体的な形態及び使用目的に対応する。
物体の種類を識別する具体的な方法は下記で詳細に説明する。
On the other hand, in parallel with step S451, in step S453, the motion recognition apparatus identifies the type of the object held by the user.
Here, the motion recognition device identifies the type of the object using at least one of the posture by which the user grips the object or the sound by the writing operation.
The type of object gripped corresponds to the overall form and intended use.
A specific method for identifying the type of object will be described in detail below.

本実施形態によれば、モーション認識装置は、ユーザが物体を把持した姿勢を用いて物体の種類を識別する。
例えば、ユーザが物体を把持した姿勢がペンのように長い形の物体を把持した姿勢であれば、モーション認識装置はユーザによって把持された物体を筆記のための道具として識別する。
また、消しゴムのように太い形の物体を把持した姿勢であれば、モーション認識装置はユーザによって把持された物体を筆記を消す道具と識別する。
ただし、これに限定されることなく、モーション認識装置はユーザによって把持された物体の種類を各物体の固有な形に応じてユーザが取る姿勢に対応する道具として識別する。例えば、異なる方法で握られたり、特定のデザインされた(contoured)把持された物体は、把持された物体の特定種類に属するものと認識されてもよい。
According to the present embodiment, the motion recognition apparatus identifies the type of object using the posture in which the user grips the object.
For example, if the posture in which the user grips the object is a posture in which a long object such as a pen is gripped, the motion recognition apparatus identifies the object gripped by the user as a writing tool.
Further, if the posture grasps a thick object such as an eraser, the motion recognition apparatus identifies the object grasped by the user as a tool for erasing writing.
However, the present invention is not limited to this, and the motion recognition apparatus identifies the type of the object gripped by the user as a tool corresponding to the posture that the user takes according to the unique shape of each object. For example, an object that is gripped in a different way or that is specifically designed and gripped may be recognized as belonging to a specific type of gripped object.

他の実施形態によれば、モーション認識装置は、筆記動作によるサウンドを用いてユーザによって把持された物体の種類を識別してもよい。
ここで、筆記動作によるサウンドは、物体と筆記面の接触面(例えば、紙面など)との間の摩擦音を含む。サウンドは把持された物体の適切な種類を識別するために分析される。
例えば、モーション認識装置は、物体と接触面との間の摩擦音が頻繁にす早く発生すると、把持された物体を消す道具として識別し、摩擦音が頻繁に発生せずゆっくり発生すると、把持された物体が筆記道具として識別してもよい。
このような方法は、所定の時間周期の間にどれほど多いサウンドが発生するかを追跡したり、又は、摩擦音の速度及び周期を追跡することによって実現され得る。例えば、把持された物体が筆記道具又は消しゴムであるかを判断するために閾値又は測量が存在し得る。
According to another embodiment, the motion recognition device may identify the type of the object held by the user using a sound by a writing operation.
Here, the sound caused by the writing operation includes a friction sound between the object and the contact surface (for example, a paper surface) of the writing surface. The sound is analyzed to identify the appropriate type of gripped object.
For example, when the friction sound between the object and the contact surface frequently occurs quickly, the motion recognition device identifies the gripped object as a tool to erase, and when the friction sound does not occur frequently and slowly occurs, the gripped object May be identified as a writing tool.
Such a method can be realized by tracking how much sound is generated during a given time period, or by tracking the speed and period of the frictional sound. For example, there may be a threshold or surveying to determine if the grasped object is a writing tool or an eraser.

他の例として、モーション認識装置は、物体と接触面との間の摩擦音のサウンド波形を測定し、サウンド波形に対応する道具がユーザによって把持されたと識別してもよい。
このような波形が測定された場合、信号分析に基づいて識別されるよう摩擦音を特性化(characterize)してもよい。
例えば、モーション認識装置は、筆記道具と紙面との間の摩擦音に対するサウンド波形及び消しゴムと紙面との間の摩擦音に対するサウンド波形を予め格納してもよい。モーション認識装置は、物体と紙面との間の摩擦音を予め格納されたサウンド波形と比較して把持された物体の種類を識別してもよい。このような比較に基づいて、モーション認識装置は、把持された物体を筆記道具又は消しゴムに分類する。例えば、分類はすでに存在する波形が把持された物体を用いて生成された波形と最も類似するかに基づく。
As another example, the motion recognition device may measure the sound waveform of the frictional sound between the object and the contact surface, and identify that the tool corresponding to the sound waveform is gripped by the user.
If such a waveform is measured, the frictional sound may be characterized to be identified based on signal analysis.
For example, the motion recognition apparatus may store in advance a sound waveform for a friction sound between the writing tool and the paper surface and a sound waveform for a friction sound between the eraser and the paper surface. The motion recognition apparatus may identify the type of the gripped object by comparing the frictional sound between the object and the paper surface with a previously stored sound waveform. Based on such comparison, the motion recognition device classifies the grasped object as a writing tool or an eraser. For example, the classification is based on whether an already existing waveform is most similar to a waveform generated using a grasped object.

更なる例として、モーション認識装置は、ユーザの音声を認識して把持された物体の種類を識別してもよい。
例えば、ユーザが「レッド(red)」と言った場合、モーション認識装置はユーザの音声を認識し、把持された物を「レッドペン」のように識別することができる。ただし、把持された物体が必ず音声認識された結果と同一でない場合もあり、音声認識命令は他の入力形態を指示してもよい。
例えば、ユーザはブラックペンで筆記しながらも、上述したように色を音声で認識させることによって、色などを自由に変更しながら筆記することができる。したがって、ユーザがブラックペンに筆記するとき、ユーザが「ブルー」と言った場合、ペンの色変換を示す。ただし、ユーザが消しゴム使用時、ユーザが「ブルー」と言った場合、ペンに対して色変換をしたように、消しゴムからペン種類に物体の種類を変えてもよい。
As a further example, the motion recognition device may recognize the user's voice and identify the type of the grasped object.
For example, when the user says “red”, the motion recognition device can recognize the user's voice and identify the grasped object like a “red pen”. However, the gripped object may not always be the same as the result of voice recognition, and the voice recognition command may indicate another input form.
For example, while writing with a black pen, the user can write while changing the color and the like freely by recognizing the color by voice as described above. Therefore, when the user writes on the black pen, if the user says "blue", it indicates pen color conversion. However, when the user uses the eraser, if the user says “blue”, the type of the object may be changed from the eraser to the pen type as if the color conversion was performed on the pen.

続いて、ステップS453にてモーション認識装置は、ユーザによって把持された物体を鉛筆のような筆記道具として判断した場合、ステップS454において、筆記内容に対応するデータを生成する。
モーション認識装置は、上述した図3に示したものと近似して、把持された物体の状態を連続的に追跡して筆記内容に対応するデータを生成する。ここで、モーション認識装置はステップS452で設定された太さで筆記を生成してもよい。
Subsequently, when the motion recognition device determines in step S453 that the object held by the user is a writing tool such as a pencil, in step S454, the motion recognition apparatus generates data corresponding to the writing content.
The motion recognition device approximates the one shown in FIG. 3 described above, and continuously tracks the state of the grasped object to generate data corresponding to the written content. Here, the motion recognition apparatus may generate a writing with the thickness set in step S452.

そして、ステップS453にてモーション認識装置は、ユーザによって把持された物体を消しゴムのような筆記修正道具として判断した場合、ステップS455において、筆記を修正する。
モーション認識装置は、上述した図3に示したものと近似して、把持された物体の状態を連続的に追跡して筆記を修正する。ここで、モーション認識装置は、ステップS452において、設定された太さで筆記を修正する効果を適用し得る。
When the motion recognition apparatus determines in step S453 that the object held by the user is a writing correction tool such as an eraser, in step S455, the motion recognition apparatus corrects the writing.
The motion recognition device approximates the one shown in FIG. 3 described above, and continuously tracks the state of the grasped object to correct the writing. Here, the motion recognition apparatus can apply the effect of correcting the writing with the set thickness in step S452.

続いてステップS456において、モーション認識装置は識別された物体の種類による動作を行ってユーザが筆記した内容に対応する形態(figure)を生成する。
具体的には、上述したステップS452、ステップS454及びステップS455により生成及び修正された筆記内容に対応するデータに基づいて形態を生成する。
例えば、物体を把持した強度に応じて筆記の軌跡の太さを異ならせながら、音声により認識した色で筆記した内容に対応する形態を生成してもよい。
Subsequently, in step S456, the motion recognition apparatus performs an operation according to the identified object type, and generates a form corresponding to the content written by the user.
Specifically, the form is generated based on the data corresponding to the written content generated and corrected by the above-described steps S452, S454, and S455.
For example, a form corresponding to the content written in the color recognized by voice may be generated while varying the thickness of the writing trajectory according to the strength of gripping the object.

次に、ステップS457において、モーション認識装置は、ユーザが筆記動作を終了したか否かを判断する。
例えば、ユーザが物体をこれ以上把持しない場合、物体を把持した姿勢が筆記するための姿勢ではない場合、一定時間以上、物体と接触面との間の摩擦音が検出されない場合、などにおいて筆記動作が終了したと判断する。
ただし、ユーザが筆記を終了したと判断される他のイベントがあってもよく、これらは単なる例示に過ぎない。本実施形態によれば、筆記動作が終了したと判断された場合には、モーション認識を終了し、筆記動作が終了していないと判断された場合には上述したステップS410に戻る。
Next, in step S457, the motion recognition apparatus determines whether the user has finished the writing operation.
For example, when the user does not hold the object any more, the posture holding the object is not the posture for writing, the frictional sound between the object and the contact surface is not detected for a certain time or more, etc. Judge that it is finished.
However, there may be other events for which it is determined that the user has finished writing, and these are merely examples. According to the present embodiment, when it is determined that the writing operation has been completed, the motion recognition is terminated, and when it is determined that the writing operation has not been completed, the process returns to step S410 described above.

図5は、本発明の一実施形態により把持された物体を用いたモーション認識装置が認識結果を格納する工程を概略的に示す図である。
図5に示すように、ユーザ590が特定内容を筆記すると、モーション認識装置510は物体580の状態を連続的に追跡して生成した形態を格納する。
本実施形態によれば、モーション認識装置510は、生成された形態を通信網、クラウドサービスなどを用いて格納装置520に格納する。ここで、格納装置520はサーバを含んでもよい。
FIG. 5 is a diagram schematically illustrating a process in which a motion recognition apparatus using an object gripped according to an embodiment of the present invention stores a recognition result.
As shown in FIG. 5, when the user 590 writes a specific content, the motion recognition device 510 stores a form generated by continuously tracking the state of the object 580.
According to the present embodiment, the motion recognition device 510 stores the generated form in the storage device 520 using a communication network, a cloud service, or the like. Here, the storage device 520 may include a server.

図6は、本発明の一実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。
モーション認識装置610は、物体680の状態を連続的に追跡して生成した、外部機器640を制御するための制御信号を送信する。
制御信号を受信すると、外部機器640は、予め決められた(予め設定された)動作を実行する。
FIG. 6 is a diagram schematically illustrating a process of controlling an external device by a motion recognition apparatus using a grasped object according to an embodiment of the present invention.
The motion recognition apparatus 610 transmits a control signal for controlling the external device 640 generated by continuously tracking the state of the object 680.
When receiving the control signal, the external device 640 performs a predetermined (preset) operation.

例えば、モーション認識装置610を着用したユーザ690が把持した物体680を用いて、図に示すように、電話番号(例えば、123−456−7890)及び「call」という内容を筆記する。把持された物体680の動きを追跡することによって、モーション認識装置610は、ユーザが筆記した内容がハイフン(−)、命令(例えば、「call」)を含む数字の羅列であるかどうかを認識する。このような認識に基づいて、モーション認識装置610は記載した電話番号に「電話」しようとするユーザ意図を推定することができる。   For example, the telephone number (for example, 123-456-7890) and the content of “call” are written using the object 680 held by the user 690 wearing the motion recognition device 610, as shown in the figure. By tracking the movement of the grasped object 680, the motion recognition device 610 recognizes whether the content written by the user is a sequence of numbers including a hyphen (-) and a command (eg, "call"). . Based on such recognition, the motion recognition device 610 can estimate the user's intention to “phone” to the listed telephone number.

したがって、モーション認識装置610は、筆記された電話番号に電話せよとの命令を含む制御信号を、予め接続された外部機器640(例えば、スマートフォン)に対して無線送信する。
外部機器640は、上述した制御信号を受信すると、対応する電話番号に電話する。
このような例示は、ユーザが潜在的に作成しようとする筆記内容が意味を有するものを示す。様々な例示において、筆記内容は入力を提供するものとして認識してもよく、外部機器640で行われる命令を提供するものとして認識されてもよい。
他の例として、モーション認識装置610は、物体680の状態を連続的に追跡して生成した形態を入出力装置に無線又は有線で単に伝達してもよい。入出力装置は、伝えられた形態を表示してもよい。
Therefore, the motion recognition apparatus 610 wirelessly transmits a control signal including a command to call the written telephone number to the external device 640 (for example, a smartphone) connected in advance.
When the external device 640 receives the control signal described above, the external device 640 calls the corresponding telephone number.
Such an example shows what the written content that the user intends to create has meaning. In various examples, the written content may be recognized as providing input or may be recognized as providing instructions to be performed by the external device 640.
As another example, the motion recognition device 610 may simply transmit the form generated by continuously tracking the state of the object 680 to the input / output device wirelessly or by wire. The input / output device may display the transmitted form.

図7は、本発明の他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。
モーション認識装置710は、物体780の状態を連続的に追跡した形態に対応する外部機器740を選択し、選択された外部機器740を制御するための信号を制御信号に生成する。
ここで、物体780の状態を連続的に追跡した形態は、外部機器740の名称、形状などを含んでもよい。把持された物体780の状態を連続的に追跡することによって、生成された形態が外部機器740とマッチングする単語又は図形(絵)を含んでいると、形態は制御される外部機器740としていずれかの外部機器740であるかを識別、判断するために使用される。
FIG. 7 is a diagram schematically illustrating a process in which a motion recognition apparatus using a grasped object according to another embodiment of the present invention controls an external device.
The motion recognition apparatus 710 selects an external device 740 corresponding to a form in which the state of the object 780 is continuously tracked, and generates a signal for controlling the selected external device 740 as a control signal.
Here, the form in which the state of the object 780 is continuously tracked may include the name and shape of the external device 740. By continuously tracking the state of the gripped object 780, if the generated form contains words or figures (pictures) that match the external device 740, the form is either the external device 740 to be controlled. It is used to identify and determine whether the external device 740 is.

例えば、モーション認識装置710を着用したユーザ790が把持した物体780を用いて図に示すように、外部機器740の名称(例えば、「エアコン」)を筆記し、リモコンボタンを描写する。
モーション認識装置710は、筆記された名称に対応する外部機器740を選択し、選択された外部機器740を制御する。ここで、モーション認識装置710は、図7に示すように「エアコン」のリモコンが筆記されたことを認識し、エアコンの冷房温度を調節する。本実施形態によれば、ユーザ790がリモコンのボタンに対応する部分(図で、筆記された△、▽)をタップ(tap)すると、モーション認識装置710がタップするユーザ動作を検出して外部機器740の「エアコン」の冷房温度を調節せよとの制御信号を生成する。
For example, the name (for example, “air conditioner”) of the external device 740 is written and the remote control button is depicted as shown in the drawing using the object 780 held by the user 790 wearing the motion recognition device 710.
The motion recognition apparatus 710 selects the external device 740 corresponding to the written name, and controls the selected external device 740. Here, the motion recognizing device 710 recognizes that the remote controller for “air conditioner” has been written as shown in FIG. 7 and adjusts the cooling temperature of the air conditioner. According to the present embodiment, when the user 790 taps a portion corresponding to a button on the remote control (triangles written in the figure, △, ▽), the user operation tapped by the motion recognition device 710 is detected and the external device is detected. A control signal for adjusting the cooling temperature of the “air conditioner” 740 is generated.

図8A及び図8Bは、本発明のさらに他の実施形態による把持された物体を用いたモーション認識装置が外部機器を制御する工程を概略的に示す図である。
モーション認識装置810は、物体の状態を連続的に追跡した形態に対応する外部機器840を制御するための制御信号を生成する。
8A and 8B are diagrams schematically illustrating a process of controlling an external device by a motion recognition apparatus using a grasped object according to still another embodiment of the present invention.
The motion recognition apparatus 810 generates a control signal for controlling the external device 840 corresponding to the form in which the state of the object is continuously tracked.

本実施形態によると、制御信号は、連続的に追跡された形態による予め決められた部分801に対し活性化するユーザ動作を検出した場合における、外部機器840が予め決められた部分801に対応する動作を行わせる制御命令を含む。
ここで、予め決められた部分801は、生成された形態で特定座標に対応する地点を含んでもよい。
モーション認識装置810は、自然形状及び予め決められた部分801と残り形態との間の関係に基づいて、予め決められた部分801が本質的に特定機能を含むかどうかを認識する。
According to the present embodiment, the control signal corresponds to the predetermined portion 801 when the external device 840 detects a user action that activates the predetermined portion 801 in a continuously tracked form. Contains control instructions that cause actions to be taken.
Here, the predetermined portion 801 may include a point corresponding to the specific coordinate in the generated form.
The motion recognition device 810 recognizes whether or not the predetermined portion 801 essentially includes a specific function based on the natural shape and the relationship between the predetermined portion 801 and the remaining shape.

例えば、モーション認識装置810を着用したユーザ890が把持した物体を用いて図8A及び図8Bに示すように外部機器840に対応する形態を筆記する。
モーション認識装置810は、筆記された形態で予め決められた部分(例えば、シャッター)801に対し活性化するユーザ動作(例えば、タップするユーザ動作)を検出すると、対応する動作(例えば、撮影)を行わせる制御命令を含む制御信号を生成する。
例えば、ユーザ動作は、図8Aに示すように、ユーザが指で予め決められた部分801をタップする動作、図8Bに示すようにユーザが把持した物体880を用いて予め決められた部分801をタップする動作を含んでもよい。
外部機器840(例えば、カメラ)は、制御信号を受信すると、予め決められた動作(例えば、撮影)を行う。
For example, a form corresponding to the external device 840 is written using an object held by the user 890 wearing the motion recognition device 810 as shown in FIGS. 8A and 8B.
When the motion recognition apparatus 810 detects a user action (for example, a user action to tap) activated for a predetermined part (for example, a shutter) 801 in a written form, the motion recognition apparatus 810 performs a corresponding action (for example, shooting). A control signal including a control command to be performed is generated.
For example, as shown in FIG. 8A, the user action is an operation in which the user taps a predetermined portion 801 with a finger, and a predetermined portion 801 using an object 880 held by the user as shown in FIG. 8B. An operation of tapping may be included.
When receiving the control signal, the external device 840 (for example, a camera) performs a predetermined operation (for example, photographing).

図9A及び図9Bは、本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる空間的な動きの例を示す図である。
ここで、ユーザ990が着用したモーション認識装置910は、加速度検出部を介して検出した加速度信号を用いて手首の空間的な動きを含む手首状態を推定する。
モーション認識装置910は、ユーザ990のいずれの手首でも位置してもよいが、本実施形態によれば、モーション認識装置910は、ユーザ990が頻繁に使用する手の手首上に位置してもよい。
また、他の実施形態によれば、モーション認識装置は、ユーザの両手首に位置してもよい。また、さらに他の実施形態によれば、複数のモーション認識装置910をユーザ990の同じ手首上に用いて、分析のための情報を共に収集してもよい。
例えば、モーション認識装置910は、図9Aに示すようなヒジ関節の動作による手首の位置変化、図9Bに示すような肩関節の動作による手首の位置変化などを推定する。
9A and 9B are diagrams illustrating examples of spatial motion that can be detected by a motion recognition apparatus using a grasped object according to an embodiment of the present invention.
Here, the motion recognition device 910 worn by the user 990 estimates the wrist state including the spatial movement of the wrist using the acceleration signal detected via the acceleration detection unit.
Although the motion recognition device 910 may be located on any wrist of the user 990, according to the present embodiment, the motion recognition device 910 may be located on the wrist of the hand that the user 990 frequently uses. .
According to another embodiment, the motion recognition device may be located on both wrists of the user. In addition, according to another embodiment, a plurality of motion recognition devices 910 may be used on the same wrist of the user 990 to collect information for analysis together.
For example, the motion recognition apparatus 910 estimates a wrist position change due to an elbow joint operation as shown in FIG. 9A, a wrist position change due to a shoulder joint operation as shown in FIG. 9B, and the like.

このような検出(測定)は、モーション認識装置910がモーション特性を推論する(例えば、手首の状態及び位置変化等の推定)を推定ために用いられる出力を有するモーション認識装置910に含まれた適切なセンサを用いて行われる。
本発明の実施形態によるモーション認識装置910が6軸に対する加速度検出部を含む場合、モーション認識装置910は、6軸に対する加速度信号から手首の回転角度及び回転方向などを推定できる。
Such detection (measurement) may be performed by an appropriate motion recognition device 910 that has an output that is used to estimate the motion characteristics that the motion recognition device 910 infers motion characteristics (eg, estimation of wrist state and position change, etc.). This is done using a simple sensor.
When the motion recognition apparatus 910 according to the embodiment of the present invention includes an acceleration detection unit for six axes, the motion recognition apparatus 910 can estimate the wrist rotation angle and rotation direction from the acceleration signals for the six axes.

図10A〜図10Fは、本発明の一実施形態による把持された物体を用いたモーション認識装置が検出できる関節動作の例を示す図である。
ここで、モーション認識装置1010は筋電図検出部を介して検出した筋電図信号を用いて手首と関連する部位の関節運動を推定する。上述したようにEMG信号は、人体部位がどのように動くかに関する情報を提供するために用いられる筋骨格を介して伝えられる特定電気信号を示す。
10A to 10F are diagrams illustrating examples of joint motions that can be detected by the motion recognition apparatus using a grasped object according to an embodiment of the present invention.
Here, the motion recognizing device 1010 estimates joint motion of a part related to the wrist using the electromyogram signal detected via the electromyogram detector. As mentioned above, the EMG signal indicates a specific electrical signal that is transmitted through the musculoskeletal that is used to provide information about how the human body part moves.

例えば、モーション認識装置1010は、図10Aに示すような上下方向に対する手首の折れ程度、図10Bに示すような左右方向に対する手首の折れ程度、及び折れ方向などを推定する。
また、モーション認識装置1010は、図10Cに示すような手首の回転方向、回転角度、回転強度などを推定する。
上述したようにモーション認識装置1010は、EMG信号を受信してもよく、図10A〜図10Cに示すような手首動きの多様な形態を特定するためにEMG信号を解釈し得る。
For example, the motion recognition apparatus 1010 estimates the degree of wrist bending with respect to the vertical direction as illustrated in FIG. 10A, the degree of wrist bending with respect to the horizontal direction as illustrated in FIG. 10B, and the folding direction.
Also, the motion recognition apparatus 1010 estimates the wrist rotation direction, rotation angle, rotation intensity, and the like as shown in FIG. 10C.
As described above, the motion recognition device 1010 may receive an EMG signal and may interpret the EMG signal to identify various forms of wrist movement as shown in FIGS. 10A-10C.

他の例として、モーション認識装置1010は、図10D及び図10Eに示すような指の折れ程度及び折れ方向などを推定する。
また、図10Fに示すようにユーザが指を折ることなく力を集中するユーザ動作(例えば、タップ)をとった場合も推定できる。
図10A〜図10Cに対して、図10D〜図10FはEMG信号から測定される潜在的な筋肉活動の多様な形態を示す。
ただし、全体の手の動きを示す代わりに、図10A〜図10C、図10D〜図10Eは優れた指の動きを示し、図10Fは指が圧力を加える能力を示す。
As another example, the motion recognition apparatus 1010 estimates the degree and direction of finger folding as shown in FIGS. 10D and 10E.
Moreover, as shown to FIG. 10F, it can also estimate when the user takes user operation (for example, tap) which concentrates force, without folding a finger.
In contrast to FIGS. 10A-10C, FIGS. 10D-10F show various forms of potential muscle activity measured from EMG signals.
However, instead of showing the overall hand movement, FIGS. 10A-10C and 10D-10E show excellent finger movement, and FIG. 10F shows the ability of the finger to apply pressure.

図10Gは、本発明の一実施形態による把持された物体を用いたモーション認識装置がユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定することを示す図である。
本実施形態によれば、モーション認識装置1010は、図9及び図10A〜Fに示すような手首と関連する部位の関節動作(例えば、指の曲げ、手首の折れなど)に基づいて、図10Gに示すようにユーザが物体を把持した姿勢を推定し、物体が把持された姿勢及び手首の位置から物体の状態を推定する。
FIG. 10G illustrates a motion recognition apparatus using a gripped object according to an embodiment of the present invention that estimates a posture in which the user grips the object and estimates a state of the object from the posture at which the object is gripped and the wrist position. FIG.
According to the present embodiment, the motion recognition apparatus 1010 is configured based on the joint motion (for example, bending of the finger, bending of the wrist, etc.) of the part related to the wrist as shown in FIG. 9 and FIGS. As shown in FIG. 4, the posture in which the user grips the object is estimated, and the state of the object is estimated from the posture in which the user grips the object and the wrist position.

図11は、本発明の一実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。
ここで、モーション認識装置1100は、動作開始検出部1110、手首状態推定部1120、関節動作推定部1130、物体状態推定部1140、及び信号生成部1150を備える。
FIG. 11 is a block diagram illustrating a detailed configuration of a motion recognition apparatus using a grasped object according to an embodiment of the present invention.
Here, the motion recognition apparatus 1100 includes a motion start detection unit 1110, a wrist state estimation unit 1120, a joint motion estimation unit 1130, an object state estimation unit 1140, and a signal generation unit 1150.

動作開始検出部1110は、把持された物体を用いた筆記動作の開始を検出する。
動作開始検出部1110は、筆記動作により発生するサウンドを検出するサウンド検出部と、サウンド又は物体に対する把持行為の少なくとも1つを検出すると、筆記動作が開始されたと判断する動作開始判断部を備える。
ここで、筆記動作により発生するサウンドは、物体と接触面との間の摩擦音を含んでもよい。
The operation start detection unit 1110 detects the start of a writing operation using the grasped object.
The operation start detection unit 1110 includes a sound detection unit that detects a sound generated by a writing operation, and an operation start determination unit that determines that the writing operation is started when at least one of gripping actions on the sound or the object is detected.
Here, the sound generated by the writing operation may include a friction sound between the object and the contact surface.

手首状態推定部1120は、把持された物体を用いた筆記動作によるユーザの手首状態を推定する。
手首状態推定部1120は、把持された物体を用いた筆記動作により6軸に対する加速度を検出する加速度検出部を含み、加速度により手首の位置変化又は手首の回転の少なくとも1つを含む手首状態を推定する。
The wrist state estimation unit 1120 estimates the wrist state of the user by a writing operation using the grasped object.
The wrist state estimation unit 1120 includes an acceleration detection unit that detects acceleration with respect to six axes by a writing operation using a grasped object, and estimates a wrist state including at least one of wrist position change or wrist rotation based on the acceleration. To do.

関節動作推定部1130は、筆記動作により手首と関連する人体部位の関節動作を推定する。
関節動作推定部1130は、筆記動作により手首と関連する人体部位で発生する筋電図を検出する筋電図検出部を含み、検出された筋電図により関節動作を推定する。
関節動作推定部1130は、ユーザが物体を把持した力の強度を推定する把持強度推定部を備え、推定された力の強度は筆記生成部で用いられてもよい。
The joint motion estimation unit 1130 estimates a joint motion of a human body part related to the wrist by a writing motion.
The joint motion estimation unit 1130 includes an electromyogram detection unit that detects an electromyogram generated in a human body part related to the wrist by a writing operation, and estimates a joint motion based on the detected electromyogram.
The joint motion estimation unit 1130 includes a grip strength estimation unit that estimates the strength of the force with which the user grips the object, and the estimated strength of the force may be used in the writing generation unit.

物体状態推定部1140は、把持された物体の状態を手首状態及び関節動作により推定する。
物体状態推定部1140は、物体が筆記面と接触する部分の位置を手首状態及び関節動作により推定する筆記面接触推定部を含んでもよい。
さらに、実施形態として、内容を認識するためにテキスト又は図形(絵)の筆記を処理してもよい。
例えば、テキスト命令(textual command)は「e−mail」送信の命令を含んでもよく、パラメータはEメールアドレスであってもよい。又は、図8に示したように、ユーザの意図を理解するために図形を解釈してもよい。
The object state estimation unit 1140 estimates the state of the grasped object from the wrist state and the joint motion.
The object state estimation unit 1140 may include a writing surface contact estimation unit that estimates the position of the portion where the object contacts the writing surface based on the wrist state and the joint motion.
Furthermore, as an embodiment, writing of text or graphics (pictures) may be processed to recognize the contents.
For example, a text command may include an “e-mail” send command and the parameter may be an email address. Alternatively, as shown in FIG. 8, the figure may be interpreted in order to understand the user's intention.

信号生成部1150は、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する。
信号生成部1150は、物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部を含んでもよい。
筆記生成部は、物体の状態を連続的に追跡し、力の強度に対応する太さにて形態を生成してもよい。筆記生成部は、物体を把持した姿勢、筆記動作によるサウンド、及びユーザの音声の内の少なくとも1つを用いて物体の種類を識別する物体識別部を含み、物体の種類による動作を行って形態を生成してもよい。
例えば、物体の種類による動作は、文字及び文章を生成する動作及び図形(絵)を生成したり修正する動作を含んでもよい。
ここで、信号生成部1150は、生成された制御信号を通信部を介して外部機器、入出力装置、及び格納装置の内の少なくとも1つに送信してもよい。例えば、通信部は、有線又は無線(例えば、ブルートゥース(登録商標)、Wi−Fi、ジグビー(登録商標)など)で他の装置と通信できる。
The signal generation unit 1150 generates a control signal for continuously tracking the state of the object and controlling the external device.
The signal generation unit 1150 may include a writing generation unit that continuously tracks the state of an object and generates a figure.
The writing generation unit may continuously track the state of the object and generate a form with a thickness corresponding to the strength of the force. The writing generation unit includes an object identification unit that identifies an object type by using at least one of a posture in which an object is gripped, a sound by a writing operation, and a user's voice, and performs an operation according to the type of the object. May be generated.
For example, the operation depending on the type of object may include an operation of generating characters and sentences and an operation of generating or correcting a figure (picture).
Here, the signal generation unit 1150 may transmit the generated control signal to at least one of the external device, the input / output device, and the storage device via the communication unit. For example, the communication unit can communicate with other devices by wire or wireless (for example, Bluetooth (registered trademark), Wi-Fi, ZigBee (registered trademark)).

本実施形態によれば、モーション認識装置1100は、ユーザの生体信号を検出する生体信号検出部及び推定された物体の状態を検出された生体信号による動きアーチファクト(motion artifact)を用いて補正する物体状態補正部を含んでもよい。
ここで、モーション認識装置は、生体信号検出部を取付けたユーザの動きにより発生する動きアーチファクト(motion artifact)を生体信号から抽出し、動きアーチファクトからユーザの動きを逆追跡する。
物体状態補正部は、逆追跡したユーザ動きに基づいて物体状態推定部で推定した物体の状態を補正する。
According to the present embodiment, the motion recognition apparatus 1100 uses a biological signal detection unit that detects a user's biological signal and an object that corrects the estimated state of the estimated object using a motion artifact caused by the detected biological signal. A state correction unit may be included.
Here, the motion recognition apparatus extracts a motion artifact generated by the movement of the user to which the biological signal detection unit is attached from the biological signal, and reversely traces the movement of the user from the movement artifact.
The object state correction unit corrects the state of the object estimated by the object state estimation unit based on the back-tracked user motion.

例えば、生体信号は、心電図(ECG、electrocardiogram)、眼電図(EOG、electrooculogram)、筋電図(EMG、electromyogram)、脳電図(EEG、electroencephalogram)などを含んでもよい。
ここで、モーション認識装置1100は、生体信号から抽出した動きアーチファクト(motion artifact)に基づいてユーザ動作を推定する。
For example, the biological signal may include an electrocardiogram (ECG), an electrooculogram (EOG), an electromyogram (EMG), an electroencephalogram (EEG), and the like.
Here, the motion recognition apparatus 1100 estimates a user action based on a motion artifact extracted from the biological signal.

図12は、本発明の他の実施形態による把持された物体を用いたモーション認識装置の細部構成を示すブロック図である。
モーション認識装置1200は、検出部1210、処理部1220、格納部1230、及び通信部1240を備える。
FIG. 12 is a block diagram illustrating a detailed configuration of a motion recognition apparatus using a grasped object according to another embodiment of the present invention.
The motion recognition apparatus 1200 includes a detection unit 1210, a processing unit 1220, a storage unit 1230, and a communication unit 1240.

検出部1210は、生体信号、サウンド信号、加速度信号などを検出する。
例えば、検出部1210は、筋電図センサ、サウンドセンサ、心電図センサ、フォトプレチスモグラフィ(PPG、Photoplethysmography)、インピーダンスセンサを含んでもよい。
ここで、生体信号は、心電図、眼電図、筋電図及び脳電図を含んでもよい。
サウンド信号は、モーション認識装置1200周辺のサウンド及びユーザの音声などを含んでもよい。
加速度信号は、直線運動に対する3軸の加速度信号及び各軸を基準とする回転運動に対する3軸の加速度信号を含んでもよい。
The detection unit 1210 detects a biological signal, a sound signal, an acceleration signal, and the like.
For example, the detection unit 1210 may include an electromyogram sensor, a sound sensor, an electrocardiogram sensor, photoplethysmography (PPG), and an impedance sensor.
Here, the biological signal may include an electrocardiogram, an electrooculogram, an electromyogram, and an electroencephalogram.
The sound signal may include sound around the motion recognition device 1200, user's voice, and the like.
The acceleration signal may include a triaxial acceleration signal for a linear motion and a triaxial acceleration signal for a rotational motion based on each axis.

処理部1220は、本発明の一実施形態による把持された物体を用いたモーション認識方法を行う。
検出部1210で検出された生体信号、加速度信号、及びサウンド信号を用いてユーザによって把持された物体の状態を推定し、物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する。
例えば、筋電図信号から手首と関連する人体部位の関節動作を推定し、加速度信号から手首状態を推定し、推定された手首状態及び関節動作から物体の状態を推定する。
具体的には、上述した図3及び図4にて示した方法と近似して物体の状態を推定する。
The processing unit 1220 performs a motion recognition method using a grasped object according to an embodiment of the present invention.
A control signal for estimating the state of an object held by the user using the biological signal, acceleration signal, and sound signal detected by the detection unit 1210, and continuously tracking the state of the object to control the external device. Is generated.
For example, the joint motion of the human body part related to the wrist is estimated from the electromyogram signal, the wrist state is estimated from the acceleration signal, and the state of the object is estimated from the estimated wrist state and joint motion.
Specifically, the state of the object is estimated by approximating the method shown in FIGS. 3 and 4 described above.

格納部1230は、上述した図3及び図4に示した方法を行わせる命令語を含む1つ以上のプログラムを格納する。
本実施形態によれば、格納部1230は、物体の状態を連続的に追跡して生成された形態(figure)を格納してもよい。
The storage unit 1230 stores one or more programs including instruction words for performing the method illustrated in FIGS. 3 and 4 described above.
According to the present embodiment, the storage unit 1230 may store a form generated by continuously tracking the state of an object.

通信部1240は、処理部1220で生成した制御信号を外部機器に伝達する。
ここで、通信部1240は、有線又は無線で外部機器、格納装置、及び入出力装置と通信してもよい。
例えば、通信部1240は、無線でモーション認識装置1200が使用可能な外部機器、格納装置、及び入出力装置を検索してもよい。
The communication unit 1240 transmits the control signal generated by the processing unit 1220 to an external device.
Here, the communication unit 1240 may communicate with an external device, a storage device, and an input / output device in a wired or wireless manner.
For example, the communication unit 1240 may search for external devices, storage devices, and input / output devices that can be used wirelessly by the motion recognition device 1200.

本発明に係るモーション認識装置は、ノート筆記及び描画するようなユーザ動作を精密に認識することのできるユーザインターフェース(UI、User Interface)を提供する。
このようなユーザインターフェースは、別途の入出力装置が不要な新しい形態の直観的かつ自然なユーザインターフェースである。
The motion recognition apparatus according to the present invention provides a user interface (UI, User Interface) capable of accurately recognizing user actions such as note writing and drawing.
Such a user interface is a new form of intuitive and natural user interface that does not require a separate input / output device.

本発明に係るモーション認識装置は、生体信号検出部、加速度検出部などを用いて手の動きを精密に推定し、これに基づいてノート筆記型の直観的なユーザインターフェースを提供することができる。
本発明に係るモーション認識装置は、加速度検出部を用いてユーザの手を含む腕の大きい動きを把握し、筋電図センサを用いて個別の指を握ったり開いたりするユーザ動作、手首の動きなどを推定するすることができる。
The motion recognition apparatus according to the present invention can accurately estimate a hand movement using a biological signal detection unit, an acceleration detection unit, and the like, and can provide a notebook writing-type intuitive user interface based on the estimation.
The motion recognition apparatus according to the present invention grasps a large movement of an arm including a user's hand using an acceleration detection unit, and grasps and opens an individual finger using an electromyogram sensor. Etc. can be estimated.

本発明の一実施形態によれば、手首型ウェアラブル装置を着用したユーザが任意の筆記道具で任意の紙に筆記したり図形(絵)を描けば、モーション認識装置が当該ユーザ動作を認識することができる。
このような実施形態がモーション認識装置を手首装着モーション認識装置に特定する一方、他の実施形態としてモーション認識装置に対する代替形態を提供してもよい。
According to an embodiment of the present invention, when a user wearing a wrist wearable device writes on a piece of paper or draws a figure (picture) with any writing tool, the motion recognition device recognizes the user action. Can do.
While such an embodiment identifies a motion recognition device as a wrist-mounted motion recognition device, other embodiments may provide an alternative to the motion recognition device.

モーション認識装置は、予め決められた入出力装置や格納装置に当該ユーザ動作と関連する情報を送信してユーザにフィードバックを与えることができる。
例えば、ユーザが筆記中である文字、文章、及び図形(絵)などを入出力装置で表示してもよい。
The motion recognition device can provide feedback to the user by transmitting information related to the user action to a predetermined input / output device or storage device.
For example, characters, sentences, figures (pictures), etc. that the user is writing may be displayed on the input / output device.

本発明に係るモーション認識装置は、直観的かつ自然な筆記型ユーザインターフェースを提供することができる。
例えば、モーション認識装置は、制御しようとする外部機器を制御するためのディスプレイが必要でなくてもよい。
他の例として、データを入力するためのモーション認識装置以外の別途装置を必要とすることはない。ユーザはこのようなモーション認識装置を介して直観的に外部機器を制御することができる。
The motion recognition apparatus according to the present invention can provide an intuitive and natural writing type user interface.
For example, the motion recognition apparatus may not require a display for controlling an external device to be controlled.
As another example, a separate device other than the motion recognition device for inputting data is not required. The user can intuitively control the external device through such a motion recognition device.

本発明の一実施形態に係るモーション認識装置は、ノート筆記されたデータ入力を無線でクラウドサーバなどに便利に送信することができる。
また、外部機器を制御するためのアイコンを紙に、そして、筆記道具などでポインティン(Pointing)して外部機器を制御することができる。
The motion recognition apparatus according to an embodiment of the present invention can conveniently transmit data written in a notebook to a cloud server or the like wirelessly.
Further, the external device can be controlled by pointing an icon for controlling the external device on paper and pointing with a writing tool or the like.

以上で説明した装置は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組み合わせで実現してもよい。
例えば、実施形態で説明した装置及び構成要素は、例えば、プロセッサ、パイプラインプロセッサ(pipeline processor)、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は、命令(instruction)を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて実現してもよい。
The apparatus described above may be realized by a hardware component, a software component, and / or a combination of a hardware component and a software component.
For example, the apparatus and components described in the embodiments include, for example, a processor, a pipeline processor, a controller, an ALU (arithmetic logic unit), a digital signal processor (digital signal processor), a microcomputer, and an FPA (field programmable). array, a programmable logic unit (PLU), a microprocessor, or different devices capable of executing and responding to instructions may be implemented using one or more general purpose or special purpose computers.

処理装置は、オペレーションシステム(OS)及びオペレーションシステム上で行われる1つ以上のソフトウェアアプリケーションを実行できる。また、処理装置はソフトウェアの実行に応答して、データをアクセス、格納、操作、処理及び生成する。理解の便宜のために、処理装置は1つが使用されるものと説明する場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。   The processing device can execute an operating system (OS) and one or more software applications running on the operating system. The processing device also accesses, stores, manipulates, processes and generates data in response to execution of the software. For ease of understanding, one processing device may be described as being used, but those having ordinary knowledge in the art may recognize that the processing device has a plurality of processing elements and / or Or it turns out that the processing element of multiple types is included. For example, the processing device may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as a parallel processor.

ソフトウェアは、コンピュータプログラム、コード、命令、又は、このうちの1つ以上の組み合わせを含んでもよく、所望のとおりに動作するよう処理装置を構成したり独立的又は結合的に処理装置を命令してもよい。
ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するため、どのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に、永久的、又は、一時的に具体化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。
ソフトウェア及びデータは、1つ以上のコンピュータ読み出し可能な記録媒体に格納されてもよい。
The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing device to operate as desired, or instructing the processing device independently or in combination. Also good.
Software and / or data may be transmitted by any type of machine, component, physical device, virtual device, computer storage medium or device, or transmitted to be interpreted by the processing device or to provide instructions or data to the processing device. The signal wave is embodied permanently or temporarily. The software may be distributed over computer systems connected to a network and stored or executed in a distributed manner.
Software and data may be stored on one or more computer-readable recording media.

実施形態に係る方法は、様々なコンピュータ手段によって実行することができるプログラム命令形態で実現され、コンピュータで読み取り可能な記録媒体に記録することができる。
コンピュータで読み取り可能な記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合わせて含むことができる。
記録媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に公示された使用可能なものであってもよい。
The method according to the embodiment is realized in the form of program instructions that can be executed by various computer means, and can be recorded on a computer-readable recording medium.
The computer-readable recording medium can include program instructions, data files, data structures, etc. alone or in combination.
The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be usable as advertised by those skilled in the computer software art.

尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。   The present invention is not limited to the embodiment described above. Various modifications can be made without departing from the technical scope of the present invention.

110、1100、1200 モーション認識装置
180 物体
190 ユーザ
201 ノート筆記
210 モーション認識装置
220 格納装置
230 入出力装置
240 外部機器
1110 動作開始検出部
1120 手首状態推定部
1130 関節動作推定部
1140 物体状態推定部
1150 信号生成部
1210 検出部
1220 処理部
1230 格納部
1240 通信部
110, 1100, 1200 Motion recognition device 180 Object 190 User 201 Note writing 210 Motion recognition device 220 Storage device 230 Input / output device 240 External device 1110 Motion start detection unit 1120 Wrist state estimation unit 1130 Joint motion estimation unit 1140 Object state estimation unit 1150 Signal generation unit 1210 detection unit 1220 processing unit 1230 storage unit 1240 communication unit

Claims (31)

把持された物体を用いた筆記動作によるユーザの手首状態を推定するステップと、
前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定するステップと、
把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップとを有することを特徴とする把持された物体を用いたモーション認識方法。
Estimating a user's wrist state by a writing operation using a grasped object;
Estimating the joint motion of the user's body part associated with the wrist by the writing motion;
And a step of estimating the state of the gripped object by the wrist state and the joint motion. A motion recognition method using the gripped object.
前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。   The method of claim 1, further comprising: generating a control signal for continuously tracking the state of the object and controlling an external device. 前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。   The motion recognition method using a gripped object according to claim 1, further comprising a step of detecting the start of the writing operation of the user using the gripped object. 前記把持された物体を用いた前記ユーザの前記筆記動作の開始を検出するステップは、前記筆記動作により発生するサウンド又は前記筆記動作による前記物体に対する把持行為の少なくとも1つを検出した場合、前記筆記動作が開始されたと判断するステップを含むことを特徴とする請求項3に記載の把持された物体を用いたモーション認識方法。   The step of detecting the start of the writing operation of the user using the gripped object is detected when at least one of a sound generated by the writing operation or a gripping action on the object by the writing operation is detected. 4. The method of recognizing motion using a grasped object according to claim 3, further comprising the step of determining that the operation has started. 前記把持された前記物体の状態を前記手首状態及び前記関節動作により推定するステップは、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定するステップを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。   The step of estimating the state of the gripped object based on the wrist state and the joint motion includes the step of estimating the position of a portion of the object that contacts the writing surface based on the wrist state and the joint motion. A motion recognition method using the grasped object according to claim 1. 前記筆記動作によるユーザの手首状態を推定するステップは、前記把持された物体を用いた前記筆記動作による加速度を検出するステップと、
前記加速度により前記手首状態を推定するステップとを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
The step of estimating the wrist state of the user by the writing operation includes the step of detecting an acceleration by the writing operation using the grasped object,
The method according to claim 1, further comprising: estimating the wrist state based on the acceleration.
前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記筆記動作による前記手首と関連する人体部位の筋電図情報を検出するステップと、
前記筋電図情報により前記関節動作を推定するステップとを含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
The step of estimating the joint movement of the human body part related to the wrist by the writing operation detects the electromyogram information of the human body part related to the wrist by the writing operation;
The method according to claim 1, further comprising: estimating the joint motion based on the electromyogram information.
前記ユーザに対応する生体信号を検出するステップと、
前記生体信号による動きアーチファクト(motion artifact)を用いて、推定された前記物体の状態の誤差を補正するステップとをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
Detecting a biological signal corresponding to the user;
The motion using the grasped object according to claim 1, further comprising a step of correcting an error in the estimated state of the object using a motion artifact due to the biological signal. Recognition method.
前記物体の状態を連続的に追跡して生成された形態(figure)を格納するステップをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。   The method according to claim 1, further comprising storing a figure generated by continuously tracking the state of the object. 前記筆記動作により、前記手首と関連する人体部位の関節動作を推定するステップは、前記物体を把持するために前記ユーザによって加えられた力の強度を推定するステップを含み、
前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成するステップをさらに含むことを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
Estimating the joint motion of a human body part associated with the wrist by the writing motion comprises estimating the strength of a force applied by the user to grip the object;
The method of claim 1, further comprising: continuously tracking the state of the object and generating a shape with a thickness corresponding to the strength of the force. .
前記把持された物体の種類を識別するステップと、
前記物体の状態を連続的に追跡し、前記物体の種類による動作を行うステップとをさらに有することを特徴とする請求項1に記載の把持された物体を用いたモーション認識方法。
Identifying the type of the gripped object;
The method according to claim 1, further comprising: continuously tracking the state of the object and performing an operation according to the type of the object.
把持された物体を用いた筆記動作によるユーザの手首状態を推定する手首状態推定部と、
前記筆記動作により、前記手首と関連する前記ユーザの人体部位の関節動作を推定する関節動作推定部と、
把持された前記物体の状態を前記手首状態及び前記関節動作により推定する物体状態推定部とを備えることを特徴とする把持された物体を用いたモーション認識装置。
A wrist state estimation unit for estimating a wrist state of the user by a writing operation using the grasped object;
A joint motion estimator for estimating joint motion of the user's body part related to the wrist by the writing motion;
A motion recognition apparatus using a grasped object, comprising: an object state estimation unit configured to estimate a state of the grasped object based on the wrist state and the joint motion.
前記物体の状態を連続的に追跡して外部機器を制御するための制御信号を生成する信号生成部をさらに備えることを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。   The motion recognition apparatus using the grasped object according to claim 12, further comprising a signal generation unit configured to generate a control signal for continuously tracking the state of the object and controlling an external device. . 前記把持された物体を用いた前記筆記動作の開始を検出する動作開始検出部をさらに備えることを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。   The motion recognition apparatus using a grasped object according to claim 12, further comprising an operation start detection unit that detects the start of the writing operation using the grasped object. 前記動作開始検出部は、前記筆記動作により発生するサウンドを検出する音声検出部と、
前記筆記動作により発生する前記サウンド又は前記筆記動作による前記物体に対する把持行為の少なくとも1つを検出した場合、前記筆記動作が開始されたと判断する動作開始判断部とを含むことを特徴とする請求項14に記載の把持された物体を用いたモーション認識装置。
The operation start detection unit is a voice detection unit that detects a sound generated by the writing operation;
An operation start determining unit that determines that the writing operation is started when detecting at least one of the sound generated by the writing operation or the gripping action on the object by the writing operation. 14. A motion recognition apparatus using the grasped object according to 14.
前記物体状態推定部は、前記物体の筆記面と接触する部分の位置を前記手首状態及び前記関節動作により推定する筆記面接触推定部を含むことを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。   The grasped object according to claim 12, wherein the object state estimation unit includes a writing surface contact estimation unit that estimates a position of a portion of the object that contacts the writing surface based on the wrist state and the joint motion. Motion recognition device using objects. 前記手首状態推定部は、前記把持された物体を用いた筆記動作による6軸に対する加速度を検出する加速度検出部を含み、
前記加速度により前記手首の位置変化又は前記手首の回転の少なくとも1つを含む前記手首状態を推定することを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。
The wrist state estimation unit includes an acceleration detection unit that detects acceleration with respect to six axes by a writing operation using the grasped object,
The motion recognition apparatus using a grasped object according to claim 12, wherein the wrist state including at least one of a change in position of the wrist or a rotation of the wrist is estimated based on the acceleration.
前記関節動作推定部は、前記筆記動作により前記手首と関連する人体部位で発生する筋電図情報を検出する筋電図検出部を含み、
前記筋電図情報により前記関節動作を推定することを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。
The joint motion estimation unit includes an electromyogram detection unit that detects electromyogram information generated in a human body part related to the wrist by the writing operation,
The motion recognition apparatus using a grasped object according to claim 12, wherein the joint motion is estimated from the electromyogram information.
前記ユーザに対応する生体信号を検出する生体信号検出部と、
前記生体信号による動きアーチファクト(motion artifact)を用いて、前記推定された物体の状態の誤差を補正する物体状態補正部をさらに備えることを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。
A biological signal detector for detecting a biological signal corresponding to the user;
The grasped object according to claim 12, further comprising an object state correction unit that corrects an error in the estimated state of the object using a motion artifact due to the biological signal. Motion recognition device.
前記物体の状態を連続的に追跡して形態(figure)を生成する筆記生成部をさらに備えることを特徴とする請求項12に記載の把持された物体を用いたモーション認識装置。   The motion recognition apparatus using a grasped object according to claim 12, further comprising a writing generation unit that continuously tracks the state of the object and generates a figure. 前記関節動作推定部は、前記ユーザが前記物体を把持するために前記ユーザによって加えられた力の強度を推定する把持強度推定部を含み、
前記筆記生成部は、前記物体の状態を連続的に追跡し、前記力の強度に対応する太さで形態を生成することを特徴とする請求項20に記載の把持された物体を用いたモーション認識装置。
The joint motion estimation unit includes a grip strength estimation unit that estimates a strength of a force applied by the user to grip the object by the user,
The motion using the grasped object according to claim 20, wherein the writing generation unit continuously tracks the state of the object and generates a shape with a thickness corresponding to the strength of the force. Recognition device.
前記筆記生成部は、前記物体を把持した姿勢、筆記動作によるサウンド、及びユーザ音声の内の少なくとも1つを用いて前記物体の種類を識別する物体識別部を含み、
前記物体の種類による動作を行って前記形態を生成することを特徴とする請求項20に記載の把持された物体を用いたモーション認識装置。
The writing generation unit includes an object identification unit that identifies the type of the object using at least one of a posture in which the object is gripped, a sound by a writing operation, and a user voice,
21. The motion recognition apparatus using a grasped object according to claim 20, wherein the form is generated by performing an operation according to the type of the object.
ユーザの手首状態及び前記手首と関連する人体部位の関節動作により把持された物体の状態を推定し、前記物体の状態を連続的に追跡して生成した外部機器を制御するための制御信号を送信するモーション認識装置と、
前記制御信号を受信した場合、前記制御信号に対応する予め決められた動作を行う外部機器とを備えることを特徴とする把持された物体を用いたモーション認識システム。
Estimate the wrist state of the user and the state of the object grasped by the joint movement of the human body part related to the wrist, and transmit a control signal for controlling the external device generated by continuously tracking the state of the object A motion recognition device,
A motion recognition system using a grasped object, comprising: an external device that performs a predetermined operation corresponding to the control signal when the control signal is received.
前記モーション認識装置は、前記物体の状態を連続的に追跡した形態(figure)に対応する外部機器を選択し、前記選択された外部機器を制御するための信号を前記制御信号で生成することを特徴とする請求項23に記載の把持された物体を用いたモーション認識システム。   The motion recognition apparatus selects an external device corresponding to a form in which the state of the object is continuously tracked, and generates a signal for controlling the selected external device using the control signal. The motion recognition system using a grasped object according to claim 23. 前記制御信号は、前記モーション認識装置が前記形態で前記外部機器の予め決められた部分を活性化するユーザ動作を検出した場合、前記外部機器が前記予め決められた部分に対応する動作を行うようにする制御命令を備えることを特徴とする請求項24に記載の把持された物体を用いたモーション認識システム。   The control signal causes the external device to perform an operation corresponding to the predetermined portion when the motion recognition apparatus detects a user operation that activates the predetermined portion of the external device in the form. The motion recognition system using a grasped object according to claim 24, further comprising: 把持された物体を用いたモーション認識方法において、
ユーザの手首状態及び前記手首と関連する人体部位の関節動作により前記把持された物体の状態を推定するステップと、
前記把持された物体の状態を連続的に追跡することによって生成される形態(figure)を格納するステップと、
前記形態に対応する外部機器を識別するために前記形態を認識し、前記外部機器によって行われる動作を決定するステップと、
前記外部機器が前記決定された動作を行うように指示する制御信号を前記外部機器に送信するステップとを有することを特徴とする把持された物体を用いたモーション認識方法。
In a motion recognition method using a grasped object,
Estimating a state of the grasped object by a wrist state of a user and a joint operation of a human body part related to the wrist;
Storing a figure generated by continuously tracking the state of the grasped object;
Recognizing the form to identify an external device corresponding to the form and determining an action performed by the external device;
And a step of transmitting a control signal instructing the external device to perform the determined operation to the external device. A motion recognition method using a grasped object.
前記形態は、文字を含み、
前記形態を認識し、前記外部機器によって行われる動作を決定するステップは、前記文字を認識するステップを含むことを特徴とする請求項26に記載の把持された物体を用いたモーション認識方法。
The form includes letters,
27. The motion recognition method using a grasped object according to claim 26, wherein the step of recognizing the form and determining the operation performed by the external device includes the step of recognizing the character.
前記外部機器は、前記認識された文字に基づいて識別されることを特徴とする請求項27に記載の把持された物体を用いたモーション認識方法。   The method according to claim 27, wherein the external device is identified based on the recognized character. 前記外部機器によって行われる動作は、前記認識された文字に基づいて決定されることを特徴とする請求項27に記載の把持された物体を用いたモーション認識方法。   28. The motion recognition method using a grasped object according to claim 27, wherein an operation performed by the external device is determined based on the recognized character. 前記外部機器は、前記外部機器を示す前記形態の認識に基づいて識別されることを特徴とする請求項26に記載の把持された物体を用いたモーション認識方法。   27. The motion recognition method using a grasped object according to claim 26, wherein the external device is identified based on recognition of the form indicating the external device. 前記形態の領域は、前記決定された動作を行う前記外部機器の一部分の図形であり、
前記ユーザが前記一部分を選択した場合、前記決定された動作を前記外部機器が行うように指示する前記制御信号を送信するステップをさらに有することを特徴とする請求項30に記載の把持された物体を用いたモーション認識方法。
The area of the form is a figure of a part of the external device that performs the determined operation,
The grasped object according to claim 30, further comprising the step of transmitting the control signal instructing the external device to perform the determined action when the user selects the portion. Motion recognition method using
JP2014023149A 2013-06-17 2014-02-10 Motion recognition method using grasped object, device and system therefor Active JP6527307B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130068870A KR102170321B1 (en) 2013-06-17 2013-06-17 System, method and device to recognize motion using gripped object
KR10-2013-0068870 2013-06-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019006957A Division JP2019075169A (en) 2013-06-17 2019-01-18 Device, method, and system for recognizing motions using gripped object

Publications (2)

Publication Number Publication Date
JP2015001978A true JP2015001978A (en) 2015-01-05
JP6527307B2 JP6527307B2 (en) 2019-06-05

Family

ID=50473019

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014023149A Active JP6527307B2 (en) 2013-06-17 2014-02-10 Motion recognition method using grasped object, device and system therefor
JP2019006957A Pending JP2019075169A (en) 2013-06-17 2019-01-18 Device, method, and system for recognizing motions using gripped object

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019006957A Pending JP2019075169A (en) 2013-06-17 2019-01-18 Device, method, and system for recognizing motions using gripped object

Country Status (5)

Country Link
US (2) US10019078B2 (en)
EP (1) EP2815699A1 (en)
JP (2) JP6527307B2 (en)
KR (1) KR102170321B1 (en)
CN (1) CN104238736B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775080B1 (en) * 2016-06-07 2017-09-05 동국대학교 산학협력단 Drawing image processing apparatus and method based on natural user interface and natural user experience
JP2019046304A (en) * 2017-09-05 2019-03-22 株式会社国際電気通信基礎技術研究所 Event series extraction apparatus, event series extraction method, and event extraction program
WO2021100502A1 (en) * 2019-11-18 2021-05-27 ポジティブワン株式会社 Allocation control device, allocation control system, and allocation control method
JP2021083070A (en) * 2020-04-07 2021-05-27 ポジティブワン株式会社 Allocation control device, allocation control system, and allocation control method

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US20150253859A1 (en) * 2014-03-05 2015-09-10 Google Inc. System and method for physical manipulation of object and type of object as input
CN104571517A (en) * 2014-12-31 2015-04-29 杨皓 Body movement based input and control method for electronic device
CN104615248B (en) * 2015-02-10 2018-07-31 北京智谷睿拓技术服务有限公司 The method and apparatus for determining input information
CN104656896B (en) * 2015-02-10 2018-09-18 北京智谷睿拓技术服务有限公司 The method and apparatus for determining input information
US10285627B2 (en) * 2015-04-15 2019-05-14 Pixart Imaging Inc. Action recognition system and method thereof
CN106200887A (en) * 2015-05-04 2016-12-07 原相科技股份有限公司 Action recognizing system and method thereof
CN106293048B (en) * 2015-07-31 2019-05-07 北京智谷睿拓技术服务有限公司 Input information determines method and apparatus
CN106371564B (en) * 2015-08-28 2020-06-23 北京智谷睿拓技术服务有限公司 Input information determination method and device
CN106249853B (en) * 2015-09-15 2019-03-19 北京智谷睿拓技术服务有限公司 Exchange method and equipment
KR102343616B1 (en) 2015-11-16 2021-12-28 삼성전자주식회사 Electronic device and controlling method thereof
KR102570068B1 (en) 2015-11-20 2023-08-23 삼성전자주식회사 Gesture recognition method, gesture recognition apparatus, wearable device
KR102466995B1 (en) * 2015-12-21 2022-11-14 삼성전자주식회사 Method and device for authenticating user
CN107153470A (en) * 2016-03-02 2017-09-12 中国科学院软件研究所 A kind of multichannel health mouse system and health monitoring method
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
KR102619443B1 (en) 2016-09-30 2023-12-28 삼성전자주식회사 Wrist temperature rhythm acquisition apparatus and method, core temperature rhythm acquisition apparatus and method, wearable device
KR102655584B1 (en) 2017-01-02 2024-04-08 삼성전자주식회사 Display apparatus and controlling method thereof
KR102329761B1 (en) * 2017-05-26 2021-11-22 삼성전자주식회사 Electronic device for selecting external device and controlling the same and operating method thereof
EP3435202A1 (en) 2017-07-25 2019-01-30 Siemens Healthcare GmbH Allocation of a tool to a gesture
CA3082411A1 (en) * 2017-11-14 2019-05-23 Biointeractive Technologies, Inc. Apparatus and methods for detecting, quantifying, and providing feedback on user gestures
EP3550408A4 (en) * 2018-01-05 2019-11-27 Shenzhen Goodix Technology Co., Ltd. Pressure measurement method and apparatus for active pen, and active pen
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11567573B2 (en) * 2018-09-20 2023-01-31 Meta Platforms Technologies, Llc Neuromuscular text entry, writing and drawing in augmented reality systems
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
CN109291696A (en) * 2018-09-29 2019-02-01 上海掌门科技有限公司 A kind of method and apparatus acquiring electrocardiosignal by writing device
CN113423341A (en) 2018-11-27 2021-09-21 脸谱科技有限责任公司 Method and apparatus for automatic calibration of wearable electrode sensor system
CN109960404B (en) * 2019-02-15 2020-12-18 联想(北京)有限公司 Data processing method and device
DE102019204714A1 (en) * 2019-04-03 2020-10-08 Technische Hochschule Lübeck Procedure and pen for personal identification and handwriting recognition
CN110658889A (en) * 2019-09-23 2020-01-07 上海闻泰信息技术有限公司 Wearable device control method, wearable device control device, wearable device control equipment and storage medium
CN110664404B (en) * 2019-09-30 2021-10-26 华南理工大学 Trunk compensation detection and elimination system based on surface electromyogram signals
CN110827987B (en) * 2019-11-06 2021-03-23 西安交通大学 Myoelectricity continuous prediction method and system for wrist joint torque in multi-grabbing mode
CN111288986B (en) * 2019-12-31 2022-04-12 中科彭州智慧产业创新中心有限公司 Motion recognition method and motion recognition device
JP2022042362A (en) * 2020-09-02 2022-03-14 富士フイルムビジネスイノベーション株式会社 Information processing device and program
CN112687085B (en) * 2020-12-23 2021-10-26 邢台职业技术学院 Intelligent auxiliary tool for three-posture cultivation of students in small-rise stage
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6133144U (en) * 1984-07-31 1986-02-28 カシオ計算機株式会社 Pen type handwriting input device
JPH0639754A (en) * 1992-07-27 1994-02-15 Nippon Telegr & Teleph Corp <Ntt> Robot hand control device
JPH0728593A (en) * 1993-07-12 1995-01-31 Hitachi Ltd Handwritten data input device and handwritten data recognization system using the same
JPH10301702A (en) * 1997-04-30 1998-11-13 Ricoh Co Ltd Pen type inputting device and pattern recognition method for the same
JPH11338597A (en) * 1998-05-26 1999-12-10 Nippon Telegr & Teleph Corp <Ntt> Wrist mount type input device
JP2005352739A (en) * 2004-06-10 2005-12-22 Nec Corp Portable terminal device, input system and information input method
JP2008305199A (en) * 2007-06-07 2008-12-18 Fujitsu Component Ltd Input system and program
JP2009522631A (en) * 2005-12-30 2009-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーション Video-based handwriting input method and apparatus
JP2009217733A (en) * 2008-03-12 2009-09-24 Yahoo Japan Corp Handwritten character recognition device
JP2011048818A (en) * 2009-08-27 2011-03-10 Korea Electronics Telecommun Finger motion detecting apparatus and method
JP2012073830A (en) * 2010-09-29 2012-04-12 Pioneer Electronic Corp Interface device

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2698320B2 (en) 1993-08-31 1998-01-19 日本電信電話株式会社 Permanent input system, Permanent intention communication system, Permanent music keyboard system, Permanent Braille input / output system
US6831632B2 (en) 2001-04-09 2004-12-14 I. C. + Technologies Ltd. Apparatus and methods for hand motion tracking and handwriting recognition
JP2002358149A (en) 2001-06-01 2002-12-13 Sony Corp User inputting device
KR100650041B1 (en) * 2004-10-12 2006-11-28 학교법인연세대학교 Oscillometric blood pressure measurement system with a motion artifact eliminator using accelerometer
KR100680023B1 (en) 2004-12-06 2007-02-07 한국전자통신연구원 Cellular phone input device using electromyography and control method thereof
US9155487B2 (en) * 2005-12-21 2015-10-13 Michael Linderman Method and apparatus for biometric analysis using EEG and EMG signals
KR100793079B1 (en) 2006-12-08 2008-01-10 한국전자통신연구원 Wrist-wear user input apparatus and methods
CN101969848B (en) * 2008-03-14 2012-11-28 皇家飞利浦电子股份有限公司 An activity monitoring system insensitive to accelerations induced by external motion factors
JP2009266097A (en) * 2008-04-28 2009-11-12 Toshiba Corp Input device
WO2009137119A1 (en) * 2008-05-09 2009-11-12 Medtronic, Inc. Peripheral nerve field stimulation control
US8764850B2 (en) * 2008-07-31 2014-07-01 Northwestern University Bi-modal ankle-foot device
US8776264B2 (en) * 2009-04-03 2014-07-15 Ware Llc Garments for providing access for sensors to contact skin
KR101234111B1 (en) * 2009-10-13 2013-02-19 한국전자통신연구원 Apparatus for contact-free input interfacing and contact-free input interfacing method using the same
US20140194726A1 (en) * 2013-01-04 2014-07-10 Neurotrek, Inc. Ultrasound Neuromodulation for Cognitive Enhancement
TWI393579B (en) * 2009-11-13 2013-04-21 Inst Information Industry The state of the muscle movement state analysis system, methods and computer program products
US8830212B2 (en) * 2010-06-01 2014-09-09 Vladimir Vaganov System and method for digital recording of handpainted, handdrawn and handwritten information
KR20110137587A (en) 2010-06-17 2011-12-23 한국전자통신연구원 Apparatus and method of contact-free space input/output interfacing
JP5621464B2 (en) * 2010-09-24 2014-11-12 富士ゼロックス株式会社 Motion detection device, recording system, and program
US20130045774A1 (en) * 2010-12-07 2013-02-21 Sigza Authentication Systems Smart Phone Writing Method and Apparatus
KR101159475B1 (en) 2010-12-10 2012-06-25 숭실대학교산학협력단 Apparatus for robot navigation control using emg and acceleration sensor and method thereof
KR101800182B1 (en) 2011-03-16 2017-11-23 삼성전자주식회사 Apparatus and Method for Controlling Virtual Object
EP2709522B1 (en) * 2011-05-20 2016-09-14 Nanyang Technological University System for synergistic neuro-physiological rehabilitation and/or functional development
KR20120133351A (en) 2011-05-31 2012-12-10 주식회사 네오펙트 Glove Type Data Input Device interlocking with Mobile
US9218058B2 (en) 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US20140267024A1 (en) * 2013-03-15 2014-09-18 Eric Jeffrey Keller Computing interface system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6133144U (en) * 1984-07-31 1986-02-28 カシオ計算機株式会社 Pen type handwriting input device
JPH0639754A (en) * 1992-07-27 1994-02-15 Nippon Telegr & Teleph Corp <Ntt> Robot hand control device
JPH0728593A (en) * 1993-07-12 1995-01-31 Hitachi Ltd Handwritten data input device and handwritten data recognization system using the same
JPH10301702A (en) * 1997-04-30 1998-11-13 Ricoh Co Ltd Pen type inputting device and pattern recognition method for the same
JPH11338597A (en) * 1998-05-26 1999-12-10 Nippon Telegr & Teleph Corp <Ntt> Wrist mount type input device
JP2005352739A (en) * 2004-06-10 2005-12-22 Nec Corp Portable terminal device, input system and information input method
JP2009522631A (en) * 2005-12-30 2009-06-11 インターナショナル・ビジネス・マシーンズ・コーポレーション Video-based handwriting input method and apparatus
JP2008305199A (en) * 2007-06-07 2008-12-18 Fujitsu Component Ltd Input system and program
JP2009217733A (en) * 2008-03-12 2009-09-24 Yahoo Japan Corp Handwritten character recognition device
JP2011048818A (en) * 2009-08-27 2011-03-10 Korea Electronics Telecommun Finger motion detecting apparatus and method
JP2012073830A (en) * 2010-09-29 2012-04-12 Pioneer Electronic Corp Interface device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 優 YU SUZUKI: "ペンを握る力と筆圧を組み合わせたインタラクション手法", 第72回(平成22年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6018036716, JP, ISSN: 0004020193 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775080B1 (en) * 2016-06-07 2017-09-05 동국대학교 산학협력단 Drawing image processing apparatus and method based on natural user interface and natural user experience
WO2017213307A1 (en) * 2016-06-07 2017-12-14 동국대학교 산학협력단 Apparatus and method for processing digital image on basis of nui/nux
JP2019046304A (en) * 2017-09-05 2019-03-22 株式会社国際電気通信基礎技術研究所 Event series extraction apparatus, event series extraction method, and event extraction program
JP7071717B2 (en) 2017-09-05 2022-05-19 株式会社国際電気通信基礎技術研究所 Event sequence extraction device, event sequence extraction method and event extraction program
WO2021100502A1 (en) * 2019-11-18 2021-05-27 ポジティブワン株式会社 Allocation control device, allocation control system, and allocation control method
US11842557B2 (en) 2019-11-18 2023-12-12 Positive One Corporation Assignment control apparatus, assignment control system, and assignment control method
JP2021083070A (en) * 2020-04-07 2021-05-27 ポジティブワン株式会社 Allocation control device, allocation control system, and allocation control method

Also Published As

Publication number Publication date
JP6527307B2 (en) 2019-06-05
EP2815699A1 (en) 2014-12-24
KR102170321B1 (en) 2020-10-26
JP2019075169A (en) 2019-05-16
KR20140146346A (en) 2014-12-26
US10019078B2 (en) 2018-07-10
US20140368474A1 (en) 2014-12-18
CN104238736B (en) 2019-02-15
US20180284912A1 (en) 2018-10-04
CN104238736A (en) 2014-12-24
US10649549B2 (en) 2020-05-12

Similar Documents

Publication Publication Date Title
JP6527307B2 (en) Motion recognition method using grasped object, device and system therefor
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
US9367139B2 (en) Systems, articles, and methods for gesture identification in wearable electromyography devices
JP6542262B2 (en) Multi-device multi-user sensor correlation for pen and computing device interaction
US10179407B2 (en) Dynamic multi-sensor and multi-robot interface system
CN112822992A (en) Providing enhanced interaction with physical objects using neuromuscular signals in augmented reality environments
JP6660309B2 (en) Sensor correlation for pen and touch-sensitive computing device interaction
AU2013347935B2 (en) Computing interface system
JP2022500729A (en) Neuromuscular control of augmented reality system
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
US20150185852A1 (en) Ring mobile device and operation method of the same
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
US20180260044A1 (en) Information processing apparatus, information processing method, and program
KR20160008890A (en) Apparatus and method for providing touch inputs by using human body
Devi et al. Low cost tangible glove for translating sign gestures to speech and text in Hindi language
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
US20210318759A1 (en) Input device to control a computing device with a touch pad having a curved surface configured to sense touch input
Kim et al. Mo-Bi: Contextual mobile interfaces through bimanual posture sensing with Wrist-Worn devices
KR101337429B1 (en) Input apparatus
WO2023126678A2 (en) Systems and methods for interacting with an electronic display device
JP2019003366A (en) Information input device, information input method and information input system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R150 Certificate of patent or registration of utility model

Ref document number: 6527307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250