JP2017094055A - Gesture recognition method, apparatus and wearable device - Google Patents
Gesture recognition method, apparatus and wearable device Download PDFInfo
- Publication number
- JP2017094055A JP2017094055A JP2016197244A JP2016197244A JP2017094055A JP 2017094055 A JP2017094055 A JP 2017094055A JP 2016197244 A JP2016197244 A JP 2016197244A JP 2016197244 A JP2016197244 A JP 2016197244A JP 2017094055 A JP2017094055 A JP 2017094055A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- motion
- user
- function
- motion artifact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000006870 function Effects 0.000 claims description 78
- 230000036541 health Effects 0.000 claims description 33
- 230000009471 action Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 210000003205 muscle Anatomy 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004118 muscle contraction Effects 0.000 description 1
- 230000036640 muscle relaxation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02416—Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
Abstract
Description
本発明は、動作認識方法及び装置並びにウェアラブル装置に関する。 The present invention relates to an operation recognition method and apparatus, and a wearable apparatus.
動作認識技術は、ユーザのボディ、手、顔などの身体の全て又は一部の動きを認識して装置の機能を制御する技術である。動作認識技術として、筋電図(electromyography:EMG)センサを用いて筋肉の動きによる電気信号の変化を検出し、検出された電気信号の変化に基づいてユーザの動作を推定する方法と、加速度センサ及びジャイロセンサのようなモーションセンサを用いてユーザの身体の動きによる慣性を測定し、測定された慣性に基づいてユーザの動作を推定する方法がある。 The motion recognition technique is a technique for recognizing movements of all or part of the body such as the user's body, hand, and face to control the function of the device. As a motion recognition technique, a method for detecting a change in an electrical signal due to a muscle movement using an electromyography (EMG) sensor and estimating a user's motion based on the detected change in the electrical signal, and an acceleration sensor In addition, there is a method of measuring the inertia due to the movement of the user's body using a motion sensor such as a gyro sensor, and estimating the user's movement based on the measured inertia.
本発明は、上記従来技術に鑑みてなされたものであって、本発明の目的は、身体の動きを認識して装置の機能を制御するための動作認識方法及び装置並びにウェアラブル装置を提供することにある。 The present invention has been made in view of the above prior art, and an object of the present invention is to provide a motion recognition method and device for recognizing body movement and controlling the function of the device, and a wearable device. It is in.
上記目的を達成するためになされた本発明の一態様による身体の動きを認識して装置の機能を制御するための動作認識方法は、生体信号センサの出力信号から動きアーチファクトを検出するステップと、前記動きアーチファクトの信号パターンが予め登録された基準信号パターンに対応する場合、前記基準信号パターンに対応するターゲット装置の機能を制御する制御信号を生成するステップと、を有する。 A motion recognition method for recognizing body movement and controlling the function of the device according to an aspect of the present invention to achieve the above object comprises detecting a motion artifact from an output signal of a biological signal sensor; Generating a control signal for controlling a function of a target device corresponding to the reference signal pattern when the signal pattern of the motion artifact corresponds to a reference signal pattern registered in advance;
前記制御信号を生成するステップは、前記動きアーチファクトの信号パターン及び少なくとも1つの基準信号パターンに基づいてユーザによって実行された動作の種類を決定し、前記決定された動作の種類に対応して前記ターゲット装置の機能を制御する制御信号を生成し得る。
前記動きアーチファクトは、ユーザが前記生体信号センサ又は前記生体信号センサの周辺に加える物理的圧力又は動きによって発生し得る。
前記動作認識方法は、前記出力信号から動きアーチファクトが検出されない場合、前記出力信号から検出された生体信号に基づいてユーザの健康情報を推定するステップを更に含むことができる。
前記制御信号を生成するステップは、前記出力信号から検出された生体信号に基づいてユーザ認証を行うステップと、前記ユーザ認証が成功した場合に前記制御信号を生成するステップと、を含み得る。
前記制御信号を生成するステップは、前記予め登録された基準信号パターンのうちから前記動きアーチファクトの信号パターンに対応する基準信号パターンがあるか否かを判定するステップを含み得る。
前記基準信号パターンは、ユーザ選択によって機能の種類が決定され、前記決定された機能の種類に対応する動きアーチファクトの信号パターンを登録することによって生成され得る。
前記生体信号センサは、ウェアラブル装置に含まれ、前記ターゲット装置の機能を制御する制御信号を生成するステップは、前記ウェアラブル装置の機能又は前記ウェアラブル装置に接続された他の装置の機能を制御するステップを含み得る。
前記他の装置は、移動端末装置、モノのインターネット(IoT)装置、及びスマート自動車のいずれか1つであり得る。
前記動きアーチファクトを検出するステップは、所定の時間区間における前記出力信号の平均値に基づいて前記動きアーチファクトが発生したか否かを判定するステップを含み得る。
前記動作認識方法は、前記機能を実行する装置に前記制御信号を無線で送信するステップを更に含むことができる。
前記生体信号センサは、光電容積脈波信号及び心電図信号のうちの少なくとも1つを含む生体信号を測定し、前記生体信号は、ユーザの健康状態に関するものであり得る。
The step of generating the control signal determines a type of an action performed by a user based on the signal pattern of the motion artifact and at least one reference signal pattern, and the target corresponding to the determined type of action Control signals that control the function of the device may be generated.
The motion artifact may be caused by a physical pressure or motion that a user applies to the biosignal sensor or the periphery of the biosignal sensor.
The motion recognition method may further include estimating a user's health information based on a biological signal detected from the output signal when no motion artifact is detected from the output signal.
The step of generating the control signal may include a step of performing user authentication based on a biological signal detected from the output signal, and a step of generating the control signal when the user authentication is successful.
The step of generating the control signal may include the step of determining whether or not there is a reference signal pattern corresponding to the signal pattern of the motion artifact among the reference signal patterns registered in advance.
The reference signal pattern may be generated by determining a function type according to a user selection and registering a motion artifact signal pattern corresponding to the determined function type.
The biological signal sensor is included in a wearable device, and the step of generating a control signal for controlling a function of the target device is a step of controlling a function of the wearable device or a function of another device connected to the wearable device. Can be included.
The other device may be any one of a mobile terminal device, an Internet of Things (IoT) device, and a smart car.
The step of detecting the motion artifact may include a step of determining whether the motion artifact has occurred based on an average value of the output signal in a predetermined time interval.
The operation recognition method may further include a step of wirelessly transmitting the control signal to a device that performs the function.
The biological signal sensor may measure a biological signal including at least one of a photoelectric volume pulse wave signal and an electrocardiogram signal, and the biological signal may relate to a user's health condition.
上記目的を達成するためになされた本発明の一態様による身体の動きを認識して装置の機能を制御するための動作認識装置は、少なくとも1つのプロセッサと、前記プロセッサによって実行される命令を格納する少なくとも1つのメモリと、を備え、前記プロセッサは、前記命令によって、生体信号センサの出力信号から動きアーチファクトを検出する動作と、前記動きアーチファクトの信号パターンが予め登録された基準信号パターンに対応する場合、前記基準信号パターンに対応するターゲット装置の機能を制御する制御信号を生成する動作と、を実行する。 The motion recognition device for recognizing body movement and controlling the function of the device according to one aspect of the present invention made to achieve the above object stores at least one processor and instructions executed by the processor At least one memory, wherein the processor corresponds to an operation of detecting a motion artifact from an output signal of the biological signal sensor according to the instruction, and a signal pattern of the motion artifact corresponds to a pre-registered reference signal pattern In this case, an operation of generating a control signal for controlling the function of the target device corresponding to the reference signal pattern is executed.
前記生体信号センサは、ウェアラブル装置に含まれ、前記制御信号を生成する動作は、前記ウェアラブル装置の機能又は前記ウェアラブル装置に接続された他の装置の機能を制御する制御信号を生成し得る。
前記制御信号を生成する動作は、前記予め登録された基準信号パターンのうちから前記動きアーチファクトの信号パターンに対応する基準信号パターンがあるか否かを判定する動作を含み得る。
The biological signal sensor may be included in a wearable device, and the operation of generating the control signal may generate a control signal that controls a function of the wearable device or a function of another device connected to the wearable device.
The operation of generating the control signal may include an operation of determining whether or not there is a reference signal pattern corresponding to the signal pattern of the motion artifact among the reference signal patterns registered in advance.
上記目的を達成するためになされた本発明の一態様によるウェアラブル装置は、生体信号を測定する生体信号センサと、前記生体信号センサの出力信号に動きアーチファクトが示されているか否かを判定する動きアーチファクト検出器と、前記出力信号に動きアーチファクトが示されていると判定された場合、前記動きアーチファクトの信号パターンが予め登録された基準信号パターンに対応するか否かを判定する動作認識装置と、前記出力信号に動きアーチファクトが示されていないと判定された場合、ユーザの健康状態を決定するために前記生体信号センサの出力信号を処理する健康情報決定器と、を備える。 A wearable device according to an aspect of the present invention made to achieve the above object includes a biological signal sensor for measuring a biological signal, and a motion for determining whether or not a motion artifact is indicated in an output signal of the biological signal sensor. An artifact detector; and a motion recognition device that determines whether a signal pattern of the motion artifact corresponds to a pre-registered reference signal pattern when it is determined that a motion artifact is indicated in the output signal; A health information determiner that processes the output signal of the biological signal sensor to determine the health status of the user when it is determined that no motion artifact is indicated in the output signal.
前記動作認識装置は、前記動きアーチファクトの信号パターン及び少なくとも1つの基準信号パターンに基づいてユーザによって実行された動作の種類を決定し、前記決定された動作の種類に対応するターゲット装置の機能を制御する制御信号を生成し得る。
前記動作認識装置は、前記生体信号に基づいてユーザ認証を行い、前記ユーザ認証が成功した場合に前記制御信号を生成し得る。
前記ウェアラブル装置は、前記基準信号に基づいて制御信号を生成する制御信号ジェネレータと、前記制御信号を前記ウェアラブル装置から離れた場所に位置する制御対象装置に送信する送信機と、を更に含むことができる。
The motion recognition device determines a type of motion performed by a user based on the signal pattern of the motion artifact and at least one reference signal pattern, and controls a function of the target device corresponding to the determined motion type. A control signal may be generated.
The motion recognition device may perform user authentication based on the biometric signal, and generate the control signal when the user authentication is successful.
The wearable device further includes a control signal generator that generates a control signal based on the reference signal, and a transmitter that transmits the control signal to a control target device located at a location away from the wearable device. it can.
本発明によると、動作認識のための別途の追加センサなしに、生体信号を測定するための生体信号センサを用いて動作認識を行うことができる。
また、動作認識のために皮膚に接触させるセンサを用いなくてもよいため、ユーザの利便性が改善され、動きアーチファクトに基づく直観的な動作認識が可能になる。
According to the present invention, it is possible to perform motion recognition using a biological signal sensor for measuring a biological signal without a separate additional sensor for motion recognition.
Further, since it is not necessary to use a sensor that contacts the skin for motion recognition, the convenience for the user is improved, and intuitive motion recognition based on motion artifacts becomes possible.
本実施形態で用いる用語は、単に特定の実施形態を説明するために用いるものであって、実施形態を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品、又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれらを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。 The terminology used in this embodiment is merely used to describe a specific embodiment, and is not intended to limit the embodiment. An expression used in the singular encompasses the expression of the plural, unless it has a clearly different meaning in the context. In this specification, terms such as “including” or “having” indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. All other features or numbers, steps, operations, components, parts, or combinations thereof must be understood as not excluding in advance.
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。 Unless defined differently, all terms used herein, including technical or scientific terms, are the same as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Has meaning. Commonly used predefined terms should be construed as having a meaning consistent with the meaning possessed in the context of the related art and are ideal or excessive unless explicitly defined herein. It is not interpreted as a formal meaning.
また、図面を参照して説明する際に、図面符号に関係なく同一の構成要素には同一の参照符号を付与し、それに対する重複説明を省略する。本実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明を省略する。 Moreover, when it demonstrates with reference to drawings, the same referential mark is provided to the same component irrespective of drawing code | symbol, and the duplication description with respect to it is abbreviate | omitted. In the case where it is determined that the specific description of the related art in the description of the present embodiment unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
以下の実施形態は、ユーザによって実行された動作(gesture)を認識して一装置の機能を制御するために適用される。一実施形態によると、ウェアラブル装置を着用したユーザが動作認識のために予め登録された動作を行う場合、ウェアラブル装置に含まれる生体信号センサの出力信号からユーザの動作による動きアーチファクトが検出され、検出された動きアーチファクトの信号パターンに基づいてユーザの動作が認識される。動作認識の結果、特定動作により予め定義された機能が実行されるようにウェアラブル装置又はウェアラブル装置に接続された他の装置が制御される。 The following embodiments are applied to recognize the actions performed by the user and control the functions of one device. According to one embodiment, when a user wearing a wearable device performs a pre-registered motion for motion recognition, motion artifacts due to the user's motion are detected from the output signal of the biological signal sensor included in the wearable device, and detected. The user's motion is recognized based on the signal pattern of the generated motion artifact. As a result of the action recognition, the wearable apparatus or another apparatus connected to the wearable apparatus is controlled so that a function defined in advance by the specific action is executed.
ウェアラブル装置は、例えば、腕時計、ブレスレット、バンド、メガネ、指輪などの形態を有する。ウェアラブル装置に接続される装置は、移動端末、スマート家電機器、モノのインターネット(Internet of Things:IoT)装置、スマート自動車などを含むが、装置の種類がこれに限定されることはない。移動端末は、例えば、通信機能を備える個人情報端末(Personal Digital Assistant:PDA)、スマートフォン、タブレットコンピュータ、ノート型パソコンなどであり、スマート家電機器は、テレビ、冷蔵庫、オーディオ、エアコン、洗濯機、セットトップボックス、掃除機などである。モノのインターネット装置は、インターネットに基づいて遠隔制御が可能な全ての装置を含む。 The wearable device has, for example, a watch, a bracelet, a band, glasses, a ring, and the like. Devices connected to the wearable device include mobile terminals, smart home appliances, Internet of Things (IoT) devices, smart cars, and the like, but the type of device is not limited thereto. The mobile terminal is, for example, a personal information terminal (PDA) having a communication function, a smartphone, a tablet computer, a laptop computer, or the like, and a smart home appliance is a TV, a refrigerator, an audio, an air conditioner, a washing machine, a set Top box, vacuum cleaner, etc. The Internet of Things device includes all devices that can be remotely controlled based on the Internet.
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。各図面で提示した同一の参照符号は同一の部材を示す。 Hereinafter, specific examples of embodiments for carrying out the present invention will be described in detail with reference to the drawings. The same reference numerals shown in the drawings indicate the same members.
図1は、一実施形態による動作認識装置の構成を示す図である。 FIG. 1 is a diagram illustrating a configuration of a motion recognition apparatus according to an embodiment.
動作認識装置110は、ユーザの動作を認識する。動作認識装置110は、ユーザの生体信号を測定する生体信号センサ120の出力信号に基づいてユーザの動作を認識する。一実施形態によると、動作認識装置110及び生体信号センサ120はウェアラブル装置に含まれる。しかし、実施形態の範囲がこれに限定されるものではなく、他の例として、動作認識装置110及び生体信号センサ120はそれぞれ別個の装置に含まれる。動作認識装置110は、ウェアラブル装置を着用したユーザが特定の動作を行ったときに示される生体信号センサ120の出力信号の変化に基づいてユーザの動作を認識する。ここで、生体信号は、例えば光電容積脈波(Photoplethysmogram:PPG)又は心電図(Electromyography:ECG)などのようにユーザの体から測定された生体情報を含む信号を意味する。PPG信号は血流量の変化による血管容積の変化を示し、ECG信号は心臓電位の変化を示す。以下、動作認識装置110の構成に基づいて動作認識装置110の動作について詳細に説明する。
The
図1を参照すると、動作認識装置110は、動きアーチファクト検出器130、基準信号パターンストレージ140、動作種類決定器150、及び制御信号ジェネレータ160を含む。基準信号パターンストレージ140は基準信号パターンを含むメモリを有する。
Referring to FIG. 1, the
ユーザは予め定義された機能を実行させるために特定の動作を実施し、ユーザの動作によって生体信号センサ120の出力信号に動きアーチファクトが示される。動きアーチファクトは、生体信号センサ120によってユーザの体から生体信号が測定されるときにユーザの動きによって発生する雑音を意味する。動きアーチファクトは、筋肉の収縮、緩和による動きによって発生する信号ではなく、ユーザが意図をもって生体信号センサ120自体又は生体信号センサ120の周辺に加える物理的圧力又は動きによって発生する。動作認識のためにユーザが予め定義された動作を行う場合、生体信号センサ120の出力信号には意図的な動きアーチファクトが含まれ、動きアーチファクトの信号パターンはユーザによって実行される動作に応じて様々である。
The user performs a specific operation to execute a predefined function, and a motion artifact is shown in the output signal of the
動きアーチファクト検出器130は、生体信号センサ120の出力信号から動きアーチファクトを検出する。動きアーチファクト検出器130は、生体信号センサ120の出力信号がユーザの身体から測定された生体信号を示しているか、又はユーザ動作による動きアーチファクトを示しているかを決定する。一実施形態によると、動きアーチファクト検出器130は、生体信号センサ120の出力信号から閾値以上の振幅を有する信号が示された場合、動きアーチファクトが発生したものと決定する。閾値は、所定の時間区間における生体信号センサ120の出力信号の平均値に基づき決定される。例えば、出力信号の平均値が大きくなるほど閾値は増大し、当該平均値が小さくなるほど閾値は縮小する。
The
他の実施形態によると、動きアーチファクト検出器130は、生体信号センサ120の出力信号を所定の時間周期でサンプリングし、サンプリングされた信号値の平均値を決定する。動きアーチファクト検出器130は、決定された平均値とサンプリングされた出力信号の信号値との間の偏差を求め、偏差の大きさが予め設定された閾値よりも大きい場合、生体信号センサ120の出力信号に動きアーチファクトが発生したものと決定する。
According to another embodiment, the
動きアーチファクトが検出された場合、動作種類決定器150は、動きアーチファクトの信号パターンと予め登録された1つ以上の基準信号パターンに基づいてユーザによって実行された動作の種類を決定する。動きアーチファクトの信号パターンは、例えば動きアーチファクトが示された時間区間で動きアーチファクトの信号波形が上下に揺れているか、又は何回揺れているかなどに基づいて決定される。基準信号パターンが複数である場合、動作種類決定器150は、基準信号パターンのうちから動きアーチファクトの信号パターンに対応する基準信号パターンがあるか否かを判定する。基準信号パターン毎に対応する動作が予め定義され、動作種類決定器150は、動きアーチファクトの信号パターンに対応する基準信号パターンを識別することによって当該動作の種類を決定する。
If a motion artifact is detected, the
基準信号パターンは、別途の登録過程によって登録され、登録されたユーザ動作の個数に応じて1つ又は複数含まれる。一実施形態によると、基準信号パターンの登録過程は、ユーザが制御しようとする装置及び機能の種類を決定し、決定された装置及び機能の種類に対応する動きアーチファクトの信号パターンを登録する過程を含む。ユーザが登録しようとする動作を行い、生体信号センサ120の出力信号に示された動きアーチファクトの信号パターンを格納することによって、ユーザ動作に対応する基準信号パターンが登録される。登録された基準信号パターンに関する情報は、基準信号パターンストレージ140に格納される。
The reference signal pattern is registered through a separate registration process, and one or more reference signal patterns are included depending on the number of registered user actions. According to one embodiment, the registration process of the reference signal pattern includes a process of determining a device and a function type to be controlled by a user and registering a motion artifact signal pattern corresponding to the determined device and function type. Including. The user attempts to register and stores the signal pattern of the motion artifact shown in the output signal of the
動作種類決定器150は、動きアーチファクトの信号パターンの特徴と予め登録された基準信号パターンの特徴とを比較して、動きアーチファクトの信号パターンが基準信号パターンに対応するか否かを判定する。動きアーチファクトの信号パターンの特徴は、動きアーチファクト信号の波形形態、動きアーチファクト信号の特徴点(例えば、ピーク点、最大点、最小点)などに基づいて抽出される。動作種類決定器150は、例えば動きアーチファクト信号の波形形態と基準信号パターンが示す波形形態との間の類似度が閾値以上である場合、動きアーチファクトの信号パターンが当該基準信号パターンに対応するものと決定する。他の例として、動作種類決定器150は、動きアーチファクトの信号波形で閾値以上のピーク点が示された個数と同一の個数を有する基準信号パターンを動きアーチファクトの信号パターンに対応する基準信号パターンとして決定する。
The
制御信号ジェネレータ160は、動作種類決定器150によって決定されたユーザ動作に対応するターゲット装置の機能を制御するための制御信号を生成する。制御信号は、一装置に対して予め定義された機能を制御するための信号を示し、制御信号によって制御される機能は基準信号パターンの登録過程でユーザ選択によって予め決定される。制御信号は、当該機能を行う制御対象装置に伝えられる。
The
他の実施形態によると、動作認識装置110は、制御信号ジェネレータ160によって生成された制御信号を制御対象装置に無線で送信する送信機170を更に含む。制御対象装置が動作認識装置110から空間的に離れている場合、送信機170は、制御信号を制御対象装置に無線で送信する。ここで、制御信号はパケット形態で構成され、制御対象装置のアドレス情報や制御しようとする機能に関する情報などが当該パケット内のペイロードに含まれる。
According to another embodiment, the
上述したように、動作認識装置110は、動作認識のための別途のセンサ(例えば、筋電図センサ又はモーションセンサなど)を利用しなくても、生体信号の測定のための生体信号センサ120の出力信号の変化に基づいて動作認識を行うことができる。動作認識のための別途のセンサを利用しないことで、消費電力が節減され、製造コストが減少する。動作認識のために筋電図センサを用いる場合、筋肉の動きを検出するために筋電図センサを皮膚に付着しなければならないが、本実施形態によると、皮膚に付着しないPPGセンサを用いて動作認識を行うことができることからユーザの利便性が改善される。また、本実施形態によると、微細な筋肉の電気的変化を検出する筋電図センサを用いる場合よりも直観的な動作認識が可能になる。
As described above, the
また、筋電図センサやモーションセンサを用いた動作認識方法は、筋肉の動きや機器の移動を検出して動作を認識するため、ユーザが意図せずに一動作を行う過程で動作が誤認識されることがある。しかし、本実施形態によると、ユーザが意図をもって生体信号センサを動かすか、又は生体信号センサの周辺領域に物理的な圧力を加えることで発生する動きアーチファクトが動作認識に用いられるため、ユーザの意図とは異なる動作が誤認識される確率が減少する。 In addition, the motion recognition method using an electromyogram sensor or motion sensor recognizes the motion by detecting the movement of the muscle or the movement of the device, so the motion is misrecognized in the process of performing one motion unintentionally by the user. May be. However, according to the present embodiment, motion artifacts generated by the user moving the biological signal sensor with intention or applying physical pressure to the peripheral area of the biological signal sensor are used for motion recognition. The probability of misrecognizing an action different from that decreases.
図2は、一実施形態によるウェアラブル装置の構成を示す図である。 FIG. 2 is a diagram illustrating a configuration of a wearable device according to an embodiment.
ウェアラブル装置200は、ユーザの健康状態をモニタリングすると共に、動作認識により周辺装置の機能を手軽に制御することができる。ウェアラブル装置200は、生体信号センサ210を用いて測定された生体信号(例えば、PPG信号、ECG信号)に基づいてユーザの健康情報を決定するか、又は生体信号センサ210の出力信号に示された動きアーチファクトに基づいてユーザの動作を認識する。
The
図2を参照すると、ウェアラブル装置200は、生体信号センサ210、動きアーチファクト検出器220、健康情報決定器230、及び動作認識装置240を含む。
Referring to FIG. 2, the
動きアーチファクト検出器220は、生体信号センサ210の出力信号から動きアーチファクトを検出する。動きアーチファクト検出器220については、図1に示した実施形態で説明した動きアーチファクト検出器130に対する説明がそのまま適用されるため、その詳しい説明を省略する。動きアーチファクト検出器220は、生体信号センサ210の出力信号から動きアーチファクトが検出されない場合、生体信号センサ210の出力信号である生体信号を健康情報決定器230に送信し、動きアーチファクトが検出された場合は、生体信号センサ210の出力信号を動作認識装置240に送信する。
The
健康情報決定器230は、生体信号センサ210によって測定された生体信号に基づいてユーザの健康情報を決定する。一実施形態によると、生体信号センサ210がPPG信号を測定する場合、健康情報決定器230は、PPG信号に基づいて血圧のような心血管系(cardiovascular)の情報を推定する。他の実施形態によると、生体信号センサ210がECG信号を測定する場合、健康情報決定器230は、ECG信号に基づいて心疾患情報を推定する。
The
動作認識装置240は、動きアーチファクト検出器220によって検出された動きアーチファクトの信号パターンに基づいて動作認識を行う。動作認識装置240は、動きアーチファクトの信号パターンと基準信号パターンとを比較してユーザ動作の種類を推定し、ユーザ動作に対応するターゲット装置の機能を制御する制御信号を生成する。
The
健康情報決定器230及び動作認識装置240に対する詳しい説明は図3を参照して下記で説明する。上述したように、ウェアラブル装置200は、平常時には生体信号センサ210によって測定された生体信号に基づいてユーザの健康情報を決定し、ユーザが機能制御のために意図的動作を行う場合、生体信号センサ210の出力信号に示された動きアーチファクトの信号パターンを分析し、ユーザの動作に対応するターゲット装置の機能を制御する制御信号を生成する。
A detailed description of the
図3は、一実施形態によるウェアラブル装置200の構成をより詳細に説明するための図である。
FIG. 3 is a diagram for explaining the configuration of the
図3を参照すると、健康情報決定器230は、生体信号プロセッサ350及び健康情報推定器360を含む。生体信号プロセッサ350は、生体信号を処理して生体信号から信号特徴を抽出する。信号特徴は、例えば、生体信号波形の極大点、極小点、ピーク点、変曲点、傾き極大点、傾き極小点、信号波形の面積などを含むが、信号特徴の種類がこれに限定されることはない。健康情報推定器360は、生体信号の信号特徴に基づいてユーザの健康に関する健康情報を推定する。健康情報推定器360によって推定された健康情報は、ディスプレイ又はスピーカなどの出力インタフェース(図示せず)を用いてユーザに提供されるか、又は別途のストレージ(図示せず)に格納される。健康情報推定器360は、推定された健康情報に基づいてユーザの健康状態をモニタリングしてユーザの健康に異常が発生したと判断した場合、ユーザに警告通知を提供する。
Referring to FIG. 3, the
動作認識装置240は、動作種類決定器320、基準信号パターンストレージ310、及び制御信号ジェネレータ330を含む。動作種類決定器320は、動きアーチファクトの信号パターンと基準信号パターンストレージ310に格納された1つ以上の基準信号パターンとに基づいてユーザ動作の種類を決定する。制御信号ジェネレータ330は、決定された動作に対応する制御信号を生成する。ここで、ウェアラブル装置200の機能又はウェアラブル装置200に接続された他の装置の機能を制御する制御信号が生成される。動作種類決定器320及び制御信号ジェネレータ330のそれぞれについては、図1に示した実施形態で説明した動作種類決定器150及び制御信号ジェネレータ160に対する説明がそのまま適用されるため、その詳しい説明を省略する。一実施形態によると、動作認識装置240は送信機340を更に含み、送信機340は制御信号を制御対象装置に無線で送信する。
The
他の実施形態によると、動作認識装置240は、ユーザ認証器370を更に含む。ユーザ認証器370は、生体信号センサ210を用いて測定された生体信号に基づいて現在ウェアラブル装置200を着用したユーザが登録されたユーザであるか否かを判定するユーザ認証を行う。ユーザ認証器370は、測定された生体信号の信号特徴が登録されたユーザの生体信号の信号特徴に対応した場合にユーザ認証が成功したと決定し、登録されたユーザの生体信号の信号特徴に対応しない場合にユーザ認証が失敗したと決定する。ユーザ認証が成功した場合、ユーザ認証器370は、制御信号が制御信号ジェネレータ330から正常に出力されるように制御し、ユーザ認証が失敗した場合には制御信号が制御信号ジェネレータ330から出力されないように制御する。
According to another embodiment, the
図4A〜図4Cは、一実施形態によるユーザ動作による生体信号センサの出力信号の変化を説明するための図である。図4A〜図4Cでは、一実施形態としてユーザの手首部位からPPG信号を測定する生体信号センサが腕時計型ウェアラブル機器に設けられ、予め登録されたユーザ動作の種類が第1動作、第2動作、及び第3動作の3個であると仮定する。 4A to 4C are diagrams for explaining changes in the output signal of the biological signal sensor due to a user operation according to an embodiment. 4A to 4C, as one embodiment, a biological signal sensor that measures a PPG signal from a user's wrist is provided in a wristwatch-type wearable device, and the types of user actions registered in advance are the first action, the second action, And 3 of the third action.
図4Aは、第1動作として、ユーザがウェアラブル装置をとらえて左右に揺さぶる場合を示す。図面符号410は、生体信号センサの出力信号波形を示す。出力信号波形410を時間上で観察すると、平常時の第1時間区間415で生体信号センサからPPG信号が測定される。ユーザが機能制御のために第2時間区間420で第1動作を行うと、図示したように、出力信号波形410に大きい振幅で何回も揺れる形態の動きアーチファクトが示される。第1動作が終了した後の第3時間区間425では、再び出力信号波形410に生体信号センサによって測定されたPPG信号が示される。
FIG. 4A shows a case where the user grasps the wearable device and shakes left and right as the first operation.
図4Bは、第2動作として、ユーザが他の手でウェアラブル装置を下方向に力を加えて押す場合を示す。生体信号センサの出力信号波形430を時間上で観察すると、第1時間区間435でPPG信号が測定される、ユーザが第2動作を行う第2時間区間440では、生体信号センサの出力信号の信号値が第2動作の終了まで小さい値を保持する形態の動きアーチファクトが示される。第2動作が終了した後の第3時間区間445では、再び出力信号波形430にPPG信号が示される。
FIG. 4B shows a case where the user pushes the wearable device with another hand while applying a downward force as the second operation. When the
図4Cは、第3動作として、ユーザがウェアラブル装置に隣接する領域を指で2回叩く場合を示す。生体信号センサの出力信号波形450を時間上で観察すると、第1時間区間455で生体信号センサからPPG信号が測定される、ユーザが第3動作を行う第2時間区間460では、図示したように、大きい振幅で2回揺れる形態の動きアーチファクトが示される。第3動作が終了した後の第3時間区間465では、出力信号波形450に再びPPG信号が示される。
FIG. 4C shows a case where the user strikes the area adjacent to the wearable device twice with a finger as the third operation. When the
図4A〜図4Cにおいて、ウェアラブル装置は、生体信号センサの出力信号に動きアーチファクトが示されているか否かを判定し、動きアーチファクトが示されていないと判定した場合にはPPG信号に基づいてユーザの健康情報を推定する。生体信号センサの出力信号に動きアーチファクトが示されていると判定した場合、ウェアラブル装置は、動きアーチファクトの信号パターンに基づいてユーザによって実行された動作の種類を決定し、ユーザ動作に対応するターゲット装置の機能を行うための制御信号を生成する。ユーザにより実行された動作に応じて、動きアーチファクトの信号パターンがそれぞれ異なって示され、各動作に応じた動きアーチファクトの信号パターンを区別することで、ユーザにより実行された動作の種類が決定される。 4A to 4C, the wearable device determines whether or not motion artifacts are indicated in the output signal of the biological signal sensor. If it is determined that no motion artifacts are indicated, the wearable device is based on the PPG signal. Estimate health information. When it is determined that a motion artifact is indicated in the output signal of the biological signal sensor, the wearable device determines the type of motion performed by the user based on the motion artifact signal pattern, and the target device corresponding to the user motion A control signal for performing the function is generated. Depending on the motion performed by the user, the signal pattern of the motion artifact is shown differently, and the type of motion performed by the user is determined by distinguishing the signal pattern of the motion artifact according to each motion. .
図4A〜図4Cを参照して説明したユーザ動作のタイプは、上述の実施形態によって限定されることなく、様々な修正及び変形が可能である。 The types of user actions described with reference to FIGS. 4A to 4C are not limited by the above-described embodiments, and various modifications and variations are possible.
図5A〜図5Dは、一実施形態によるユーザ動作による機能制御の具現例を示す図である。図5A〜図5Dに示した実施形態では、図4A〜図4Cに示した実施形態で説明した第1動作、第2動作、及び第3動作に基づいて機能制御が実行されるものと仮定する。 FIG. 5A to FIG. 5D are diagrams illustrating an implementation example of function control by a user operation according to an embodiment. In the embodiment shown in FIGS. 5A to 5D, it is assumed that the function control is executed based on the first operation, the second operation, and the third operation described in the embodiment shown in FIGS. 4A to 4C. .
図5Aは、制御対象装置がウェアラブル装置である場合を示す。ユーザによって実行された第1動作510が認識された場合、ウェアラブル装置の画面がホーム画面に移動する機能が実行される。第2動作520が認識された場合、ウェアラブル装置の電源をオフ/オンさせるトグル(toggle)の機能が実行される。第3動作530が認識された場合、ウェアラブル装置で頻繁に用いられるアプリケーション又はユーザによって予め登録されたアプリケーションが実行される。
FIG. 5A shows a case where the control target device is a wearable device. When the
図5Bは、制御対象装置がスマートフォンである場合であり、現在音楽アプリケーションが実行されている場合を示す。第1動作510が認識された場合、音楽アプリケーションで次の曲を再生する機能が実行され、第2動作520が認識された場合、音楽再生を一時停止/再度再生させるトグル機能が実行される。第3動作530が認識された場合、音楽アプリケーションでオーディオボリュームを一ステップアップする(又はダウンする)機能が実行される。ユーザは、スマートフォンで実行されているアプリケーションをタッチ入力によって直接操作する代わりに、直観的な動作認識によってアプリケーションの機能を制御することができるため、ユーザの利便性が改善される。
FIG. 5B shows a case where the device to be controlled is a smartphone and a music application is currently being executed. When the
図5Cは、制御対象装置がモノのインターネット装置のうちのスマート照明器具である場合を示す。第1動作510が認識された場合、スマート照明器具の特定機能(例えば、照明カラーの変化)が実行される。第2動作520が認識された場合、スマート照明器具をオン/オフさせる機能が実行される。第3動作530が認識された場合、スマート照明器具の明るさを増加(又は減少)させる機能が実行される。ユーザは、ウェアラブル装置を用いた動作認識によって周辺装置の機能を簡便に制御することができる。
FIG. 5C shows a case where the device to be controlled is a smart lighting device among the Internet devices of things. If the
図5Dは、制御対象装置がスマート自動車である場合を示す。第1動作510が認識された場合、走行停止状態でスマート自動車のドアが開く機能が実行される。第2動作520が認識された場合、スマート自動車の始動がかかり、またドアロック装置が作動する機能が実行される。第3動作530が認識された場合、走行停止状態でスマート自動車のトランクをオープンさせる機能が実行される。一実施形態によると、機能制御が実行される前に生体信号に基づいてユーザ認証が実行される。例えば、生体信号センサによって測定されたユーザの生体信号に基づいてウェアラブル装置を着用したユーザが登録されたユーザであるか否かを判定するユーザ認証が実行され、ユーザ認証が成功した場合に動作認識による機能制御が実行される。この場合、動きアーチファクトの信号パターンに基づく動作認識がユーザ認証よりも先に実行されるか、又はユーザ認証が動作認識よりも先に実行される。
FIG. 5D shows a case where the device to be controlled is a smart car. When the
図5B〜図5Dの各実施形態では、動作認識によって生成された制御信号が無線でスマートフォン、スマート照明機器、及びスマート自動車に送信される。ここで、制御信号は、ウェアラブル装置から制御対象装置に直接送信されるか、又はウェアラブル装置に接続された他の装置(例えば、スマートフォン)を経由して制御対象装置に送信される。ウェアラブル装置と制御対象装置は、例えば、ワイファイ(wifi)、NFC(Near−Field Communication)、2G(generation)又は3Gセルラー通信システム、LTE(Long Term Evolution)、ブルートゥース(登録商標)基盤の通信方式によって接続され、上記通信方式によって制御信号がウェアラブル装置から制御対象装置に送信される。 In each embodiment of Drawing 5B-Drawing 5D, the control signal generated by motion recognition is transmitted to a smart phone, smart lighting equipment, and a smart car by radio. Here, the control signal is transmitted directly from the wearable device to the control target device, or is transmitted to the control target device via another device (for example, a smartphone) connected to the wearable device. The wearable device and the control target device are, for example, in accordance with a communication system based on WiFi, NFC (Near-Field Communication), 2G (generation) or 3G cellular communication system, LTE (Long Term Evolution), Bluetooth (registered trademark). The control signal is transmitted from the wearable device to the control target device by the communication method.
図5A〜図5Dを参照して説明した動作及び各動作に対応するターゲット装置の機能のタイプは上述の実施形態によって限定されることなく、様々な修正及び変形が可能である。 The types of operations described with reference to FIGS. 5A to 5D and the function of the target device corresponding to each operation are not limited by the above-described embodiments, and various modifications and variations are possible.
図6は、一実施形態による動作認識方法の動作を説明するためのフローチャートである。図6を参照すると、ステップS610において、動作認識装置は、生体信号センサの出力信号から動きアーチファクトを検出する。ステップS620において、動作認識装置は、動きアーチファクトの信号パターンが予め定義された基準信号パターンに対応するか否かを判定する。動きアーチファクトの信号パターンが基準信号パターンに対応する場合、ステップS630において、動作認識装置は、基準信号パターンに対応するターゲット装置の機能を制御する制御信号を生成する。制御信号は、当該機能を行う制御対象装置に送信され、制御対象装置は受信した制御信号によって定義された機能を行う。制御対象装置が空間的に離れている場合、ステップS640において、動作認識装置は選択的に制御信号を制御対象装置に無線で送信する。 FIG. 6 is a flowchart for explaining the operation of the motion recognition method according to the embodiment. Referring to FIG. 6, in step S610, the motion recognition apparatus detects a motion artifact from the output signal of the biological signal sensor. In step S620, the motion recognition apparatus determines whether the signal pattern of the motion artifact corresponds to a predefined reference signal pattern. If the signal pattern of the motion artifact corresponds to the reference signal pattern, the motion recognition device generates a control signal for controlling the function of the target device corresponding to the reference signal pattern in step S630. The control signal is transmitted to the control target device that performs the function, and the control target device performs the function defined by the received control signal. When the control target devices are spatially separated, in step S640, the motion recognition device selectively transmits a control signal to the control target device wirelessly.
図6に示した動作認識方法に対する詳細な説明は、図1を参照して上述したため、その詳しい説明を省略する。 The detailed description of the motion recognition method shown in FIG. 6 has been described above with reference to FIG.
図7は、一実施形態によるウェアラブル装置の動作を説明するためのフローチャートである。図7を参照すると、ステップS710において、ウェアラブル装置は生体信号センサの出力信号を受信する。ステップS720において、ウェアラブル装置は、生体信号センサの出力信号から動きアーチファクトが検出されたか否かを判定する。動きアーチファクトが検出された場合、ステップS730において、ウェアラブル装置は、予め登録された基準信号パターンと動きアーチファクトの信号パターンとを比較してユーザによって実行される動作の種類を決定する。ステップS740において、ウェアラブル装置は、動作の種類に対応するターゲット装置の機能を制御する制御信号を生成し、制御信号は当該機能を行う制御対象装置に送信される。制御対象装置が空間的に離れている場合、ステップS750において、ウェアラブル装置は、選択的に制御信号を制御対象装置に無線で送信する。 FIG. 7 is a flowchart for explaining the operation of the wearable device according to the embodiment. Referring to FIG. 7, in step S710, the wearable device receives an output signal of the biological signal sensor. In step S720, the wearable device determines whether a motion artifact is detected from the output signal of the biological signal sensor. If a motion artifact is detected, in step S730, the wearable device compares the reference signal pattern registered in advance with the signal pattern of the motion artifact to determine the type of operation performed by the user. In step S740, the wearable device generates a control signal that controls the function of the target device corresponding to the type of operation, and the control signal is transmitted to the control target device that performs the function. If the control target device is spatially separated, in step S750, the wearable device selectively transmits a control signal to the control target device wirelessly.
ステップS720で動きアーチファクトが検出されない場合、ステップS760において、ウェアラブル装置は、生体信号センサの出力信号から生体信号特徴を抽出する。生体信号特徴は、生体信号センサが測定しようとする生体信号の信号特徴を意味する。ステップS770において、ウェアラブル装置は、生体信号特徴に基づいてユーザの健康情報を推定する。 If no motion artifact is detected in step S720, the wearable device extracts a biological signal feature from the output signal of the biological signal sensor in step S760. The biological signal feature means a signal feature of a biological signal to be measured by the biological signal sensor. In step S770, the wearable device estimates the user's health information based on the biological signal characteristics.
図7に示した動作認識方法に対する詳細な説明は、図2及び図3を参照して上述したため、その詳しい説明を省略する。 Since the detailed description of the motion recognition method shown in FIG. 7 has been described above with reference to FIGS.
図8は、他の実施形態による動作認識装置の構成を示す図である。 FIG. 8 is a diagram illustrating a configuration of a motion recognition apparatus according to another embodiment.
図8を参照すると、動作認識装置800は、1つ以上のプロセッサ810及びメモリ820を含む。
Referring to FIG. 8, the
プロセッサ810は、図1〜図7を参照して上述した1つ以上の動作を行う。例えば、プロセッサ810は、生体信号センサの出力信号から動きアーチファクトを検出し、検出された動きアーチファクトの信号パターンに基づいてユーザ動作を推定した後、ユーザ動作に対応する予め定義された機能を制御するための制御信号を生成する動作を実行する。このようなプロセッサ810は、複数の論理ゲートアレイとして具現されるが、他の形態のハードウェアで具現され得ることは本実施形態が属する技術分野で通常の知識を有する者であれば理解することができる。
The
メモリ820は、図1〜図7を参照して上述した1つ以上の動作を行うための命令を格納し、また動作認識装置800の運用に伴い取得されたデータと結果を格納する。一実施形態において、メモリ820は、非一時的なコンピュータ読み取り可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は不揮発性コンピュータ読み出し可能な格納媒体(例えば、1つ以上のディスク格納デバイス、フラッシュメモリデバイス、又はその他の不揮発性固体メモリデバイス)を含む。
The
本実施形態による動作認識装置800は、ディスプレイ、キーボード、タッチスクリーン、マイクロホンなどのような入出力インタフェース830、図示していないが、外部と通信するためのネットワーク通信インタフェースを更に含む。しかし、本実施形態の範囲はこれに限定されることなく、一実施形態として、プロセッサ810は生体信号センサの出力信号を入力として用いる。入出力インタフェース830は、ユーザ入力を受信し、また動作認識による結果(例えば、実行される機能に関する情報)を出力する。ネットワーク通信インタフェースは、プロセッサ810によって生成された制御信号を動作認識装置800の外部の装置に送信する。
The
上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数タイプの処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。 The above-described embodiments are implemented by hardware components, software components, or a combination of hardware components and software components. For example, the apparatus and components described in the present embodiment include, for example, a processor, a controller, an ALU (arithmetic logic unit), a digital signal processor (digital signal processor), a microcomputer, an FPA (field programmable array), and a PLU (programmable logarithm). It may be implemented using one or more general purpose or special purpose computers, such as units, microprocessors, or different devices that execute and respond to instructions. The processing device executes an operating system (OS) and one or more software applications running on the operating system. The processing device also accesses, stores, manipulates, processes, and generates data in response to software execution. For convenience of understanding, one processing device may be described as being used, but those having ordinary knowledge in the art may recognize that the processing device has multiple processing elements and / or It can be seen that it includes multiple types of processing elements. For example, the processing device includes a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆるタイプの機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。 The software includes computer programs, code, instructions, or a combination of one or more of these, configures the processing device to operate as desired, and instructs the processing device independently or in combination. Software and / or data is interpreted by the processing device and any type of machine, component, physical device, virtual device, computer storage medium or device for providing instructions or data to the processing device, or transmitted signal It can be realized permanently or temporarily via waves. The software is distributed on computer systems connected to the network and stored or executed in a distributed manner. Software and data are stored on one or more computer-readable recording media.
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。 The method according to the present embodiment is embodied in the form of program instructions executed through various computer means, and is recorded on a computer-readable recording medium. The recording medium includes program instructions, data files, data structures, etc. alone or in combination. The recording medium and the program instructions may be specially designed and configured for the purpose of the present invention, and may be known and usable by those skilled in the art having computer software technology. . Examples of computer-readable recording media include magnetic media such as hard disks, floppy (registered trademark) disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-lights such as floppy disks. Media and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language code generated by a compiler but also high-level language code executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。 As mentioned above, although embodiment of this invention was described in detail, referring drawings, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the technical scope of this invention, it changes variously. It is possible to implement.
110、240、800 動作認識装置
120、210 生体信号センサ
130、220 動きアーチファクト検出器
140、310 基準信号パターンストレージ
150、320 動作種類決定器
160、330 制御信号ジェネレータ
170、340 送信機
200 ウェアラブル装置
230 健康情報決定器
350 生体信号プロセッサ
360 健康情報推定器
370 ユーザ認証器
410、430、450 出力信号波形
415、435、455 第1時間区間
420、440、460 第2時間区間
425、445、465 第3時間区間
510 第1動作
520 第2動作
530 第3動作
810 プロセッサ
820 メモリ
830 入出力インタフェース
110, 240, 800
Claims (20)
生体信号センサの出力信号から動きアーチファクトを検出するステップと、
前記動きアーチファクトの信号パターンが予め登録された基準信号パターンに対応する場合、前記基準信号パターンに対応するターゲット装置の機能を制御する制御信号を生成するステップと、を有することを特徴とする動作認識方法。 A motion recognition method for recognizing body movements and controlling device functions,
Detecting motion artifacts from the output signal of the biological signal sensor;
Generating a control signal for controlling the function of the target device corresponding to the reference signal pattern when the signal pattern of the motion artifact corresponds to a reference signal pattern registered in advance. Method.
前記出力信号から検出された生体信号に基づいてユーザ認証を行うステップと、
前記ユーザ認証が成功した場合に前記制御信号を生成するステップと、を含むことを特徴とする請求項1乃至4のいずれか一項に記載の動作認識方法。 Generating the control signal comprises:
Performing user authentication based on a biological signal detected from the output signal;
The operation recognition method according to claim 1, further comprising: generating the control signal when the user authentication is successful.
前記ターゲット装置の機能を制御する制御信号を生成するステップは、前記ウェアラブル装置の機能又は前記ウェアラブル装置に接続された他の装置の機能を制御するステップを含むことを特徴とする請求項1乃至7のいずれか一項に記載の動作認識方法。 The biological signal sensor is included in a wearable device,
The step of generating a control signal for controlling a function of the target device includes a step of controlling a function of the wearable device or a function of another device connected to the wearable device. The operation recognition method according to any one of the above.
前記生体信号は、ユーザの健康状態に関するものであることを特徴とする請求項1乃至11のいずれか一項に記載の動作認識方法。 The biological signal sensor measures a biological signal including at least one of a photoelectric volume pulse wave signal and an electrocardiogram signal;
The motion recognition method according to claim 1, wherein the biological signal relates to a user's health condition.
少なくとも1つのプロセッサと、
前記プロセッサによって実行される命令を格納する少なくとも1つのメモリと、を備え、
前記プロセッサは、前記命令によって、
生体信号センサの出力信号から動きアーチファクトを検出する動作と、
前記動きアーチファクトの信号パターンが予め登録された基準信号パターンに対応する場合、前記基準信号パターンに対応するターゲット装置の機能を制御する制御信号を生成する動作と、を実行することを特徴とする動作認識装置。 A motion recognition device for recognizing body movements and controlling device functions,
At least one processor;
At least one memory storing instructions to be executed by the processor;
The processor is responsive to the instruction.
Detecting motion artifacts from the output signal of the biological signal sensor;
An operation for generating a control signal for controlling a function of a target device corresponding to the reference signal pattern when the signal pattern of the motion artifact corresponds to a reference signal pattern registered in advance; Recognition device.
前記制御信号を生成する動作は、前記ウェアラブル装置の機能又は前記ウェアラブル装置に接続された他の装置の機能を制御する制御信号を生成することを特徴とする請求項14に記載の動作認識装置。 The biological signal sensor is included in a wearable device,
The operation recognition apparatus according to claim 14, wherein the operation of generating the control signal generates a control signal for controlling a function of the wearable apparatus or a function of another apparatus connected to the wearable apparatus.
前記生体信号センサの出力信号に動きアーチファクトが示されているか否かを判定する動きアーチファクト検出器と、
前記出力信号に動きアーチファクトが示されていると判定された場合、前記動きアーチファクトの信号パターンが予め登録された基準信号パターンに対応するか否かを判定する動作認識装置と、
前記出力信号に動きアーチファクトが示されていないと判定された場合、ユーザの健康状態を決定するために前記生体信号センサの出力信号を処理する健康情報決定器と、を備えることを特徴とするウェアラブル装置。 A biological signal sensor for measuring a biological signal;
A motion artifact detector for determining whether a motion artifact is indicated in the output signal of the biological signal sensor;
A motion recognition device that determines whether or not a signal pattern of the motion artifact corresponds to a pre-registered reference signal pattern when it is determined that a motion artifact is indicated in the output signal;
A health information determinator that processes an output signal of the biological signal sensor to determine a health condition of a user when it is determined that no motion artifact is indicated in the output signal. apparatus.
前記制御信号を前記ウェアラブル装置から離れた場所に位置する制御対象装置に送信する送信機と、を更に含むことを特徴とする請求項17乃至19のいずれか一項に記載のウェアラブル装置。 A control signal generator for generating a control signal based on the reference signal;
The wearable device according to any one of claims 17 to 19, further comprising a transmitter that transmits the control signal to a control target device located at a location away from the wearable device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150163211A KR102570068B1 (en) | 2015-11-20 | 2015-11-20 | Gesture recognition method, gesture recognition apparatus, wearable device |
KR10-2015-0163211 | 2015-11-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017094055A true JP2017094055A (en) | 2017-06-01 |
JP7094077B2 JP7094077B2 (en) | 2022-07-01 |
Family
ID=57321226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016197244A Active JP7094077B2 (en) | 2015-11-20 | 2016-10-05 | Motion recognition method and device and wearable device |
Country Status (5)
Country | Link |
---|---|
US (1) | US9977509B2 (en) |
EP (1) | EP3171248B1 (en) |
JP (1) | JP7094077B2 (en) |
KR (1) | KR102570068B1 (en) |
CN (1) | CN106774818B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7303598B2 (en) | 2019-11-07 | 2023-07-05 | 株式会社スペース二十四インフォメーション | Facility monitoring system |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10223634B2 (en) | 2014-08-14 | 2019-03-05 | The Board Of Trustees Of The Leland Stanford Junior University | Multiplicative recurrent neural network for fast and robust intracortical brain machine interface decoders |
US9939913B2 (en) * | 2016-01-04 | 2018-04-10 | Sphero, Inc. | Smart home control using modular sensing device |
KR102479578B1 (en) * | 2016-02-03 | 2022-12-20 | 삼성전자주식회사 | Electronic apparatus and control method thereof |
WO2020112986A1 (en) | 2018-11-27 | 2020-06-04 | Facebook Technologies, Inc. | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11635736B2 (en) | 2017-10-19 | 2023-04-25 | Meta Platforms Technologies, Llc | Systems and methods for identifying biological structures associated with neuromuscular source signals |
EP3407228B1 (en) | 2017-05-26 | 2024-03-27 | Nokia Technologies Oy | Wearable sensors for inputting a command |
CN111052049A (en) * | 2017-10-09 | 2020-04-21 | 华为技术有限公司 | Action identification method and device and terminal |
WO2019079909A1 (en) * | 2017-10-27 | 2019-05-02 | Ecole De Technologie Superieure | In-ear nonverbal audio events classification system and method |
EP3476672A1 (en) * | 2017-10-27 | 2019-05-01 | Continental Automotive GmbH | Mobile transmitter unit and method for controlling a function of a technical system using such mobile transmitter unit |
JP7066389B2 (en) * | 2017-12-07 | 2022-05-13 | パラマウントベッド株式会社 | Posture judgment device |
USD866523S1 (en) | 2017-12-14 | 2019-11-12 | Roland Corporation | Electronic musical instrument |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
CN110415391B (en) * | 2018-04-27 | 2024-03-05 | 开利公司 | Seamless access control system using wearable devices |
CN210246858U (en) * | 2018-09-12 | 2020-04-03 | 意法半导体股份有限公司 | System for recognizing a gesture for bringing a mobile electronic device to a user's ear and mobile electronic device |
WO2020061451A1 (en) | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
CN109462691B (en) * | 2018-10-27 | 2021-01-26 | 中国人民解放军战略支援部队信息工程大学 | Implicit protection method and system based on multi-sensor data fusion |
CN109875526B (en) * | 2018-12-28 | 2022-10-11 | 北京津发科技股份有限公司 | Pulse device based on pressure and reflection type comprehensive measurement |
US11430321B2 (en) | 2019-02-06 | 2022-08-30 | Ecolab Usa Inc. | Reducing illnesses and infections caused by ineffective cleaning by tracking and controlling cleaning efficacy |
US11640204B2 (en) | 2019-08-28 | 2023-05-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods decoding intended symbols from neural activity |
KR20210078283A (en) * | 2019-12-18 | 2021-06-28 | 삼성전자주식회사 | An electronic device for recognizing gesture of user from sensor signal of user and method for recognizing gesture using the same |
US11457861B1 (en) | 2019-12-31 | 2022-10-04 | Express Scripts Strategic Development, Inc. | Systems and methods for using wearable computing devices to detect gestures of patient prescription adherence |
CA3188766A1 (en) * | 2020-07-01 | 2022-01-06 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods decoding intended symbols from neural activity |
WO2022030968A1 (en) | 2020-08-04 | 2022-02-10 | 삼성전자 주식회사 | Electronic device for recognizing gesture and method for operating same |
CN112783326A (en) * | 2021-01-28 | 2021-05-11 | 唐庆圆 | Gesture recognition device and gesture recognition system |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
US11960655B2 (en) | 2021-12-09 | 2024-04-16 | Samsung Electronics Co., Ltd. | Method of recognizing gesture by using wearable device and the wearable device |
US11934586B2 (en) * | 2022-06-29 | 2024-03-19 | Google Llc | Gesture detection via image capture of subdermal tissue from a wrist-pointing camera system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6244873B1 (en) * | 1998-10-16 | 2001-06-12 | At&T Corp. | Wireless myoelectric control apparatus and methods |
JP2014168594A (en) * | 2013-03-04 | 2014-09-18 | Nec Casio Mobile Communications Ltd | Authentication device and authentication method |
JP2014200681A (en) * | 2013-04-06 | 2014-10-27 | 本田技研工業株式会社 | System and method for biometric identification in vehicle |
US20150074797A1 (en) * | 2013-09-09 | 2015-03-12 | Samsung Electronics Co., Ltd. | Wearable device performing user authentication using bio-signals and authentication method of the same |
CN104699242A (en) * | 2015-02-10 | 2015-06-10 | 北京智谷睿拓技术服务有限公司 | Method and device for determining action and/or action part |
JP2015112488A (en) * | 2013-12-09 | 2015-06-22 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Modular sensor platform device and system |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6238338B1 (en) * | 1999-07-19 | 2001-05-29 | Altec, Inc. | Biosignal monitoring system and method |
KR100396924B1 (en) * | 2001-02-27 | 2003-09-03 | 한국전자통신연구원 | Apparatus and Method for Controlling Electrical Apparatus by using Bio-signal |
US8255029B2 (en) * | 2003-02-27 | 2012-08-28 | Nellcor Puritan Bennett Llc | Method of analyzing and processing signals |
JP2008305198A (en) * | 2007-06-07 | 2008-12-18 | Fujitsu Component Ltd | Input system and input device |
JP2008305199A (en) * | 2007-06-07 | 2008-12-18 | Fujitsu Component Ltd | Input system and program |
US8380314B2 (en) * | 2007-09-26 | 2013-02-19 | Medtronic, Inc. | Patient directed therapy control |
WO2009040908A1 (en) * | 2007-09-27 | 2009-04-02 | Yoshiyuki Sankai | Turn adjusting apparatus and method for controlling turning apparatus |
WO2009097563A1 (en) * | 2008-01-30 | 2009-08-06 | Case Western Reserve University | Neural prosthesis system and method of control |
JP5208150B2 (en) | 2010-03-26 | 2013-06-12 | シチズンホールディングス株式会社 | Electronic blood pressure monitor |
TWI410235B (en) * | 2010-04-21 | 2013-10-01 | Univ Nat Chiao Tung | Apparatus for identifying falls and activities of daily living |
JP2012098771A (en) * | 2010-10-29 | 2012-05-24 | Sony Corp | Image forming apparatus and image forming method, and program |
US9170674B2 (en) | 2012-04-09 | 2015-10-27 | Qualcomm Incorporated | Gesture-based device control using pressure-sensitive sensors |
US9599632B2 (en) | 2012-06-22 | 2017-03-21 | Fitbit, Inc. | Fitness monitoring device with altimeter |
KR102148645B1 (en) | 2013-03-15 | 2020-08-28 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR102170321B1 (en) | 2013-06-17 | 2020-10-26 | 삼성전자주식회사 | System, method and device to recognize motion using gripped object |
KR20150027876A (en) | 2013-08-29 | 2015-03-13 | 삼성전자주식회사 | Mehtod and apparatus for controlling terminal of smart watch using motion |
KR101494865B1 (en) * | 2013-08-30 | 2015-02-23 | 연세대학교 산학협력단 | Array type electrode based on magnetic-induced method to detecting biosignal |
KR101536139B1 (en) * | 2013-09-05 | 2015-07-13 | 연세대학교 산학협력단 | Textile electrode kit, and the motion artifact-minimizing clothing installed with the kit |
US20150145653A1 (en) | 2013-11-25 | 2015-05-28 | Invensense, Inc. | Device control using a wearable device |
KR102271432B1 (en) * | 2013-11-27 | 2021-07-01 | 엘지전자 주식회사 | Digital device and method for controlling the same |
KR102114616B1 (en) * | 2013-12-06 | 2020-05-25 | 엘지전자 주식회사 | Smart Watch and Method for controlling thereof |
EP2887351A1 (en) * | 2013-12-18 | 2015-06-24 | Karlsruher Institut für Technologie | Computer-implemented method, computer system and computer program product for automatic transformation of myoelectric signals into audible speech |
JP2015122023A (en) | 2013-12-25 | 2015-07-02 | セイコーエプソン株式会社 | Wearable apparatus and control method of the same |
KR20150077684A (en) | 2013-12-30 | 2015-07-08 | 삼성전자주식회사 | Function Operating Method based on Biological Signals and Electronic Device supporting the same |
KR102277752B1 (en) | 2014-01-06 | 2021-07-16 | 삼성전자주식회사 | Apparatus and method for controlling home device using wearable device |
KR102135586B1 (en) | 2014-01-24 | 2020-07-20 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
JP5991498B2 (en) * | 2014-07-08 | 2016-09-14 | パナソニックIpマネジメント株式会社 | Myoelectric potential measuring device and myoelectric potential measuring method |
KR102409381B1 (en) * | 2014-07-14 | 2022-06-15 | 삼성전자주식회사 | Method and apparatus for processing biosignal using recursive estimation |
-
2015
- 2015-11-20 KR KR1020150163211A patent/KR102570068B1/en active IP Right Grant
-
2016
- 2016-06-20 US US15/186,796 patent/US9977509B2/en active Active
- 2016-07-04 CN CN201610531788.8A patent/CN106774818B/en active Active
- 2016-10-05 JP JP2016197244A patent/JP7094077B2/en active Active
- 2016-11-15 EP EP16198885.2A patent/EP3171248B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6244873B1 (en) * | 1998-10-16 | 2001-06-12 | At&T Corp. | Wireless myoelectric control apparatus and methods |
JP2014168594A (en) * | 2013-03-04 | 2014-09-18 | Nec Casio Mobile Communications Ltd | Authentication device and authentication method |
JP2014200681A (en) * | 2013-04-06 | 2014-10-27 | 本田技研工業株式会社 | System and method for biometric identification in vehicle |
US20150074797A1 (en) * | 2013-09-09 | 2015-03-12 | Samsung Electronics Co., Ltd. | Wearable device performing user authentication using bio-signals and authentication method of the same |
JP2015112488A (en) * | 2013-12-09 | 2015-06-22 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Modular sensor platform device and system |
CN104699242A (en) * | 2015-02-10 | 2015-06-10 | 北京智谷睿拓技术服务有限公司 | Method and device for determining action and/or action part |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7303598B2 (en) | 2019-11-07 | 2023-07-05 | 株式会社スペース二十四インフォメーション | Facility monitoring system |
Also Published As
Publication number | Publication date |
---|---|
EP3171248B1 (en) | 2020-04-08 |
CN106774818A (en) | 2017-05-31 |
KR102570068B1 (en) | 2023-08-23 |
US20170147077A1 (en) | 2017-05-25 |
JP7094077B2 (en) | 2022-07-01 |
EP3171248A1 (en) | 2017-05-24 |
KR20170059190A (en) | 2017-05-30 |
US9977509B2 (en) | 2018-05-22 |
CN106774818B (en) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094077B2 (en) | Motion recognition method and device and wearable device | |
US10684693B2 (en) | Method for recognizing a gesture and an electronic device thereof | |
US10671231B2 (en) | Electromagnetic interference signal detection | |
US10141929B2 (en) | Processing electromagnetic interference signal using machine learning | |
US20220382381A1 (en) | Multifunctional Radar Systems and Methods of Operation Thereof | |
EP3013111B1 (en) | Wearable device and communication method using wearable device | |
US20180348853A1 (en) | Method and apparatus using frictional sound | |
US9857879B2 (en) | Finger gesture sensing device | |
EP3577544B1 (en) | Method for recognizing a gesture and an electronic device thereof | |
US10101869B2 (en) | Identifying device associated with touch event | |
JPWO2016024424A1 (en) | Information processing apparatus, information processing method, and information processing system | |
KR102067281B1 (en) | Electromagnetic interference signal detection | |
KR102267854B1 (en) | Method for data scheduling and power control and electronic device thereof | |
KR20150021298A (en) | Wearable bio-signal interface and method of operation of wearable bio-signal interface | |
JP2018502668A (en) | Ring-type electrocardiogram monitor trigger system and related method | |
WO2019015418A1 (en) | Unlocking control method and related product | |
CN108431731B (en) | Method, storage medium, and electronic device for performing functions based on biometric signals | |
KR102084209B1 (en) | Electromagnetic interference signal detection | |
CN108491074B (en) | Electronic device, exercise assisting method and related product | |
US20230048413A1 (en) | Wearable electronic device and method for providing information of brushing teeth in wearable electronic device | |
EP3335317B1 (en) | Processing electromagnetic interference signal using machine learning | |
WO2019071913A1 (en) | Motion recognition method and device, and terminal | |
CN117355353A (en) | Electronic device providing user interface according to sleep state and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210629 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210629 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210707 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210713 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210917 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210928 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20211005 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220510 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220607 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7094077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |