JP2019528105A - Motion recognition method and apparatus - Google Patents

Motion recognition method and apparatus Download PDF

Info

Publication number
JP2019528105A
JP2019528105A JP2019506639A JP2019506639A JP2019528105A JP 2019528105 A JP2019528105 A JP 2019528105A JP 2019506639 A JP2019506639 A JP 2019506639A JP 2019506639 A JP2019506639 A JP 2019506639A JP 2019528105 A JP2019528105 A JP 2019528105A
Authority
JP
Japan
Prior art keywords
value
state value
motion
motion state
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019506639A
Other languages
Japanese (ja)
Inventor
ジュン、ジュホ
ジュン、チャングン
Original Assignee
ビフレクス インコーポレイテッド
ビフレクス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160101489A external-priority patent/KR101926170B1/en
Priority claimed from KR1020160101491A external-priority patent/KR101830371B1/en
Priority claimed from KR1020170030394A external-priority patent/KR101995482B1/en
Priority claimed from KR1020170030402A external-priority patent/KR101995484B1/en
Priority claimed from KR1020170079255A external-priority patent/KR101970674B1/en
Priority claimed from KR1020170099566A external-priority patent/KR102043104B1/en
Application filed by ビフレクス インコーポレイテッド, ビフレクス インコーポレイテッド filed Critical ビフレクス インコーポレイテッド
Publication of JP2019528105A publication Critical patent/JP2019528105A/en
Priority to JP2021019415A priority Critical patent/JP7101835B2/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities

Abstract

上下、左右および前後を含む3軸方向加速度値を測定する加速度センサ部、上下、左右および前後を含む3軸方向角速度値を測定する角速度センサ部、前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成するプロセシング部、および前記プロセシング部のスリープモードまたはアライブモードを制御するユーザインターフェース部を含む運動認識方法およびその装置が開示される。【選択図】図2Acceleration sensor unit for measuring triaxial acceleration values including up / down, left / right and front / rear, angular velocity sensor unit for measuring triaxial direction angular velocity values including up / down, left / right and front / rear, the triaxial acceleration value and the triaxial angular velocity Disclosed is a motion recognition method and apparatus including a processing unit that generates a first motion state value based on a value and a user interface unit that controls a sleep mode or an alive mode of the processing unit. [Selection] Figure 2

Description

本発明は、運動認識方法および装置に関し、より詳しくは、ユーザの歩行および走行運動データを収集および分析する運動認識方法および装置に関する。   The present invention relates to a motion recognition method and apparatus, and more particularly to a motion recognition method and apparatus for collecting and analyzing user walking and running motion data.

一般に、現代人の日常生活における運動量は、適切な身体の健康を維持するのに相当に不足しているということが絶え間なく指摘されてきた。そのため、効果的に健康を促進する体系的な運動方法に対する関心が高まっている。具体的には、体系的で且つ効率的に迅速に身体を鍛えることができるようにする運動、長期的な観点からの健康促進のための姿勢の矯正などのような運動、および人間の寿命が延びるにつれて身体能力が低下した老人に好適な運動など、様々な運動に対する関心が高まる現状である。このような様々な要求に相応しい運動方法のうちの一つとして、誰でも容易にできる歩行運動がある。   In general, it has been continually pointed out that the amount of exercise in modern people's daily life is considerably insufficient to maintain proper physical health. Therefore, there is a growing interest in systematic exercise methods that effectively promote health. Specifically, exercises that enable systematic and efficient rapid body training, exercises such as posture correction to promote health from a long-term perspective, and human life expectancy At present, interest in various types of exercise is increasing, such as exercise suitable for elderly people whose physical ability declines as they extend. One of the exercise methods suitable for such various requirements is walking exercise that anyone can easily do.

身体的な問題のない人であれば誰でも歩行できるため、大半の人々は無意識的に慣れた姿勢で歩行をするようになる。ところが、人の身体は完璧に対称的でないため、大半の場合、不均衡で正しくない姿勢で歩行がなされる。このような誤った姿勢の持続的な歩行は筋肉と骨格を歪ませ、さらには様々な全身の痛みを誘発する原因となったりもする。一般人の場合、このような誤った歩行姿勢は身体の健康を低下させる問題を生じさせ、特に子供や身体能力が低下した老人の場合、体形の歪みや健康低下の問題がさらに深刻である。一方、運動選手およびダンサーなどのように一般人よりさらに向上した身体能力を必要とする専門家には、身体能力の向上への限界を生じさせるなどの問題がある。   Anyone who has no physical problems can walk, so most people walk unconsciously. However, because the human body is not perfectly symmetrical, most people walk in an imbalanced and incorrect posture. Such persistent walking in the wrong posture distorts muscles and skeleton, and may cause various systemic pains. In the case of ordinary people, such an incorrect walking posture causes a problem of lowering the health of the body. Particularly, in the case of a child or an elderly person whose physical ability is lowered, the problem of the distortion of the body shape and the deterioration of the health are more serious. On the other hand, specialists who require physical abilities that are further improved than ordinary people, such as athletes and dancers, have problems such as creating limits to physical abilities.

このように、正しい歩行姿勢は一般人から専門家に至るまで誰にも重要である。よって、歩行姿勢の矯正をどのように効果的に実行するかに対する様々な研究が行われている。   Thus, the correct walking posture is important for everyone from ordinary people to experts. Therefore, various studies have been conducted on how to effectively correct the walking posture.

従来技術によれば、歩行を検知するにおいて、履き物または踏み台に取り付けられる圧力センサを主に用いる。しかし、従来技術により歩行姿勢を認識および分析しようとする場合、長期間持続的に圧力を受ける過程で圧力センサが損傷する恐れがあり、そのために装置の取替えや修理によるユーザの時間的、経済的な不便をもたらす。また、人の足の大きさは個人に応じて偏差が大きく、そのために圧力センサを取り付けた履き物が様々な大きさに生産されなければならないということから、生産効率および経済性が相当に落ちるという問題がある。また、家族同士で一つの歩行姿勢矯正装置を共有することができず、足の大きさに合わせて各自で別途に購入しなければならないため、経済的な負担が増えるという問題がある。   According to the prior art, in detecting walking, a pressure sensor attached to footwear or a footrest is mainly used. However, when trying to recognize and analyze the walking posture according to the prior art, the pressure sensor may be damaged in the process of receiving pressure continuously for a long time. Cause inconvenience. In addition, the size of a person's foot varies greatly depending on the individual, and therefore, footwear fitted with a pressure sensor must be produced in various sizes, which means that production efficiency and economy are considerably reduced. There's a problem. In addition, there is a problem that an economic burden increases because the family cannot share a single walking posture correction device and must purchase it separately according to the size of the foot.

このように歩行姿勢を矯正するために歩行を認識、検知および分析する技術において、圧力センサの他に、他方式で効果的で且つ正確に歩行を認識、検知および分析することができるようにする技術に対する要求が次第に大きくなりつつある。   As described above, in the technology for recognizing, detecting and analyzing walking in order to correct the walking posture, it is possible to recognize, detect and analyze walking effectively and accurately by other methods in addition to the pressure sensor. The demand for technology is increasing.

本発明は、上述した技術的問題に対応するために導き出されたものであり、本発明の目的は、従来技術における限界と短所によって発生する様々な問題点を実質的に補完できるものとして、ユーザの歩行および走行運動データを収集および分析する運動認識方法およびその装置を提供することにあり、前記方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体を提供することにある。   The present invention has been derived to address the above-described technical problems, and the object of the present invention is to provide a user who can substantially supplement various problems caused by limitations and disadvantages in the prior art. It is an object to provide a motion recognition method and apparatus for collecting and analyzing walking and running motion data, and a computer-readable recording medium on which a program for executing the method is recorded.

本発明の一実施形態によれば、第1装置の運動認識方法は、加速度センサ部によって上下、左右および前後を含む3軸方向加速度値を測定するステップ、角速度センサ部によって上下、左右および前後を含む3軸方向角速度値を測定するステップ、プロセシング部によって前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成するステップ、およびユーザインターフェース部によって前記プロセシング部のスリープモードまたはアライブモードを制御するステップを含む。   According to an embodiment of the present invention, the motion recognition method of the first device includes a step of measuring acceleration values in three axes including vertical and horizontal and front and rear by the acceleration sensor unit, and vertical and horizontal and front and rear by the angular velocity sensor unit. Including a step of measuring a triaxial angular velocity value, a step of generating a first motion state value based on the triaxial acceleration value and the triaxial angular velocity value by a processing unit, and a sleep of the processing unit by a user interface unit Controlling the mode or alive mode.

本発明の一実施形態によれば、前記第1運動状態値を第2装置に転送するステップをさらに含む。   According to an embodiment of the present invention, the method further includes transferring the first motion state value to the second device.

本発明の一実施形態によれば、前記第1運動状態値を第2装置に転送するステップは、ブルートゥース(登録商標)、ワイ・ファイ(登録商標)およびNFCのうち少なくとも一つを介して転送する。   According to an embodiment of the present invention, the step of transferring the first motion state value to the second device includes transferring via at least one of Bluetooth, Wi-Fi, and NFC. To do.

本発明の一実施形態によれば、前記第1運動状態値をサーバに転送するステップをさらに含む。   According to an embodiment of the present invention, the method further includes the step of transferring the first motion state value to a server.

本発明の一実施形態によれば、ユーザの位置値を測定するステップをさらに含む。   According to an embodiment of the present invention, the method further includes measuring a position value of the user.

本発明の一実施形態によれば、前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成するステップをさらに含む。   The method may further include generating a second exercise state value based on at least one of the first exercise state value, the user position value, and the user profile.

本発明の一実施形態によれば、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つをサーバに転送するステップをさらに含む。   The method may further include transferring at least one of the first motion state value and the second motion state value to a server.

本発明の一実施形態によれば、前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つである。   According to an embodiment of the present invention, the second exercise state value is at least one of distance, speed, calorie consumption, altitude, and stride.

本発明の一実施形態によれば、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報を生成するステップをさらに含む。   The method may further include generating posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value.

本発明の一実施形態によれば、前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つとして出力するステップをさらに含む。   According to an embodiment of the present invention, the method further includes the step of outputting the posture correction information as at least one of sound, illustration, image, and vibration.

本発明の一実施形態によれば、前記3軸方向加速度値を測定するステップおよび前記3軸方向加速度値を測定するステップは、前記ユーザインターフェース部によって前記プロセシング部がアライブモードに変更された場合、前記第2装置との接続を設定し、前記第2装置または前記ユーザインターフェース部からの命令に基づいて前記3軸方向加速度値および前記3軸方向角速度値を各々生成する。   According to an embodiment of the present invention, the step of measuring the triaxial acceleration value and the step of measuring the triaxial acceleration value may be performed when the processing unit is changed to the alive mode by the user interface unit. A connection with the second device is set, and the three-axis direction acceleration value and the three-axis direction angular velocity value are respectively generated based on a command from the second device or the user interface unit.

本発明の一実施形態によれば、前記加速度センサ部および前記角速度センサ部は、先入れ先出しキューに前記3軸方向加速度値および前記3軸方向角速度値を格納し、前記先入れ先出しキューの格納空間が所定の閾値未満である場合、前記プロセシング部はスリープモードであり、前記先入れ先出しキューの格納空間が所定の閾値以上である場合、前記プロセシング部はアライブモードである。   According to an embodiment of the present invention, the acceleration sensor unit and the angular velocity sensor unit store the three-axis direction acceleration value and the three-axis direction angular velocity value in a first-in first-out queue, and a storage space of the first-in first-out queue is predetermined. When it is less than the threshold, the processing unit is in a sleep mode, and when the storage space of the first-in first-out queue is equal to or greater than a predetermined threshold, the processing unit is in an alive mode.

本発明の一実施形態によれば、前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つである。   According to one embodiment of the present invention, the first motion state value includes: exercise time, number of steps taken, number of steps per minute, step length, step angle, head angle, ground support time, air suspension time, air suspension time. Is at least one of the ratio of the ground support time to the maximum vertical force, the average vertical force load factor, the maximum vertical force load factor, the left-right balance, and the left-right uniformity.

本発明の一実施形態によれば、前記第1装置は、頭側および腰側に着用されたバンド、頭側および腰側にクリップの形で付着する形態、帽子に備えられる形態、ベルトにさす形態、メガネ形態、ヘルメット形態、耳に付着する形態、衣服に付着する形態および衣服として着用する形態のうちの一つからなる。   According to an embodiment of the present invention, the first device includes a band worn on the head side and the waist side, a form attached to the head side and the waist side in the form of a clip, a form provided on a hat, and a belt. It consists of one of a form, a glasses form, a helmet form, a form attached to the ear, a form attached to clothes, and a form worn as clothes.

本発明の一実施形態によれば、前記メガネ形態は、拡張現実グラス、メガネフレームおよびサングラスのうちの一つからなり、前記耳に付着する形態は、ハンズフリーイヤーピース、ヘッドホンおよびイヤホンのうちの一つからなり、前記衣服として着用する形態はチョッキおよびハーネスのうちの一つからなる。   According to an embodiment of the present invention, the glasses form is one of augmented reality glasses, glasses frames, and sunglasses, and the form attached to the ear is one of hands-free earpieces, headphones, and earphones. The form to be worn as the garment is one of a waistcoat and a harness.

一方、本発明の一実施形態によれば、第2装置の運動認識方法は、3軸方向加速度値および3軸方向角速度値に基づいて生成された第1運動状態値を第1装置から受信するステップ、ユーザの位置値を測定するステップ、および前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成するステップを含む。   Meanwhile, according to the embodiment of the present invention, the motion recognition method of the second device receives the first motion state value generated based on the triaxial acceleration value and the triaxial angular velocity value from the first device. Measuring a user position value; and generating a second movement state value based on at least one of the first movement state value, the user position value, and a user profile.

本発明の一実施形態によれば、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つをサーバに転送するステップをさらに含む。   The method may further include transferring at least one of the first motion state value and the second motion state value to a server.

本発明の一実施形態によれば、前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つである。   According to one embodiment of the present invention, the first motion state value includes: exercise time, number of steps taken, number of steps per minute, step length, step angle, head angle, ground support time, air suspension time, air suspension time. Is at least one of the ratio of the ground support time to the maximum vertical force, the average vertical force load factor, the maximum vertical force load factor, the left-right balance, and the left-right uniformity.

本発明の一実施形態によれば、前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つである。   According to an embodiment of the present invention, the second exercise state value is at least one of distance, speed, calorie consumption, altitude, and stride.

本発明の一実施形態によれば、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報を生成するステップをさらに含む。   The method may further include generating posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value.

本発明の一実施形態によれば、前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つとして出力するステップをさらに含む。   According to an embodiment of the present invention, the method further includes the step of outputting the posture correction information as at least one of sound, illustration, image, and vibration.

本発明の一実施形態によれば、前記第1運動状態値を第1装置から受信するステップは、ブルートゥース、ワイ・ファイおよびNFCのうち少なくとも一つを介して受信する。   According to an embodiment of the present invention, the step of receiving the first motion state value from the first device is received via at least one of Bluetooth, Wi-Fi, and NFC.

また、本発明の一実施形態によれば、前記方法を実行するためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を含む。
また、本発明の一実施形態によれば、運動認識の第1装置は、上下、左右および前後を含む3軸方向加速度値を測定する加速度センサ部、上下、左右および前後を含む3軸方向角速度値を測定する角速度センサ部、前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成するプロセシング部、および前記プロセシング部のスリープモードまたはアライブモードを制御するユーザインターフェース部を含む。
In addition, according to an embodiment of the present invention, a computer-readable recording medium on which a program for executing the method is recorded is included.
Further, according to one embodiment of the present invention, the first apparatus for motion recognition includes an acceleration sensor unit that measures triaxial acceleration values including vertical, horizontal, and longitudinal directions, and triaxial angular velocity that includes vertical, horizontal, and longitudinal directions. An angular velocity sensor unit for measuring a value, a processing unit for generating a first motion state value based on the triaxial acceleration value and the triaxial angular velocity value, and a user interface for controlling a sleep mode or an alive mode of the processing unit Part.

また、本発明の一実施形態によれば、運動認識の第2装置は、3軸方向加速度値および3軸方向角速度値に基づいて生成された第1運動状態値を第1装置から受信する第1通信部、ユーザの位置値を測定する位置センサ部、および前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成するプロセシング部を含む。   According to an embodiment of the present invention, the second device for motion recognition receives the first motion state value generated from the first device based on the triaxial acceleration value and the triaxial angular velocity value. 1 communication unit, a position sensor unit that measures the position value of the user, and a processing unit that generates a second movement state value based on at least one of the first movement state value, the user position value, and the user profile including.

本発明によれば、ユーザの身体(例えば、頭側または腰側)において加速度、位置などを測定し、それを質量中心の運動状態値に変換するなどのような本発明の特徴的な分析アルゴリズムを用いることによって、効果的で且つ正確に歩行を認識、検知および分析することができる。   According to the present invention, the characteristic analysis algorithm of the present invention, such as measuring acceleration, position, etc. on the user's body (for example, the head side or the waist side) and converting it to a motion state value centered on the mass, etc. By using, walking can be recognized, detected and analyzed effectively and accurately.

また、本発明によれば、ユーザの身体において加速度、位置などを測定し、それを質量中心の運動状態値に変換し、それにより圧力中心経路を推算するなどのような本発明の特徴的な分析アルゴリズムを用いることによって、効果的で且つ正確に歩行を認識、検知および分析することができる。特に、本発明は、ユーザの身体の質量中心の運動と最も類似して表れる位置で測定された加速度を用いることによって(具体的には、左右方向の加速度は頭側で測定し、前後方向の加速度および位置は腰側で測定し、上下方向の加速度は頭側または腰側で測定するようにすることによって)、より正確な加速度および位置の測定が可能である。   In addition, according to the present invention, it is characteristic of the present invention to measure acceleration, position, etc. in the user's body, convert it into a mass-centered motion state value, and thereby estimate a pressure center path, etc. By using an analysis algorithm, walking can be recognized, detected and analyzed effectively and accurately. In particular, the present invention uses acceleration measured at the position most similar to the motion of the center of mass of the user's body (specifically, the lateral acceleration is measured on the head side and the longitudinal By measuring the acceleration and position on the lumbar side and the acceleration in the vertical direction on the head side or the lumbar side), more accurate acceleration and position measurement is possible.

なお、本発明によれば、装置構成的な側面から、加速度センサ、位置センサなどのようにユーザの動的物理量を測定するセンサのみを利用できるという長所がある。すなわち、従来には、ユーザの足で押されることによって歩行を認知する圧力センサを用いることによって、装置耐久度および寿命低下の問題、ユーザの身体寸法に応じた別途装置の生産および使用問題などの種々の問題があった。しかし、本発明の場合、このような問題の原因である圧力センサを足部分に配置するという技術構成そのものが完全に排除されるため、上述したような種々の問題が根本的に除去されるものである。また、それによりユーザ便宜性の向上、ユーザまたは生産者の各々における経済性の向上などのような効果も得ることができる。   In addition, according to the present invention, there is an advantage that only a sensor that measures a user's dynamic physical quantity, such as an acceleration sensor and a position sensor, can be used from the aspect of device configuration. That is, conventionally, by using a pressure sensor that recognizes walking by being pushed by the user's foot, problems such as device durability and a decrease in lifespan, production and use problems of a separate device according to the user's body dimensions, etc. There were various problems. However, in the case of the present invention, the technical configuration itself of disposing the pressure sensor that is the cause of such a problem is completely eliminated, so that the various problems as described above are fundamentally eliminated. It is. Further, it is possible to obtain effects such as improvement of user convenience and improvement of economy in each user or producer.

本発明の一実施形態による運動姿勢導出装置の使用状態を示す。The use condition of the movement posture derivation device by one embodiment of the present invention is shown. 本発明の一実施形態による運動姿勢導出装置の概略図を示す。1 shows a schematic diagram of a motion posture deriving device according to an embodiment of the present invention. FIG. 本発明の一実施形態による運動姿勢導出方法のフローチャートを示す。2 shows a flowchart of an exercise posture deriving method according to an embodiment of the present invention. 本発明の一実施形態による質量中心および圧力中心間の関係図を示す。FIG. 6 shows a relationship diagram between a center of mass and a center of pressure according to an embodiment of the present invention. 本発明の一実施形態による圧力中心方向の決定および位置類推を説明する。The determination of the pressure center direction and the position analogy according to an embodiment of the present invention will be described. 本発明の一実施形態による推算された圧力中心経路の例示を示す。FIG. 6 illustrates an example of an estimated pressure center path according to an embodiment of the present invention. FIG. 本発明の一実施形態による歩行および走行時の時間に対する上下方向加速度グラフの例示を示す。The illustration of the up-down direction acceleration graph with respect to the time at the time of the walk and driving | running | working by one Embodiment of this invention is shown. 本発明の一実施形態による加速度信号測定結果の例示を示す。3 illustrates an example of an acceleration signal measurement result according to an embodiment of the present invention. 本発明の他の実施形態による運動認識方法のフローチャートを示す。6 shows a flowchart of a motion recognition method according to another embodiment of the present invention. 本発明の他の実施形態によるデータ収集および運動認識ステップの詳細フローチャートを示す。6 shows a detailed flowchart of data collection and motion recognition steps according to another embodiment of the present invention. 本発明の他の実施形態による加速度信号測定結果の例示を示す。6 illustrates an example of an acceleration signal measurement result according to another embodiment of the present invention. 本発明の他の実施形態による加速度に基づいた運動状態値導出ステップの詳細フローチャートを示す。6 shows a detailed flowchart of a step of deriving a motion state value based on acceleration according to another embodiment of the present invention. 本発明の他の実施形態による運動姿勢導出装置の使用状態を示す。The use condition of the movement posture derivation device by other embodiments of the present invention is shown. 本発明の他の実施形態による運動姿勢導出装置の概略図を示す。The schematic diagram of the movement posture derivation device by other embodiments of the present invention is shown. 本発明の他の実施形態によるケガ危険性定量化装置の概略図を示す。FIG. 3 shows a schematic diagram of an injury risk quantification apparatus according to another embodiment of the present invention. 本発明の他の実施形態によるケガ危険性定量化方法のフローチャートを示す。6 shows a flowchart of an injury risk quantification method according to another embodiment of the present invention. 本発明の他の実施形態による走行時における上下方向加速度グラフを示す。The vertical direction acceleration graph at the time of driving | running | working by other embodiment of this invention is shown. 本発明の他の実施形態による走行時における上下方向加速度グラフに傾きを表示する。An inclination is displayed on the vertical acceleration graph during traveling according to another embodiment of the present invention. 本発明の他の実施形態による走行時における上下方向加速度グラフに衝撃量を表示する。The impact amount is displayed on the vertical acceleration graph during traveling according to another embodiment of the present invention. 本発明の他の実施形態による運動認識の第1装置を示す。6 shows a first device for motion recognition according to another embodiment of the present invention. 本発明の他の実施形態による運動認識の第2装置を示す。6 shows a second device for motion recognition according to another embodiment of the present invention. 本発明の他の実施形態による運動認識方法のフローチャートを示す。6 shows a flowchart of a motion recognition method according to another embodiment of the present invention.

以下では、添付図面を参照して本発明の好ましい実施形態について詳しく説明する。図面上、同一の参照符号は同一の構成要素を指し示し、各構成要素の大きさは説明の明瞭性のために誇張されてもよい。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals indicate the same components, and the size of each component may be exaggerated for clarity of explanation.

図1は、本発明の一実施形態による運動姿勢導出装置の使用状態を示す。   FIG. 1 shows a use state of a motion posture deriving device according to an embodiment of the present invention.

本発明の一実施形態による運動姿勢導出装置100は、図1に示すようにユーザの頭側に着用される。本実施形態による運動姿勢導出装置100は、図1に示すように頭側に着用されたバンドまたは帽子に備えられる形態からなってもよく、より小型化させてイヤホンのように耳にさす形態からなってもよいが、他の形態からなってもよいことは当業者にとって明らかなことである。   The exercise posture deriving device 100 according to an embodiment of the present invention is worn on the head side of a user as shown in FIG. The exercise posture deriving device 100 according to the present embodiment may be provided in a band or a hat worn on the head side as shown in FIG. 1, and from a form that is further miniaturized and put on an ear like an earphone. It will be apparent to those skilled in the art that other forms may be used.

図2は、本発明の一実施形態による運動姿勢導出装置の概略図を示す。   FIG. 2 is a schematic diagram of a motion posture deriving device according to an embodiment of the present invention.

本実施形態による運動姿勢導出装置100は、図2に示すように、センサ信号収集部110および運動姿勢導出部121を含む。本実施形態による運動姿勢導出装置100は、運動矯正生成部122および矯正情報出力部130をさらに含む。   The exercise posture deriving device 100 according to the present embodiment includes a sensor signal collecting unit 110 and an exercise posture deriving unit 121 as shown in FIG. The exercise posture deriving device 100 according to the present embodiment further includes an exercise correction generation unit 122 and a correction information output unit 130.

センサ信号収集部110は、上下、左右、前後を含む3軸方向加速度センサ111、およびユーザの位置を測定する位置測定センサ112を含む。3軸方向加速度センサ111は、ジャイロスコープを内蔵する形態などのように、一般に3軸方向の加速度を測定するのに用いられるセンサのうち好適なものを選択して採用することができる。位置測定センサ112は、ユーザの絶対位置を測定するためのものであって、例えば、GPS信号を用いてユーザの位置を測定するようになってもよく、または、最近GPSより正確性の高い超精密衛星航法技術が開発されているところ、このような技術が適用されるセンサが用いられてもよい。さらに、センサ信号収集部110は、以下にてより詳細に説明する運動認識および分析過程における正確度を高めるように、図2に示すように3軸方向角速度センサ113をさらに含むことができる。   The sensor signal collecting unit 110 includes a triaxial acceleration sensor 111 including up and down, left and right, and front and rear, and a position measurement sensor 112 that measures the position of the user. As the triaxial acceleration sensor 111, a suitable sensor can be selected and used from among sensors generally used for measuring the triaxial acceleration, such as a form incorporating a gyroscope. The position measurement sensor 112 is for measuring the absolute position of the user. For example, the position measurement sensor 112 may measure the position of the user by using a GPS signal. Where precision satellite navigation technology is being developed, sensors to which such technology is applied may be used. Further, the sensor signal collection unit 110 may further include a triaxial angular velocity sensor 113 as shown in FIG. 2 to increase accuracy in the motion recognition and analysis process described in more detail below.

本実施形態によるセンサ信号収集部110は、図1に示すようにユーザの頭側に着用され、加速度、速度および位置などのようなユーザの動的物理量を測定する。従来には、歩行モニタリングのために直接に足で押される部分である履き物および踏み台などに備えられる圧力センサを用いた。そのため、センサの損傷が早く進行して装置耐久度および寿命が短くなるという問題があった。また、使用中の装置の損傷による歩行認識および分析正確性の低下、頻繁な装置の取替えによる便宜性および経済性の低下などの問題がある。さらに、このような装置が履き物に備えられる場合、ユーザの足大きさに応じてユーザごとに各々別の装置が必要となって、ユーザ便宜性および経済性の低下が加重され、生産者にとっては大きさ別に別途生産をしなければならず経済的な負担を生じさせるなどの問題があった。   The sensor signal collection unit 110 according to the present embodiment is worn on the user's head as shown in FIG. 1 and measures the user's dynamic physical quantities such as acceleration, speed, and position. Conventionally, a pressure sensor provided on footwear, a footstool or the like, which is a portion directly pressed by a foot for walking monitoring, has been used. For this reason, there has been a problem that the damage of the sensor progresses quickly and the durability and life of the apparatus are shortened. In addition, there are problems such as a decrease in walking recognition and analysis accuracy due to damage to a device in use, and a decrease in convenience and economy due to frequent replacement of the device. In addition, when such a device is provided in footwear, a separate device is required for each user according to the size of the user's foot, and a decrease in user convenience and economy is weighted. There was a problem that it had to be produced separately according to size and caused an economic burden.

しかし、本実施形態は、歩行認識をするにおいて足で押される圧力を用いるという概念から完全に脱して、図1に示すようにユーザの頭側で測定される加速度、速度および位置などのようなユーザの動的物理量を測定し、以下にて記述する本発明の特徴的な分析アルゴリズムを適用して歩行の認識、検知および分析を実現する。このように、本実施形態は、従来技術とは測定位置および測定物理量が互いに異なる。この時、従来技術で指摘された種々の問題点の根本的な原因は「圧力センサを足部分に配置する」という技術構成から来るものであるところ、本発明によれば、その構成だけで上述したような種々の問題を根本的に除去できる。   However, this embodiment completely departs from the concept of using the pressure pressed by the foot in walking recognition, such as acceleration, velocity, position, etc. measured on the user's head as shown in FIG. The user's dynamic physical quantity is measured, and the characteristic analysis algorithm of the present invention described below is applied to realize walking recognition, detection and analysis. As described above, this embodiment is different from the related art in the measurement position and the measurement physical quantity. At this time, the root cause of various problems pointed out in the prior art comes from the technical configuration of “placement of the pressure sensor on the foot portion”. According to the present invention, only the configuration described above is used. Such various problems can be fundamentally eliminated.

運動姿勢導出部121は、センサ信号収集部110から信号の伝達を受け、3軸方向加速度および位置信号を用いてユーザ質量中心の加速度、速度、位置を含む歩行または走行運動状態値を導出し、前記歩行または走行運動状態値を分析して歩行または走行姿勢を導出する役割をする。具体的には、運動姿勢導出部121は、前記歩行または走行運動状態値から圧力中心経路を推算し、前記圧力中心経路を分析して歩行または走行姿勢を導出する。前記運動姿勢導出部121で用いられる本発明の分析アルゴリズムについては後ほど詳しく説明するので、ここではその説明を省略する。   The motion posture deriving unit 121 receives a signal from the sensor signal collecting unit 110 and derives a walking or running motion state value including the acceleration, speed, and position of the user mass center using the triaxial acceleration and position signals. The walking or running motion state value is analyzed to derive a walking or running posture. Specifically, the motion posture deriving unit 121 estimates a pressure center path from the walking or running motion state value and analyzes the pressure center path to derive a walking or running posture. Since the analysis algorithm of the present invention used in the motion posture deriving unit 121 will be described in detail later, the description thereof is omitted here.

一方、運動姿勢導出部121は、様々な計算を実行できる集積回路の形態からなってセンサ信号収集部110と一つの基板上に形成されてもよく、または別途のコンピュータなどのような形態からなってもよい。この時、運動姿勢導出部121がセンサ信号収集部110とは別に形成される場合、センサ信号収集部110および運動姿勢導出部121間の信号伝達のために、図2に示すように通信部114が備えられてもよい。通信部114は、有線または無線通信からなることができる。無線通信としてはブルートゥース、ワイ・ファイおよびNFC技術を用いてもよいが、他の無線通信技術を用いてもよいことは当業者にとって明らかなことである。   On the other hand, the motion posture deriving unit 121 may be formed on the same substrate as the sensor signal collecting unit 110 in the form of an integrated circuit capable of executing various calculations, or may be formed in a form such as a separate computer. May be. At this time, when the exercise posture deriving unit 121 is formed separately from the sensor signal collecting unit 110, the communication unit 114 is used for signal transmission between the sensor signal collecting unit 110 and the exercise posture deriving unit 121 as shown in FIG. May be provided. The communication unit 114 can be composed of wired or wireless communication. As wireless communication, Bluetooth, Wi-Fi, and NFC technologies may be used, but it is obvious to those skilled in the art that other wireless communication technologies may be used.

運動矯正生成部122は、運動姿勢導出部121により導出された歩行姿勢と基準姿勢を比較して姿勢矯正用情報を生成する役割をする。運動姿勢導出部121は、上述したようにセンサ信号収集部110により収集された信号に基づいてユーザの歩行または走行姿勢を導出し、具体的な例を挙げれば、歩行または走行時におけるユーザの進行方向、速度などを導出することができ、それにより歩行姿勢の要素のうちの一つである歩幅を得ることができる。この場合、運動矯正生成部122は、歩行および走行速度別に最適な身長−歩幅関係データを内蔵しておき、該ユーザの歩行姿勢情報をそれと比較して、該ユーザの身長に比べて歩幅が過度に広いかまたは狭くはないかを判断し、最適範囲から脱する場合、減らしたり増やしたりしなければならない歩幅矯正量を容易に算出することができる。   The motion correction generation unit 122 serves to generate posture correction information by comparing the walking posture derived by the motion posture deriving unit 121 with the reference posture. The exercise posture deriving unit 121 derives the user's walking or running posture based on the signals collected by the sensor signal collecting unit 110 as described above. For example, the user's progress during walking or running is given. The direction, speed, and the like can be derived, whereby the stride that is one of the elements of the walking posture can be obtained. In this case, the motion correction generation unit 122 has built-in optimal height-stride relationship data for each walking and running speed, and the walking posture information of the user is compared with that, and the stride is excessive compared to the height of the user. It is possible to easily calculate the amount of stride correction that must be reduced or increased when it is determined that it is not wide or narrow, and when it is out of the optimum range.

矯正情報出力部130は、このように運動矯正生成部122により生成された姿勢矯正用情報を音響、図解、画像を含むユーザが認識可能な情報として変換して出力する。例えば、歩幅矯正量が算出されて歩幅を減らす必要がある場合、運動姿勢導出装置100上に備えられたスピーカを介して「歩幅を減らして下さい」のような音声が出力されるようにするか、または警告音が鳴るようにしてユーザが最適歩幅でないことを認知し歩行姿勢を変えるように誘導することができる。または、スマートフォン、コンピュータまたは専用ディスプレイなどと接続され、図解または画像として正確な矯正情報が出力されるようにすることもできるなど、様々な形態への実現が可能である。   The correction information output unit 130 converts the posture correction information generated by the movement correction generation unit 122 in this way as information that can be recognized by the user, including sound, illustration, and image, and outputs the information. For example, when it is necessary to reduce the stride when the stride correction amount is calculated, is it possible to output a sound such as “Please reduce the stride” via a speaker provided on the exercise posture deriving device 100? Alternatively, it is possible to guide the user to change the walking posture by recognizing that the stride is not the optimum stride by sounding a warning sound. Alternatively, it can be connected to a smartphone, a computer, a dedicated display, or the like, and correct correction information can be output as an illustration or an image.

さらに、運動姿勢導出装置100は、運動姿勢導出部121により導出された歩行姿勢を外部のデータベース140に転送して累積的に格納するようになることができる。このような歩行または走行運動分析を必要とするユーザは健康促進のために毎日散歩またはジョギングをする一般人や身体能力を向上させるために訓練する専門家などであり、このような運動分析データが累積されて時間的な変化を見ることができるようになることが当然好ましい。それのみならず、このように運動分析データが大量に累積格納されると、このようなデータがビッグ・データとして活用されて各種の統計や分析に使用できるなど、様々な活用が可能である。   Furthermore, the exercise posture deriving device 100 can transfer the walking posture derived by the exercise posture deriving unit 121 to the external database 140 and store it cumulatively. Users who need such walking or running motion analysis are ordinary people who walk or jog every day for health promotion, experts who train to improve physical ability, etc., and such motion analysis data accumulates Of course, it is preferable to be able to see changes over time. In addition, when a large amount of motion analysis data is accumulated and stored in this way, such data can be used as big data and used for various statistics and analyses.

本発明の一実施形態による運動姿勢導出方法は、運動姿勢導出装置100を用いて、ユーザの運動を検知し、歩行であるか走行であるかを判断するなどの分析を行う。この時、前述したように、本発明で用いられる分析アルゴリズムは、ユーザの頭側で測定される動的物理量を利用するところ、運動姿勢導出装置100は、最小限には上下、左右、前後を含む3軸方向加速度センサ111およびユーザの位置を測定する位置測定センサ112を含めばよく、運動姿勢導出部121において以下にて説明する分析アルゴリズムが実行されればよい。また、運動姿勢導出装置100は、装置の機能向上のために、前述した様々な付加構成をさらに含んでもよいことは勿論である。   The motion posture deriving method according to an embodiment of the present invention uses the motion posture deriving device 100 to detect the user's motion and perform analysis such as determining whether the user is walking or running. At this time, as described above, the analysis algorithm used in the present invention uses a dynamic physical quantity measured on the user's head side. The three-axis direction acceleration sensor 111 and the position measuring sensor 112 for measuring the position of the user may be included, and the motion / attitude derivation unit 121 may execute an analysis algorithm described below. In addition, the motion posture deriving device 100 may further include the various additional configurations described above in order to improve the function of the device.

図3は、本発明の一実施形態による運動姿勢導出方法のフローチャートを示す。本実施形態による運動姿勢導出方法は、図示したように、圧力中心経路推算ステップ、運動種類判断ステップおよび運動姿勢導出ステップを含む。以下では、各ステップについてより詳しく説明する。   FIG. 3 shows a flowchart of a method for deriving a motion posture according to an embodiment of the present invention. The exercise posture deriving method according to the present embodiment includes a pressure center path estimating step, an exercise type determining step, and an exercise posture deriving step, as shown in the figure. Hereinafter, each step will be described in more detail.

前記圧力中心経路推算ステップにおいては、運動姿勢導出装置100により収集された3軸方向加速度(a、a、a)を用いて算出されたユーザ質量中心の運動状態値を用いて、質量中心位置から加速度ベクトル方向に地面にプロジェクションして圧力中心経路を推算する。 Wherein in the pressure center path estimation step, using the three-axis direction acceleration collected by the motion and orientation derivation device 100 (a x, a y, a z) of the motion state value of the user centroid calculated using the mass The pressure center path is estimated by projecting on the ground in the direction of the acceleration vector from the center position.

運動姿勢導出装置100において3軸方向加速度センサ111を用いて左右、前後、上下の3軸方向加速度を収集することができ、それを積分するかまたは時間当たりに位置測定センサ112を用いて収集された位置情報を用いて速度、位置などを全て求めることができる。一方、一般にある対象物の運動を分析する場合にはその対象物の質量中心の運動を基準に分析し、運動姿勢導出装置100はユーザの頭側に備えられるものであるため、そこで測定された値を質量中心の運動状態値に変換して分析することが好ましい。このようにユーザの頭側の位置で測定された値をユーザ質量中心の値に変換することは、ユーザの身長情報などのような身体情報を用いて予め求められたゲイン値を適切にかけるなどによって容易に導出することができる。   In the movement posture deriving device 100, the three-axis acceleration sensor 111 can be used to collect the left, right, front, back, and top and bottom three-axis accelerations, and can be integrated or collected using the position measurement sensor 112 per time. All the speed, position, etc. can be obtained using the obtained position information. On the other hand, in general, when analyzing the motion of an object, the analysis is performed based on the motion of the center of mass of the object, and the motion posture deriving device 100 is provided on the user's head side. It is preferable to analyze by converting the value into a motion state value at the center of mass. In this way, converting the value measured at the user's head position into the value of the center of mass of the user appropriately applies a gain value obtained in advance using physical information such as the height information of the user, etc. Can be easily derived.

このように質量中心の運動状態値(各方向に対する時間当たりの加速度/速度/位置、周波数分析など)を導出すると、それにより圧力中心経路を推算することができる。人体は、歩行または走行時、支持する足に加えられる反作用圧力を用いて挙動する。この反作用圧力の和を地面反力(Ground reaction force;GRF)と言い、この圧力の中心を圧力中心(Center of pressure;COP)と言う。この時に発生する地面反力は、圧力中心から人体質量中心(center of mass;COM)に向かう特性を有することが明らかになっている。   Thus, by deriving the motion state value of the center of mass (acceleration / velocity / position per time for each direction, frequency analysis, etc.), it is possible to estimate the pressure center path. When walking or running, the human body behaves using reaction pressure applied to the supporting foot. The sum of the reaction pressures is referred to as a ground reaction force (GRF), and the center of the pressure is referred to as a center of pressure (COP). It has been clarified that the ground reaction force generated at this time has a characteristic from the center of pressure to the center of mass of the human body (center of mass; COM).

図4は、本発明の一実施形態による質量中心および圧力中心間の関係図を示す。   FIG. 4 shows a relationship diagram between the center of mass and the center of pressure according to one embodiment of the present invention.

本発明においては、直ちにこのような生体力学的特性を逆に利用して、質量中心で測定された力のベクトル方向に地面にプロジェクションして圧力中心を類推するようにしている。   In the present invention, such a biomechanical characteristic is immediately utilized in reverse, and the pressure center is estimated by projecting onto the ground in the vector direction of the force measured at the center of mass.

図5は、本発明の一実施形態による圧力中心方向の決定および位置類推を説明する。   FIG. 5 illustrates determination of pressure center direction and position analogy according to one embodiment of the present invention.

圧力中心方向とは、質量中心から圧力中心に向かう方向をいう。前記圧力中心経路推算ステップは、圧力中心方向を先に決定し、該方向にプロジェクションして圧力中心位置を類推するようになる。より詳しく説明すれば、先ず、圧力中心方向決定ステップにおいては、図5に示すように、上下方向加速度aおよび重力加速度gの和に対する左右方向加速度aの比率および上下方向加速度aおよび重力加速度gの和に対する前後方向加速度aの比率で圧力中心の方向を決定する。このように圧力中心の方向が決定されると、次に圧力中心位置類推ステップにおいては、質量中心が予め測定されたユーザの身長情報に予め定められた類推用定数をかけた値で決定される高さに位置したものに仮定し、前記圧力中心方向決定ステップで決定された方向に地面にプロジェクションして圧力中心位置を類推する。ここで、類推用定数とはユーザの身長に応じた質量中心の高さを言う。一般に子供の質量中心が成人の質量中心より比率上高く、男性の質量中心が女性の質量中心より比率上高く表れることがよく知られており、その比率も知られているのは勿論である。具体的な例を挙げれば、成人男性の質量中心は平均的に身長の55.27%位置にあることが知られており、この場合、類推用定数は0.5527になる。したがって、例えば、ユーザの身長情報を入力する時、子供/成人および男性/女性の区分情報を共に入力するようにすることによって、好適な類推用定数が選択されて算出に用いられることができる。 The pressure center direction refers to a direction from the center of mass toward the pressure center. In the pressure center path estimating step, the pressure center direction is determined first, and the pressure center position is estimated by projecting in the direction. In more detail, first, in the pressure center direction determining step, as shown in FIG. 5, the ratio of the lateral direction acceleration a x to the sum of the vertical acceleration a z, and the gravitational acceleration g and the vertical acceleration a z and gravity The direction of the pressure center is determined by the ratio of the longitudinal acceleration ay to the sum of acceleration g. When the direction of the pressure center is determined as described above, in the pressure center position analogizing step, the mass center is determined by a value obtained by multiplying the height information of the user measured in advance by a predetermined analogy constant. Assuming that it is located at a height, the pressure center position is estimated by projecting onto the ground in the direction determined in the pressure center direction determining step. Here, the analogy constant refers to the height of the center of mass corresponding to the height of the user. In general, it is well known that a child's center of mass appears higher in proportion than an adult's center of mass, and a male's center of mass appears higher in proportion than a woman's center of mass. Of course, the ratio is also known. As a specific example, it is known that the center of mass of an adult male is on average 55.27% of the height, and in this case, the analogy constant is 0.5527. Therefore, for example, when inputting the height information of the user, by inputting the child / adult and male / female classification information together, a suitable analogy constant can be selected and used for the calculation.

このように求められた圧力中心位置の正確度をさらに高めるために、前記圧力中心位置類推ステップで類推された圧力中心位置に予め定められた前後および左右方向補正用定数をかけた値で補正される圧力中心位置補正ステップがさらに実行されてもよい。ここで、前後および左右方向補正用定数とは、上述したようなプロジェクション方法により求めた圧力中心位置を実際の前後および左右方向圧力中心と統計的に一致させる定数である。   In order to further improve the accuracy of the pressure center position thus obtained, the pressure center position estimated in the pressure center position analogy step is corrected by a value obtained by multiplying a predetermined longitudinal correction constant. The pressure center position correcting step may be further executed. Here, the front-rear and left-right direction correction constants are constants that statistically match the pressure center position obtained by the above-described projection method with the actual front-rear and left-right direction pressure centers.

前記運動種類判断ステップにおいては、上下方向加速度aグラフのパターンから歩行であるかまたは走行であるかを判断する。 In the exercise type determination step, it is determined whether the vehicle is walking or running from the pattern of the vertical acceleration az graph.

図6は、推算された圧力中心経路として求められた足着地パターンの一つの例示である。図示したように、左右の足が交互に地面を支持しつつ進行されることが分かる。   FIG. 6 is an example of a foot landing pattern obtained as the estimated pressure center path. As shown in the figure, it can be seen that the left and right feet are advanced while alternately supporting the ground.

一方、歩行と走行を区分するのは、歩行の場合は片足または両足が常に地面に接している反面、走行の場合は片足または両足が常に地面から浮いているということである。   On the other hand, the distinction between walking and running is that one or both feet are always in contact with the ground in walking, while one or both feet are always floating from the ground in running.

図7は、歩行および走行時の時間に対する上下方向加速度グラフの例示を示す。図7(A)に示された歩行時のグラフの場合、両足が全て地面に接する瞬間にピークが発生するのを確認することができ、図7(B)に示された走行時のグラフの場合、両足が全て地面から浮いている瞬間に上下方向加速度aが最小値になる定数値区間が存在することを確認することができる。このように歩行および走行時それぞれの場合、上下方向加速度aグラフのパターンが互いに異なって表れることを用いて、現在行われているユーザの運動が歩行であるかまたは走行であるかを判断することができる。 FIG. 7 shows an example of a vertical acceleration graph with respect to time during walking and running. In the case of the walking graph shown in FIG. 7 (A), it can be confirmed that a peak is generated at the moment when both feet are in contact with the ground. The graph of the running time shown in FIG. In this case, it can be confirmed that there is a constant value interval in which the vertical acceleration az is the minimum value at the moment when both feet are floating from the ground. Thus, in each case of walking and running, it is determined whether the user's currently exercised is walking or running using the vertical acceleration az graph patterns appearing differently. be able to.

前記運動姿勢導出ステップにおいては、圧力中心経路推算値および3軸方向加速度(a、a、a)に基づいて歩幅、歩間、歩角、左右非対称を含む姿勢情報を導出する。図6の圧力中心経路の例示および図7の歩行または走行時の上下方向加速度の例示を参照してより詳しく説明する。 Wherein in the motion and orientation derivation step, the step length based on the pressure center path estimated value and the three-axis direction acceleration (a x, a y, a z), between step, step angle, derives the posture information including asymmetrical. This will be described in more detail with reference to the example of the pressure center path in FIG. 6 and the example of the vertical acceleration during walking or running in FIG.

先ず、ユーザの運動が歩行である場合と走行である場合に様相が多少異なって表れるということを上記で説明し、勿論、共通に表れる事項もある。前述したように、歩行の場合は片足または両足が常に地面に接しており、走行の場合は片足または両足が常に地面から浮いている。すなわち、歩行時および走行時、共通に片足のみで支持される区間が存在する。このようなことを考慮して、前記運動姿勢導出ステップにおいては、先ず、中間支持時点を決定する中間支持時点決定ステップと、両足支持区間、片足支持区間、空中浮遊区間を決定する区間分類決定ステップとを含んでおり、歩行および走行を区分しつつ姿勢を導出する基礎情報を形成するようになる。   First, it is described above that the appearance appears to be slightly different when the user's movement is walking and when running, and of course there are also matters that appear in common. As described above, one or both feet are always in contact with the ground during walking, and one or both feet are always floating from the ground during running. That is, there is a section that is supported by only one foot in common during walking and running. In consideration of the above, in the exercise posture derivation step, first, an intermediate support time determination step for determining an intermediate support time point, and a section classification determination step for determining both foot support sections, one leg support sections, and air suspension sections The basic information for deriving the posture while distinguishing walking and running is formed.

さて、歩行運動を噛み砕いて描写すれば以下のとおりである。先ず、一方の足の踵が地面を踏む瞬間に他方の足の爪先も地面からまだ離れていない状態、すなわち、両足が支持されている状態から始まる。この状態で、一方の足のみで地面を支持しつつ他方の足が地面から離れ、該他方の足を空中で振って前方に進行しつつ人の胴体も前方に移動するようになる。そして、該他方の足の踵が地面を踏む瞬間に一方の足の爪先が地面からまだ離れていない状態、すなわち、両足が支持されている状態が再びなされて一歩の歩行になる。この過程で、片足のみで支持されたまま、人の胴体が前方に移動している瞬間には人の頭が上下方向に大きく揺れない反面(上下方向加速度aにおいてローカルミニマムが形成される)、足を踏む瞬間に上下方向に最も大きく揺れるようになる(上下方向加速度aにおいてピーク値が形成される)。 Now, if you walk and describe the walking movement, it is as follows. First, it starts from a state in which the toes of the other foot are not yet separated from the ground at the moment when the heel of one foot steps on the ground, that is, a state where both feet are supported. In this state, while supporting the ground with only one foot, the other foot is separated from the ground, and the human torso moves forward while moving forward while swinging the other foot in the air. Then, at the moment when the heel of the other foot steps on the ground, the state in which the toes of one foot are not yet separated from the ground, that is, the state in which both feet are supported, is made again to make a one-step walk. In this process, the human head does not shake greatly in the vertical direction at the moment when the human torso moves forward while being supported by only one foot (on the other hand, a local minimum is formed at the vertical acceleration az ). At the moment of stepping on the foot, the largest swing is made in the vertical direction (a peak value is formed in the vertical acceleration az ).

すなわち、歩行運動は、両足が全て地面を踏んでいる状態の区間、片足のみが地面を踏んでいる状態の区間に分けることができ、片足のみが地面を踏んでいる状態の間に上下方向への揺れが最も少ない。このような運動の様相が図7(A)によく示されており、このような例示に示されているように、中間支持時点決定ステップにおいては、ユーザの運動が歩行である場合、時間領域で測定された上下方向加速度aにおいてローカルミニマムを中間支持時点に定義する。また、区間分類決定ステップにおいては、ユーザの運動が歩行である場合、時間領域で測定された上下方向加速度aにおいてピーク値が形成される区間を両足支持区間に決定し、残りの区間を片足支持区間に決定する。 In other words, walking movement can be divided into a section where both feet are stepping on the ground and a section where only one foot is stepping on the ground. There is the least amount of shaking. Such an aspect of movement is well shown in FIG. 7A, and as shown in such an example, in the intermediate support time point determination step, when the user's movement is walking, time domain The local minimum is defined as the intermediate support point in the vertical acceleration az measured in (1). Further, in the section classification determining step, when the user's movement is walking, a section where a peak value is formed in the vertical acceleration az measured in the time domain is determined as a both foot support section, and the remaining section is set as one leg. Decide on support section.

次に、走行運動を噛み砕いて描写すれば以下のとおりである。先ず、前方に出ている一方の足が地面を蹴飛ばす瞬間(この瞬間、他方の足は空中に浮いている)から始まる。この状態で、一方の足が地面を蹴飛ばして浮き上がりつつ両足が全て空中に浮いている状態のまま、人の胴体が前方に移動し、それと共に両足を空中で振りつつ前後が変わって他方の足が前方に出てくるようになる。前方に出てきた他方の足が地面に接すると同時に地面を蹴飛ばす瞬間が再びなされて一歩の走行になる。この過程で、片足で地面を蹴飛ばす瞬間には人の頭が上下方向に最も大きく揺れる反面(上下方向加速度aにおいてローカルマキシマムが形成される)、空中に浮いたまま進んでいる状態では上下方向にほぼ揺れなくなる(上下方向加速度aにおいて定数値が形成される)。 Next, the running motion is described as follows. First, it starts from the moment when one of the legs that is moving forward kicks the ground (the other leg is floating in the air at this moment). In this state, one of the legs kicks off the ground and floats while all the legs are floating in the air, while the human torso moves forward, and with that, the front and rear changes while swinging both legs in the air. Comes out ahead. The moment when the other leg that comes out forward touches the ground and kicks the ground again is made again, and it is a one-step run. In this process, at the moment of kicking the ground with one foot, the person's head shakes the most in the vertical direction (local maximum is formed at the vertical acceleration az ), but in the vertical direction when moving in the air (A constant value is formed at the vertical acceleration az ).

すなわち、走行運動は、両足が全て空中に浮いている状態の区間、片足のみが地面を踏んでいる状態の区間に分けることができ、両足が全て空中に浮いている状態の間に上下方向への揺れが最も少ない。このような運動の様相が図7(B)によく示されており、このような例示に示されているように、中間支持時点決定ステップにおいては、ユーザの運動が走行である場合、時間領域で測定された上下方向加速度aにおいてローカルマキシマムを中間支持時点に定義する。また、区間分類決定ステップにおいては、ユーザの運動が走行である場合、時間領域で測定された上下方向加速度aにおいて定数値で表れる区間を空中浮遊区間に決定し、残りの区間を片足支持区間に決定する。ここで、空中浮遊区間に表れる定数値は、加速度計が重力以外に他の外力が作用しない時の信号レベルの既に設定された値であって、約0に近い値に適切に決定できる。すなわち、前記定数値は現在スタンスを判別できるようにする基準値であるところ、このような意味でスタンス判別定数(stance phase constant)と呼ばれ、要約すれば、走行時に上下方向加速度がスタンス判別定数より小さければ空中浮遊区間、大きければ片足支持区間に判別する。 That is, the running motion can be divided into a section in which both feet are floating in the air and a section in which only one foot is stepping on the ground. There is the least amount of shaking. Such an aspect of movement is well shown in FIG. 7B, and as shown in such an example, in the intermediate support time determination step, when the user's movement is running, the time domain The local maximum is defined as the intermediate support point in the vertical acceleration az measured in step (1). In the section classification determining step, when the user's movement is running, a section represented by a constant value in the vertical acceleration az measured in the time domain is determined as an air floating section, and the remaining section is defined as a one-foot support section. To decide. Here, the constant value appearing in the air floating section is an already set value of the signal level when the external force other than gravity is not applied to the accelerometer, and can be appropriately determined to be a value close to about zero. That is, the constant value is a reference value that enables the current stance to be determined. In this sense, the constant value is referred to as a stance determination constant. In summary, the vertical acceleration during driving is a stance determination constant. If it is smaller, it is determined as an airborne section, and if it is larger, it is determined as a one-leg support section.

このように姿勢導出のための基礎情報が導出されると、始めて歩幅、歩間、歩角、左右非対称などの歩行または走行姿勢の導出が可能となる。   Thus, when basic information for posture derivation is derived, it is possible to derive a walking or running posture such as a stride, a step distance, a step angle, and a left-right asymmetry for the first time.

歩幅:先ず、ユーザの位置情報を予め定められた時間間隔ごとに測定して平均速度を算出する。次に、前記時間間隔の間の前記中間支持時点数を測定して歩行周波数を算出する。最後に、前記平均速度を前記歩行周波数で分けることによってユーザの歩幅を正確に算出することができる。   Stride: First, the user's position information is measured at predetermined time intervals to calculate an average speed. Next, the walking frequency is calculated by measuring the number of intermediate support points during the time interval. Finally, the user's stride can be accurately calculated by dividing the average speed by the walking frequency.

歩間:前記中間支持時点に該当する圧力中心位置値を用いて左右方向の歩間を算出することができる。すなわち、図7(A)または(B)に示される中間支持時点に該当する時間値を図6に示される圧力中心位置値に適用して、該時間値に該当する圧力中心位置を探せば、左側足が地面を踏んだ位置および右側発が地面を踏んだ位置が出てくるようになり、これらの間隔を測ってユーザの歩間を正確に算出することができる。   Step length: The step length in the left-right direction can be calculated using the pressure center position value corresponding to the intermediate support time point. That is, by applying the time value corresponding to the intermediate support time shown in FIG. 7 (A) or (B) to the pressure center position value shown in FIG. 6 and searching for the pressure center position corresponding to the time value, The position where the left foot stepped on the ground and the position where the right foot stepped on the ground come out, and by measuring these intervals, the user's step distance can be accurately calculated.

歩角:前記片足支持区間の開始時点に該当する圧力中心位置値および前記片足支持区間の終了時点に該当する圧力中心位置値を用いて歩角を算出することができる。噛み砕いて説明すれば、片足支持区間の開始時点には踵が地面を踏み、片足支持区間の終了時点には爪先が地面を踏むようになる。   Walking angle: The walking angle can be calculated using the pressure center position value corresponding to the start time of the one foot support section and the pressure center position value corresponding to the end time of the one foot support section. If it crushes and demonstrates, a toe will step on the ground at the start time of a one leg support area, and a toe will step on the ground at the end time of a one leg support area.

すなわち、上述したように圧力中心位置間の角度を求めるということは、地面を踏んだ瞬間の踵の位置と爪先の位置がなす角度、すなわち、歩角を求めるということであり、このような方法によりユーザの歩角を正確に算出することができる。   That is, as described above, obtaining the angle between the pressure center positions means obtaining the angle formed by the position of the heel and the position of the toe at the moment of stepping on the ground, that is, the walking angle. Thus, the user's walking angle can be accurately calculated.

左右非対称:先ず、時間領域で測定された左右方向加速度aの符号を基準に支持している足を把握する。次に、時間領域で測定された上下方向加速度aのピーク値、谷値および二つの間の差値を比較する。すなわち、左側足が支持している時と右側足が支持している時のピーク値、谷値などを比較することによって、ユーザの左右非対称を正確に算出することができる。また、同様な方式で歩行または走行の繰り返し性も算出することができる。 Asymmetrical: First, grasp the legs supporting the sign of the lateral direction acceleration a x measured in the time domain to the reference. Next, the peak value and valley value of the vertical acceleration az measured in the time domain and the difference value between the two are compared. That is, the user's left-right asymmetry can be accurately calculated by comparing peak values and valley values when the left foot is supporting and when the right foot is supporting. Further, the repeatability of walking or running can be calculated in the same manner.

図8は、加速度信号測定結果の例示として、図8の一番下のグラフにおいて上下方向加速度aの左右非対称が強く表れていることが分かる。 FIG. 8 shows that the left-right asymmetry of the vertical acceleration az appears strongly in the bottom graph of FIG. 8 as an example of the acceleration signal measurement result.

上述したような方法で歩幅、歩間、歩角、左右非対称などの歩行または走行姿勢を導出することによって、ユーザが正しい姿勢で歩行または走行をしているか否かをリアルタイムでモニタリングすることができる。勿論、この時、最適な姿勢に該当する歩幅、歩間、歩角、左右非対称値を予め格納しておき、現在モニタリング中の現在の各姿勢値と比較して矯正量を算出することができる。それをユーザにリアルタイムで知らせるかまたは格納しておき、後ほど確認できるようにすることによって、ユーザはより正しい姿勢への歩行または走行に自身の姿勢を効果的に矯正していけるようになる。   It is possible to monitor in real time whether the user is walking or running in the correct posture by deriving the walking or running posture such as stride, step, step angle, left / right asymmetry by the method described above. . Of course, at this time, the stride length, step length, step angle, and left / right asymmetry value corresponding to the optimal posture can be stored in advance, and the correction amount can be calculated by comparing with the current posture values currently being monitored. . By letting the user know or store it in real time so that it can be confirmed later, the user can effectively correct his or her posture for walking or running to a more correct posture.

図9は、本発明の他の実施形態による歩行および走行モニタリングのための運動認識方法のフローチャートを示す。   FIG. 9 shows a flowchart of a motion recognition method for walking and running monitoring according to another embodiment of the present invention.

本実施形態による運動認識方法は大きく2ステップからなり、すなわち、3軸方向加速度(a、a、a)を収集および分析して歩行および走行有無を判断するデータ収集および運動認識ステップと、収集された3軸方向加速度(a、a、a)を用いてユーザ質量中心の運動状態値を算出する加速度に基づいた運動状態値導出ステップとを含んでいる。以下では、各ステップの細部ステップについてより詳しく説明する。 Motion recognition method according to the present embodiment consists of two large steps, i.e., three-axis direction acceleration (a x, a y, a z) and collection and analysis and data collection and movement recognition step of determining the walking and running presence in the And a motion state value deriving step based on acceleration for calculating a motion state value of the user mass center using the collected triaxial accelerations (a x , a y , a z ). Hereinafter, detailed steps of each step will be described in more detail.

図10は、本発明の他の実施形態によるデータ収集および運動認識ステップの詳細フローチャートを示す。   FIG. 10 shows a detailed flowchart of data collection and motion recognition steps according to another embodiment of the present invention.

図10に示すように、前記データ収集および運動認識ステップは、上下方向加速度収集ステップ、ピーク検出ステップ、運動検知ステップ、3軸方向加速度収集ステップ、フーリエ変換ステップ、および運動形態判断ステップを含む。前記データ収集および運動認識ステップは、ユーザに運動が発生しているか、また、運動が発生したとすればその運動が歩行または走行に該当するかを認識する。   As shown in FIG. 10, the data collection and motion recognition step includes a vertical acceleration collection step, a peak detection step, a motion detection step, a triaxial acceleration collection step, a Fourier transform step, and a motion form determination step. The data collection and exercise recognition step recognizes whether or not the user has exercise, and if exercise has occurred, recognizes that the exercise corresponds to walking or running.

図10に示すように、最初には、収集されるデータ変数が初期化されて、運動認識を実行する準備が行われる。   As shown in FIG. 10, first, the collected data variables are initialized and prepared for performing motion recognition.

前記上下方向加速度収集ステップにおいては、3軸方向加速度(a、a、a)を全て収集するのではなく、一旦、上下方向加速度aを収集する。収集された上下方向加速度aはそのまま使用してもよいが、予め定められたバンドパスフィルタを通過させてノイズを除去するノイズ除去ステップを経るようにすることがより好ましい。この時、前記バンドパスフィルタは、例えば、一般的な人の歩行または走行周波数に該当する0.1〜5Hzに形成されてもよいが、この範囲は適切に変更できることは当業者にとって明らかなことである。 Wherein in the vertical acceleration collection step, the three-axis direction acceleration (a x, a y, a z) instead of collecting all the temporarily collects vertical acceleration a z. The collected vertical acceleration az may be used as it is, but it is more preferable to pass a noise removal step of removing noise by passing through a predetermined bandpass filter. At this time, the band pass filter may be formed at 0.1 to 5 Hz corresponding to a general human walking or running frequency, for example, but it is obvious to those skilled in the art that this range can be appropriately changed. It is.

前記ピーク検出ステップにおいては、このように収集された上下方向加速度aのピークを検出し、前記運動検知ステップにおいては、上下方向加速度aのピーク値が予め定められた閾値以上であるか否かを判断することによって運動が発生したか否かを判断する。前記運動検知ステップで運動が発生していないと判断されると、再び最初の準備ステップに戻って変数初期化がなされる。 In the peak detection step, the peak of the vertical acceleration az collected in this way is detected. In the motion detection step, whether or not the peak value of the vertical acceleration az is greater than or equal to a predetermined threshold value. It is judged whether exercise | movement generate | occur | produced by judging. If it is determined in the motion detection step that no motion has occurred, the process returns to the initial preparation step and variable initialization is performed.

さらに詳しく説明すれば、運動認識装置100において分析を実行するにおいて、常に3軸方向加速度(a、a、a)を収集するようになる場合、運動をしないでいる時、不要な計算負荷が発生することによって電力消耗、発熱などの問題が生じうる。一方、ユーザが静かに座っていたりもぞもぞしたりする程度に動く場合と、歩いたり走ったりする程度に動く場合において、最も大きく差が出るのは、ユーザが上下に揺れる程度、すなわち、上下方向加速度aである。したがって、運動認識装置100を着用したユーザの上下方向加速度aを先に収集して、該値がある閾値以上になればユーザが歩いたり走ったりしていると判断し、その時から本格的な運動検知を始めるようにすることによって、前述した不要な計算負荷の問題を防止することができる。 To describe in more detail, in performing the analysis in the motion recognition apparatus 100, always three-axis direction acceleration (a x, a y, a z) may become to collect, when without movement, unnecessary calculations When a load is generated, problems such as power consumption and heat generation may occur. On the other hand, the biggest difference between when the user moves quietly or sits and moves while walking or running is the largest difference between the user shaking up and down, that is, vertical acceleration. az . Accordingly, the vertical acceleration az of the user wearing the motion recognition device 100 is collected first, and if the value exceeds a certain threshold value, it is determined that the user is walking or running, and from that time, full-fledged By starting the motion detection, the above-described problem of unnecessary calculation load can be prevented.

前記3軸方向加速度収集ステップにおいては、上述したように上下方向加速度aのピーク値が予め定められた閾値以上であれば、3軸方向加速度(a、a、a)を収集する。ここでも同様に、収集された3軸方向加速度(a、a、a)がそのまま使用されてもよいが、予め定められたバンドパスフィルタを通過させてノイズを除去するノイズ除去ステップを経るようにすることがより好ましい。この時のバンドパスフィルタは前述の上下方向加速度aにおけるノイズ除去に用いられたバンドパスフィルタと同一に形成されてもよく、または適切に変更設定されてもよい。 In the three-axis direction acceleration acquisition step, if the vertical acceleration a z threshold above which the peak value has been determined in advance as described above, the three-axis direction acceleration (a x, a y, a z) to collect . Again, the collected triaxial direction acceleration (a x, a y, a z) but may be used as it is, the noise removal step of removing noise is passed through a bandpass filter with a predetermined More preferably, it passes. The bandpass filter at this time may be formed in the same manner as the bandpass filter used for noise removal in the vertical acceleration az described above, or may be appropriately changed and set.

前記フーリエ変換ステップにおいては、3軸方向加速度(a、a、a)をフーリエ変換して周波数応答グラフを導出し、前記運動形態判断ステップにおいて始めて周波数応答グラフを予め定められた周波数応答の概形または大きさ基準と比較して歩行および走行運動であるかまたはその他の運動であるかを判断するようになる。前記運動形態判断ステップにおいて歩行および走行運動に該当する運動が発生しなかったと判断されると、再び最初の準備ステップに戻って変数初期化がなされ、そうではなく歩行および走行運動が発生したと判断されると、加速度に基づいた運動状態値導出ステップが実行されるようになる。 Wherein in the Fourier transform step, the three-axis direction acceleration (a x, a y, a z) by Fourier transform to derive a frequency response graph, the first time a predetermined frequency response frequency response graph in motion form determining step It is determined whether the movement is a walking and running movement or other movement compared with the general shape or size criterion. If it is determined in the exercise form determination step that no movement corresponding to walking and running movement has occurred, the process returns to the first preparation step again to initialize the variables, and instead it is determined that walking and running movement has occurred. Then, the motion state value deriving step based on the acceleration is executed.

このように前記運動形態判断ステップにおいては、ユーザの運動が歩行および走行状態であるかを判断する。   Thus, in the said exercise | movement form judgment step, it is judged whether a user's exercise | movement is a walking and running state.

図11は、本発明の他の実施形態による歩行時の加速度信号測定結果の例示を示す。図11の左側には、横軸が時間/縦軸が左右(x)、前後(y)、上下(z)それぞれの3軸方向加速度(a、a、a)である時間領域加速度グラフが示されており、右側には、上述したように、横軸が周波数、縦軸が大きさである前記フーリエ変換ステップを通じて導出された周波数応答グラフが示されている。 FIG. 11 shows an example of an acceleration signal measurement result during walking according to another embodiment of the present invention. On the left side of FIG. 11, the horizontal axis represents time / vertical axis right (x), longitudinal (y), vertical (z) each of the three axial acceleration (a x, a y, a z) time domain acceleration is A graph is shown, and on the right side, as described above, a frequency response graph derived through the Fourier transform step in which the horizontal axis is frequency and the vertical axis is magnitude is shown.

歩行または走行時には当然周期的に上下方向、前後方向、左右方向に揺れ、すなわち、図11の左側に示すように周期的な信号が発生する。この時、左右の足が交互に踏み出されて歩行または走行がなされるため、左右方向の周期的な信号の周波数は、上下方向および前後方向の周期的な信号の周波数の1/2の値を有し、これは、図11の右側グラフからも容易に確認することができる。一方、歩行時には常に片足または両足が地面に接し、走行時には片足または両足が地面から浮いている。すなわち、歩行や走行がなされる時には、頭側における大きい揺れが必ず周期的に発生する。   Naturally, when walking or running, it periodically sways in the vertical direction, the front-rear direction, and the left-right direction, that is, a periodic signal is generated as shown on the left side of FIG. At this time, the left and right feet are alternately stepped on, and walking or running is performed. Therefore, the frequency of the periodic signal in the left-right direction is half the frequency of the periodic signal in the up-down direction and the front-rear direction. This can be easily confirmed from the graph on the right side of FIG. On the other hand, one or both feet are always in contact with the ground during walking, and one or both feet are floating from the ground during running. That is, when walking or running, a large shaking on the head side always occurs periodically.

上述したようなことを考慮して、前記運動形態判断ステップは、下記の式を満たせばユーザの運動を歩行および走行状態であると判断し、そうでなければその他の運動であると判断する。すなわち、下記の関係式を容易に噛み砕いて説明すれば、上下方向および左右方向に周期的に揺れる程度があるレベル以上に大きく表れると、歩行または走行がなされていると判断する。
z、p/Mz、other>c and Mx、p/Mx、other>c
(ここで、
:上下方向加速度、
:上下方向加速度aのフーリエ変換結果における最大大きさを有する周波数、
z、p:上下方向加速度aのフーリエ変換結果において、fを中心周波数とし、1Hz未満の帯域幅を有する上下方向基準バンドに属する周波数成分のエネルギー総和、
z、other:上下方向加速度aのフーリエ変換結果において、前記上下方向基準バンドを除いた残りの周波数成分のエネルギー総和、
:予め定められた上下方向基準閾値、
:左右方向加速度、
x、p:左右方向加速度aのフーリエ変換結果において、f/2を中心周波数とし、1Hz未満の帯域幅を有する左右方向基準バンドに属する周波数成分のエネルギー総和、
x、other:左右方向加速度aのフーリエ変換結果において、前記左右方向基準バンドを除いた残りの周波数成分のエネルギー総和、
:予め定められた左右方向基準閾値)
In consideration of the above, the motion form determination step determines that the user's motion is the walking and running state if the following equation is satisfied, and otherwise determines that the motion is other motion. In other words, if the following relational expression is easily broken and described, it will be determined that walking or running has occurred if it appears larger than a certain level that swings periodically in the vertical and horizontal directions.
M z, p / M z, other> c z and M x, p / M x, other> c x
(here,
a z : vertical acceleration,
f p : frequency having the maximum magnitude in the Fourier transform result of the vertical acceleration a z ,
M z, p: vertical in direction acceleration a z Fourier transform result of the center frequency f p, the energy sum of the frequency components belonging to the vertical direction reference band having a bandwidth of less than 1 Hz,
M z, other : the sum of the energy of the remaining frequency components excluding the vertical direction reference band in the Fourier transform result of the vertical direction acceleration a z ,
c z : a predetermined vertical reference threshold,
a x : lateral acceleration,
M x, p: the Fourier transform result of the lateral direction acceleration a x, and a center frequency f p / 2, total energy of the frequency components belonging to the left-right direction reference band having a bandwidth of less than 1 Hz,
M x, other : In the Fourier transform result of the lateral acceleration a x , the total energy of the remaining frequency components excluding the lateral reference band,
c x : predetermined left-right direction reference threshold)

上記のような式を満たすことによってユーザの運動が歩行および走行状態であると判断された時、その次にはその運動が歩行であるか走行であるかを判断しなければならない。この時、前述したように、歩行時には常に片足または両足が地面に接し、走行時には片足または両足が地面から浮いている。ここで、走行中に両足が地面から浮いている時点では、両足は空中で振られているため、ユーザに上下方向にさらに加えられる外部の力がなく、よって、この時には、上下方向加速度aが最小の定数値として形成されるようになる。 When it is determined that the user's motion is in the walking and running state by satisfying the above formula, it is then necessary to determine whether the motion is walking or running. At this time, as described above, one or both feet are always in contact with the ground during walking, and one or both feet are floating from the ground during running. Here, when both feet are floating from the ground during running, both feet are swung in the air, so there is no external force further applied to the user in the vertical direction. Therefore, at this time, the vertical acceleration a z Is formed as a minimum constant value.

上述したようなことを考慮して、前記運動形態判断ステップは、上下方向加速度aのフーリエ変換結果において、下記の式を満たす区間が存在すればユーザの運動を走行状態であると判断し、そうでなければ歩行状態であると判断する。
<k
(ここで、
k:スタンス判別定数)
In consideration of the above, the motion form determination step determines that the user's motion is in a running state if there is a section satisfying the following formula in the Fourier transform result of the vertical acceleration az : Otherwise, it is determined that the user is walking.
a z <k
(here,
k: Stance discrimination constant)

ここで、スタンス判別定数(stance phase constant)は、加速度計が重力以外に他の外力が作用しない時の信号レベルの既に設定された値であって、約0に近い値に適切に決定できる。   Here, the stance discriminant constant (stance phase constant) is an already set value of the signal level when the external force other than gravity is not applied to the accelerometer, and can be appropriately determined to be a value close to about zero.

上述したような細部ステップからなる前記データ収集および運動認識ステップを通じてユーザの歩行または走行運動が検知されると、収集された変数を用いて加速度に基づいた運動状態値導出ステップが行われる。   When the user's walking or running motion is detected through the data collection and motion recognition steps including the detailed steps as described above, a motion state value derivation step based on acceleration is performed using the collected variables.

図12は、本発明の他の実施形態による加速度に基づいた運動状態値導出ステップの詳細フローチャートを示す。   FIG. 12 shows a detailed flowchart of the motion state value deriving step based on acceleration according to another embodiment of the present invention.

図示したように、加速度に基づいた運動状態値導出ステップは、質量中心加速度導出ステップ、および質量中心速度および位置導出ステップを含む。   As illustrated, the motion state value deriving step based on acceleration includes a mass center acceleration deriving step, and a mass center velocity and position deriving step.

前記質量中心加速度導出ステップにおいては、3軸方向加速度(a、a、a)それぞれの値に予め定められたゲイン値をかけてユーザ質量中心の加速度を導出する。一般に、ある対象物の運動を分析する場合、その対象物の質量中心の運動を基準に分析し、先に分析に用いられた全ての変数値はユーザの頭側で測定されたものであるため、それを質量中心の運動状態値に変換する。このようなゲイン値は定数ベクトル(γ)で示され、ユーザの身長情報などのような身体情報を用いて予め求めることができる。 In the mass center acceleration deriving step, the three-axis direction acceleration deriving the acceleration of the user centroid over (a x, a y, a z) predetermined gain value to each value. In general, when analyzing the motion of an object, the analysis is based on the motion of the center of mass of the object, and all the variable values previously used for the analysis are measured on the user's head side. , And convert it into a mass-centered motion state value. Such a gain value is indicated by a constant vector (γ) and can be obtained in advance using physical information such as the height information of the user.

前記質量中心速度および位置導出ステップにおいては、予め測定されたユーザの身長情報、ユーザの位置情報および質量中心加速度を用いてユーザ質量中心の速度および位置を導出する。すなわち、上述したように求められた質量中心加速度を積分して(積分定数値が加えられた)質量中心の速度、位置を求めることができ、または、位置測定センサにより時間的に測定されたユーザの位置情報を用いて質量中心の速度、位置を求めることもできる。この二つの計算値の間には積分定数値だけの誤差があるところ、それを適切に比較して正確な質量中心の速度、位置値を求めることができる。   In the center-of-mass velocity and position deriving step, the velocity and position of the user center of mass are derived using previously measured user height information, user position information, and mass center acceleration. That is, the speed and position of the center of mass (with the integral constant value added) can be obtained by integrating the center-of-mass acceleration obtained as described above, or the user measured in time by the position measurement sensor The velocity and position of the center of mass can be obtained using the position information of Where there is an error corresponding to the integral constant value between these two calculated values, it is possible to obtain an accurate velocity and position value of the center of mass by appropriately comparing them.

上述したように、本発明によれば、ユーザの頭側で測定された加速度、位置などを用いて、ユーザが歩行または走行運動をしているかを正確に判断することができ、また、歩行または走行時にユーザの質量中心がどのように運動しているか(すなわち、質量中心の加速度、速度、位置がどのように表されるか)を正確に把握することができる。したがって、それに基づいて歩行または走行姿勢の様々な要素を導出し、姿勢の矯正に活用することができる。   As described above, according to the present invention, it is possible to accurately determine whether the user is walking or running using the acceleration, position, etc. measured on the head side of the user, It is possible to accurately grasp how the user's center of mass moves during traveling (that is, how the acceleration, speed, and position of the center of mass are expressed). Therefore, various elements of the walking or running posture can be derived based on this and used for posture correction.

図13は、本発明の他の実施形態による運動姿勢導出装置の使用状態を示す。   FIG. 13 shows a use state of a motion posture deriving device according to another embodiment of the present invention.

本実施形態による運動姿勢導出装置1300は、図13に示すように、ユーザの身体、より具体的には頭側および腰側に分けて着用される。すなわち、本実施形態による運動姿勢導出装置1300は、図13の概略図に示すように、頭側に着用される頭側センサ信号収集部1310Hはイヤホンのように耳にさす形態からなり、腰側に着用される腰側センサ信号収集部1310Wはベルトにさす形態からなる。勿論、これに本発明が限定されるものではなく、例えば、前記頭側センサ信号収集部1310Hがヘアーバンド形態、メガネ形態、別途の帽子にさして付着する形態、ヘルメット形態など、多様に変更実施できることは勿論である。   As shown in FIG. 13, the exercise posture deriving device 1300 according to this embodiment is worn on the user's body, more specifically, on the head side and the waist side. That is, in the exercise posture deriving device 1300 according to the present embodiment, as shown in the schematic diagram of FIG. 13, the head side sensor signal collecting unit 1310H worn on the head side is configured to be put on the ear like an earphone. The waist-side sensor signal collecting unit 1310W worn on the belt is configured to be put on a belt. Of course, the present invention is not limited to this, and for example, the head side sensor signal collecting unit 1310H can be variously modified such as a hair band form, glasses form, a form attached to a separate hat, and a helmet form. Of course.

図14は、本発明の他の実施形態による運動姿勢導出装置の概略図を示す。   FIG. 14 is a schematic diagram of a motion posture deriving device according to another embodiment of the present invention.

本発明の他の実施形態による運動姿勢導出装置1300は、図14に示すように、頭側センサ信号収集部1310H、腰側センサ信号収集部1310Wおよび運動姿勢導出部1421を含む。運動姿勢導出装置1300は、運動矯正生成部1422および矯正情報出力部1430をさらに含む。   As shown in FIG. 14, an exercise posture deriving device 1300 according to another embodiment of the present invention includes a head side sensor signal collecting unit 1310H, a waist side sensor signal collecting unit 1310W, and an exercise posture deriving unit 1421. The exercise posture deriving device 1300 further includes an exercise correction generation unit 1422 and a correction information output unit 1430.

頭側センサ信号収集部1310Hは、上下、左右、前後を含む頭側3軸方向加速度センサ1411Hを含んでおり、腰側センサ信号収集部1310Wは、上下、左右、前後を含む腰側3軸方向加速度センサ1411Wおよびユーザの位置を測定する位置測定センサ1412Wを含んでいる。   The head-side sensor signal collecting unit 1310H includes a head-side triaxial acceleration sensor 1411H including up / down, left / right, and front / back. The waist-side sensor signal collecting unit 1310W includes a waist-side triaxial direction including up / down, left / right, and front / back. An acceleration sensor 1411W and a position measurement sensor 1412W for measuring the position of the user are included.

頭側および腰側3軸方向加速度センサ1411H、1411Wは、ジャイロスコープを内蔵する形態などのように、一般に3軸方向の加速度を測定するのに用いられるセンサのうち好適なものを選択して採用することができる。位置測定センサ1412Wは、ユーザの絶対位置を測定するためのものであって、例えば、GPS信号を用いてユーザの位置を測定するようになってもよく、または、最近GPSより正確性の高い超精密衛星航法技術が開発されているところ、このような技術が適用されるセンサが用いられてもよい。さらに、頭側および腰側センサ信号収集部1310H、1310Wは、以下にてより詳細に説明する運動認識および分析過程における正確度を高めるように、図14に示すように3軸方向角速度センサ1412Hをさらに含むことができる。   For the head side and waist side triaxial acceleration sensors 1411H and 1411W, a suitable sensor is generally selected from among sensors generally used for measuring triaxial acceleration, such as a form incorporating a gyroscope. can do. The position measurement sensor 1412W is for measuring the absolute position of the user. For example, the position measurement sensor 1412W may measure the position of the user by using a GPS signal, or recently, the position measurement sensor 1412W is more highly accurate than GPS. Where precision satellite navigation technology is being developed, sensors to which such technology is applied may be used. Further, the head-side and waist-side sensor signal collecting units 1310H and 1310W are configured to provide a triaxial angular velocity sensor 1412H as shown in FIG. 14 so as to improve accuracy in the motion recognition and analysis process described in more detail below. Further can be included.

本実施形態による運動姿勢導出装置1300において、頭側および腰側センサ信号収集部1310H、1310Wは、図13に示すように、ユーザの頭側および腰側に着用され、加速度、速度、位置などのようなユーザの動的物理量を測定する。特に、本実施形態においては、姿勢導出のためのユーザの動的物理量の測定時、ユーザの身体の質量中心の運動と最も類似して表れる位置で測定された値を用いる。具体的に例を挙げれば、本発明においては、左右方向の加速度は頭側で測定し、前後方向の加速度および位置は腰側で測定し、上下方向の加速度は頭側または腰側で測定するようにする。上下方向の加速度の場合についてさらに詳しく説明すれば、上下方向の加速度は頭側または腰側のいずれで測定しても正確によく表れるため、頭側や腰側の二つのうちの一つで測定された値を選択的に用いてもよく、または両側で測定された値の平均値を用いてもよいなど、適切に選択することができる。   In the exercise posture deriving device 1300 according to the present embodiment, the head side and waist side sensor signal collection units 1310H and 1310W are worn on the head side and the waist side of the user as shown in FIG. The user's dynamic physical quantity is measured. In particular, in this embodiment, when measuring a user's dynamic physical quantity for posture derivation, a value measured at a position that appears most similar to the motion of the center of mass of the user's body is used. For example, in the present invention, lateral acceleration is measured on the head side, longitudinal acceleration and position are measured on the waist side, and vertical acceleration is measured on the head side or waist side. Like that. To explain in more detail about the case of vertical acceleration, the vertical acceleration is accurately measured regardless of whether it is measured on the head side or the waist side, so it is measured on one of the head side and waist side. The selected value may be used selectively, or an average value of the values measured on both sides may be used.

勿論、一般に、加速度センサは上下、左右、前後、すなわち、3軸方向の加速度を全て測定できるようになり、よって、頭側センサ信号収集部1310Hの単独または腰側センサ信号収集部1310Wの単独により収集された上下、左右、前後方向加速度を用いて、後ほど説明する種々の計算を実行してもよいことは勿論である。ところが、歩行および走行がなされる時、相対的に頭側における左右の動きとユーザの身体の質量中心の左右の動きがより類似して表れ、また、相対的に腰側における前後の動きとユーザの身体の質量中心の前後の動きがより類似して表れる。さらに、上下の動きは、頭側、腰側、質量中心の全てにおいて類似して表れる。一方、後ほど説明する本発明の運動認識方法において、究極的には、ユーザの身体の質量中心における動的物理量を用いて運動認識や姿勢導出などが行われる。このようなことを総合して見る時、頭側で左右方向加速度を測定し、腰側で前後方向加速度を測定し、頭側または腰側のうちから適切に所望のとおりに選択して上下方向加速度を測定するかまたは両方ともで測定して平均値を出した値として上下方向加速度を算出することによって、最終的な運動認識や姿勢導出などが遥かに正確に行われる効果を得ることができる。   Of course, in general, the acceleration sensor can measure all the accelerations in the vertical, left and right, front and rear directions, that is, in the three-axis directions. Therefore, the acceleration sensor signal collecting unit 1310H alone or the lumbar sensor signal collecting unit 1310W alone can measure. Of course, various calculations described later may be executed using the collected vertical, horizontal, and longitudinal accelerations. However, when walking and running, the left and right movements at the head side and the left and right movements at the center of mass of the user's body appear more similar, and the back and forth movements at the waist side and the user are relatively similar. The back and forth movement of the center of mass of the body appears more similar. Furthermore, the up and down movement appears in the head side, the waist side, and the center of mass in a similar manner. On the other hand, in the motion recognition method of the present invention described later, ultimately, motion recognition, posture derivation, and the like are performed using a dynamic physical quantity at the center of mass of the user's body. When looking at all of these things, measure the lateral acceleration on the head side, measure the longitudinal acceleration on the waist side, and select either the head side or the waist side as desired and select the vertical direction. By measuring the acceleration in the vertical direction as the average value obtained by measuring the acceleration or both, it is possible to obtain the effect that the final motion recognition and posture derivation are performed much more accurately. .

運動姿勢導出部1421は、頭側および腰側センサ信号収集部1310H、1310Wから信号の伝達を受け、3軸方向加速度および位置信号を用いてユーザ質量中心の加速度、速度、位置を含む歩行または走行運動状態値を導出し、前記歩行または走行運動状態値を分析して歩行または走行姿勢を導出する役割をする。具体的には、運動姿勢導出部1421は、前記歩行または走行運動状態値から圧力中心経路を推算し、前記圧力中心経路を分析して歩行または走行姿勢を導出する。運動姿勢導出部1421で用いられる本発明の分析アルゴリズムについては、後ほどさらに詳しく説明するので、ここではその説明を省略する。   The motion posture deriving unit 1421 receives signals from the head side and waist side sensor signal collection units 1310H and 1310W, and walks or runs including the acceleration, speed, and position of the user mass center using triaxial acceleration and position signals. It plays a role of deriving a walking or running posture by deriving a motion state value and analyzing the walking or running motion state value. Specifically, the motion posture deriving unit 1421 estimates a pressure center path from the walking or running motion state value, analyzes the pressure center path, and derives a walking or running posture. Since the analysis algorithm of the present invention used in the motion posture deriving unit 1421 will be described in more detail later, the description thereof is omitted here.

一方、運動姿勢導出部1421は、様々な計算を実行できる集積回路の形態からなって、腰側センサ信号収集部1310Wと一体として一つの基板上に形成されてもよく、または別途のコンピュータなどのような形態からなってもよい。さらに、頭側および前記腰側センサ信号収集部1310H、1310Wには、運動姿勢導出部1421との信号伝達のために、各々、頭側通信部1413Hおよび腰側通信部1413Wが備えられてもよい。腰側センサ信号収集部1310Wが運動姿勢導出部1421と一体になる場合、腰側通信部1310Wは運動姿勢導出部1421と直接接続されて信号伝達をしてもよく、または腰側通信部1413Wは頭側通信部1413Hから伝達されてくる信号を受けて前記運動姿勢導出部1421に伝達する役割をしてもよい。頭側および腰側通信部1413H、1413Wは有線からなってもよく、またはユーザ便宜性をさらに高めるようにブルートゥース、ワイ・ファイ、NFCのうちから選択される少なくとも一つの無線通信を用いて信号が伝達されてもよい。   On the other hand, the exercise posture deriving unit 1421 is formed of an integrated circuit that can execute various calculations, and may be formed on a single substrate integrally with the waist sensor signal collecting unit 1310W, or may be a separate computer or the like. It may consist of such forms. Further, the head-side and waist-side sensor signal collecting units 1310H and 1310W may be provided with a head-side communication unit 1413H and a waist-side communication unit 1413W, respectively, for signal transmission with the exercise posture deriving unit 1421. . When the lumbar sensor signal collecting unit 1310W is integrated with the exercise posture deriving unit 1421, the lumbar side communication unit 1310W may be directly connected to the exercise posture deriving unit 1421 to transmit signals, or the lumbar side communication unit 1413W may be The signal transmitted from the head-side communication unit 1413H may be received and transmitted to the exercise posture deriving unit 1421. The head-side and waist-side communication units 1413H and 1413W may be wired, or signals may be transmitted using at least one wireless communication selected from Bluetooth, Wi-Fi, and NFC to further enhance user convenience. May be communicated.

運動矯正生成部1422は、運動姿勢導出部1421により導出された歩行姿勢と基準姿勢を比較して姿勢矯正用情報を生成する役割をする。運動姿勢導出部1421においては、上述したように頭側および腰側センサ信号収集部1310H、1310Wにより収集された信号に基づいてユーザの歩行または走行姿勢を導出し、具体的な例を挙げれば、歩行または走行時におけるユーザの進行方向、速度などを導出することができ、それにより歩行姿勢の要素のうちの一つである歩幅を得ることができる。この場合、運動矯正生成部1422においては、歩行および走行速度別に最適な身長−歩幅関係データを内蔵しておき、該ユーザの歩行姿勢情報をそれと比較して、該ユーザの身長に比べて歩幅が過度に広いかまたは狭くはないかを判断し、最適範囲から脱する場合、減らしたり増やしたりしなければならない歩幅矯正量を容易に算出することができる。   The motion correction generation unit 1422 serves to generate posture correction information by comparing the walking posture derived by the motion posture deriving unit 1421 with the reference posture. In the exercise posture deriving unit 1421, as described above, the user's walking or running posture is derived based on the signals collected by the head side and waist side sensor signal collecting units 1310H and 1310W. It is possible to derive the user's traveling direction, speed, etc. during walking or running, thereby obtaining the stride that is one of the elements of the walking posture. In this case, the motion correction generation unit 1422 incorporates optimum height-step ratio relation data for each walking and running speed, compares the user's walking posture information with it, and the step length is greater than the user's height. It is possible to easily calculate the amount of striation correction that must be reduced or increased when it is determined that the width is not excessively wide or narrow, and is out of the optimum range.

矯正情報出力部1430は、このように運動矯正生成部1422により生成された姿勢矯正用情報を音響、図解、画像を含むユーザが認識可能な情報として変換して出力する。例えば、歩幅矯正量が算出されて歩幅を減らす必要がある場合、運動姿勢導出装置1300上に備えられたスピーカを介して「歩幅を減らして下さい」のような音声が出力されるようにするか、または警告音が鳴るようにしてユーザが最適歩幅でないことを認知し歩行姿勢を変えるように誘導することができる。特に、このように構成される場合、矯正情報出力部1430は頭側センサ信号収集部1310Hと一体になることによって、ユーザの情報収集器官、すなわち、目、耳などに近く配置されて情報を伝達するようになることが好ましい。すなわち、具体的な例示として、頭側センサ信号収集部1310Hが図13に示された例示のように耳にさすイヤホンの形態からなり、出力される情報形態が音声、音響信号である場合、矯正情報伝達の効率が極大化される。または、スマートフォン、コンピュータまたは専用ディスプレイなどと接続され、図解または画像として正確な矯正情報が出力されるようにすることもできるなど、様々な形態への実現が可能である。   The correction information output unit 1430 converts the posture correction information generated by the movement correction generation unit 1422 in this way as information that can be recognized by the user including sound, illustration, and image, and outputs the information. For example, when it is necessary to reduce the step length by calculating the step correction amount, is it possible to output a voice such as “Please reduce the step length” via a speaker provided on the exercise posture deriving device 1300? Alternatively, it is possible to guide the user to change the walking posture by recognizing that the stride is not the optimum stride by sounding a warning sound. In particular, in the case of such a configuration, the correction information output unit 1430 is integrated with the head side sensor signal collection unit 1310H, so that the correction information output unit 1430 is disposed close to the user's information collection organ, that is, the eyes, ears, and the like. It is preferable to do so. That is, as a specific example, when the head side sensor signal collecting unit 1310H is in the form of an earphone that is pointed to the ear as illustrated in FIG. 13 and the output information form is a voice or an acoustic signal, correction is performed. The efficiency of information transmission is maximized. Alternatively, it can be connected to a smartphone, a computer, a dedicated display, or the like, and correct correction information can be output as an illustration or an image.

さらに、運動姿勢導出装置1300は、運動姿勢導出部1421により導出された歩行姿勢を外部のデータベース1440に転送して累積的に格納するようになることができる。このような歩行または走行運動分析を必要とするユーザは健康促進のために毎日散歩またはジョギングをする一般人や身体能力を向上させるために訓練する専門家などであり、このような運動分析データが累積されて時間的な変化を見ることができるようになることが当然好ましい。それのみならず、このように運動分析データが大量に累積格納されると、このようなデータがビッグ・データとして活用されて各種の統計や分析に使用できるなど、様々な活用が可能である。   Furthermore, the exercise posture deriving device 1300 can transfer the walking posture derived by the exercise posture deriving unit 1421 to the external database 1440 and store it cumulatively. Users who need such walking or running motion analysis are ordinary people who walk or jog every day for health promotion, experts who train to improve physical ability, etc., and such motion analysis data accumulates Of course, it is preferable to be able to see changes over time. In addition, when a large amount of motion analysis data is accumulated and stored in this way, such data can be used as big data and used for various statistics and analyses.

上述したような本実施形態による運動姿勢導出装置1300において、運動認識から運動姿勢導出を経て矯正情報出力までなされる具体的で且つ総合的な例示を挙げれば以下のとおりである。先ず、前述したようにユーザの身体の質量中心の運動と類似するように、頭側で左右方向加速度を収集し、腰側で前後方向加速度および位置を収集し、頭側または腰側で上下方向加速度を収集する。   In the motion posture deriving device 1300 according to the present embodiment as described above, specific and comprehensive examples from motion recognition through motion posture derivation to correction information output are as follows. First, as described above, the lateral acceleration is collected on the head side, the longitudinal acceleration and the position are collected on the waist side, and the vertical direction on the head side or the waist side, similar to the movement of the center of mass of the user's body as described above. Collect acceleration.

腰側センサ信号収集部1310Wは運動姿勢導出部1421と一体になることができ、よって、頭側センサ信号収集部1310Hにより収集された物理量は頭側通信部1413Hを介して運動姿勢導出部1421側に伝達される。この時、腰側センサ信号収集部1310Wに備えられた腰側通信部1413Wが該信号の伝達を受けて運動姿勢導出部1421に伝達すればさらに効率的である。   The lumbar sensor signal collecting unit 1310W can be integrated with the exercise posture deriving unit 1421. Therefore, the physical quantity collected by the head side sensor signal collecting unit 1310H is on the exercise posture deriving unit 1421 side via the head side communication unit 1413H. Is transmitted to. At this time, it is more efficient if the waist side communication unit 1413W provided in the waist side sensor signal collecting unit 1310W receives the signal and transmits it to the exercise posture deriving unit 1421.

このように収集された加速度および位置などの物理量を用いて、運動姿勢導出部1421においては、ユーザの歩行および走行姿勢を導出する。運動矯正生成部1422においては、このように導出された実際の姿勢と理想的な基準姿勢を比較して姿勢矯正用情報を生成する。運動姿勢導出部1421および運動矯正生成部1422も一体になってもよく、すなわち、これらは腰側センサ信号収集部1310Wと一体になるようになる。   Using the physical quantities such as acceleration and position collected in this way, the motion posture deriving unit 1421 derives the user's walking and running posture. The motion correction generation unit 1422 generates posture correction information by comparing the actual posture derived in this way with an ideal reference posture. The exercise posture deriving unit 1421 and the exercise correction generating unit 1422 may be integrated, that is, they are integrated with the waist sensor signal collecting unit 1310W.

このように生成された姿勢矯正用情報がユーザに効果的に伝達されるためには、ユーザの情報収集器官である目、耳などに近い頭側から情報が伝達されるようにすることが好ましい。前述したように頭側センサ信号収集部1310Hと矯正情報出力部1430が一体になる場合、前記生成された姿勢矯正用情報が腰側通信部1413Wおよび頭側通信部1413Hを順次経て矯正情報出力部1430に伝達され、ユーザの耳に音声メッセージを伝達するなどのような形態で矯正情報の効果的な伝達が行われる。   In order for the posture correction information generated in this way to be effectively transmitted to the user, it is preferable that the information is transmitted from the head side close to the user's information collecting organ, such as eyes and ears. . As described above, when the head side sensor signal collection unit 1310H and the correction information output unit 1430 are integrated, the generated posture correction information sequentially passes through the waist side communication unit 1413W and the head side communication unit 1413H. 1430, and the corrective information is effectively transmitted in a form such as transmitting a voice message to the user's ear.

本発明の他の実施形態による運動姿勢導出方法は、運動姿勢導出装置1300を用いて、ユーザの運動を検知し、歩行であるか走行であるかを判断するなどの分析を行う。この時、前述したように、本発明で用いられる分析アルゴリズムは、ユーザの頭側および腰側で測定される動的物理量を利用するところ、前記運動姿勢導出装置1300は、最小限には上下、左右、前後を含む頭側3軸方向加速度センサ1411H、上下、左右、前後を含む腰側3軸方向加速度センサ1411W、およびユーザの位置を測定する位置測定センサ1412Wを含めばよく、前記運動姿勢導出部1421において以下にて説明する分析アルゴリズムが実行されればよい。また、前記運動姿勢導出装置1300は、装置の機能向上のために、前述した様々な付加構成をさらに含んでもよいことは勿論である。   The motion posture deriving method according to another embodiment of the present invention uses the motion posture deriving device 1300 to detect a user's motion and perform analysis such as determining whether the user is walking or running. At this time, as described above, the analysis algorithm used in the present invention uses dynamic physical quantities measured on the head side and the waist side of the user. It is sufficient to include a head side triaxial acceleration sensor 1411H including left and right and front and back, a waist side triaxial acceleration sensor 1411W including top and bottom, left and right, front and rear, and a position measurement sensor 1412W that measures the position of the user. The analysis algorithm described below may be executed in the unit 1421. Of course, the motion posture deriving device 1300 may further include the various additional components described above in order to improve the function of the device.

図15は、本発明の他の実施形態によるケガ危険性定量化装置の概略図を示す。   FIG. 15 shows a schematic diagram of an injury risk quantification apparatus according to another embodiment of the present invention.

本実施形態によるケガ危険性定量化装置1500は、歩行または走行時に発生しうるケガ危険性をユーザに知らせる装置である。より具体的に説明すれば以下のとおりである。歩行または走行時、姿勢が誤っていたり地面が固いなどのような様々な理由で足首、膝、腰などに無理な負担がかかり、それがケガにつながる危険があるという問題がよく知られている。このような危険を避けるために、従来には衝撃吸収のような機能性スニーカーを着用するなどのような程度の対処しかなく、実際にどれほどケガ危険性が発生するかを知ることができる正確な指標がなかった実情である。本実施形態においては、このようなケガ危険性を判断指標をもって定量化し、それを用いてケガ危険性があるレベル以上に上がれば、ユーザに警報で危険程度を知らせるようにする。それにより、ユーザは、ケガが発生する前に適切に歩行または走行を止めたり、姿勢を矯正したり、スニーカーを取替えしたり、歩行または走行コースを変更したりするなどのような対処ができるようになって、窮極的には、歩行または走行時に発生するケガ危険性を大幅に低減することができる。   The injury risk quantification device 1500 according to the present embodiment is a device that notifies a user of an injury risk that may occur during walking or running. More specifically, it is as follows. There is a well-known problem that when walking or running, there is a risk of injury due to overloading the ankle, knees, hips, etc. for various reasons such as wrong posture or hard ground. . In order to avoid such a risk, there has been only a measure such as wearing functional sneakers such as shock absorbers in the past, and it is accurate to know how much injury risk actually occurs It is the fact that there was no indicator. In the present embodiment, such a risk of injury is quantified using a judgment index, and if the risk of injury increases to a certain level or higher, the danger level is notified to the user by an alarm. As a result, the user can take appropriate measures such as stopping walking or running appropriately before the injury occurs, correcting posture, changing sneakers, changing walking or running course, etc. Thus, the risk of injury that occurs during walking or running can be greatly reduced.

本実施形態によるケガ危険性定量化装置1500は、センサ信号収集部1510、制御部1520および警報部1530を含む。ケガ危険性定量化装置1500は、データベース1540をさらに含むことができる。   The injury risk quantification apparatus 1500 according to the present embodiment includes a sensor signal collection unit 1510, a control unit 1520, and an alarm unit 1530. Injury risk quantification apparatus 1500 may further include a database 1540.

センサ信号収集部1510は加速度センサ1511を含み、ユーザの腕を除いた上体に着用される。センサ信号収集部1510は単一であってもよく、または複数であってもよい。センサ信号収集部1510は、2個形成されてユーザの頭側および腰側の各々に着用されてもよく、この場合、ユーザの頭側に着用されるセンサ信号収集部を頭側センサ信号収集部1510H、ユーザの腰側に着用されるセンサ信号収集部を腰側センサ信号収集部1510Wに区分することができる。着用状態の具体的な例示として、頭側に着用される頭側センサ信号収集部1510Hはイヤホンのように耳にさす形態からなり、腰側に着用される腰側センサ信号収集部1510Wはベルトにさす形態からなる。勿論、これに本発明が限定されるものではなく、例えば、前記頭側センサ信号収集部1510Hがヘアーバンド形態、メガネ形態、別途の帽子にさして付着する形態、ヘルメット形態など、多様に変更実施できることは勿論である。また、図面には示されていないが、センサ信号収集部1510はユーザの腕を除いた上体のどこにも着用でき、例えば、胸部位に着用されるようにする場合、衣服の胸ポケットに収容されるかまたはさして付着する形態、別途のチョッキやハーネスなどを用いて着用する形態などのような様々な変更実施が可能である。   The sensor signal collecting unit 1510 includes an acceleration sensor 1511 and is worn on the upper body excluding the user's arm. The sensor signal collection unit 1510 may be single or plural. Two sensor signal collection units 1510 may be formed and worn on each of the user's head side and waist side. In this case, the sensor signal collection unit worn on the user's head side is the head side sensor signal collection unit. In 1510H, the sensor signal collection unit worn on the user's waist can be divided into a waist sensor signal collection unit 1510W. As a specific example of the wearing state, the head side sensor signal collecting unit 1510H worn on the head side is configured to be put on the ear like an earphone, and the waist side sensor signal collecting unit 1510W worn on the waist side is a belt. It consists of a form. Of course, the present invention is not limited to this, and for example, the head side sensor signal collecting unit 1510H can be variously modified such as a hair band form, glasses form, a form attached to a separate hat, and a helmet form. Of course. Although not shown in the drawing, the sensor signal collecting unit 1510 can be worn anywhere on the upper body except the user's arm. For example, when the sensor signal collecting unit 1510 is worn on the chest part, the sensor signal collecting unit 1510 is accommodated in the breast pocket of clothes. Various modifications can be made, such as a form to be attached or even attached, a form to be worn using a separate waistcoat or harness, and the like.

センサ信号収集部1510は、上述したように加速度センサ1511を含む。加速度センサ1511は、ジャイロスコープを内蔵する形態などのように、一般に3軸方向の加速度を測定するのに用いられるセンサのうち好適なものを選択して採用することができる。一方、センサ信号収集部1510に、加速度センサ1511により収集された加速度データ信号を用いて計算を実行し制御するなどの役割をする制御部1520が直接備えられるようにすることもできる。または、制御部1520は、従来に用いられるスマートフォンにアプリの形態で実現されるようにできるなど、様々な変更実施が可能である。すなわち、このように制御部1520がセンサ信号収集部1510とは別の装置により実現される場合、加速度センサ1511により収集された加速度データ信号が制御部1520に円滑に伝達されるように、センサ信号収集部1510は通信部1512をさらに含んでもよい。このような信号伝達はワイヤリングを介した有線通信によって行われてもよく、ブルートゥース、ワイ・ファイ、NFCなどのような無線通信によって行われてもよいなど、必要な条件や要求される性能に応じて好適な形態を選択して採用することができる。   The sensor signal collection unit 1510 includes the acceleration sensor 1511 as described above. As the acceleration sensor 1511, a suitable sensor can be selected and used from among sensors generally used for measuring acceleration in the three-axis directions, such as a form incorporating a gyroscope. On the other hand, the sensor signal collection unit 1510 may be directly provided with a control unit 1520 that performs a role of performing calculation and controlling using the acceleration data signal collected by the acceleration sensor 1511. Alternatively, the controller 1520 can be implemented in various ways, such as being realized in the form of an application on a smartphone used in the past. That is, when the control unit 1520 is realized by a device different from the sensor signal collection unit 1510 as described above, the sensor signal is transmitted so that the acceleration data signal collected by the acceleration sensor 1511 is smoothly transmitted to the control unit 1520. The collection unit 1510 may further include a communication unit 1512. Such signal transmission may be performed by wired communication through wiring, or may be performed by wireless communication such as Bluetooth, Wi-Fi, NFC, etc., depending on necessary conditions and required performance. A suitable form can be selected and adopted.

後ほど本実施形態によるケガ危険性定量化方法の説明においてさらに詳しく説明するが、本実施形態においてはケガ危険性を判断するにおいて上下方向加速度を用いる。   This will be described in more detail later in the description of the injury risk quantification method according to this embodiment. In this embodiment, vertical acceleration is used to determine the injury risk.

また、本実施形態においては、ケガ危険性を定量化するために上下方向加速度を用いる。一般に走行がなされる時、相対的に頭側における左右の動きとユーザの身体の質量中心の左右の動きがより類似して表れ、また、相対的に腰側における前後の動きとユーザの身体の質量中心の前後の動きがより類似して表れる。さらに、上下の動きは、頭部から腰部までを含む上体および質量中心の全てにおいて類似して表れる。但し、上体のうち腕部分は、質量中心の動きの他にも前後方向に揺れる別の動きをするため、腕は除外される。このようなことを考慮する時、上下方向の加速度は腕を除いた上体のうちどこで測定してもよい。さらに詳しく説明すれば、上下方向の加速度は腕を除いた上体のどこで測定しても正確によく表れるため、頭側や腰側の二つのうちの一つで測定された値を選択的に用いてもよく、または両側で測定された値の平均値を用いてもよいなど、適切に選択することができる。   In this embodiment, vertical acceleration is used to quantify the risk of injury. In general, when running, the left and right movements on the head side and the left and right movements of the center of mass of the user's body appear more similar, and the back and forth movements on the waist side and the movement of the user's body are relatively similar. The back and forth movement of the center of mass appears more similar. Further, the up and down movement appears in a similar manner in all of the upper body and the center of mass including the head to the waist. However, the arm portion of the upper body is excluded because it moves in the front-rear direction in addition to the movement of the center of mass. When this is taken into consideration, the vertical acceleration may be measured anywhere on the upper body excluding the arm. In more detail, since vertical acceleration appears accurately and accurately wherever it is measured on the upper body excluding the arm, the value measured at one of the head side or waist side is selectively used. It may be used, or an average value of values measured on both sides may be used.

制御部1520は、センサ信号収集部1510から信号の伝達を受け、上下方向加速度aに基づいて算出される少なくとも一つのケガ危険性判断指標を導出し、前記ケガ危険性判断指標を用いて警報発生有無を判断および制御する役割をする。より具体的には、制御部1520は、前記ケガ危険性判断指標として、上下方向加速度aの平均傾き、上下方向加速度aの最大傾き、最大衝撃力、衝撃量のうちから選択される少なくとも一つを導出し、それにより、ケガ危険性を定量化し、危険程度を判別するようになる。制御部1520で行われるケガ危険性判断指標の導出などについては、後ほど本実施形態によるケガ危険性定量化方法を説明しつつさらに詳しく説明する。 The control unit 1520 receives the signal from the sensor signal collecting unit 1510, derives at least one injury risk determination index calculated based on the vertical acceleration az , and uses the injury risk determination index to generate an alarm. It plays a role in judging and controlling the occurrence. At least More specifically, the control unit 1520, as the injury risk judgment index, the slope average vertical acceleration a z, the slope maximum vertical acceleration a z, selected from among the maximum impact force, the impact weight One is derived, thereby quantifying the risk of injury and determining the degree of danger. The derivation of the injury risk determination index performed by the control unit 1520 will be described in more detail later while describing the injury risk quantification method according to the present embodiment.

制御部1520の実際の実現形態は、必要や目的に応じて多様に形成されることができる。すなわち、制御部1520は、様々な計算を実行できる集積回路の形態からなって、センサ信号収集部1510と一体として一つの基板上に形成されてもよく、別途の専用装置(すなわち、ケガ危険性の定量化用途にのみ作られた独立した装置)や別途のコンピュータなどのような形態からなってもよく、または前述したように従来に用いられるスマートフォンにアプリの形態で実現されてもよい。前述したように、制御部1520がセンサ信号収集部1510と一体になっている場合には、加速度センサ1511から直接信号の伝達を受けるようになることができる。一方、制御部1520が別の装置やスマートフォンのアプリの形態からなるなどのようにセンサ信号収集部1510とは独立に形成されている場合には、加速度センサ1511から有線または無線通信によって信号の伝達を受けるようになることができる。   The actual implementation of the controller 1520 can be variously formed according to necessity and purpose. That is, the control unit 1520 may be formed as an integrated circuit that can perform various calculations, and may be formed on a single substrate integrally with the sensor signal collection unit 1510, or may be a separate dedicated device (ie, injury risk). Independent devices made only for quantification purposes), a separate computer, or the like, or may be realized in the form of an application on a conventionally used smartphone as described above. As described above, when the control unit 1520 is integrated with the sensor signal collection unit 1510, a signal can be directly transmitted from the acceleration sensor 1511. On the other hand, when the control unit 1520 is formed independently of the sensor signal collection unit 1510, for example, in the form of another device or a smartphone application, the signal is transmitted from the acceleration sensor 1511 by wired or wireless communication. You can start receiving.

警報部1530は、制御部1520から警報発生制御信号を受けてユーザにケガ危険性を警報する役割をする。制御部1520においては、上下方向加速度aに基づいて算出される少なくとも一つのケガ危険性判断指標を導出し、それを用いて警報発生有無を判断し、ケガ危険性が予め定められた基準以上であると判断されれば、警報部1530が警報を発生させるように制御することによってユーザに危険を知らせる。 The alarm unit 1530 receives an alarm generation control signal from the control unit 1520 and serves to warn the user of the danger of injury. The control unit 1520 derives at least one injury risk determination index calculated based on the vertical acceleration az and uses it to determine whether or not an alarm has occurred, so that the risk of injury exceeds a predetermined standard. If it is determined, the alarm unit 1530 notifies the user of the danger by controlling the alarm unit 1530 to generate an alarm.

警報部1530は、音響、図解、画像を含むユーザが認識可能な情報として警報信号を出力する。例えば、警報部1530が音響を出力するスピーカ形態からなる場合、ケガ危険性が基準以上であれば警告音が鳴るようにすることができる。または、本実施形態による装置がグーグルグラスのような拡張現実メガネに適用される場合、警報部1530は、拡張現実メガネ上に赤色の警告用図形またはこのような図形が瞬く画像を出力するか、または「ケガ危険性が何%です」などのようなメッセージを出力するようになることができる。または、警報部1530が熱電素子により実現され、ユーザの皮膚に直間接的に接触した形態からなって、ケガ危険性が基準以上であれば、冷たくなったりまたは熱くなったりすることによってユーザに警報することもできる。他の例示として、ユーザが視覚障害者である場合のために、警報部1530が変更可能な点字形態として触覚によって認識される形態からなってもよい。このように、前記警報部は、ユーザが認識可能な情報として警報信号を出力できるものであれば、いかなる形態からなってもよい。   The alarm unit 1530 outputs an alarm signal as information that can be recognized by the user including sounds, illustrations, and images. For example, when the alarm unit 1530 is configured as a speaker that outputs sound, if the risk of injury is greater than or equal to a reference, a warning sound can be generated. Alternatively, when the apparatus according to the present embodiment is applied to augmented reality glasses such as Google Glass, the alarm unit 1530 outputs a red warning graphic or an image in which such a graphic blinks on the augmented reality glasses, Or a message such as “What is the risk of injury?” Can be output. Alternatively, if the alarm unit 1530 is realized by a thermoelectric element and is in direct or indirect contact with the user's skin, and the risk of injury exceeds a standard, the user is warned by being cold or hot. You can also As another example, for a case where the user is a visually impaired person, the alarm unit 1530 may be configured to be recognized by tactile sense as a changeable Braille form. As described above, the alarm unit may have any form as long as it can output an alarm signal as information that can be recognized by the user.

さらに、ケガ危険性定量化装置1500は、ケガ危険性警報発生時点および該時点におけるケガ危険性判断指標値を含むケガ危険性データを外部のデータベース1540に転送して累積的に格納するようになることができる。このような歩行または走行運動分析を必要とするユーザは健康促進のために毎日散歩またはジョギングをする一般人や身体能力を向上させるために訓練する専門家などであり、このような運動分析データが累積されて時間的な変化を見ることができるようになることが当然好ましい。それのみならず、このように運動分析データが大量に累積格納されると、このようなデータがビッグ・データとして活用されて各種の統計や分析に使用できるなど、様々な活用が可能である。   Further, the injury risk quantification apparatus 1500 transfers injury risk data including an injury risk alarm occurrence time and an injury risk judgment index value at that time to an external database 1540 and cumulatively stores it. be able to. Users who need such walking or running motion analysis are ordinary people who walk or jog every day for health promotion, experts who train to improve physical ability, etc., and such motion analysis data accumulates Of course, it is preferable to be able to see changes over time. In addition, when a large amount of motion analysis data is accumulated and stored in this way, such data can be used as big data and used for various statistics and analyses.

図16は、本発明の他の実施形態によるケガ危険性定量化方法のフローチャートを示す。   FIG. 16 shows a flowchart of an injury risk quantification method according to another embodiment of the present invention.

本実施形態によるケガ危険性定量化方法は、上述したように加速度センサ1511を含んでおり、ユーザの腕を除いた上体に着用される少なくとも一つのセンサ信号収集部1510を用いて測定された上下方向加速度aを用いてケガ危険性判断指標を導出してケガ危険性を定量化する。このために、本実施形態によるケガ危険性定量化方法は、データ収集ステップ、判断指標導出ステップ、ケガ危険性判断ステップ、およびケガ危険性警報ステップを含む。さらに、ケガ危険性判断指標導出の正確性を高めるために、ノイズ除去ステップをさらに含む。図16に示された各ステップについてさらに詳しく説明すれば以下のとおりである。 The injury risk quantification method according to the present embodiment includes the acceleration sensor 1511 as described above, and is measured using at least one sensor signal collection unit 1510 worn on the upper body excluding the user's arm. An injury risk determination index is derived using the vertical acceleration az to quantify the injury risk. For this purpose, the injury risk quantification method according to the present embodiment includes a data collection step, a determination index derivation step, an injury risk determination step, and an injury risk warning step. Furthermore, in order to improve the accuracy of deriving an injury risk determination index, a noise removal step is further included. The steps shown in FIG. 16 will be described in more detail as follows.

前記データ収集ステップにおいては、センサ信号収集部1510が測定された上下方向加速度aを収集する。収集された上下方向加速度aはそのまま使用してもよいが、予め定められたバンドパスフィルタを通過させてノイズを除去するノイズ除去ステップを経るようにすることがより好ましい。この時、前記バンドパスフィルタは、例えば、一般的な人の歩行または走行周波数に該当する0.1〜5Hzに形成されてもよいが、この範囲は適切に変更決定されてもよいことは勿論である。 In the data collecting step, the sensor signal collecting unit 1510 collects the measured vertical acceleration az . The collected vertical acceleration az may be used as it is, but it is more preferable to pass a noise removal step of removing noise by passing through a predetermined bandpass filter. At this time, for example, the bandpass filter may be formed at 0.1 to 5 Hz corresponding to a general human walking or running frequency, but this range may be appropriately changed and determined. It is.

前記判断指標導出ステップにおいては、上下方向加速度aに基づいて算出される少なくとも一つのケガ危険性判断指標を導出する。この時、前記ケガ危険性判断指標は、上下方向加速度aの平均傾き、上下方向加速度aの最大傾き、最大衝撃力、衝撃量のうちから選択される少なくとも一つであってもよい。各々の判断指標については後ほどさらに詳しく説明する。 In the determination index deriving step, at least one injury risk determination index calculated based on the vertical acceleration az is derived. At this time, the injury risk judgment index, the slope average vertical acceleration a z, the slope maximum vertical acceleration a z, maximum impact force may be at least one selected from among the impact weight. Each determination index will be described in more detail later.

前記ケガ危険性判断ステップにおいては、前記ケガ危険性判断指標が予め定められた基準より大きいか否かを判断する。この時、前記ケガ危険性判断指標が上述したように複数であってもよく、種々の判断指標のいずれか一つだけが基準以上である時に警報を発生してもよく、全てが基準以上である時に警報を発生してもよく、または適切に優先順位をおいて段階的に警報を発生してもよい。前記ケガ危険性判断ステップにおいて、前記ケガ危険性判断指標が予め定められた基準より小さければ、警報を発生せず、再びデータ収集ステップに戻る。さらに、前記ケガ危険性判断ステップにおいては、周期的な信号で表れる上下方向加速度aデータに対して少なくとも2周期以上のデータを取り集めて算出された前記ケガ危険性判断指標を用いて判断が行われるようにすることが好ましい。 In the injury risk determination step, it is determined whether or not the injury risk determination index is larger than a predetermined reference. At this time, the injury risk determination index may be plural as described above, and an alarm may be generated when only one of the various determination indexes is above the reference, and all are above the reference. An alarm may be generated at a certain time, or an alarm may be generated in stages with appropriate priorities. In the injury risk determination step, if the injury risk determination index is smaller than a predetermined reference, no alarm is generated and the process returns to the data collection step again. Further, in the injury risk determination step, determination is made using the injury risk determination index calculated by collecting data of at least two cycles with respect to the vertical acceleration az data represented by a periodic signal. It is preferable to do so.

前記ケガ危険性警報ステップにおいては、前記ケガ危険性判断指標のうち少なくとも一つが各々予め定められた基準より大きい場合、ユーザにケガ危険性を警報する。ケガ危険性の警報形態は、前述したように音響、図解、画像などの様々な形態であってもよく、ユーザは、このように警報を受けることによって、能動的にケガ危険性を減らすための対処(運動終了、姿勢矯正、履き物の取替え、コース変更など)をすることで、窮極的にケガ危険性を大幅に低減することができる。   In the injury risk warning step, if at least one of the injury risk determination indexes is greater than a predetermined criterion, the user is warned of the injury risk. The warning form of injury risk may be various forms such as sound, illustration, and image as described above, and the user can actively reduce the risk of injury by receiving the warning in this way. By coping (exercise termination, posture correction, footwear replacement, course change, etc.), the risk of injury can be greatly reduced.

以下では、本発明で用いられるケガ危険性判断指標の種々の例示と各々を導出する過程についてより具体的に説明する。   Hereinafter, various examples of the injury risk determination index used in the present invention and the process of deriving each will be described more specifically.

図17は、本発明の他の実施形態による走行時における上下方向加速度グラフを示す。   FIG. 17 shows a vertical acceleration graph during traveling according to another embodiment of the present invention.

図示したように、上下方向加速度aは、時間に対して周期的な形態で表れる(歩行または走行そのものが周期的な運動であるので、これは当然のことである)。走行運動を噛み砕いて描写すれば以下のとおりである。先ず、前方に出ている一方の足が地面を蹴飛ばす瞬間(この瞬間、他方の足は空中に浮いている)から始まる。この状態で、一方の足が地面を蹴飛ばして浮き上がりつつ両足が全て空中に浮いている状態のまま、人の胴体が前方に移動し、それと共に両足を空中で振りつつ前後が変わって他方の足が前方に出てくるようになる。前方に出てきた他方の足が地面に接すると同時に地面を蹴飛ばす瞬間が再びなされて一歩の走行になる。この過程で、片足で地面を蹴飛ばす瞬間には人の頭が上下方向に最も大きく揺れる反面(上下方向加速度aにおいてローカルマキシマムが形成される)、空中に浮いたまま進んでいる状態では上下方向にほぼ揺れなくなる(上下方向加速度aにおいて定数値が形成される)。 As shown in the figure, the vertical acceleration az appears in a periodic form with respect to time (this is natural since walking or running itself is a periodic movement). The running motion can be described as follows. First, it starts from the moment when one of the legs that is moving forward kicks the ground (the other leg is floating in the air at this moment). In this state, one of the legs kicks off the ground and floats while all the legs are floating in the air, while the human torso moves forward, and with that, the front and rear changes while swinging both legs in the air. Comes out ahead. The moment when the other leg that comes out forward touches the ground and kicks the ground again is made again, and it is a one-step run. In this process, at the moment of kicking the ground with one foot, the person's head shakes the most in the vertical direction (local maximum is formed at the vertical acceleration az ), but in the vertical direction when moving in the air (A constant value is formed at the vertical acceleration az ).

直ちにこのように足が地面を蹴飛ばす瞬間に関節に最も多い衝撃が加えられ、このような衝撃は図17のような上下方向加速度グラフにおいて一番目のピーク(peak)形態で表れる。この時の衝撃の程度に応じてケガ危険性が異なり、本発明においては、それを指標化することによって定量化された判断の根拠として用いた。このような判断指標として、本発明においては、前述したように、上下方向加速度aの平均傾き、上下方向加速度aの最大傾き、最大衝撃力、衝撃量を用いる。 Immediately in this way, the most impact is applied to the joint at the moment when the foot kicks off the ground, and such impact appears in the form of the first peak in the vertical acceleration graph as shown in FIG. The risk of injury varies depending on the degree of impact at this time, and in the present invention, it is used as a basis for judgment quantified by indexing it. Such determination index, in the present invention, as described above, the slope average vertical acceleration a z, the slope maximum vertical acceleration a z, maximum impact force, the impact amount used.

図18は、本発明の他の実施形態による走行時における上下方向加速度グラフに傾きを示す。それを通じて上下方向加速度aの平均傾きおよび最大傾きを導出する過程について説明する。 FIG. 18 shows an inclination in a vertical acceleration graph during traveling according to another embodiment of the present invention. A process for deriving the average inclination and the maximum inclination of the vertical acceleration az will be described.

先ず、前記ケガ危険性判断指標として上下方向加速度aの平均傾き値を選択する場合、前記ケガ危険性判断指標は下記の式を用いて算出される。
(ここで、a:上下方向加速度、mean:平均値算出関数、i:インデックス番号、t:i番目の時間、ti−1:i−1番目の時間、t:衝撃開始時間、t:衝撃終了時間)
First, when the average inclination value of the vertical acceleration az is selected as the injury risk determination index, the injury risk determination index is calculated using the following equation.
(Where, a z : vertical acceleration, mean: average value calculation function, i: index number, t i : i-th time, t i-1 : i-1th time, t c : impact start time, t m : impact end time)

衝撃開始時間とは、実際的には足が地面に着地する瞬間を意味する。これは、上下方向加速度aが0以下の値から0近くの所定の基準値(例えば、0.3m/s)を上向き突破する時点に決定することができる。ここで、衝撃開始時間を決定する基準値の具体的な値は、上述した例のように0.5m/s以下の値の中から適切に決定できる。衝撃終了時間は一番目のピーク値が表れる時刻であり、グラフ上で直観的にも容易に確認することができる。インデックスiは衝撃開始時間から衝撃終了時間までの時間をnで分けてデジタル化した時間のインデックスであって、nは必要に応じて適切に決定すればよい。 The impact start time actually means the moment when the foot lands on the ground. This can be determined when the vertical acceleration az breaks upward from a predetermined reference value (for example, 0.3 m / s 2 ) close to 0 from a value of 0 or less. Here, the specific value of the reference value for determining the impact start time can be appropriately determined from values of 0.5 m / s 2 or less as in the above-described example. The impact end time is the time at which the first peak value appears, and can be easily confirmed intuitively on the graph. The index i is a time index obtained by digitizing the time from the impact start time to the impact end time divided by n, and n may be appropriately determined as necessary.

平均傾き値は、直ちにこのように、衝撃開始時間から衝撃終了時間までをn等分した時、各々の間隔で求められたn個の傾き値の平均値である。図18はある一つの周期における上下方向加速度aグラフを示しており、このような一つの周期で上述したような平均傾き値を求めることができる。一方、図17に示すように走行中には図18のような形態のグラフが続けて繰り返され、上述したような平均傾き値は各周期ごとに(すなわち、各歩ごとに)求められることができる。この時、前記判断指標導出ステップにおいて、ユーザ質量mおよび平均傾きの積として算出される平均垂直負荷率(average vertical loading rate)がさらに算出されることができる。 The average slope value is an average value of n slope values obtained at each interval when the time from the impact start time to the impact end time is equally divided into n. FIG. 18 shows a vertical acceleration az graph in one cycle, and the average slope value as described above can be obtained in such one cycle. On the other hand, as shown in FIG. 17, the graph of the form as shown in FIG. 18 is continuously repeated during traveling, and the average slope value as described above can be obtained for each period (that is, for each step). it can. At this time, in the determination index deriving step, an average vertical loading rate calculated as a product of the user mass m and the average inclination can be further calculated.

一方、前記ケガ危険性判断指標として上下方向加速度aの最大傾き値を選択する場合、前記ケガ危険性判断指標は下記の式を用いて算出される。
i=1、2、…、n、
=t、t=t
(ここで、a:上下方向加速度、max:最大値算出関数、i:インデックス番号、t:i番目の時間、ti−1:i−1番目の時間、t:衝撃開始時間、t:衝撃終了時間)
On the other hand, when the maximum inclination value of the vertical acceleration az is selected as the injury risk determination index, the injury risk determination index is calculated using the following equation.
i = 1, 2,..., n,
t 0 = t c , t n = t m
(Where, a z : vertical acceleration, max: maximum value calculation function, i: index number, t i : i-th time, t i-1 : i-1th time, t c : impact start time, t m : impact end time)

前記最大傾きは、平均傾きに関する説明で記述したように、ある一つの周期(一歩)における衝撃開始時間から衝撃終了時間までの間で求められたn個の傾き値のうち最大値である。この時、前記判断指標導出ステップにおいて、ユーザ質量mおよび最大傾きの積として算出される最大垂直負荷率(instantaneous vertical loading rate)がさらに算出されることができる。   The maximum slope is the maximum value among n slope values obtained from the impact start time to the impact end time in a certain cycle (one step), as described in the explanation about the average slope. At this time, in the determination index deriving step, a maximum vertical loading rate calculated as a product of the user mass m and the maximum inclination can be further calculated.

図19は、本発明の他の実施形態による走行時における上下方向加速度グラフに衝撃量を示す。それを通じて最大衝撃力および衝撃量を導出する過程について説明する。   FIG. 19 shows the amount of impact in a vertical acceleration graph during travel according to another embodiment of the present invention. The process of deriving the maximum impact force and impact amount through this will be described.

先ず、前記ケガ危険性判断指標として最大衝撃力値を選択する場合、前記ケガ危険性判断指標は下記の式を用いて算出される。
(ここで、a:上下方向加速度、m:ユーザ質量、t:衝撃終了時間)
First, when the maximum impact force value is selected as the injury risk determination index, the injury risk determination index is calculated using the following equation.
(Here, a z: vertical acceleration, m: user mass, t m: impact end time)

前述したように衝撃終了時間は一番目のピーク値が表れる時刻であるため、当然、最大衝撃力が表れる時刻は衝撃終了時間になる。図19に上下方向加速度aの一番目のピーク(1st peak)が表示されており、これにユーザ質量mをかけた値が直ちに最大衝撃力値になる。 As described above, since the impact end time is the time at which the first peak value appears, the time at which the maximum impact force appears is naturally the impact end time. In FIG. 19, the first peak (1st peak) of the vertical acceleration az is displayed, and a value obtained by multiplying this by the user mass m immediately becomes the maximum impact force value.

一方、前記ケガ危険性判断指標として衝撃量値を選択する場合、前記ケガ危険性判断指標は下記の式を用いて算出される。
(ここで、a:上下方向加速度、m:ユーザ質量、t:衝撃開始時間、t:衝撃終了時間)
On the other hand, when an impact amount value is selected as the injury risk determination index, the injury risk determination index is calculated using the following equation.
(Here, a z: vertical acceleration, m: user mass, t c: shock start time, t m: impact end time)

図19に衝撃開始時間から衝撃終了時間の間の上下方向加速度aグラフ面積が表示されており、この面積にユーザ質量mをかけた値が直ちに衝撃量値になる。 FIG. 19 shows the vertical acceleration az graph area between the impact start time and the impact end time, and the value obtained by multiplying this area by the user mass m immediately becomes the impact amount value.

図20は、本発明の他の実施形態による運動認識の第1装置を示す。   FIG. 20 illustrates a first apparatus for motion recognition according to another embodiment of the present invention.

本実施形態による運動認識の第1装置2000(以下、第1装置という)は、加速度センサ部2010、角速度センサ部2020、プロセシング部2040およびユーザインターフェース部2050を含む。本実施形態による第1装置2000は、ユーザの身体に着用されて加速度および角速度などのようなユーザの動的物理量を測定することによって、歩行および走行などのユーザの運動状態を分析する。図1に示された例のように、第1装置2000は、頭側および腰側に着用されたバンド、頭側および腰側にクリップの形で付着する形態、帽子に備えられる形態、ベルトにさす形態、メガネ形態、ヘルメット形態、耳に付着する形態、衣服に付着する形態、別途のチョッキやハーネスなどを用いて着用する形態からなる。具体的は、メガネ形態は、拡張現実(AR:Augmented Reality)グラス、メガネフレーム、サングラスなどの形態からなる。耳に付着する形態は、ハンズフリーイヤーピース、ヘッドホンおよびイヤホンなどの形態からなる。この他にも第1装置2000が多様に変更された形態からなってもよいことは当業者にとって明らかなことである。第1装置2000は、様々な計算を実行できる集積回路の形態からなって一つの基板上に形成されることができる。   A first device 2000 for motion recognition according to the present embodiment (hereinafter referred to as a first device) includes an acceleration sensor unit 2010, an angular velocity sensor unit 2020, a processing unit 2040, and a user interface unit 2050. The first apparatus 2000 according to the present embodiment analyzes a user's motion state such as walking and running by measuring the user's dynamic physical quantities such as acceleration and angular velocity when worn on the user's body. As in the example shown in FIG. 1, the first device 2000 includes a band worn on the head side and the waist side, a form attached to the head side and the waist side in the form of a clip, a form provided in a hat, a belt It consists of a form to wear, a form of glasses, a form of helmet, a form attached to ears, a form attached to clothes, and a form worn with a separate waistcoat or harness. Specifically, the glasses form includes augmented reality (AR) glasses, glasses frames, sunglasses, and the like. The form attached to the ear includes forms such as hands-free earpieces, headphones, and earphones. It will be apparent to those skilled in the art that the first device 2000 may have various modifications. The first device 2000 may be formed on a single substrate in the form of an integrated circuit capable of performing various calculations.

加速度センサ部2010は、上下、左右および前後を含む3軸方向加速度値を測定する。   The acceleration sensor unit 2010 measures triaxial acceleration values including up and down, left and right, and front and rear.

角速度センサ部2020は、上下、左右および前後を含む3軸方向角速度値を測定する。   The angular velocity sensor unit 2020 measures triaxial angular velocity values including up and down, left and right, and front and rear.

プロセシング部2040は、前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成する。前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つである。第1装置2000は、前記第1運動状態値によってユーザの運動状態を判断することができる。第1運動状態値各々の意味を見てみると、分当たりの歩数は分当たりのステップ数、歩間は脚間の間隔の平均、歩角は脚角度の平均、頭部角度は上下頭部角度の平均、地面支持時間は土地に接している支持時間、空中浮遊時間は全ての脚が土地に接していない時間の平均、最大垂直力は地面反力の最大値、平均垂直力負荷率は左側および右側地面反力の支持区間の初期傾きの平均、最大垂直力負荷率は左側および右側地面反力の支持区間の初期傾きの最大を意味する。   The processing unit 2040 generates a first motion state value based on the triaxial acceleration value and the triaxial angular velocity value. The first motion state value includes exercise time, number of steps taken, number of steps taken per minute, step distance, step angle, head angle, ground support time, air suspension time, ratio of ground support time to air suspension time, maximum vertical force , Average normal force load factor, maximum normal force load factor, left-right balance, left-right uniformity. The first device 2000 can determine the user's exercise state based on the first exercise state value. Looking at the meaning of each of the first exercise state values, the number of steps per minute is the number of steps per minute, the distance between steps is the average distance between legs, the step angle is the average leg angle, and the head angle is the upper and lower head The average angle, the ground support time is the support time in contact with the land, the air suspension time is the average time when all legs are not in contact with the land, the maximum normal force is the maximum value of the ground reaction force, the average normal force load factor is The average and maximum vertical force load factors of the left and right ground reaction force support sections mean the maximum initial inclination of the left and right ground reaction force support sections.

左右均一度(Stability)は、時間、力などにおいて、左足および右足各々の脚に一貫して運動状態が維持されるかを意味し、各々の脚の変動係数(CV:Coefficient)を用いて%で示し、下記の式によって求める。
Stability(Left)=1−std(Left indices)/mean(Left indices)
Stability(Right)=1−std(Right indices)/mean(Right indices)
The left / right uniformity (Stability) means whether the state of movement of the left leg and the right leg is maintained consistently in time, force, etc., and the coefficient of variation (CV: Coefficient) of each leg is used. And obtained by the following formula.
Stability (Left) = 1-std (Left indications) / mean (Left indications)
Stability (Right) = 1-std (Right indicators) / mean (Right indicators)

評価指標であるインデックスとして用いられる値は、垂直力最大値、垂直加速度最大値、支持区間衝撃量、支持時間、浮遊時間、平均垂直力負荷率および最大垂直力負荷率を含む。   The value used as an index that is an evaluation index includes a vertical force maximum value, a vertical acceleration maximum value, a support section impact amount, a support time, a floating time, an average normal force load factor, and a maximum normal force load factor.

左右均衡度(Balance)は、左右不均衡度(%)を示し、下記の式によって求める。
Balance=Left index/(Left index+Right index)*100%
The left-right balance (Balance) indicates the left-right imbalance (%), and is obtained by the following equation.
Balance = Left index / (Left index + Right index) * 100%

ユーザインターフェース部2050は、プロセシング部2040のスリープモードまたはアライブモードを制御する。ユーザインターフェース部2050は、ソフトウェアまたはハードウェアの形態により実現されてもよい。例えば、ユーザインターフェース部2050は、ソフトウェアまたはハードウェア形態であるプッシュボタンにより実現されてもよい。ユーザインターフェース部2050のユーザ入力から開始される運動認識方法のフローチャートは図22を用いて詳細に後述する。   The user interface unit 2050 controls the sleep mode or alive mode of the processing unit 2040. The user interface unit 2050 may be realized in the form of software or hardware. For example, the user interface unit 2050 may be realized by a push button that is in the form of software or hardware. A flowchart of the motion recognition method started from user input of the user interface unit 2050 will be described later in detail with reference to FIG.

一方、本実施形態による第1装置2000は、第1通信部2070をさらに含むことができる。第1通信部2070は、前記第1運動状態値を第2装置2100に転送する。第1通信部2070は所定の周期で前記第1運動状態値を第2装置2100に転送することができるが、様々な転送方式により実現されてもよいことは当業者にとって明らかなことである。本実施形態による第2装置2100は、コンピュータ、モバイル端末および時計などのような様々な形態の装置であってもよい。   Meanwhile, the first device 2000 according to the present embodiment may further include a first communication unit 2070. The first communication unit 2070 transfers the first motion state value to the second device 2100. The first communication unit 2070 can transfer the first motion state value to the second device 2100 in a predetermined cycle, but it is obvious to those skilled in the art that the first communication unit 2070 may be realized by various transfer methods. The second device 2100 according to the present embodiment may be various types of devices such as a computer, a mobile terminal, and a clock.

一方、本実施形態による第1装置2000は、第2通信部2080をさらに含むことができる。第2通信部2080は、前記第1運動状態値をサーバ2200に転送する。   Meanwhile, the first device 2000 according to the present embodiment may further include a second communication unit 2080. The second communication unit 2080 transfers the first exercise state value to the server 2200.

一方、本実施形態による第1装置2000は、位置センサ部2030をさらに含むことができる。   Meanwhile, the first device 2000 according to the present embodiment may further include a position sensor unit 2030.

位置センサ部2030は、ユーザの位置値を測定する。位置センサ部2030は、GPSまたは超精密衛星航法技術などに基づいてユーザの位置値を測定するが、他の技術を利用してもよいことは当業者にとって明らかなことである。   The position sensor unit 2030 measures the position value of the user. The position sensor unit 2030 measures the position value of the user based on GPS or ultra-precision satellite navigation technology, but it is obvious to those skilled in the art that other technologies may be used.

第1装置2000が位置センサ部2030をさらに含む場合、プロセシング部2040は、前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成する。前記第2運動状態値は、運動距離、運動速度、カロリー消耗量、高度、歩幅のうち少なくとも一つである。第2運動状態値各々の意味を見てみれば、高度は運動時に移動した垂直高さを意味し、歩幅は地面支持区間および空中浮遊区間の間前進して移動した距離を意味する。前記ユーザプロファイルは、ユーザの身長、体重などの個人情報を含む。   When the first apparatus 2000 further includes a position sensor unit 2030, the processing unit 2040 generates a second exercise state value based on at least one of the first exercise state value, the user position value, and the user profile. To do. The second exercise state value is at least one of exercise distance, exercise speed, calorie consumption, altitude, and stride. Looking at the meaning of each of the second motion state values, the altitude means the vertical height moved during exercise, and the stride means the distance moved forward between the ground support section and the air suspension section. The user profile includes personal information such as the height and weight of the user.

また、プロセシング部2040は、選択的に、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報をさらに生成することができる。例えば、プロセシング部2040は、運動速度別に最適な身長−歩幅関係データを格納しておき、前記第2運動状態値のうち歩幅に基づいてユーザの身長に比べて歩幅が過度に広いかまたは狭くはないかを判断する。プロセシング部2040は、歩幅が最適範囲から脱する場合、減らしたり増やしたりしなければならない歩幅矯正量を姿勢矯正情報として生成する。   In addition, the processing unit 2040 may selectively generate posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value. For example, the processing unit 2040 stores optimal height-step length relationship data for each exercise speed, and the step length is excessively wider or narrower than the user's height based on the step length among the second exercise state values. Judge whether there is. The processing unit 2040 generates, as posture correction information, the amount of striation correction that must be reduced or increased when the stride departs from the optimum range.

一方、本実施形態による第1装置2000は、出力部2060をさらに含むことができる。出力部2060は、前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つである、ユーザが認識可能な情報として変換して出力する。例えば、歩幅矯正量が算出されて歩幅を減らす必要がある場合、スピーカを介して「歩幅を減らして下さい」のような音声が出力されるようにするか、または警告音が鳴るようにしてユーザが最適歩幅でないことを認知し歩行姿勢を変えるように誘導することができる。または、第1装置2000は、モバイル端末、時計、コンピュータおよび専用ディスプレイなどの外部装置と接続され、音響、図解、画像および振動のうち少なくとも一つとして矯正情報が出力されるようにすることができる。   Meanwhile, the first device 2000 according to the present embodiment may further include an output unit 2060. The output unit 2060 converts and outputs the posture correction information as information that can be recognized by the user and is at least one of sound, illustration, image, and vibration. For example, when the stride correction amount is calculated and the stride needs to be reduced, the user outputs a voice such as “Please reduce the stride” through the speaker or sounds a warning sound. Recognizing that is not the optimal stride, it can be guided to change the walking posture. Alternatively, the first device 2000 can be connected to an external device such as a mobile terminal, a clock, a computer, and a dedicated display so that correction information is output as at least one of sound, illustration, image, and vibration. .

第1装置2000が位置センサ部2030をさらに含む場合、第1装置2000は、前記第2運動状態値をサーバ2200に転送する第3通信部をさらに含むことができる。サーバ2200は、前記第2運動状態値をデータベースに累積して格納する。サーバ2200は、データベースに格納された前記第2運動状態値に基づいた統計データを提供する。前記統計データは、所定の運動区間に対して前記第2運動状態値各々に対する最大値、最小値および平均値などを含む。運動分析が必要なユーザは、サーバ2200を介して前記統計データの提供を受け、自身の運動習慣の改善など、多様に活用することができる。運動分析が必要なユーザは、健康促進のために毎日散歩またはジョギングをする一般人や身体能力を向上させるために訓練する専門家などである。また、サーバ2200は、各々のユーザ別に前記第2運動状態値を格納して、ユーザ間に前記第2運動状態値を関係的および統計的に分析したビッグ・データサービスを提供する。   When the first device 2000 further includes the position sensor unit 2030, the first device 2000 may further include a third communication unit that transfers the second motion state value to the server 2200. The server 2200 accumulates and stores the second motion state value in a database. The server 2200 provides statistical data based on the second motion state value stored in the database. The statistical data includes a maximum value, a minimum value, an average value, and the like for each of the second motion state values for a predetermined motion section. A user who needs exercise analysis can receive the statistical data through the server 2200 and use it for various purposes such as improving his exercise habits. The users who need exercise analysis are ordinary people who take a walk or jog every day for health promotion, and experts who train to improve physical ability. Also, the server 2200 stores the second exercise state value for each user and provides a big data service in which the second exercise state value is analyzed relationally and statistically between users.

第1通信部2070、第2通信部2080および第3通信部は、ブルートゥース、ワイ・ファイおよびNFCを含む無線通信およびワイヤリングを介した有線通信のうち少なくとも一つで構成されるが、他の有無線通信技術が利用されてもよいことは当業者にとって明らかなことである。また、第1通信部2070、第2通信部2080および第3通信部は、物理的に単一インターフェースで構成されるか、または複数のインターフェースで構成されてもよい。   The first communication unit 2070, the second communication unit 2080, and the third communication unit are configured by at least one of wireless communication including Bluetooth, Wi-Fi, and NFC and wired communication via wiring. It will be apparent to those skilled in the art that wireless communication techniques may be utilized. The first communication unit 2070, the second communication unit 2080, and the third communication unit may be physically configured with a single interface or may be configured with a plurality of interfaces.

図21は、本発明の他の実施形態による運動認識の第2装置を示す。   FIG. 21 shows a second apparatus for motion recognition according to another embodiment of the present invention.

本実施形態による運動認識の第2装置2100(以下、第2装置という)は、第1通信部2110、プロセシング部2150および位置センサ部2170を含む。本実施形態による第2装置2100は、コンピュータ、モバイル端末および時計などのような様々な形態の装置であってもよい。   A second apparatus 2100 for motion recognition (hereinafter referred to as a second apparatus) according to the present embodiment includes a first communication unit 2110, a processing unit 2150, and a position sensor unit 2170. The second device 2100 according to the present embodiment may be various types of devices such as a computer, a mobile terminal, and a clock.

第1通信部2110は、3軸方向加速度値および3軸方向角速度値に基づいて生成された第1運動状態値を第1装置2000から受信する。   The first communication unit 2110 receives from the first device 2000 the first motion state value generated based on the triaxial acceleration value and the triaxial angular velocity value.

位置センサ部2170は、ユーザの位置値を測定する。位置センサ部2030は、GPSまたは超精密衛星航法技術などに基づいてユーザの位置値を測定するが、他の技術を利用してもよいことは当業者にとって明らかなことである。   The position sensor unit 2170 measures the position value of the user. The position sensor unit 2030 measures the position value of the user based on GPS or ultra-precision satellite navigation technology, but it is obvious to those skilled in the art that other technologies may be used.

プロセシング部2150は、前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成する。前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つである。前記ユーザプロファイルは、ユーザの身長、体重などの個人情報を含む。   The processing unit 2150 generates a second exercise state value based on at least one of the first exercise state value, the user position value, and the user profile. The second exercise state value is at least one of distance, speed, calorie consumption, altitude, and stride. The user profile includes personal information such as the height and weight of the user.

一方、本実施形態によるプロセシング部2150は、選択的に、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して運動姿勢矯正情報をさらに生成することができる。例えば、プロセシング部2150は、運動速度別に最適な身長−歩幅関係データを格納しておき、前記第2運動状態値のうち歩幅に基づいてユーザの身長に比べて歩幅が過度に広いかまたは狭くはないかを判断する。プロセシング部2150は、歩幅が最適範囲から脱する場合、減らしたり増やしたりしなければならない歩幅矯正量を姿勢矯正情報として生成する。   Meanwhile, the processing unit 2150 according to the present embodiment selectively generates at least one of the first movement state value and the second movement state value and each predetermined reference value to further generate movement posture correction information. can do. For example, the processing unit 2150 stores optimal height-step length relation data for each exercise speed, and the step length is excessively wide or narrow compared to the user's height based on the step length among the second exercise state values. Judge whether there is. The processing unit 2150 generates, as posture correction information, the amount of striation correction that must be reduced or increased when the stride departs from the optimum range.

一方、本実施形態による第2装置2100は、出力部2190をさらに含むことができる。出力部2190は、前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つである、ユーザが認識可能な情報として変換して出力する。例えば、歩幅矯正量が算出されて歩幅を減らす必要がある場合、スピーカを介して「歩幅を減らして下さい」のような音声が出力されるようにするか、または警告音が鳴るようにしてユーザが最適歩幅でないことを認知し歩行姿勢を変えるように誘導することができる。   Meanwhile, the second device 2100 according to the present embodiment may further include an output unit 2190. The output unit 2190 converts and outputs the posture correction information as information that can be recognized by the user, which is at least one of sound, illustration, image, and vibration. For example, when the stride correction amount is calculated and the stride needs to be reduced, the user outputs a voice such as “Please reduce the stride” through the speaker or sounds a warning sound. Recognizing that is not the optimal stride, it can be guided to change the walking posture.

一方、本実施形態による第2装置2100は、第2通信部2150をさらに含むことができる。第2通信部2150は、第2運動状態値をサーバ2200に転送する。サーバ2200は、前記第2運動状態値をデータベースに累積して格納する。サーバ2200は、データベースに格納された前記第2運動状態値に基づいた統計データを提供する。前記統計データは、所定の運動区間に対して前記第2運動状態値各々に対する最大値、最小値および平均値などを含む。運動分析が必要なユーザは、サーバ2200を介して前記統計データの提供を受け、自身の運動習慣の改善など、多様に活用することができる。また、サーバ2200は、各々のユーザ別に前記第2運動状態値を格納して、ユーザ間に前記第2運動状態値を関係的および統計的に分析したビッグ・データサービスを提供する。   Meanwhile, the second device 2100 according to the present embodiment may further include a second communication unit 2150. The second communication unit 2150 transfers the second exercise state value to the server 2200. The server 2200 accumulates and stores the second motion state value in a database. The server 2200 provides statistical data based on the second motion state value stored in the database. The statistical data includes a maximum value, a minimum value, an average value, and the like for each of the second motion state values for a predetermined motion section. A user who needs exercise analysis can receive the statistical data through the server 2200 and use it for various purposes such as improving his exercise habits. Also, the server 2200 stores the second exercise state value for each user and provides a big data service in which the second exercise state value is analyzed relationally and statistically between users.

第1通信部2110および第2通信部2130は、ブルートゥース、ワイ・ファイおよびNFCを含む無線通信およびワイヤリングを介した有線通信のうち少なくとも一つで構成されるが、他の有無線通信技術が利用されてもよいことは当業者にとって明らかなことである。また、第1通信部2110および第2通信部2130は、物理的に単一インターフェースで構成されるか、または複数のインターフェースで構成されてもよい。   The first communication unit 2110 and the second communication unit 2130 are configured by at least one of wireless communication including Bluetooth, Wi-Fi, and NFC and wired communication through wiring, but other wired and wireless communication technologies are used. It will be apparent to those skilled in the art that this may be done. In addition, the first communication unit 2110 and the second communication unit 2130 may be physically configured with a single interface or may be configured with a plurality of interfaces.

図22は、本発明の他の実施形態による運動認識方法のフローチャートを示す。   FIG. 22 shows a flowchart of a motion recognition method according to another embodiment of the present invention.

ステップ2210において、第1装置2000のユーザインターフェース部2050がプロセシング部2040をアライブモードに変更する。   In step 2210, the user interface unit 2050 of the first device 2000 changes the processing unit 2040 to the alive mode.

ステップ2220において、第1装置2000は、第1通信部2070を介して第2装置2100との接続を設定する。   In step 2220, the first device 2000 sets up a connection with the second device 2100 via the first communication unit 2070.

第2装置2100との接続が設定された場合、ステップ2230において、第1装置2000は、ユーザインターフェース部2050または第2装置2100からの命令の入力を受ける。   If the connection with the second device 2100 is set, in step 2230, the first device 2000 receives an instruction from the user interface unit 2050 or the second device 2100.

ステップ2240において、第1装置2000は、前記命令に基づいて加速度センサ部2010および角速度センサ部2020を介して3軸方向加速度値および3軸方向角速度値を各々測定する。本発明の一実施形態によれば、加速度センサ部2010および角速度センサ部2020は、先入れ先出し(FIFO:First In First Out)キューに前記3軸方向加速度値および前記3軸方向角速度値を格納する。第1装置2000は、先入れ先出しキューの格納空間が所定の閾値未満である場合には、プロセシング部2040をスリープモードに変更し、先入れ先出しキューの格納空間が所定の閾値以上である場合には、プロセシング部2040をアライブモードに変更することによって、低電力で装置を駆動することができる。   In step 2240, the first device 2000 measures the triaxial acceleration value and the triaxial angular velocity value via the acceleration sensor unit 2010 and the angular velocity sensor unit 2020 based on the command. According to an embodiment of the present invention, the acceleration sensor unit 2010 and the angular velocity sensor unit 2020 store the triaxial acceleration value and the triaxial angular velocity value in a first-in first-out (FIFO) queue. The first device 2000 changes the processing unit 2040 to the sleep mode when the storage space of the first-in first-out queue is less than a predetermined threshold, and the processing unit when the storage space of the first-in first-out queue is equal to or larger than the predetermined threshold. By changing 2040 to alive mode, the device can be driven with low power.

ステップ2250において、第1装置2000は、前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成する。前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つである。   In step 2250, the first apparatus 2000 generates a first motion state value based on the triaxial acceleration value and the triaxial angular velocity value. The first motion state value includes exercise time, number of steps taken, number of steps taken per minute, step distance, step angle, head angle, ground support time, air suspension time, ratio of ground support time to air suspension time, maximum vertical force , Average normal force load factor, maximum normal force load factor, left-right balance, left-right uniformity.

ステップ2260において、第1装置2000は、前記第1運動状態値を第2装置2100に転送する。   In step 2260, the first device 2000 transfers the first motion state value to the second device 2100.

ステップ2270において、第2装置2100は、ユーザの位置値を測定する。   In step 2270, the second device 2100 measures the position value of the user.

ステップ2280において、第2装置2100は、前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成する。前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つである。前記ユーザプロファイルは、ユーザの身長、体重などの個人情報を含む。   In step 2280, the second device 2100 generates a second exercise state value based on at least one of the first exercise state value, the user position value, and the user profile. The second exercise state value is at least one of distance, speed, calorie consumption, altitude, and stride. The user profile includes personal information such as the height and weight of the user.

第2装置2100は、選択的に、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して運動姿勢矯正情報をさらに生成することができる。例えば、第2装置2100は、運動速度別に最適な身長−歩幅関係データを格納しておき、前記第2運動状態値のうち歩幅に基づいてユーザの身長に比べて歩幅が過度に広いかまたは狭くはないかを判断する。第2装置2100は、歩幅が最適範囲から脱する場合、減らしたり増やしたりしなければならない歩幅矯正量を姿勢矯正情報として生成する。第2装置2100は、前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つである、ユーザが認識可能な情報として変換して出力する。例えば、歩幅矯正量が算出されて歩幅を減らす必要がある場合、スピーカを介して「歩幅を減らして下さい」のような音声が出力されるようにするか、または警告音が鳴るようにしてユーザが最適歩幅でないことを認知し歩行姿勢を変えるように誘導することができる。   The second device 2100 may selectively generate at least one of the first motion state value and the second motion state value and each predetermined reference value to generate motion posture correction information. For example, the second apparatus 2100 stores optimal height-step length relationship data for each exercise speed, and the step length is excessively wide or narrow compared to the user's height based on the step length among the second exercise state values. Judge whether there is. The second device 2100 generates, as posture correction information, the amount of striation correction that must be reduced or increased when the stride departs from the optimum range. The second device 2100 converts the posture correction information as information that can be recognized by the user, which is at least one of sound, illustration, image, and vibration, and outputs the information. For example, when the stride correction amount is calculated and the stride needs to be reduced, the user outputs a voice such as “Please reduce the stride” through the speaker or sounds a warning sound. Recognizing that is not the optimal stride, it can be guided to change the walking posture.

ステップ2290において、第2装置2100は、前記第2運動状態値をサーバ2200に転送する。サーバ2200は、前記第2運動状態値をデータベースに累積して格納する。サーバ2200は、データベースに格納された前記第2運動状態値に基づいた統計データを提供する。前記統計データは、所定の運動区間に対して前記第2運動状態値各々に対する最大値、最小値および平均値などを含む。運動分析が必要なユーザは、サーバ2200を介して前記統計データの提供を受け、自身の運動習慣の改善など、多様に活用することができる。また、サーバ2200は、各々のユーザ別に前記第2運動状態値を格納して、ユーザ間に前記第2運動状態値を関係的および統計的に分析したビッグ・データサービスを提供する。   In step 2290, the second device 2100 transfers the second motion state value to the server 2200. The server 2200 accumulates and stores the second motion state value in a database. The server 2200 provides statistical data based on the second motion state value stored in the database. The statistical data includes a maximum value, a minimum value, an average value, and the like for each of the second motion state values for a predetermined motion section. A user who needs exercise analysis can receive the statistical data through the server 2200 and use it for various purposes such as improving his exercise habits. Also, the server 2200 stores the second exercise state value for each user and provides a big data service in which the second exercise state value is analyzed relationally and statistically between users.

以上、本発明の好ましい実施形態が詳細に記述されているが、本発明の範囲はそれに限定されず、様々な変形および均等な他の実施形態が可能である。よって、本発明の真の技術的保護範囲は添付された特許請求の範囲によって定められなければならない。   The preferred embodiments of the present invention have been described in detail above, but the scope of the present invention is not limited thereto, and various modifications and other equivalent embodiments are possible. Therefore, the true technical protection scope of the present invention should be determined by the appended claims.

例えば、本発明の例示的な実施形態による装置は、図示されたような装置各々のユニットにカップリングされたバス、前記バスにカップリングされた少なくとも一つのプロセッサを含むことができ、コマンド、受信されたメッセージ、または生成されたメッセージを格納するために前記バスにカップリングされ、前述したようなコマンドを実行するための少なくとも一つのプロセッサにカップリングされたメモリを含むことができる。   For example, a device according to an exemplary embodiment of the present invention can include a bus coupled to a unit of each device as illustrated, at least one processor coupled to the bus, command, receive Or a message coupled to the bus for storing generated messages or generated messages and coupled to at least one processor for executing commands as described above.

また、本発明に係るシステムは、コンピュータ読み取り可能な記録媒体にコンピュータ読み取り可能なコードとして実現することができる。コンピュータ読み取り可能な記録媒体は、コンピュータシステムによって読み取られるデータが格納される全ての記録装置を含む。前記コンピュータ読み取り可能な記録媒体は、マグネチック格納媒体(例えば、ROM、フロッピーディスク、ハードディスクなど)、および光学的読取媒体(例えば、CD−ROM、DVDなど)を含む。また、コンピュータ読み取り可能な記録媒体は、ネットワークを介して接続されたコンピュータシステムに分散され、分散方式でコンピュータ読み取り可能なコードが格納されて実行されることができる。   The system according to the present invention can be realized as a computer readable code on a computer readable recording medium. Computer-readable recording media include all recording devices that store data that can be read by a computer system. The computer-readable recording medium includes a magnetic storage medium (for example, ROM, floppy disk, hard disk, etc.) and an optical reading medium (for example, CD-ROM, DVD, etc.). The computer-readable recording medium can be distributed to computer systems connected via a network, and can store and execute computer-readable codes in a distributed manner.

Claims (45)

上下、左右および前後を含む3軸方向加速度値を測定する加速度センサ部、
上下、左右および前後を含む3軸方向角速度値を測定する角速度センサ部、
前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成するプロセシング部、および
前記プロセシング部のスリープモードまたはアライブモードを制御するユーザインターフェース部を含むことを特徴とする第1装置。
An acceleration sensor unit that measures triaxial acceleration values including up and down, left and right, and front and rear;
Angular velocity sensor unit that measures angular velocity values in three axial directions including up and down, left and right, and front and rear,
A processing unit that generates a first motion state value based on the triaxial acceleration value and the triaxial angular velocity value, and a user interface unit that controls a sleep mode or an alive mode of the processing unit. First device.
前記第1運動状態値を第2装置に転送する第1通信部をさらに含むことを特徴とする、請求項1に記載の第1装置。   The first device of claim 1, further comprising a first communication unit that transfers the first motion state value to the second device. 前記第1通信部は、ブルートゥース、ワイ・ファイおよびNFCのうち少なくとも一つで構成されることを特徴とする、請求項2に記載の第1装置。   The first apparatus according to claim 2, wherein the first communication unit includes at least one of Bluetooth, Wi-Fi, and NFC. 前記第1運動状態値をサーバに転送する第2通信部をさらに含むことを特徴とする、請求項1に記載の第1装置。   The first apparatus according to claim 1, further comprising a second communication unit that transfers the first motion state value to a server. ユーザの位置値を測定する位置センサ部をさらに含むことを特徴とする、請求項1に記載の第1装置。   The first apparatus according to claim 1, further comprising a position sensor unit that measures a position value of the user. 前記プロセシング部は、前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成することを特徴とする、請求項5に記載の第1装置。   The processing unit according to claim 5, wherein the processing unit generates a second motion state value based on at least one of the first motion state value, the user position value, and a user profile. 1 device. 前記第1運動状態値および前記第2運動状態値のうち少なくとも一つをサーバに転送する第3通信部をさらに含むことを特徴とする、請求項6に記載の第1装置。   The first apparatus of claim 6, further comprising a third communication unit that transfers at least one of the first motion state value and the second motion state value to a server. 前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つであることを特徴とする、請求項6に記載の第1装置。   The first apparatus according to claim 6, wherein the second exercise state value is at least one of distance, speed, calorie consumption, altitude, and stride. 前記プロセシング部は、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報を生成することを特徴とする、請求項6に記載の第1装置。   The processing unit according to claim 6, wherein the processing unit generates posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value. The first device. 前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つとして出力する出力部をさらに含むことを特徴とする、請求項9に記載の第1装置。   The first apparatus according to claim 9, further comprising an output unit configured to output the posture correction information as at least one of sound, illustration, image, and vibration. 前記ユーザインターフェース部によって前記プロセシング部がアライブモードに変更された場合、
前記プロセシング部は、前記第1通信部を介して前記第2装置との接続を設定し、
前記第2装置または前記ユーザインターフェース部からの命令に基づいて、前記加速度センサ部および前記角速度センサ部は、前記3軸方向加速度値および前記3軸方向角速度値を各々生成することを特徴とする、請求項2に記載の第1装置。
When the processing unit is changed to the alive mode by the user interface unit,
The processing unit sets a connection with the second device via the first communication unit,
Based on a command from the second device or the user interface unit, the acceleration sensor unit and the angular velocity sensor unit generate the triaxial acceleration value and the triaxial angular velocity value, respectively. The first device according to claim 2.
前記加速度センサ部および前記角速度センサ部は、先入れ先出しキューに前記3軸方向加速度値および前記3軸方向角速度値を格納し、
前記先入れ先出しキューの格納空間が所定の閾値未満である場合、前記プロセシング部はスリープモードであり、前記先入れ先出しキューの格納空間が所定の閾値以上である場合、前記プロセシング部はアライブモードであることを特徴とする、請求項1に記載の第1装置。
The acceleration sensor unit and the angular velocity sensor unit store the triaxial acceleration value and the triaxial angular velocity value in a first-in first-out queue,
When the storage space of the first-in first-out queue is less than a predetermined threshold, the processing unit is in a sleep mode, and when the storage space of the first-in first-out queue is greater than or equal to a predetermined threshold, the processing unit is in an alive mode. The first device according to claim 1.
前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つであることを特徴とする、請求項1に記載の第1装置。   The first motion state value includes exercise time, number of steps taken, number of steps taken per minute, step distance, step angle, head angle, ground support time, air suspension time, ratio of ground support time to air suspension time, maximum vertical force The first apparatus according to claim 1, wherein the first apparatus is at least one of an average normal force load factor, a maximum normal force load factor, a left-right balance, and a left-right uniformity. 前記第1装置は、頭側および腰側に着用されたバンド、頭側および腰側にクリップの形で付着する形態、帽子に備えられる形態、ベルトにさす形態、メガネ形態、ヘルメット形態、耳に付着する形態、衣服に付着する形態および衣服として着用する形態のうちの一つからなることを特徴とする、請求項1に記載の第1装置。   The first device includes a band worn on the head side and the waist side, a form attached to the head side and the waist side in the form of a clip, a form provided in a hat, a form worn on a belt, a form of glasses, a form of helmet, and an ear. The first apparatus according to claim 1, wherein the first apparatus is one of a form to be attached, a form to be attached to clothes, and a form to be worn as clothes. 前記メガネ形態は、拡張現実グラス、メガネフレームおよびサングラスのうちの一つからなり、
前記耳に付着する形態は、ハンズフリーイヤーピース、ヘッドホンおよびイヤホンのうちの一つからなり、
前記衣服として着用する形態は、チョッキおよびハーネスのうちの一つからなることを特徴とする、請求項14に記載の第1装置。
The glasses form consists of one of augmented reality glasses, glasses frames and sunglasses,
The form attached to the ear consists of one of hands-free earpieces, headphones and earphones,
The first apparatus according to claim 14, wherein the form worn as the clothes is one of a waistcoat and a harness.
3軸方向加速度値および3軸方向角速度値に基づいて生成された第1運動状態値を第1装置から受信する第1通信部、
ユーザの位置値を測定する位置センサ部、および
前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成するプロセシング部を含むことを特徴とする第2装置。
A first communication unit that receives a first motion state value generated based on a triaxial acceleration value and a triaxial angular velocity value from the first device;
A position sensor unit that measures the position value of the user, and a processing unit that generates a second movement state value based on at least one of the first movement state value, the user position value, and the user profile. A featured second device.
前記第1運動状態値および前記第2運動状態値のうち少なくとも一つをサーバに転送する第2通信部をさらに含むことを特徴とする、請求項16に記載の第2装置。   The second apparatus according to claim 16, further comprising a second communication unit that transfers at least one of the first motion state value and the second motion state value to a server. 前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つであることを特徴とする、請求項16に記載の第2装置。   The first motion state value includes exercise time, number of steps taken, number of steps taken per minute, step distance, step angle, head angle, ground support time, air suspension time, ratio of ground support time to air suspension time, maximum vertical force The second device according to claim 16, wherein the second device is at least one of average vertical force load factor, maximum normal force load factor, left-right balance, left-right uniformity. 前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つであることを特徴とする、請求項16に記載の第2装置。   The second apparatus according to claim 16, wherein the second motion state value is at least one of distance, speed, calorie consumption, altitude, and stride. 前記プロセシング部は、前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報を生成することを特徴とする、請求項16に記載の第2装置。   The processing unit according to claim 16, wherein the processing unit generates posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value. The second device. 前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つとして出力する出力部をさらに含むことを特徴とする、請求項20に記載の第2装置。   The second apparatus according to claim 20, further comprising an output unit that outputs the posture correction information as at least one of sound, illustration, image, and vibration. 前記第1通信部は、ブルートゥース、ワイ・ファイおよびNFCのうち少なくとも一つで構成されることを特徴とする、請求項16に記載の第2装置。   The second apparatus according to claim 16, wherein the first communication unit includes at least one of Bluetooth, Wi-Fi, and NFC. 加速度センサ部によって上下、左右および前後を含む3軸方向加速度値を測定するステップ、
角速度センサ部によって上下、左右および前後を含む3軸方向角速度値を測定するステップ、
プロセシング部によって前記3軸方向加速度値および前記3軸方向角速度値に基づいて第1運動状態値を生成するステップ、および
ユーザインターフェース部によって前記プロセシング部のスリープモードまたはアライブモードを制御するステップを含むことを特徴とする第1装置の運動認識方法。
Measuring the acceleration values in the three-axis directions including up and down, left and right, and front and rear by the acceleration sensor unit;
Measuring angular velocity values in three axial directions including up and down, left and right, and front and rear by an angular velocity sensor unit;
Generating a first motion state value based on the triaxial acceleration value and the triaxial angular velocity value by a processing unit; and controlling a sleep mode or an alive mode of the processing unit by a user interface unit. A motion recognition method for the first device, characterized by:
前記第1運動状態値を第2装置に転送するステップをさらに含むことを特徴とする、請求項23に記載の第1装置の運動認識方法。   The method of claim 23, further comprising transferring the first motion state value to the second device. 前記第1運動状態値を第2装置に転送するステップは、ブルートゥース、ワイ・ファイおよびNFCのうち少なくとも一つを介して転送することを特徴とする、請求項24に記載の第1装置の運動認識方法。   The motion of the first device according to claim 24, wherein the step of transferring the first motion state value to the second device is transferring via at least one of Bluetooth, Wi-Fi, and NFC. Recognition method. 前記第1運動状態値をサーバに転送するステップをさらに含むことを特徴とする、請求項23に記載の第1装置の運動認識方法。   The method of claim 23, further comprising transferring the first motion state value to a server. ユーザの位置値を測定するステップをさらに含むことを特徴とする、請求項23に記載の第1装置の運動認識方法。   The method of claim 23, further comprising measuring a position value of the user. 前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成するステップをさらに含むことを特徴とする、請求項27に記載の第1装置の運動認識方法。   28. The method of claim 27, further comprising generating a second exercise state value based on at least one of the first exercise state value, the user position value, and a user profile. Device motion recognition method. 前記第1運動状態値および前記第2運動状態値のうち少なくとも一つをサーバに転送するステップをさらに含むことを特徴とする、請求項28に記載の第1装置の運動認識方法。   The method of claim 28, further comprising transferring at least one of the first motion state value and the second motion state value to a server. 前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つであることを特徴とする、請求項28に記載の第1装置の運動認識方法。   The method of claim 28, wherein the second motion state value is at least one of distance, speed, calorie consumption, altitude, and stride. 前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報を生成するステップをさらに含むことを特徴とする、請求項28に記載の第1装置の運動認識方法。   29. The method according to claim 28, further comprising: generating posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value. A motion recognition method of the first device. 前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つとして出力するステップをさらに含むことを特徴とする、請求項31に記載の第1装置の運動認識方法。   32. The motion recognition method of the first device according to claim 31, further comprising the step of outputting the posture correction information as at least one of sound, illustration, image and vibration. 前記3軸方向加速度値を測定するステップおよび前記3軸方向加速度値を測定するステップは、
前記ユーザインターフェース部によって前記プロセシング部がアライブモードに変更された場合、前記第2装置との接続を設定し、
前記第2装置または前記ユーザインターフェース部からの命令に基づいて前記3軸方向加速度値および前記3軸方向角速度値を各々生成することを特徴とする、請求項24に記載の第1装置の運動認識方法。
Measuring the triaxial acceleration value and measuring the triaxial acceleration value;
When the processing unit is changed to the alive mode by the user interface unit, setting a connection with the second device,
The motion recognition of the first device according to claim 24, wherein the three-axis direction acceleration value and the three-axis direction angular velocity value are respectively generated based on a command from the second device or the user interface unit. Method.
前記加速度センサ部および前記角速度センサ部は、先入れ先出しキューに前記3軸方向加速度値および前記3軸方向角速度値を格納し、
前記先入れ先出しキューの格納空間が所定の閾値未満である場合、前記プロセシング部はスリープモードであり、前記先入れ先出しキューの格納空間が所定の閾値以上である場合、前記プロセシング部はアライブモードであることを特徴とする、請求項23に記載の第1装置の運動認識方法。
The acceleration sensor unit and the angular velocity sensor unit store the triaxial acceleration value and the triaxial angular velocity value in a first-in first-out queue,
When the storage space of the first-in first-out queue is less than a predetermined threshold, the processing unit is in a sleep mode, and when the storage space of the first-in first-out queue is greater than or equal to a predetermined threshold, the processing unit is in an alive mode. The motion recognition method for the first device according to claim 23.
前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つであることを特徴とする、請求項23に記載の第1装置の運動認識方法。   The first motion state value includes exercise time, number of steps taken, number of steps taken per minute, step distance, step angle, head angle, ground support time, air suspension time, ratio of ground support time to air suspension time, maximum vertical force 24. The motion recognition method of the first apparatus according to claim 23, wherein the motion recognition method is at least one of average vertical force load factor, maximum vertical force load factor, left-right balance, left-right uniformity. 前記第1装置は、頭側および腰側に着用されたバンド、頭側および腰側にクリップの形で付着する形態、帽子に備えられる形態、ベルトにさす形態、メガネ形態、ヘルメット形態、耳に付着する形態、衣服に付着する形態および衣服として着用する形態のうちの一つからなることを特徴とする、請求項23に記載の第1装置の運動認識方法。   The first device includes a band worn on the head side and the waist side, a form attached to the head side and the waist side in the form of a clip, a form provided in a hat, a form worn on a belt, a form of glasses, a form of helmet, and an ear. The motion recognition method of the first device according to claim 23, comprising one of a form to be attached, a form to be attached to clothes, and a form to be worn as clothes. 前記メガネ形態は、拡張現実グラス、メガネフレームおよびサングラスのうちの一つからなり、
前記耳に付着する形態は、ハンズフリーイヤーピース、ヘッドホンおよびイヤホンのうちの一つからなり、
前記衣服として着用する形態は、チョッキおよびハーネスのうちの一つからなることを特徴とする、請求項23に記載の第1装置の運動認識方法。
The glasses form consists of one of augmented reality glasses, glasses frames and sunglasses,
The form attached to the ear consists of one of hands-free earpieces, headphones and earphones,
The motion recognition method of the first device according to claim 23, wherein the form to be worn as clothing is one of a waistcoat and a harness.
3軸方向加速度値および3軸方向角速度値に基づいて生成された第1運動状態値を第1装置から受信するステップ、
ユーザの位置値を測定するステップ、および
前記第1運動状態値、前記ユーザの位置値およびユーザプロファイルのうち少なくとも一つの値に基づいて第2運動状態値を生成するステップを含むことを特徴とする第2装置の運動認識方法。
Receiving a first motion state value generated based on the triaxial acceleration value and the triaxial angular velocity value from the first device;
Measuring a user's position value; and generating a second movement state value based on at least one of the first movement state value, the user position value, and a user profile. A motion recognition method of the second device.
前記第1運動状態値および前記第2運動状態値のうち少なくとも一つをサーバに転送するステップをさらに含むことを特徴とする、請求項38に記載の第2装置の運動認識方法。   The method of claim 38, further comprising transferring at least one of the first motion state value and the second motion state value to a server. 前記第1運動状態値は、運動時間、運動歩数、分当たりの歩数、歩間、歩角、頭部角度、地面支持時間、空中浮遊時間、空中浮遊時間に対する地面支持時間の比率、最大垂直力、平均垂直力負荷率、最大垂直力負荷率、左右均衡度、左右均一度のうち少なくとも一つであることを特徴とする、請求項38に記載の第2装置の運動認識方法。   The first motion state value includes exercise time, number of steps taken, number of steps taken per minute, step distance, step angle, head angle, ground support time, air suspension time, ratio of ground support time to air suspension time, maximum vertical force 40. The motion recognition method of the second device according to claim 38, wherein at least one of average vertical force load factor, maximum vertical force load factor, left-right balance, and left-right uniformity. 前記第2運動状態値は、距離、速度、カロリー消耗量、高度、歩幅のうち少なくとも一つであることを特徴とする、請求項38に記載の第2装置の運動認識方法。   The method of claim 38, wherein the second motion state value is at least one of distance, speed, calorie consumption, altitude, and stride. 前記第1運動状態値および前記第2運動状態値のうち少なくとも一つと各々の所定の基準値を比較して姿勢矯正情報を生成するステップをさらに含むことを特徴とする、請求項38に記載の第2装置の運動認識方法。   39. The method according to claim 38, further comprising: generating posture correction information by comparing at least one of the first motion state value and the second motion state value with each predetermined reference value. A motion recognition method of the second device. 前記姿勢矯正情報を音響、図解、画像および振動のうち少なくとも一つとして出力するステップをさらに含むことを特徴とする、請求項38に記載の第2装置の運動認識方法。   40. The motion recognition method of the second device according to claim 38, further comprising outputting the posture correction information as at least one of sound, illustration, image, and vibration. 前記第1運動状態値を第1装置から受信するステップは、ブルートゥース、ワイ・ファイおよびNFCのうち少なくとも一つを介して受信することを特徴とする、請求項38に記載の第2装置の運動認識方法。   39. The motion of the second device according to claim 38, wherein the step of receiving the first motion state value from the first device is received via at least one of Bluetooth, Wi-Fi, and NFC. Recognition method. 請求項23〜44のいずれか1項に記載の方法を実行するためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium with which the program for performing the method of any one of Claims 23-44 was recorded.
JP2019506639A 2016-08-09 2017-08-08 Motion recognition method and apparatus Pending JP2019528105A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021019415A JP7101835B2 (en) 2016-08-09 2021-02-10 Motion recognition system

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
KR10-2016-0101491 2016-08-09
KR10-2016-0101489 2016-08-09
KR1020160101489A KR101926170B1 (en) 2016-08-09 2016-08-09 Motion sensing method and apparatus for gait-monitoring
KR1020160101491A KR101830371B1 (en) 2016-08-09 2016-08-09 Motion posture deriving method and apparatus based path of COP
KR10-2017-0030402 2017-03-10
KR10-2017-0030394 2017-03-10
KR1020170030394A KR101995482B1 (en) 2017-03-10 2017-03-10 Motion sensing method and apparatus for gait-monitoring
KR1020170030402A KR101995484B1 (en) 2017-03-10 2017-03-10 Motion posture deriving method and apparatus based path of COP
KR1020170079255A KR101970674B1 (en) 2017-06-22 2017-06-22 Method and apparatus for quantifying risk of gait injury
KR10-2017-0079255 2017-06-22
KR10-2017-0099566 2017-08-07
KR1020170099566A KR102043104B1 (en) 2017-08-07 2017-08-07 Motion sensing method and apparatus
PCT/KR2017/008533 WO2018030742A1 (en) 2016-08-09 2017-08-08 Method and apparatus for recognizing exercise

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021019415A Division JP7101835B2 (en) 2016-08-09 2021-02-10 Motion recognition system

Publications (1)

Publication Number Publication Date
JP2019528105A true JP2019528105A (en) 2019-10-10

Family

ID=61163142

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019506639A Pending JP2019528105A (en) 2016-08-09 2017-08-08 Motion recognition method and apparatus
JP2021019415A Active JP7101835B2 (en) 2016-08-09 2021-02-10 Motion recognition system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021019415A Active JP7101835B2 (en) 2016-08-09 2021-02-10 Motion recognition system

Country Status (3)

Country Link
JP (2) JP2019528105A (en)
CN (1) CN109328094B (en)
WO (1) WO2018030742A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220155491A (en) * 2021-05-13 2022-11-23 임영상 Device and method for training techniques based on artificial intelligence

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723624B (en) * 2019-03-22 2023-12-05 京东方科技集团股份有限公司 Head movement tracking method and system
US10773123B1 (en) * 2019-08-30 2020-09-15 BioMech Sensor LLC Systems and methods for wearable devices that determine balance indices
CN111609865B (en) * 2020-05-25 2022-04-26 广州市建筑科学研究院有限公司 Assembly type automatic navigation blind road system based on wireless network
CN111672087B (en) * 2020-06-13 2021-05-07 曲灏辰 Muscle vibration detection system and detection method suitable for street dance
WO2023228088A1 (en) * 2022-05-26 2023-11-30 Cochlear Limited Fall prevention and training

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014197402A1 (en) * 2013-06-04 2014-12-11 Proteus Digital Health, Inc. System, apparatus and methods for data collection and assessing outcomes
WO2014197443A1 (en) * 2013-06-03 2014-12-11 Kacyvenski Isaiah Motion sensor and analysis
JP2015066155A (en) * 2013-09-27 2015-04-13 花王株式会社 Method for analyzing walking characteristic
JP2015217250A (en) * 2014-05-21 2015-12-07 富士通株式会社 System, program, method, and device for stride measurement
US20160038083A1 (en) * 2014-08-08 2016-02-11 Orn, Inc. Garment including integrated sensor components and feedback components
JP2016034482A (en) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 Exercise analysis device, exercise analysis method, exercise analysis program, and exercise analysis system
US20160114213A1 (en) * 2014-10-22 2016-04-28 Dalsu Lee Methods and systems for training proper running of a user
JP2016112108A (en) * 2014-12-12 2016-06-23 カシオ計算機株式会社 Exercise information display system, exercise information display method, and exercise information display program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100620118B1 (en) * 2004-03-31 2006-09-13 학교법인 대양학원 Walking pattern analysis apparatus and method using inertial sensor
US7561960B2 (en) * 2006-04-20 2009-07-14 Honeywell International Inc. Motion classification methods for personal navigation
KR100894895B1 (en) * 2007-05-21 2009-04-30 연세대학교 산학협력단 Movement, Gait, and Posture Assessment and Intervention System and Method, MGPAISM
US8467726B2 (en) * 2009-11-06 2013-06-18 Panasonic Corporation Communication device and communication method
KR101101003B1 (en) * 2009-12-14 2011-12-29 대구대학교 산학협력단 Monitoring system and method for moving and balancing of human body using sensor node
JP5733503B2 (en) * 2011-02-28 2015-06-10 国立大学法人広島大学 Measuring device, measuring method, and measuring program
JP2016034480A (en) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 Notification device, exercise analysis system, notification method, notification program, exercise support method, and exercise support device
JP2016032610A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Exercise analysis system, exercise analysis device, exercise analysis program and exercise analysis method
JP6080078B2 (en) * 2014-08-18 2017-02-15 高知県公立大学法人 Posture and walking state estimation device
JP2016116566A (en) * 2014-12-18 2016-06-30 セイコーエプソン株式会社 Motion analysis device, motion analysis method, program, and motion analysis system
JP6696109B2 (en) * 2014-12-22 2020-05-20 セイコーエプソン株式会社 Motion analysis device, motion analysis system, motion analysis method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014197443A1 (en) * 2013-06-03 2014-12-11 Kacyvenski Isaiah Motion sensor and analysis
WO2014197402A1 (en) * 2013-06-04 2014-12-11 Proteus Digital Health, Inc. System, apparatus and methods for data collection and assessing outcomes
JP2015066155A (en) * 2013-09-27 2015-04-13 花王株式会社 Method for analyzing walking characteristic
JP2015217250A (en) * 2014-05-21 2015-12-07 富士通株式会社 System, program, method, and device for stride measurement
JP2016034482A (en) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 Exercise analysis device, exercise analysis method, exercise analysis program, and exercise analysis system
US20160038083A1 (en) * 2014-08-08 2016-02-11 Orn, Inc. Garment including integrated sensor components and feedback components
US20160114213A1 (en) * 2014-10-22 2016-04-28 Dalsu Lee Methods and systems for training proper running of a user
JP2016112108A (en) * 2014-12-12 2016-06-23 カシオ計算機株式会社 Exercise information display system, exercise information display method, and exercise information display program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220155491A (en) * 2021-05-13 2022-11-23 임영상 Device and method for training techniques based on artificial intelligence
KR102522964B1 (en) * 2021-05-13 2023-04-20 임영상 Device and method for training techniques based on artificial intelligence

Also Published As

Publication number Publication date
JP7101835B2 (en) 2022-07-15
JP2021098027A (en) 2021-07-01
CN109328094A (en) 2019-02-12
WO2018030742A1 (en) 2018-02-15
CN109328094B (en) 2021-06-01

Similar Documents

Publication Publication Date Title
JP6765505B2 (en) Motion recognition method and device
JP7101835B2 (en) Motion recognition system
US11511154B1 (en) Athletic performance and technique monitoring
KR102043104B1 (en) Motion sensing method and apparatus
US11426630B1 (en) Stride change detection and correction
US11497966B2 (en) Automatic coaching system and method for coaching user&#39;s exercise
US20170095181A1 (en) System and method for characterizing biomechanical activity
US8876738B1 (en) Human activity monitoring device
EP2910901A1 (en) Method for determining an instant velocity of a user and for improving estimation of heart rate
JP2010005033A (en) Walking motion analyzer
JP6781798B2 (en) IVLR prediction method and injuries risk quantifier during driving using it
US20170228996A1 (en) Method and system for detecting fatigue in an athlete
KR102081735B1 (en) Motion sensing method and apparatus
KR102020796B1 (en) Method and apparatus for evaluating stability during running and walking
KR102039381B1 (en) Method and apparatus for evaluating imbalance during running and walking
KR102055661B1 (en) An Automatic Coaching System And Method For Coaching A User&#39;s Exercise
KR101995482B1 (en) Motion sensing method and apparatus for gait-monitoring
US20220193522A1 (en) Exercise analysis system using sensor worn on user&#39;s head
KR101926170B1 (en) Motion sensing method and apparatus for gait-monitoring
KR20230081878A (en) System for analyzing mothion using sensor worn on the user&#39;s head
KR20210040671A (en) Apparatus for estimating displacement center of gravity trajectories and method thereof
CN112839569A (en) Method and system for evaluating human movement
KR101995484B1 (en) Motion posture deriving method and apparatus based path of COP
JP7155345B1 (en) Information processing device, information processing method and program
WO2018087654A1 (en) A method and system for determining the power developed by a runner

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406