JP6928939B2 - Posture identification system, posture identification method, and posture identification program - Google Patents

Posture identification system, posture identification method, and posture identification program Download PDF

Info

Publication number
JP6928939B2
JP6928939B2 JP2016145046A JP2016145046A JP6928939B2 JP 6928939 B2 JP6928939 B2 JP 6928939B2 JP 2016145046 A JP2016145046 A JP 2016145046A JP 2016145046 A JP2016145046 A JP 2016145046A JP 6928939 B2 JP6928939 B2 JP 6928939B2
Authority
JP
Japan
Prior art keywords
human
acceleration
posture
information processing
acceleration sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016145046A
Other languages
Japanese (ja)
Other versions
JP2018015023A (en
Inventor
宏樹 田村
宏樹 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Miyazaki
Original Assignee
University of Miyazaki
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Miyazaki filed Critical University of Miyazaki
Priority to JP2016145046A priority Critical patent/JP6928939B2/en
Publication of JP2018015023A publication Critical patent/JP2018015023A/en
Application granted granted Critical
Publication of JP6928939B2 publication Critical patent/JP6928939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、姿勢特定システム、姿勢特定方法、及び、姿勢特定プログラムに関する。 The present invention, the posture identifying system, posture specifying method, and a posture identifying program.

近年、加速度センサを搭載した機器(スマートホン等)の普及に伴い、加速度センサを用いて人間の動きを検出する技術が各種提案されている。例えば、スマートホンの所謂アプリとして、加速度センサの出力を利用した歩数計、腕立て伏せやスクワットのカウンタ、ゴルフのスイング判定、等のアプリが各種公開されている。 In recent years, with the widespread use of devices equipped with acceleration sensors (smart phones, etc.), various techniques for detecting human movements using acceleration sensors have been proposed. For example, as so-called apps for smartphones, various apps such as a pedometer using the output of an accelerometer, a push-up and squat counter, and a golf swing judgment have been released.

また、特許文献1には、ベッド等に横たわっている人間の肘や膝の屈伸状態を、加速度センサを用いて検出する技術が開示されている。具体的には、被験者の胴体に取り付けられた第1の加速度センサと被験者の手首又は足首に取り付けられた第2の加速度センサとを用いて、体幹を回転軸とする回転角と手の長さ方向を回転軸とする回転角とを検出し、これら回転角の組み合わせが、ベッド等に横たわっている人間に通常有り得る状態か有り得ない状態かを判定する。これにより、ベッド等に横たわっている人間が、通常の臥位か危険な臥位かを検出することができる。 Further, Patent Document 1 discloses a technique of detecting a bending / stretching state of a human elbow or knee lying on a bed or the like by using an acceleration sensor. Specifically, using the first acceleration sensor attached to the subject's torso and the second acceleration sensor attached to the subject's wrist or ankle, the angle of rotation and the length of the hand with the trunk as the axis of rotation are used. The rotation angle with the vertical direction as the rotation axis is detected, and it is determined whether the combination of these rotation angles is a state that is normally possible or impossible for a person lying on a bed or the like. This makes it possible to detect whether a person lying on a bed or the like is in a normal lying position or a dangerous lying position.

特開2015−198771号公報Japanese Unexamined Patent Publication No. 2015-198771

上述した特許文献1に記載の技術は、ベッド等に横たわった臥位の人間の姿勢状態を検出するものであり、臥位以外の姿勢状態を検出するものではなかった。また、特許文献1に記載の技術は、姿勢状態の検出ではあるものの、姿勢そのものを検出するというよりは正常な姿勢か異常な姿勢かを判定する技術であり、体幹を回転軸とする回転角と手の長さ方向を回転軸とする回転角とをそれぞれ検出して、その組み合わせの正常性を判定しているに過ぎない。 The technique described in Patent Document 1 described above detects a posture state of a person lying on a bed or the like in a lying position, and does not detect a posture state other than the lying position. Further, although the technique described in Patent Document 1 is a technique for detecting a posture state, it is a technique for determining whether the posture is a normal posture or an abnormal posture rather than detecting the posture itself, and rotation with the trunk as the rotation axis. It merely detects the angle and the angle of rotation with the length direction of the hand as the axis of rotation, and determines the normality of the combination.

本発明は、臥位以外の姿勢状態における人間の下半身の関節の状態を可能な限りシンプルなデバイス構成によって特定可能にすることを目的とする。また、更に望ましくは、臥位以外の姿勢状態を取る人間に加わる負荷を定量的に評価したり、臥位以外の姿勢状態の幾つかについて当該姿勢状態にあるか否かを判定可能にしたりすることを可能にする。 An object of the present invention is to make it possible to identify the state of the joints of the lower body of a human being in a posture state other than the recumbent position by using a device configuration as simple as possible. Further, more preferably, it is possible to quantitatively evaluate the load applied to a person who takes a posture state other than the lying position, and to make it possible to determine whether or not some of the posture states other than the lying position are in the posture state. Make it possible.

本発明の態様の1つは、人間の左右少なくとも一方の大腿部に装着される第1加速度センサと、前記人間の上半身に装着される第2加速度センサと、前記第1加速度センサの出力する第1加速度情報と前記第2加速度センサの出力する第2加速度情報とを用いて前記人間の下半身の関節の屈曲状態を特定する演算部と、を備えることを特徴とする姿勢特定システムである。 One of the embodiments of the present invention is to output the first acceleration sensor attached to at least one of the left and right thighs of a human, the second acceleration sensor attached to the upper body of the human, and the first acceleration sensor. It is a posture specifying system including a calculation unit for specifying a flexion state of a joint of the lower body of a human using the first acceleration information and the second acceleration information output by the second acceleration sensor.

このように構成した姿勢特定システムにおいては、第1加速度センサが出力する第1加速度情報と、第2加速度センサが出力する第2加速度情報と、を用いて、人間の下半身の関節の屈曲状態を演算部が特定する。このように、立位等の臥位以外の姿勢状態における人間の下半身の関節の屈曲状態は、大腿部に加わる重力加速度と上半身に加わる重力加速度とを特定することで、その概略を把握可能である。従って、2つの加速度センサと演算部というシンプルなデバイス構成さえ備えていれば、臥位以外の姿勢状態における人間の下半身の関節の屈曲状態をある程度特定することができる。 In the posture identification system configured in this way, the flexion state of the joints of the lower body of a human being is determined by using the first acceleration information output by the first acceleration sensor and the second acceleration information output by the second acceleration sensor. The calculation unit identifies it. In this way, the flexion state of the joints of the lower body of a human being in a posture state other than the lying position such as standing can be roughly grasped by specifying the gravitational acceleration applied to the thigh and the gravitational acceleration applied to the upper body. Is. Therefore, as long as it has a simple device configuration of two acceleration sensors and a calculation unit, it is possible to identify the flexion state of the joints of the lower body of a human being in a posture state other than the recumbent position to some extent.

本発明の選択的な態様の1つとしては、前記演算部が屈曲状態を特定する前記人間の下半身の関節は、前記人間の腰及び膝の関節である、ことを特徴とする姿勢特定システムである。 One of the selective aspects of the present invention is a posture specifying system characterized in that the joints of the lower body of the human being whose calculation unit specifies a flexion state are the joints of the hip and knee of the human being. be.

このように構成した姿勢特定システムにおいては、人間の下半身の関節の内、特に、人間の腰及び膝の関節の屈曲状態を特定する。すなわち、大腿部に加わる重力加速度、上半身に加わる重力加速度、腰の関節の屈曲状態、及び、膝の関節の屈曲状態の4つのパラメータが特定される構成であり、このように必要最小限のパラメータを特定するのみで人間の腰及び膝の関節の屈曲状態の概要を把握することができる。すなわち、加速度センサから必要最小限のパラメータを得て、シンプルな演算を行いさえすれば人間の腰及び膝の関節の屈曲状態を特定することができる。 In the posture specifying system configured in this way, the flexion state of the human lower body joints, particularly the human hip and knee joints, is specified. That is, the gravitational acceleration applied to the thigh, the gravitational acceleration applied to the upper body, the flexion state of the hip joint, and the flexion state of the knee joint are specified. It is possible to get an overview of the flexion state of the human hip and knee joints simply by specifying the parameters. That is, it is possible to identify the flexion state of the human hip and knee joints by obtaining the minimum necessary parameters from the accelerometer and performing a simple calculation.

本発明の選択的な態様の1つとしては、前記演算部が、前記第1加速度情報から特定される大腿部の傾きと、前記第2加速度情報から特定される上半身の傾きと、を用いて、前記人間の腰及び膝の関節の屈曲角を特定する、ことを特徴とする姿勢特定システムである。 As one of the selective aspects of the present invention, the calculation unit uses the inclination of the thigh specified from the first acceleration information and the inclination of the upper body specified from the second acceleration information. The posture specifying system is characterized in that the flexion angles of the human hip and knee joints are specified.

このように構成した姿勢特定システムにおいては、第1加速度センサが出力する第1加速度情報(大腿部に加わる重力加速度)から大腿部の傾きを特定し、第2加速度センサが出力する第2加速度情報(上半身に加わる重力加速度)から上半身(体幹)の傾きを特定し、これら傾きを用いて演算部が人間の腰及び膝の関節の屈曲角を特定する。このように、立位等の臥位以外の姿勢状態における人間の下半身の関節の屈曲状態は、大腿部の傾きと上半身の傾きとを特定することで、その概略を把握可能である。 In the posture identification system configured in this way, the inclination of the thigh is specified from the first acceleration information (gravitational acceleration applied to the thigh) output by the first acceleration sensor, and the second acceleration sensor outputs the second. The inclination of the upper body (trunk) is specified from the acceleration information (gravitational acceleration applied to the upper body), and the calculation unit specifies the flexion angle of the human hip and knee joints using these inclinations. As described above, the flexed state of the joints of the lower body of a human being in a posture state other than the lying position such as a standing position can be roughly grasped by specifying the inclination of the thigh and the inclination of the upper body.

本発明の選択的な態様の1つは、前記第1加速度センサ及び前記第2加速度センサが、それぞれ別のスマートホンに内蔵された加速度センサであり、一方のスマートホンに対し他方のスマートホンから加速度情報が送信され、前記一方のスマートホンが内蔵する前記演算部が、両スマートホンで検出された加速度情報を用いて前記人間の下半身の関節の屈曲状態を特定する演算処理を実行する、ことを特徴とする姿勢特定システムである。 In one of the selective aspects of the present invention, the first acceleration sensor and the second acceleration sensor are acceleration sensors built into different smart phones, and one smart phone is connected to the other smart phone. Accelerometer information is transmitted, and the arithmetic unit built into the one smart phone executes arithmetic processing for identifying the flexion state of the human lower body joint using the acceleration information detected by both smart phones. It is a posture identification system characterized by.

このように構成した姿勢特定システムにおいては、互いに異なるスマートホンに内蔵された2つの加速度センサを用いて大腿部に加わる重力加速度と上半身に加わる重力加速度とを特定し、一方のスマートホン内蔵の演算部が、これら重力加速度を用いた演算処理を実行して立位等の臥位以外の姿勢状態における人間の下半身の関節の屈曲状態を特定する。従って、シンプルなデバイス構成で姿勢特定システムを実現することができる。 In the posture identification system configured in this way, two acceleration sensors built into different smartphones are used to identify the gravitational acceleration applied to the thigh and the gravitational acceleration applied to the upper body, and one of the smart phones is built-in. The calculation unit executes arithmetic processing using these gravitational accelerations to identify the flexion state of the human lower body joint in a posture state other than the lying position such as standing. Therefore, a posture identification system can be realized with a simple device configuration.

本発明の他の態様の1つは、人間の左右少なくとも一方の大腿部に装着される第1加速度センサと、前記第1加速度センサの出力する第1加速度情報に基づいて前記人間がしゃがむ動作を行ったか座る動作を行ったか判定する演算部と、を備える、ことを特徴とする動作判定システムである。 One of the other aspects of the present invention is an operation in which the human crouches based on a first acceleration sensor attached to at least one of the left and right thighs of the human and the first acceleration information output by the first acceleration sensor. It is an operation determination system including a calculation unit for determining whether a person has performed a sitting motion or a sitting motion.

このように構成した動作判定システムにおいては、大腿部に装着された第壱加速度センサが出力する第1加速度情報を用いて、人間の行ったしゃがむ動作と座る動作とを判別することができる。このように、1つの加速度センサと演算部というシンプルなデバイス構成さえ備えていれば、人間の下半身の関節の屈曲状態が類似したしゃがむ動作と座る動作とを判別することができる。 In the motion determination system configured in this way, it is possible to discriminate between the squatting motion and the sitting motion performed by a human using the first acceleration information output by the first acceleration sensor mounted on the thigh. As described above, as long as it has a simple device configuration of one acceleration sensor and a calculation unit, it is possible to discriminate between a squatting motion and a sitting motion in which the flexion states of the joints of the lower body of a human are similar.

以上説明した姿勢特定システムや動作判定システムは、他の機器に組み込まれた状態で実施されたり他の方法とともに実施されたりする等の各種の態様を含む。また上述した姿勢特定システムや動作判定システムに体現される方法は、他の方法の一環として実施されたりする等の各種の態様を含む。また、上述した姿勢特定システムや動作判定システムで用いるプログラムは、該プログラムを記録したコンピュータ読み取り可能な記録媒体、等としても実現可能である。 The posture identification system and the motion determination system described above include various aspects such as being implemented in a state of being incorporated in another device or being implemented together with other methods. Further, the method embodied in the posture identification system and the motion determination system described above includes various aspects such as being implemented as a part of other methods. Further, the program used in the posture specifying system and the motion determination system described above can also be realized as a computer-readable recording medium or the like on which the program is recorded.

本発明によれば、立位または座位における下半身の関節の状態を可能な限りシンプルなデバイス構成によって特定することができる。 According to the present invention, the state of the joints of the lower body in the standing or sitting position can be specified by the device configuration as simple as possible.

本実施形態に係る姿勢特定システムの外観を概略的に示した図である。It is a figure which showed the appearance of the posture identification system which concerns on this embodiment schematic. 本実施形態に係る姿勢特定システムの電気的構成を概略的に示した図である。It is a figure which showed schematicly about the electrical structure of the posture specifying system which concerns on this embodiment. 姿勢特定処理の具体的な一例を示す図である。It is a figure which shows a specific example of a posture specifying process. 第2の実施形態にかかる腰部負荷特定処理の流れを説明する図である。It is a figure explaining the flow of the lumbar load identification processing which concerns on 2nd Embodiment. 第3の実施形態にかかる姿勢特定処理の流れを説明する図である。It is a figure explaining the flow of the posture specifying process which concerns on 3rd Embodiment. 人間が「立ち姿勢(歩き姿勢含む)」から椅子等に座った「座り姿勢」に移行する間の加速度センサの傾きを説明する図である。It is a figure explaining the inclination of an accelerometer while a person shifts from a "standing posture (including a walking posture)" to a "sitting posture" sitting on a chair or the like. 人間が「立ち姿勢(歩き姿勢含む)」から椅子等に座った「座り姿勢」に移行し、その後、「座り姿勢」から「立ち姿勢」に移行した場合に、加速度センサから得られる測定値の絶対値の経時変化を示す図である。The measured value obtained from the accelerometer when a person shifts from a "standing posture (including walking posture)" to a "sitting posture" sitting on a chair, etc., and then from a "sitting posture" to a "standing posture". It is a figure which shows the time-dependent change of an absolute value. 人間が「立ち姿勢」からしゃがみこんだ「しゃがみ姿勢」に移行する間の加速度センサの傾きを説明する図である。It is a figure explaining the inclination of an accelerometer while a person shifts from a "standing posture" to a crouching "crouching posture". 人間が「立ち姿勢」からしゃがみこんだ「しゃがみ姿勢」に移行し、その後、「しゃがみ姿勢」から「立ち姿勢」に移行した場合に、加速度センサから得られる測定値の絶対値の経時変化を示す図である。The figure which shows the time-dependent change of the absolute value of the measured value obtained from an accelerometer when a person shifts from a "standing posture" to a crouching "crouching posture" and then shifts from a "crouching posture" to a "standing posture". Is.

以下、下記の順序に従って本発明を説明する。
(A)第1の実施形態:
(B)第2の実施形態:
(C)第3の実施形態:
Hereinafter, the present invention will be described in the following order.
(A) First embodiment:
(B) Second embodiment:
(C) Third embodiment:

(A)第1の実施形態:
図1は、本実施形態に係るシステム100(姿勢特定システム又は動作判定システム)の外観を概略的に示した図、図2は、システム100の電気的構成を概略的に示した図である。
(A) First embodiment:
FIG. 1 is a diagram schematically showing the appearance of the system 100 (posture identification system or motion determination system) according to the present embodiment, and FIG. 2 is a diagram schematically showing the electrical configuration of the system 100.

姿勢特定システム100は、第1加速度センサとしての加速度センサ10、第2加速度センサとしての加速度センサ20、演算部30、及び、表示部40、を備える。 The attitude identification system 100 includes an acceleration sensor 10 as a first acceleration sensor, an acceleration sensor 20 as a second acceleration sensor, a calculation unit 30, and a display unit 40.

加速度センサ10は、人間Mの大腿部Fに装着される。加速度センサ20は、加速度センサ10が装着された同じ人間Mの上半身Buに装着される。人間Mの上半身Buは人間Mの胴体において腰よりも上の部位を指す。加速度センサ10は、例えば人間Mが被着したズボンの右ポケットに収容することで人間Mの大腿部に装着され、加速度センサ20は、例えば人間Mが被着したシャツの胸ポケットに収容することで人間Mの上半身Buに装着される。 The acceleration sensor 10 is attached to the thigh F of the human M. The acceleration sensor 20 is attached to the upper body Bu of the same human M to which the acceleration sensor 10 is attached. Human M's upper body Bu refers to the part of the human M's torso above the waist. The accelerometer 10 is attached to the thigh of the human M by accommodating it in the right pocket of the pants worn by the human M, for example, and the accelerometer 20 is accommodated in the chest pocket of the shirt worn by the human M, for example. As a result, it is attached to the upper body Bu of human M.

本実施形態において、加速度センサ10は情報処理端末Saに内蔵され、加速度センサ20は情報処理端末Sbに内蔵されている。情報処理端末Sa,Sbは、例えばスマートホンやタブレット端末等の携帯型の情報処理装置である。なお、加速度センサ10,20は、情報処理端末以外のデバイスに内蔵されている加速度センサを用いてもよいし、単体の加速度センサを用いてもよい。 In the present embodiment, the acceleration sensor 10 is built in the information processing terminal Sa, and the acceleration sensor 20 is built in the information processing terminal Sb. The information processing terminals Sa and Sb are portable information processing devices such as smartphones and tablet terminals. As the acceleration sensors 10 and 20, an acceleration sensor built in a device other than the information processing terminal may be used, or a single acceleration sensor may be used.

情報処理端末Saは、マイコン等の演算部30を有する。演算部30は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)及びROM(Read Only Memory)により構成され、ROMに記憶されたプログラム(本実施形態においては姿勢特定プログラム)をRAMにロードしつつ、当該プログラムに基づく演算処理をCPUが実行する。なお、演算部30は情報処理端末Saが内蔵するものに限られず、外部の情報処理装置内蔵のものを用いてもよい。 The information processing terminal Sa has a calculation unit 30 such as a microcomputer. The calculation unit 30 is composed of, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and a program stored in the ROM (a posture identification program in the present embodiment) is stored in the RAM. While loading, the CPU executes arithmetic processing based on the program. The calculation unit 30 is not limited to the one built in the information processing terminal Sa, and the one built in the external information processing device may be used.

情報処理端末Sbは、情報処理端末Saと通信可能な通信部50bを有する。通信部50bは、加速度センサ20の出力データD2を情報処理端末Saへ送信する。情報処理端末Saの通信部50aは、通信部50bから送信されるデータを受信する。なお、通信部50bは、加速度センサ20の出力データD2に基づいて情報処理端末Sb内蔵のマイコン等の演算部30bが行った演算結果を情報処理端末Saへ送信してもよい。演算部30として外部の情報処理装置が内蔵する演算部を用いる場合は、情報処理端末Sa,Sbは、各通信部50a,50bを介して情報処理装置へ加速度センサ10,20の出力データ又は演算結果を送信する。 The information processing terminal Sb has a communication unit 50b capable of communicating with the information processing terminal Sa. The communication unit 50b transmits the output data D2 of the acceleration sensor 20 to the information processing terminal Sa. The communication unit 50a of the information processing terminal Sa receives the data transmitted from the communication unit 50b. The communication unit 50b may transmit the calculation result performed by the calculation unit 30b such as the microcomputer built in the information processing terminal Sb to the information processing terminal Sa based on the output data D2 of the acceleration sensor 20. When a calculation unit built in an external information processing device is used as the calculation unit 30, the information processing terminals Sa and Sb send the output data or calculation of the acceleration sensors 10 and 20 to the information processing device via the communication units 50a and 50b. Send the result.

加速度センサ10,20は、加速度を検出する検出軸数が2以上の加速度センサである。本実施形態においては、加速度センサ10は検出軸A1x,A1y,A1zの3軸式加速度センサとし、加速度センサ20は検出軸A2x,A2y,A2zの3軸式加速度センサとする。 The acceleration sensors 10 and 20 are acceleration sensors having two or more detection axes for detecting acceleration. In the present embodiment, the acceleration sensor 10 is a three-axis acceleration sensor with detection axes A1x, A1y, and A1z, and the acceleration sensor 20 is a three-axis acceleration sensor with detection axes A2x, A2y, and A2z.

情報処理端末Sa,Sbに内蔵された加速度センサ10,20は、例えば、図1に示すように、端末の左右方向(端末を基準にして左方向が正)が検出軸A1x,A2xを構成し、端末の上下方向(上方向が正)が検出軸A1y,A2yを構成し、端末の前後方向(前面方向が正)が検出軸A1z,A2zを構成する。 In the acceleration sensors 10 and 20 built into the information processing terminals Sa and Sb, for example, as shown in FIG. 1, the left-right direction of the terminal (the left direction is positive with respect to the terminal) constitutes the detection axes A1x and A2x. The vertical direction (upward direction is positive) of the terminal constitutes the detection axes A1y and A2y, and the front-back direction (front direction is positive) of the terminal constitutes the detection axes A1z and A2z.

人間Mの大腿部Fに取り付けられる加速度センサ10は、例えば各軸の方向を次のよう配向させる。検出軸A1yについては、人間Mの太腿の長さ方向に沿う方向に配向させ、膝に向かう方向を正、腰に向かう方向を負とする。検出軸A1zについては、人間Mの太腿の長さ方向と直交するように太腿の前後方向に沿う方向に配向させ、太腿の前方に向かう方向を負、太腿の後方に向かう方向を正とする。 The acceleration sensor 10 attached to the thigh F of the human M, for example, orients the directions of each axis as follows. The detection axis A1y is oriented in the direction along the length direction of the thigh of the human M, and the direction toward the knee is positive and the direction toward the waist is negative. The detection axis A1z is oriented along the anteroposterior direction of the thigh so as to be orthogonal to the length direction of the thigh of the human M, the direction toward the front of the thigh is negative, and the direction toward the back of the thigh is negative. Positive.

人間Mの上半身Buに取り付けられる加速度センサ10は、例えば各軸の方向を次のよう配向させる。検出軸A2yについては、人間Mの体幹の延びる方向に沿う方向に配向させ、腰に向かう方向を正、頭に向かう方向を負とする。検出軸A2zについては、人間Mの体幹の長さ方向と直交するように上半身の前後方向に沿う方向に配向し、上半身の前方に向かう方向を負、上半身の後方に向かう方向を正とする。 The acceleration sensor 10 attached to the upper body Bu of the human M, for example, orients the directions of each axis as follows. The detection axis A2y is oriented in the direction along the extending direction of the trunk of the human M, and the direction toward the waist is positive and the direction toward the head is negative. The detection axis A2z is oriented along the anteroposterior direction of the upper body so as to be orthogonal to the length direction of the trunk of the human M, the direction toward the front of the upper body is negative, and the direction toward the rear of the upper body is positive. ..

以下、演算部30が姿勢特定プログラムを実行して行う姿勢特定処理の具体的な一例について、図3を参照しつつ説明する。 Hereinafter, a specific example of the posture specifying process performed by the calculation unit 30 by executing the posture specifying program will be described with reference to FIG.

本処理では、まず人間Mに略直立姿勢を取って貰い、初期値の取得を行う(S11)。演算部30は、人間Mが略直立姿勢を取っている間に加速度センサ10,20の出力する加速度の値を取得する。すなわち、大腿部に加わる加速度(主に重力加速度)の初期値G10(=(G10x,G10y,G10z))を加速度センサ10から取得し、上半身の体幹部に加わる加速度(主に重力加速度)の初期値G20(=(G20x,G20y,G20z))を加速度センサ20から取得する。以下、この状態の人間Mを初期状態と呼ぶ場合がある。 In this process, first, the human M is asked to take a substantially upright posture, and the initial value is acquired (S11). The calculation unit 30 acquires the value of the acceleration output by the acceleration sensors 10 and 20 while the human M is in a substantially upright posture. That is, the initial value G10 (= (G10x, G10y, G10z)) of the acceleration applied to the thigh (mainly the gravitational acceleration) is acquired from the acceleration sensor 10, and the acceleration applied to the trunk of the upper body (mainly the gravitational acceleration). The initial value G20 (= (G20x, G20y, G20z)) is acquired from the acceleration sensor 20. Hereinafter, the human M in this state may be referred to as an initial state.

その後、任意の瞬間に、人間Mの下半身の関節の状態を特定するための処理を行う。なお、人間Mの下半身とは、人間Mの腰以下の部位を指す。本実施形態では、人間Mの腰以下の関節として腰関節及び膝関節の状態を特定する。 Then, at an arbitrary moment, a process for identifying the state of the joints of the lower body of the human M is performed. The lower body of the human M refers to a part below the waist of the human M. In the present embodiment, the states of the hip joint and the knee joint are specified as the joints below the waist of the human M.

具体的には、まず任意の瞬間に、加速度センサ10,20の出力する加速度の測定値を取得する(S12)。すなわち、大腿部に加わっている加速度(主に重力加速度)の測定値G11(=(G11x,G11y,G11z))を加速度センサ10から取得し、上半身の体幹部に加わっている加速度(主に重力加速度)の測定値G12(=(G12x,G12y,G12z))を加速度センサ20から取得する。 Specifically, first, at an arbitrary moment, the measured value of the acceleration output by the acceleration sensors 10 and 20 is acquired (S12). That is, the measured value G11 (= (G11x, G11y, G11z)) of the acceleration applied to the thigh (mainly the gravitational acceleration) is acquired from the acceleration sensor 10, and the acceleration applied to the trunk of the upper body (mainly). The measured value G12 (= (G12x, G12y, G12z)) of the gravitational acceleration) is acquired from the acceleration sensor 20.

次に、初期状態を基準とし、人間Mの上半身の体幹がどの程度傾いているかを示す上体傾角θBと、人間Mの大腿部がどの程度傾いているかを示す大腿傾度θLと、を算出する(S13)。上体傾角θBと大腿傾度θLは、初期値G10,G20及び測定値G11,G21を用いて、上体傾角θBは下記式(1)により算出することが可能であり、大腿傾角θLは下記式(2)により算出することが可能である。 Next, based on the initial state, the upper body inclination angle θB indicating how much the trunk of the upper body of the human M is tilted and the thigh inclination θL indicating how much the thigh of the human M is tilted are calculated. Calculate (S13). The upper body tilt angle θB and the thigh tilt angle θL can be calculated by the following formula (1) using the initial values G10 and G20 and the measured values G11 and G21, and the thigh tilt angle θL can be calculated by the following formula (1). It can be calculated according to (2).

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

次に、得られた上体傾角θBと大腿傾角θLを用いて、人間Mの腰屈曲角度θWと、膝屈曲角度θNとを算出する(S14)。 Next, using the obtained upper body tilt angle θB and thigh tilt angle θL, the waist flexion angle θW and the knee flexion angle θN of the human M are calculated (S14).

腰屈曲角度θWは、理論的には、肩と股関節を結ぶ直線と、股関節と膝を結ぶ直線とが成す角度と考えることができ、実際には、体幹の延びる方向に沿って延びる直線と、太腿の延びる方向に沿って延びる直線とが成す角度として把握することができる。 The lumbar flexion angle θW can theoretically be considered as the angle formed by the straight line connecting the shoulder and the hip joint and the straight line connecting the hip joint and the knee, and is actually a straight line extending along the extending direction of the trunk. , It can be grasped as an angle formed by a straight line extending along the extending direction of the thigh.

膝屈曲角度θNは、理論的には、股関節と膝を結ぶ直線と、膝と足首を結ぶ直線とが成す角度と考えることができ、実際には、大腿の延びる方向に沿って延びる直線と、下腿の延びる方向に沿って延びる直線とが成す角度として把握することができる。なお、下腿については、膝が地面に対して垂直であると仮定した場合の仮想的な下腿の延びる方向に沿って延びる直線を用いてある。 The knee flexion angle θN can theoretically be considered as the angle formed by the straight line connecting the hip joint and the knee and the straight line connecting the knee and the ankle, and in reality, the straight line extending along the extending direction of the thigh and the straight line extending along the extending direction of the thigh. It can be grasped as an angle formed by a straight line extending along the extending direction of the lower leg. As for the lower leg, a straight line extending along the virtual extension direction of the lower leg is used assuming that the knee is perpendicular to the ground.

腰屈曲角度θWは下記式(3)を用いて、膝屈曲角度θNは下記式(4)を用いてそれぞれ算出できる。なお、初期状態における人間Mの腰屈曲角度θWと膝屈曲角度θNを0°とする。 The waist flexion angle θW can be calculated using the following formula (3), and the knee flexion angle θN can be calculated using the following formula (4). The waist flexion angle θW and the knee flexion angle θN of the human M in the initial state are set to 0 °.

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

以上の処理により、臥位以外の姿勢状態を取る人間Mの下半身の関節の状態を特定することができる。また、携帯情報端末が内蔵する加速度センサ10,20を用いた場合は、シンプルなデバイス構成でこれを実現することができる。また、携帯情報端末が内蔵する演算部30を用いて上体傾角θB、大腿傾角θL、腰屈曲角度θW及び膝屈曲角度θNを算出することにより、更にシンプルなデバイス構成でこれを実現することができる。また、このようにして取得した情報は、例えば、情報処理端末Saの表示部40や情報処理端末Sbの表示部40bに表示してもよい。また、情報処理端末Sa,Sbの通信機能を用いて、直接又は通信ネットワークを介して外部の情報処理装置へ送信してもよい。 By the above processing, it is possible to identify the state of the joints of the lower body of the human M who takes a posture state other than the recumbent position. Further, when the acceleration sensors 10 and 20 built in the mobile information terminal are used, this can be realized by a simple device configuration. Further, by calculating the upper body tilt angle θB, the thigh tilt angle θL, the waist flexion angle θW, and the knee flexion angle θN using the calculation unit 30 built in the mobile information terminal, this can be realized with a simpler device configuration. can. Further, the information acquired in this way may be displayed on, for example, the display unit 40 of the information processing terminal Sa or the display unit 40b of the information processing terminal Sb. Further, the information processing terminals Sa and Sb may be used to transmit information directly or via a communication network to an external information processing device.

(B)第2の実施形態:
次に、第2の実施形態に係る腰部負荷特定システムについて説明する。第2の実施形態に係る腰部負荷特定システムは、デバイス構成については上述した第1の実施形態に係る姿勢特定システム100と同様であるため、姿勢特定システム100と同じ符号を用いて説明する。
(B) Second embodiment:
Next, the lumbar load specifying system according to the second embodiment will be described. Since the lumbar load specifying system according to the second embodiment has the same device configuration as the posture specifying system 100 according to the first embodiment described above, it will be described using the same reference numerals as the posture specifying system 100.

図4は、第2の実施形態にかかる腰部負荷特定方法を実現するための腰部負荷特定処理の流れを説明する図である。 FIG. 4 is a diagram illustrating a flow of a lumbar load specifying process for realizing the lumbar load specifying method according to the second embodiment.

本処理においては、まず、携帯情報処理端末のユーザーインターフェースを介して、人間Mの身長、体重、取扱物の重量に係る数値の入力を受け付ける。携帯情報処理端末のユーザーインターフェースとしては、キーボード(ソフトウェアキーボード含む)やマウス、タッチパネル等が例示される。 In this process, first, the input of numerical values related to the height, weight, and weight of the handled object of the human M is accepted via the user interface of the portable information processing terminal. Examples of the user interface of the portable information processing terminal include a keyboard (including a software keyboard), a mouse, and a touch panel.

次に、第1の実施形態と同様に、大腿部Fに加わる加速度の初期値G10と上半身Buに加わる加速度の初期値G20を取得する(S21)。その後、第1の実施形態と同様に、任意の瞬間に、測定値の取得(S22)、上体傾角及び大腿傾角の算出(S23)、並びに、腰屈曲角度及び膝屈曲角度の算出(S24)を行って人間Mの姿勢を特定し、その後、特定した姿勢の人間Mの腰部にかかる負荷を推定する処理を行う(S25)。なお、人間Mの姿勢を特定するまでの処理は上述した第1の実施形態と同様であるため、詳細な説明は省略する。 Next, as in the first embodiment, the initial value G10 of the acceleration applied to the thigh F and the initial value G20 of the acceleration applied to the upper body Bu are acquired (S21). After that, as in the first embodiment, at an arbitrary moment, acquisition of measured values (S22), calculation of upper body tilt angle and thigh tilt angle (S23), and calculation of waist flexion angle and knee flexion angle (S24). Is performed to specify the posture of the human M, and then a process of estimating the load applied to the waist of the human M in the specified posture is performed (S25). Since the process up to specifying the posture of the human M is the same as that of the first embodiment described above, detailed description thereof will be omitted.

人間Mの姿勢が特定されると、次に、当該姿勢をとることによって人間Mの腰部に加わる負荷を算出する。下記式(5)は、人間Mの姿勢が、人間Mの腰部椎間板に与える腰部椎間板圧迫力Fcを推定する式である。 After the posture of the human M is specified, the load applied to the lumbar region of the human M by taking the posture is calculated next. The following formula (5) is a formula for estimating the lumbar disc compression force Fc that the posture of the human M gives to the lumbar disc of the human M.

Figure 0006928939
Figure 0006928939

前記式(5)において、UwはL5(第5腰椎)/S1(仙骨)関節より上の体重、gは重力加速度(9.8(m/s))、RarはL5/S1関節の関節面の傾斜角、Lwは取扱物の重量、Faは腹圧、FmはFaと共にL5/S1関節まわりのモーメントに対抗する脊柱起立筋の力、をそれぞれ表す。 In the above formula (5), Uw is the weight above the L5 (fifth lumbar vertebra) / S1 (sacral) joint, g is the gravitational acceleration (9.8 (m / s 2 )), and Rar is the joint of the L5 / S1 joint. The angle of inclination of the surface, Lw is the weight of the object to be handled, Fa is the abdominal pressure, and Fm is the force of the erector spinae muscle that opposes the moment around the L5 / S1 joint together with Fa.

前記式(5)の各変数は、人間Mの身長、人間Mの体重、取扱物の重量、上体傾角、上腕角度、前腕角度、大腿角度、下腿角度、腰屈曲角、膝屈曲角、の各値により構成されるパラメータ群を用いて算出することができる。本実施形態では、このパラメータ群のうち、取扱物の重量、上腕角度、前腕角度及び下腿角度、の各値を特定しない構成を採用し、いずれも0として計算を行う。従って、本実施形態においては、腰部椎間板圧迫力Fcの各変数は、人間Mの身長、人間Mの体重、上体傾角、大腿角度、腰屈曲角及び膝屈曲角を用いて下記の方法により求められる。むろん、取扱物の重量、上腕角度、前腕角度及び下腿角度、の各値を特定するための構成を追加し、これら各値を含めて前記式(5)の計算を行うことも可能である。 Each variable of the above equation (5) is the height of the human M, the weight of the human M, the weight of the object to be handled, the upper body tilt angle, the upper arm angle, the forearm angle, the thigh angle, the lower leg angle, the waist flexion angle, and the knee flexion angle. It can be calculated using a parameter group composed of each value. In the present embodiment, a configuration in which each value of the weight of the object to be handled, the upper arm angle, the forearm angle and the lower leg angle is not specified in this parameter group is adopted, and the calculation is performed with all of them set to 0. Therefore, in the present embodiment, each variable of the lumbar disc compression force Fc is obtained by the following method using the height of the human M, the weight of the human M, the upper body tilt angle, the thigh angle, the lumbar flexion angle, and the knee flexion angle. Be done. Of course, it is also possible to add a configuration for specifying each value of the weight of the handled object, the upper arm angle, the forearm angle and the lower leg angle, and perform the calculation of the above equation (5) including these values.

まず、L5/S1関節より上の体重Uwは、例えば腰より上の重量として定義され、例えば、下記式(6)に示すように、全体重に対して体の各部位の比率を乗算することにより算出することができる。 First, the weight Uw above the L5 / S1 joint is defined as, for example, the weight above the waist, and for example, as shown in the following formula (6), multiplying the total weight by the ratio of each part of the body. Can be calculated by

Figure 0006928939
Figure 0006928939

前記式(6)において、Wは人間Mの体重、Wp1は胴体の重さ、Wiは頭部の重さ、Wh及びWhhは左右の肩から肘にかけての重さ、Wg及びWggは左右の肘から先の重さを表す。なお、前記式(6)に示した各部位の比率を表す数値は一例である。 In the above formula (6), W is the weight of the human M, Wp1 is the weight of the torso, Wi is the weight of the head, Wh and Wh are the weights from the left and right shoulders to the elbows, and Wg and Wgg are the left and right elbows. Represents the weight of the tip. The numerical value representing the ratio of each part shown in the above formula (6) is an example.

次に、L5/S1関節の関節面の傾斜角Rarは、例えば、下記式(7)に示すAndersonの式を用いて求めることができる。 Next, the inclination angle Rar of the joint surface of the L5 / S1 joint can be obtained, for example, by using Anderson's equation shown in the following equation (7).

Figure 0006928939
Figure 0006928939

本実施形態では、前記式(7)に示す上体傾角Qtとして上述した上体傾角θBを用い、膝屈曲角Qkとして上述した膝屈曲角θNを用いる。 In the present embodiment, the above-mentioned upper body tilt angle θB is used as the upper body tilt angle Qt shown in the above formula (7), and the above-mentioned knee flexion angle θN is used as the knee flexion angle Qk.

次に、腹圧Faは、横隔膜等が腹側から背中に向けて押す力であり、背骨の形状に影響する力である。腹圧Faは、例えば下記式(8)に示すFisherの式を用いて求められる。 Next, the abdominal pressure Fa is a force that the diaphragm or the like pushes from the ventral side toward the back, and is a force that affects the shape of the spine. The abdominal pressure Fa can be obtained, for example, by using Fisher's formula represented by the following formula (8).

Figure 0006928939
Figure 0006928939

前記式(8)において、Rhは腰屈曲角を表し、ML5/S1は、L5/S1関節まわりの取扱い物によるモーメントを表す。腰屈曲角Rhは上述した腰屈曲角度θWを用いる。モーメントML5/S1は、下記式(9)に示すように、身体の各部位の腰部からのモーメントを求め、その合計値を用いることができる。 In the formula (8), Rh represents a hip flexion angle, M L5 / S1 represents the moment due to the handling of around L5 / S1 joint. As the waist flexion angle Rh, the waist flexion angle θW described above is used. For the moment M L5 / S1 , as shown in the following equation (9), the moment from the lumbar region of each part of the body can be obtained, and the total value thereof can be used.

Figure 0006928939
Figure 0006928939

前記式(9)において、Xppは胴体のx軸の重心座標、Wp1は胴体の重さ,Xipは頭部のx軸の重心座標、Wiは頭部の重さ、Xhpは右肩から右肘のx軸の重心座標、Xhppは左肩から左肘のx座標の重心座標、Whは肩から肘にかけての部分の重さ、Xgpは右肘から右手首までのx軸の重心座標、Xggpは左肘から左手首までのx軸の重心座標、Wgは肘から手首までの部分の重さ、Xwpは右の手のx軸の重心座標、Xwwpは左の手のx軸の重心座標を表す。なお、ここで言うx軸とは、人間Mが直立した状態で水平且つ前後方向に沿って延びる軸である。各部位の重心座標は、人間Mの身長Hに基づいて統計的な平均値として求まる各部位の長さと、各部位の角度とを用いて求めることができる。下記式(10)〜(17)は、各部位の重心座標を求める式の一例である。 In the above equation (9), Xpp is the coordinate of the x-axis of the body, Wp1 is the weight of the body, Xip is the coordinate of the x-axis of the head, Wi is the weight of the head, and Xhp is the right shoulder to the right elbow. X-axis coordinate of the center of gravity, Xhpp is the x-coordinate coordinate of the left shoulder to the left elbow, Wh is the weight of the part from the shoulder to the elbow, Xgp is the center of gravity coordinate of the x-axis from the right elbow to the right wrist, Xggp is the left The x-axis center of gravity coordinates from the elbow to the left wrist, Wg is the weight of the part from the elbow to the wrist, Xwp is the x-axis center of gravity coordinate of the right hand, and Xwww is the x-axis center of gravity coordinate of the left hand. The x-axis referred to here is an axis extending horizontally and along the front-rear direction in a state where the human M stands upright. The coordinates of the center of gravity of each part can be obtained by using the length of each part obtained as a statistical average value based on the height H of the human M and the angle of each part. The following equations (10) to (17) are examples of equations for obtaining the coordinates of the center of gravity of each part.

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

Figure 0006928939
Figure 0006928939

上記式(10)〜(17)において、Q5は右上腕角度、Q55は左上腕角度、Q6は右前腕角度、Q66は左前腕角度、である。また、上記式(10)〜(17)で用いたa4は、下記式(18)で表される。 In the above equations (10) to (17), Q5 is the upper right arm angle, Q55 is the upper left arm angle, Q6 is the right forearm angle, and Q66 is the left forearm angle. Further, a4 used in the above formulas (10) to (17) is represented by the following formula (18).

Figure 0006928939
Figure 0006928939

次に、力Fmは、下記式(19)に示す、取扱物による力とそれを支える力のつり合いの式から求めることができる。 Next, the force Fm can be obtained from the equation of the balance between the force due to the handling object and the force supporting it, which is shown in the following equation (19).

Figure 0006928939
Figure 0006928939

前記式(19)において、Dは腹圧によるL5/S1まわりのモーメントアーム長を表す。前記式(19)において、Eは脊柱起立筋のモーメントアーム長を表し、一般に0.05(m)で近似される。モーメントアーム長Dは、例えば下記式(20)に示すMorrisの式を用いて算出できる。 In the above formula (19), D represents the moment arm length around L5 / S1 due to abdominal pressure. In the above equation (19), E represents the moment arm length of the erector spinae muscle and is generally approximated by 0.05 (m). The moment arm length D can be calculated using, for example, the Morris equation shown in the following equation (20).

Figure 0006928939
Figure 0006928939

以上のように、人間Mの身長、人間Mの体重、上体傾角、大腿角度、腰屈曲角及び膝屈曲角の各パラメータを用いて、前記式(5)の各変数としての、L5/S1関節より上の体重Uw、L5/S1関節の関節面の傾斜角Rar、腹圧Fa、及び、Faと共にL5/S1関節まわりのモーメントに対抗する脊柱起立筋の力Fm、がそれぞれ求まる。これにより、前記式(5)に示す腰部椎間板圧迫力Fcを求めることができる。すなわち、上体傾角θB及び膝屈曲角θNを用いて、腰部に加わる負荷を特定することができる。また、このようにして取得した情報は、例えば、情報処理端末Saの表示部40や情報処理端末Sbの表示部40bに表示してもよい。また、情報処理端末Sa,Sbの通信機能を用いて、直接又は通信ネットワークを介して外部の情報処理装置へ送信してもよい。 As described above, L5 / S1 as each variable of the above equation (5) using the height of the human M, the weight of the human M, the upper body tilt angle, the thigh angle, the waist flexion angle and the knee flexion angle. The weight Uw above the joint, the inclination angle Rar of the joint surface of the L5 / S1 joint, the abdominal pressure Fa, and the force Fm of the erector spinae muscle that opposes the moment around the L5 / S1 joint together with Fa are obtained. As a result, the lumbar disc compression force Fc represented by the above formula (5) can be obtained. That is, the load applied to the lumbar region can be specified by using the upper body tilt angle θB and the knee flexion angle θN. Further, the information acquired in this way may be displayed on, for example, the display unit 40 of the information processing terminal Sa or the display unit 40b of the information processing terminal Sb. Further, the information processing terminals Sa and Sb may be used to transmit information directly or via a communication network to an external information processing device.

(C)第3の実施形態:
次に、第3の実施形態に係る姿勢特定システムについて説明する。第3の実施形態に係る姿勢特定システムは、上半身Buに装着する加速度センサ20が不要である点を除くと、デバイス構成は上述した第1の実施形態に係る姿勢特定システム100と同様であるため、姿勢特定システム100と同じ符号を用いて説明する。
(C) Third embodiment:
Next, the posture specifying system according to the third embodiment will be described. The posture identification system according to the third embodiment has the same device configuration as the posture identification system 100 according to the first embodiment described above, except that the acceleration sensor 20 attached to the upper body Bu is unnecessary. , The same reference numerals as those of the posture specifying system 100 will be described.

図5は、第3の実施形態にかかる姿勢特定方法を実現するための姿勢特定処理の流れを説明する図である。 FIG. 5 is a diagram illustrating a flow of a posture specifying process for realizing the posture specifying method according to the third embodiment.

本実施形態では、まず人間Mに略直立姿勢を取って貰い、初期値の取得を行う(S31)。演算部30は、人間Mが略直立姿勢を取っている間に、加速度センサ10の出力する加速度の値を取得する。すなわち、大腿部Fに加わる加速度(主に重力加速度)の初期値G10(=(G10x,G10y,G10z))を加速度センサ10から取得する。 In the present embodiment, first, the human M is asked to take a substantially upright posture, and the initial value is acquired (S31). The calculation unit 30 acquires the value of the acceleration output by the acceleration sensor 10 while the human M is in a substantially upright posture. That is, the initial value G10 (= (G10x, G10y, G10z)) of the acceleration (mainly the gravitational acceleration) applied to the thigh F is acquired from the acceleration sensor 10.

次に、加速度センサ10の出力する加速度の測定値の連続的な取得を開始する(S32)。すなわち、大腿部Fに加わる加速度(主に重力加速度)の測定値G11(=(G11x,G11y,G11z))を加速度センサ10から連続的に取得する。 Next, continuous acquisition of the measured value of the acceleration output by the acceleration sensor 10 is started (S32). That is, the measured value G11 (= (G11x, G11y, G11z)) of the acceleration (mainly the gravitational acceleration) applied to the thigh F is continuously acquired from the acceleration sensor 10.

図6は、人間Mが「立ち姿勢(歩き姿勢含む)」から椅子等に座った「座り姿勢」に移行する間の加速度センサ10の傾きを説明する図、図7は、人間Mが「立ち姿勢」から椅子等に座った「座り姿勢」に移行し、その後、「座り姿勢」から「立ち姿勢」に移行した場合に、加速度センサ10から得られる測定値G11の絶対値の経時変化を示す図である。 FIG. 6 is a diagram for explaining the inclination of the acceleration sensor 10 while the human M shifts from the “standing posture (including the walking posture)” to the “sitting posture” sitting on a chair or the like, and FIG. 7 shows the human M “standing”. Shows the time course of the absolute value of the measured value G11 obtained from the acceleration sensor 10 when the posture is changed from the posture to the sitting posture and then the sitting posture is changed to the standing posture. It is a figure.

図8は、人間Mが「立ち姿勢」からしゃがみこんだ「しゃがみ姿勢」に移行する間の加速度センサ10の傾きを説明する図、図9は、人間Mが「立ち姿勢」からしゃがみこんだ「しゃがみ姿勢」に移行し、その後、「しゃがみ姿勢」から「立ち姿勢」に移行した場合に、加速度センサ10から得られる測定値G11の絶対値の経時変化を示す図である。 FIG. 8 is a diagram illustrating the inclination of the accelerometer 10 while the human M shifts from the “standing posture” to the “crouching posture”, and FIG. 9 is a diagram showing the “crouching posture” in which the human M crouches from the “standing posture”. It is a figure which shows the time-dependent change of the absolute value of the measured value G11 obtained from the acceleration sensor 10 when it shifts to a "crouching posture" and then shifts from a "standing posture".

なお、図7、図9に示す測定値G11は、加速度センサ10の各軸について鉛直上方を向いている場合に1、鉛直下方を向いている場合に−1、水平方向を向いている場合に0となるように、実測値を重力加速度(9.8m/s)で除して規格化してある。また、図7、図9には、測定値G11の値をいずれも絶対値で示してある。 The measured values G11 shown in FIGS. 7 and 9 are 1 when facing vertically upward, -1 when facing vertically downward, and when facing horizontally with respect to each axis of the acceleration sensor 10. The measured value is standardized by dividing it by the gravitational acceleration (9.8 m / s 2) so that it becomes 0. Further, in FIGS. 7 and 9, the measured value G11 is shown as an absolute value.

図6から分かるように、「立ち姿勢」から「座り姿勢」に移行した場合、|G11y|についてはほぼ1からほぼ0に向けて減少し、|G11z|についてはほぼ0からほぼ1に向けて上昇する変化が発生する。 As can be seen from FIG. 6, when shifting from the “standing posture” to the “sitting posture”, | G11y | decreases from almost 1 to almost 0, and | G11z | decreases from almost 0 to almost 1. An ascending change occurs.

また、図7から分かるように、「立ち姿勢」から「しゃがみ姿勢」に移行した場合にも、|G11y|についてはほぼ1からほぼ0に向けて減少し、|G11z|についてはほぼ0からほぼ1に向けて上昇する変化が発生する。 Further, as can be seen from FIG. 7, even when shifting from the “standing posture” to the “crouching posture”, | G11y | decreases from almost 1 to almost 0, and | G11z | decreases from almost 0 to almost 0. A change that rises toward 1 occurs.

すなわち、「立ち姿勢」から「座り姿勢」又は「しゃがみ姿勢」にそれぞれ移行した場合、測定値G11の絶対値は、Y軸方向の値が減少し、Z軸方向の値が増大して、大小関係が逆転する点で類似した変化が発生する。このことから、|G11z|>|G11y|の場合は「立ち姿勢」、|G11y|>|G11z|の場合は「座り姿勢」又は「しゃがみ姿勢」であるものと判断できる。 That is, when shifting from the "standing posture" to the "sitting posture" or the "crouching posture", the absolute value of the measured value G11 decreases in the Y-axis direction and increases in the Z-axis direction. Similar changes occur in that the relationships are reversed. From this, it can be determined that | G11z |> | G11y | is a "standing posture", and | G11y |> | G11z | is a "sitting posture" or a "crouching posture".

一方、図7から分かるように、「立ち姿勢」から「しゃがみ姿勢」に移行した場合、|G11y|はほぼ1からいったん0まで減少した後、0から0.7付近まで上昇する変化が発生する。これは、図8に示す|G11y|において、ほぼ1から0まで減少している間と、0から0.7付近まで上昇する間とで値の正負が反転しているためである。この変化は「立ち姿勢」から「座り姿勢」に移行した場合には発生しない。すなわち、「座り姿勢」の|G11y|は0付近で安定し、「しゃがみ姿勢」の|G11y|はいったん0まで減少した後、直ぐに上昇して0.7付近で安定している。 On the other hand, as can be seen from FIG. 7, when shifting from the “standing posture” to the “crouching posture”, | G11y | decreases from almost 1 to 0 and then rises from 0 to around 0.7. .. This is because, in | G11y | shown in FIG. 8, the positive and negative values are reversed between the time when the value decreases from approximately 1 to 0 and the time when the value increases from 0 to around 0.7. This change does not occur when shifting from the "standing posture" to the "sitting posture". That is, | G11y | in the "sitting posture" is stable at around 0, and | G11y | in the "crouching posture" is once decreased to 0, then immediately rises and is stable at around 0.7.

以上の状況を踏まえて、連続的に取得される測定値G11を用いて「立ち姿勢」から「座り姿勢」又は「しゃがみ姿勢」への移行が発生したか否かを判定する(S33)。具体的には、|G11y|が減少し、|G11z|が増大して、|G11y|と|G11z|の大小関係が逆転する変化が発生したか否かを判定する。この変化が発生した場合は(S33:Yes)、「座り姿勢」又は「しゃがみ姿勢」への移行が発生したと判断し、この変化が発生していない場合は(S33:No)、「立ち姿勢」のままと判断し、一定時間おきにステップS33の処理を繰り返し実行する。 Based on the above situation, it is determined whether or not a transition from the “standing posture” to the “sitting posture” or the “crouching posture” has occurred using the continuously acquired measured values G11 (S33). Specifically, it is determined whether or not | G11y | decreases and | G11z | increases, causing a change in which the magnitude relationship between | G11y | and | G11z | is reversed. When this change occurs (S33: Yes), it is determined that the transition to the "sitting posture" or the "crouching posture" has occurred, and when this change does not occur (S33: No), the "standing posture" is determined. , And the process of step S33 is repeatedly executed at regular intervals.

「座り姿勢」又は「しゃがみ姿勢」への移行が発生した場合は、「座り姿勢」と「しゃがみ姿勢」の何れへの移行が発生したかを判断する(S34)。「座り姿勢」と「しゃがみ姿勢」の判別においては、|G11y|がほぼ1からいったん所定値以下に減少した後、0から所定値まで上昇する変化が所定時間内に発生したか否かを判定する。この変化が発生した場合は「しゃがみ姿勢」への移行が発生したと判定し(S36)、この変化が発生していない場合は「座り姿勢」への移行が発生したと判定する(S35)。 When the transition to the “sitting posture” or the “crouching posture” occurs, it is determined whether the transition to the “sitting posture” or the “crouching posture” has occurred (S34). In the discrimination between the "sitting posture" and the "crouching posture", it is determined whether or not the change of | G11y | from approximately 1 to a predetermined value or less and then increasing from 0 to a predetermined value occurs within a predetermined time. do. When this change occurs, it is determined that the transition to the "crouching posture" has occurred (S36), and when this change has not occurred, it is determined that the transition to the "sitting posture" has occurred (S35).

この判別で用いる所定値としては、0.1〜0.6の範囲から選択した値を採用可能であり、より好適には0.15〜0.5の範囲から選択した値を採用可能であり、具体的には例えば0.2を採用可能である。所定時間としては、0.8秒〜2.0秒の範囲から選択した値を採用可能であり、より好適には、1.0秒〜1.5秒の範囲から選択した値を採用可能であり、具体的には例えば1.2秒を採用可能である。 As a predetermined value used in this determination, a value selected from the range of 0.1 to 0.6 can be adopted, and more preferably, a value selected from the range of 0.15 to 0.5 can be adopted. Specifically, for example, 0.2 can be adopted. As the predetermined time, a value selected from the range of 0.8 seconds to 2.0 seconds can be adopted, and more preferably, a value selected from the range of 1.0 seconds to 1.5 seconds can be adopted. Yes, specifically, for example, 1.2 seconds can be adopted.

なお、所定値としては、減少時の判定に用いる所定値と、上昇時判定に用いる所定値とを異なる値としてもよい。また、絶対値でないAy1を用いて判定を行ってもよく、この場合、例えば、ステップS35ではAy1のゼロクロスを検出し、ゼロクロスした後、一定時間内にゼロクロス前とは正負が異なる所定値をAy1が超えたか否かを判定する。 As the predetermined value, the predetermined value used for the determination at the time of decrease and the predetermined value used for the determination at the time of increase may be different values. Further, the determination may be performed using Ay1 which is not an absolute value. In this case, for example, in step S35, the zero cross of Ay1 is detected, and after the zero cross, a predetermined value whose positive and negative values are different from those before the zero cross is set to Ay1 within a certain time. Judges whether or not is exceeded.

その後、「座り姿勢」又は「しゃがみ姿勢」から「立ち姿勢」への移行が発生したか否かを判定する(S37)。具体的には、測定値G11の絶対値において、|G11y|が増大し、|G11z|が減少して、|G11y|と|G11z|の大小関係が逆転する変化が発生したか否かを判定する。この変化が発生した場合は(S37:Yes)、ステップS33に戻って「立ち姿勢」から「座り姿勢」又は「しゃがみ姿勢」への移行が発生したか否かの判定を行い、この変化が発生していない場合は(S37:No)、
ステップS34に戻って「座り姿勢」と「しゃがみ姿勢」の判別を行う。
After that, it is determined whether or not a transition from the “sitting posture” or the “crouching posture” to the “standing posture” has occurred (S37). Specifically, it is determined whether or not | G11y | increases and | G11z | decreases in the absolute value of the measured value G11, causing a change in which the magnitude relationship between | G11y | and | G11z | is reversed. do. When this change occurs (S37: Yes), the process returns to step S33 to determine whether or not a transition from the “standing posture” to the “sitting posture” or the “crouching posture” has occurred, and this change occurs. If not (S37: No),
Returning to step S34, the "sitting posture" and the "crouching posture" are discriminated.

以上説明した姿勢特定システムによれば、人間Mの大腿部Fに装着した加速度センサの出力する加速度データを用いて、人間Mが「座り姿勢」、「しゃがみ姿勢」、「立ち姿勢」の何れの姿勢を取っているか容易に判別可能であり、これら姿勢の間での移行を容易に検出することができる。また、このようにして取得した情報は、例えば、情報処理端末Saの表示部40や情報処理端末Sbの表示部40bに表示してもよい。また、情報処理端末Sa,Sbの通信機能を用いて、直接又は通信ネットワークを介して外部の情報処理装置へ送信してもよい。 According to the posture identification system described above, the human M is in a "sitting posture", a "crouching posture", or a "standing posture" using the acceleration data output by the acceleration sensor attached to the thigh F of the human M. It is possible to easily determine whether or not the posture is taken, and the transition between these postures can be easily detected. Further, the information acquired in this way may be displayed on, for example, the display unit 40 of the information processing terminal Sa or the display unit 40b of the information processing terminal Sb. Further, the information processing terminals Sa and Sb may be used to transmit information directly or via a communication network to an external information processing device.

なお、本発明は上述した各実施形態に限られず、上述した各実施形態の中で開示した各構成を相互に置換したり組み合わせを変更したりした構成、公知技術並びに上述した各実施形態の中で開示した各構成を相互に置換したり組み合わせを変更したりした構成、等も含まれる。また,本発明の技術的範囲は上述した実施形態に限定されず,特許請求の範囲に記載された事項とその均等物まで及ぶものである。 The present invention is not limited to the above-described embodiments, but includes configurations in which the configurations disclosed in the above-described embodiments are replaced with each other or combinations are changed, known techniques, and the above-described embodiments. It also includes configurations in which the configurations disclosed in the above are replaced with each other or combinations are changed. Further, the technical scope of the present invention is not limited to the above-described embodiment, but extends to the matters described in the claims and their equivalents.

10…加速度センサ、20…加速度センサ、30…演算部、30’…演算部、40…表示部、50a…通信部、50b…通信部、100…システム、F…大腿部、A1x…検出軸、A1y…検出軸、A1z…検出軸、A2x…検出軸、A2y…検出軸、A2z…検出軸、Bu…上半身、D2…出力データ、Sa…情報処理端末、Sb…情報処理端末 10 ... Accelerometer, 20 ... Accelerometer, 30 ... Calculation unit, 30'... Calculation unit, 40 ... Display unit, 50a ... Communication unit, 50b ... Communication unit, 100 ... System, F ... Thigh, A1x ... Detection axis , A1y ... detection axis, A1z ... detection axis, A2x ... detection axis, A2y ... detection axis, A2z ... detection axis, Bu ... upper body, D2 ... output data, Sa ... information processing terminal, Sb ... information processing terminal

Claims (5)

人間の左右少なくとも一方の大腿部に装着される第1加速度センサと、
前記人間の上半身に装着される第2加速度センサと、
前記第1加速度センサの出力する第1加速度情報と前記第2加速度センサの出力する第2加速度情報とを用いて前記人間の下半身の関節の屈曲状態を特定する演算部と、
を備え、
前記第1加速度センサ及び前記第2加速度センサは、それぞれ別の情報処理端末に内蔵された加速度センサであり、
一方の情報処理端末に対し他方の情報処理端末から加速度情報が送信され、
前記一方の情報処理端末が内蔵する前記演算部が、両情報処理端末で検出された加速度情報を用いて前記人間の下半身の関節の屈曲状態を特定するとともに、前記人間の腰部に係る負荷を特定する演算処理を実行することを特徴とする姿勢特定システム。
The first accelerometer attached to at least one of the human left and right thighs,
The second accelerometer worn on the upper body of the human and
A calculation unit that identifies the flexion state of the human lower body joint using the first acceleration information output by the first acceleration sensor and the second acceleration information output by the second acceleration sensor.
With
The first acceleration sensor and the second acceleration sensor are acceleration sensors built into different information processing terminals.
Acceleration information is transmitted from the other information processing terminal to one information processing terminal,
The calculation unit built in one of the information processing terminals identifies the flexion state of the joints of the lower body of the human using the acceleration information detected by both information processing terminals, and also identifies the load on the lumbar region of the human. A posture identification system characterized by executing arithmetic processing.
前記演算部が屈曲状態を特定する前記人間の下半身の関節は、前記人間の腰及び膝の関節である、
ことを特徴とする請求項1に記載の姿勢特定システム。
The joints of the lower body of the human whose calculation unit identifies the flexed state are the joints of the hip and knee of the human.
The posture identification system according to claim 1.
前記演算部は、前記第1加速度情報から特定される大腿部の傾きと、前記第2加速度情報から特定される体幹部の傾きと、を用いて、前記人間の下半身の屈曲状態を特定する、
ことを特徴とする請求項1又は請求項2に記載の姿勢特定システム。
The calculation unit identifies the flexed state of the lower body of the human body by using the inclination of the thigh specified from the first acceleration information and the inclination of the trunk specified from the second acceleration information. ,
The posture identification system according to claim 1 or 2, wherein the posture identification system is characterized in that.
人間の左右少なくとも一方の大腿部に装着される第1加速度センサから第1加速度情報を取得する工程と、
前記人間の上半身に装着される第2加速度センサから第2加速度情報を取得する工程と、
前記第1加速度センサ及び前記第2加速度センサは、それぞれ別の情報処理端末に内蔵された加速度センサであり、
一方の情報処理端末に対し他方の情報処理端末から加速度情報が送信される工程と、
前記一方の情報処理端末が内蔵する演算部が、両情報処理端末で検出された加速度情報を用いて前記人間の下半身の関節の屈曲状態を特定するとともに、前記人間の腰部に係る負荷を特定する演算処理を実行する工程と、
を含んで構成されることを特徴とする姿勢特定方法。
The process of acquiring the first acceleration information from the first acceleration sensor attached to at least one of the left and right thighs of a human being,
The process of acquiring the second acceleration information from the second acceleration sensor mounted on the human upper body, and
The first acceleration sensor and the second acceleration sensor are acceleration sensors built into different information processing terminals.
The process of transmitting acceleration information from the other information processing terminal to one information processing terminal,
Arithmetic unit said one information processing terminal is you built, as well as identify the flexion of the lower body of the joint of the human using the acceleration information detected by both the information processing terminal, the load on the said human waist The process of executing the specified arithmetic processing and
A posture identification method characterized in that it is composed of.
人間の左右少なくとも一方の大腿部に装着される第1加速度センサから第1加速度情報を取得する機能と、
前記人間の上半身に装着される第2加速度センサから第2加速度情報を取得する機能と、
前記第1加速度センサ及び前記第2加速度センサは、それぞれ別の情報処理端末に内蔵された加速度センサであり、
一方の情報処理端末に対し他方の情報処理端末から加速度情報が送信される機能と、
前記一方の情報処理端末が内蔵する演算部が、両情報処理端末で検出された加速度情報を用いて前記人間の下半身の関節の屈曲状態を特定するとともに、前記人間の腰部に係る負荷を特定する演算処理を実行する機能と、
をコンピュータに実現させるための姿勢特定プログラム。
A function to acquire the first acceleration information from the first acceleration sensor attached to at least one of the left and right thighs of a human being,
A function to acquire the second acceleration information from the second acceleration sensor mounted on the upper body of the human being, and
The first acceleration sensor and the second acceleration sensor are acceleration sensors built into different information processing terminals.
A function to send acceleration information to one information processing terminal from the other information processing terminal,
Arithmetic unit said one information processing terminal is you built, as well as identify the flexion of the lower body of the joint of the human using the acceleration information detected by both the information processing terminal, the load on the said human waist A function to execute specific arithmetic processing and
Posture identification program to realize the above on a computer.
JP2016145046A 2016-07-25 2016-07-25 Posture identification system, posture identification method, and posture identification program Active JP6928939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016145046A JP6928939B2 (en) 2016-07-25 2016-07-25 Posture identification system, posture identification method, and posture identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016145046A JP6928939B2 (en) 2016-07-25 2016-07-25 Posture identification system, posture identification method, and posture identification program

Publications (2)

Publication Number Publication Date
JP2018015023A JP2018015023A (en) 2018-02-01
JP6928939B2 true JP6928939B2 (en) 2021-09-01

Family

ID=61076716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016145046A Active JP6928939B2 (en) 2016-07-25 2016-07-25 Posture identification system, posture identification method, and posture identification program

Country Status (1)

Country Link
JP (1) JP6928939B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6968351B2 (en) * 2016-12-09 2021-11-17 国立大学法人北海道大学 Load measuring device, caregiving device, load measuring method, and load measuring program
JP7132159B2 (en) * 2019-03-11 2022-09-06 本田技研工業株式会社 Control device for motion support device
JP7384597B2 (en) * 2019-09-02 2023-11-21 Cyberdyne株式会社 Lumbar load evaluation device and method using a wearable motion assist device
CN113191200A (en) * 2021-04-06 2021-07-30 恒鸿达科技有限公司 Push-up test counting method, device, equipment and medium
JP7422375B1 (en) 2023-07-27 2024-01-26 有限会社池谷製作所 Furniture type equipment, attached equipment, and system for estimating the leg posture of a seated user

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355236A (en) * 2001-06-01 2002-12-10 Kiyomi Iizuka Method to measure joint angle using biaxial acceleration sensor and electric stimulator
US8260570B2 (en) * 2007-01-22 2012-09-04 National University Of Singapore Method and system for fall-onset detection
JP5742423B2 (en) * 2011-04-21 2015-07-01 学校法人立命館 Method for obtaining margin of lower limb muscle strength, and lower limb muscle strength evaluation apparatus used therefor
JP2014217695A (en) * 2013-05-10 2014-11-20 オムロンヘルスケア株式会社 Walking posture meter and program
JP6183906B2 (en) * 2013-08-28 2017-08-23 日本電信電話株式会社 Gait estimation device and program, fall risk calculation device and program

Also Published As

Publication number Publication date
JP2018015023A (en) 2018-02-01

Similar Documents

Publication Publication Date Title
JP6928939B2 (en) Posture identification system, posture identification method, and posture identification program
JP6772276B2 (en) Motion recognition device and motion recognition method
KR101858116B1 (en) A postural balance training system
JP4592360B2 (en) Physical condition monitoring device
US8523741B2 (en) Method and system for monitoring sport related fitness by estimating muscle power and joint force of limbs
JP5804553B2 (en) Posture balance measuring device
JP5742423B2 (en) Method for obtaining margin of lower limb muscle strength, and lower limb muscle strength evaluation apparatus used therefor
US9159213B1 (en) Motion detection method and device
JP6649323B2 (en) Gait analysis system and method
KR101976092B1 (en) Posture correction system to correct round shoulder posture
JP6678492B2 (en) Dynamic balance evaluation device
CN107708561B (en) Index derivation device, wearable device, and mobile device
CN108309301B (en) Human body segment quality measuring method
KR20180031610A (en) Band-type motion and bio-information measuring device
JP6491121B2 (en) Body strain detection system
JP2020054433A (en) Body posture detection system
TWI625114B (en) Motion recognition device and method
JP2020081413A (en) Motion detection device, motion detection system, motion detection method and program
CN114343622A (en) Intelligent monitoring method and device for clothes and human body shape
WO2022101366A1 (en) System and method for human motion monitoring
JP3155862U (en) Pedometer with level
TWI494568B (en) Motion detection method and device
JP7465842B2 (en) Work Support System
WO2022250098A1 (en) Information processing device, electronic appliance, information processing system, information processing method, and program
KR20230161226A (en) System for Body Measuring Three-Dimensional

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210304

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6928939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250