JP6940139B2 - Physical characteristic analyzer, physical characteristic analysis method, and program - Google Patents
Physical characteristic analyzer, physical characteristic analysis method, and program Download PDFInfo
- Publication number
- JP6940139B2 JP6940139B2 JP2017126214A JP2017126214A JP6940139B2 JP 6940139 B2 JP6940139 B2 JP 6940139B2 JP 2017126214 A JP2017126214 A JP 2017126214A JP 2017126214 A JP2017126214 A JP 2017126214A JP 6940139 B2 JP6940139 B2 JP 6940139B2
- Authority
- JP
- Japan
- Prior art keywords
- shoulder
- hip
- subject
- waist
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、人の身体の特性を分析するための、身体特性分析装置、及び身体特性分析方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to a physical characteristic analyzer for analyzing the characteristics of a human body, a physical characteristic analysis method, and a program for realizing these.
従来から、生産現場、建設現場等では、作業員が無理な姿勢をとること等により、腰痛等の健康障害が発生することがある。また、同様の健康障害は、介護施設、病院等において介護士等にも発生している。このため、作業員、介護士等の姿勢を分析して、腰痛等の健康障害の発生を抑制することが求められている。 Conventionally, at production sites, construction sites, etc., workers may take an unreasonable posture, which may cause health problems such as low back pain. In addition, similar health problems also occur in caregivers and the like in nursing care facilities and hospitals. Therefore, it is required to analyze the postures of workers, caregivers, etc. to suppress the occurrence of health problems such as low back pain.
姿勢を分析する手法としては、OWAS(Ovako Working Posture Analysing System)が知られている(非特許文献1及び2参照)。OWASでは、姿勢コードと評価表とを用いて、作業者の姿勢が評価される。 OWAS (Ovako Working Posture Analysing System) is known as a method for analyzing posture (see Non-Patent Documents 1 and 2). In OWAS, the posture of the worker is evaluated using the posture code and the evaluation table.
具体的には、姿勢コードは、背部、上肢、下肢、及び対象物の重量、それぞれ毎に設定されている。例えば、背部については、(1)背筋は真っ直ぐ、(2)前屈又は後屈、(3)捻る又は体側を曲げる、(4)捻る動作と前後屈又は体側曲、と設定されている。上肢については、(1)両腕とも肩より下、(2)片腕が肩の高さ以上、(3)両腕が肩の高さ以上、と設定されている。 Specifically, the posture code is set for each of the back, upper limbs, lower limbs, and weight of the object. For example, for the back, (1) the back muscles are straight, (2) forward bending or backward bending, (3) twisting or bending the body side, and (4) twisting motion and anterior-posterior bending or body side bending. Regarding the upper limbs, (1) both arms are set below the shoulders, (2) one arm is above the shoulder height, and (3) both arms are above the shoulder height.
下肢については、(1)座る、(2)直立、(3)片足重心(重心足は真っ直ぐ)、(4)中腰、(5)片足重心の中腰、(6)膝立ち又は片膝立ち、(7)歩く(移動)、と設定されている。重量については、(1)10kg以下、(2)10〜20kg、(3)20kgを超える、と設定されている。 For the lower limbs, (1) sit, (2) upright, (3) one-leg center of gravity (center of gravity foot is straight), (4) middle waist, (5) one-leg center of gravity middle waist, (6) knee-standing or one-knee standing, ( 7) It is set to walk (move). The weight is set to be (1) 10 kg or less, (2) 10 to 20 kg, and (3) more than 20 kg.
また、評価表には、背部、上肢、下肢、及び対象物の重量それぞれのコードの組合せ毎に、1〜4までの4段階で健康障害のリスクが規定されている。具体的には、リスク1は、「この姿勢による筋骨格系負担は問題ない。リスクは極めて低い。」を示している。リスク2は、「この姿勢は筋骨格系に有害である。リスクは低いが近いうちに改善が必要。」を示している。リスク3は、「この姿勢は筋骨格系に有害である。リスクも高く早急に改善すべき。」を示している。リスク4は「この姿勢は筋骨格系に非常に有害である。リスクは極めて高く、直ちに改善すべき。」を示している。 In addition, the evaluation table defines the risk of health disorders in four stages from 1 to 4 for each combination of codes for the weight of the back, upper limbs, lower limbs, and object. Specifically, risk 1 indicates that "the burden on the musculoskeletal system due to this posture is not a problem. The risk is extremely low." Risk 2 indicates that "this posture is harmful to the musculoskeletal system. The risk is low, but improvement is needed in the near future." Risk 3 indicates that "this posture is harmful to the musculoskeletal system. The risk is high and should be improved immediately." Risk 4 indicates that "this posture is very harmful to the musculoskeletal system. The risk is extremely high and should be improved immediately."
そして、分析者は、ビデオで撮影した作業者の作業の様子を観察しながら、背部、上肢、下肢、及び対象物の重量、それぞれについて適合するコードを特定し、特定したコードを、評価表に当てはめて、各作業における健康障害のリスクを判定する。 Then, the analyst identifies the matching code for each of the back, upper limbs, lower limbs, and weight of the object while observing the work of the worker taken by the video, and puts the identified code in the evaluation table. Apply to determine the risk of health problems in each task.
このように、OWASを用いれば、作業者、介護士等における負担を客観的に評価することができる。この結果、生産、建設、介護及び医療等の各種現場において、作業工程等の見直しが容易となり、健康障害の発生が抑制されることになる。 In this way, using OWAS, it is possible to objectively evaluate the burden on workers, caregivers, and the like. As a result, at various sites such as production, construction, long-term care, and medical care, it becomes easy to review the work process and the like, and the occurrence of health problems is suppressed.
しかしながら、人の身体には特性があり、ある人にとっては悪い姿勢でも、別の人にとっては良い姿勢となることがある。OWASでは、人の姿勢を一律に判断しているに過ぎず、人の身体の特性を判断することが求められている。 However, a person's body has its own characteristics, and what is bad for one person can be good for another. In OWAS, the posture of a person is only uniformly judged, and it is required to judge the characteristics of the human body.
本発明の目的の一例は、上記問題を解消し、人の身体の特性分析を可能にし得る、身体特性分析装置、身体特性分析方法、及びプログラムを提供することにある。 An example of an object of the present invention is to provide a physical characteristic analyzer, a physical characteristic analysis method, and a program capable of solving the above problems and enabling analysis of the characteristics of a human body.
上記目的を達成するため、本発明の一側面における身体特性分析装置は、対象者の身体の特性を分析するための装置であって、
前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、タイプ判定部と、
を備えていることを特徴とする。
In order to achieve the above object, the physical characteristic analyzer in one aspect of the present invention is an apparatus for analyzing the physical characteristics of a subject.
A data acquisition unit that acquires data that changes according to the movement of the target person,
A skeleton information creation unit that creates skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
Based on the skeletal information, the states of the shoulder and the waist of the subject are specified, and based on the identified states of the shoulder and the waist, the subject is the first type and the first type and the first. A type determination unit that determines which of the two types is used,
It is characterized by having.
また、上記目的を達成するため、本発明の一側面における身体特性分析方法は、対象者の身体の特性を分析するための装置であって、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を備えていることを特徴とする。
Further, in order to achieve the above object, the physical characteristic analysis method in one aspect of the present invention is a device for analyzing the physical characteristics of the subject.
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
It is characterized by having.
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、対象者の身体の特性を分析するためのプログラムであって、
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を実行させることを特徴とする。
Further, in order to achieve the above object, the program in one aspect of the present invention is a program for analyzing the physical characteristics of the subject by a computer.
On the computer
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
Is characterized by executing.
以上のように、本発明によれば、人の身体の特性分析を可能にすることができる。 As described above, according to the present invention, it is possible to analyze the characteristics of the human body.
(実施の形態)
以下、本発明の実施の形態における、身体特性分析装置、身体特性分析方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment)
Hereinafter, the physical characteristic analyzer, the physical characteristic analysis method, and the program according to the embodiment of the present invention will be described with reference to FIGS. 1 to 7.
[装置構成]
最初に、図1を用いて、本実施の形態における身体特性分析装置の概略構成について説明する。図1は、本発明の実施の形態における身体特性分析装置の概略構成を示すブロック図である。
[Device configuration]
First, the schematic configuration of the physical characteristic analyzer according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a physical characteristic analyzer according to an embodiment of the present invention.
図1に示す本実施の形態における身体特性分析装置10は、対象者の身体の特性を分析するための装置である。図1に示すように、身体特性分析装置10は、データ取得部11と、骨格情報作成部12と、タイプ判定部13とを備えている。
The
データ取得部11は、対象者の動作に応じて変化するデータを取得する。骨格情報作成部12は、取得されたデータに基づいて、対象者の複数の部位の位置を特定する骨格情報を作成する。
The
タイプ判定部13は、骨格情報に基づいて、対象者における、肩部及び腰部それぞれの状態を特定する。また、タイプ判定部13は、特定した肩部及び腰部それぞれの状態に基づいて、対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する。
The
このように、本実施の形態では、対象者の動作に応じて変化するデータから、対象者の肩部及び腰部の状態が特定され、対象者の特性のタイプが判定される。つまり、本実施の形態によれば、人の身体の特性分析が可能となる。 As described above, in the present embodiment, the state of the shoulder and the waist of the subject is specified from the data that changes according to the movement of the subject, and the type of the characteristic of the subject is determined. That is, according to the present embodiment, it is possible to analyze the characteristics of the human body.
続いて、図2を用いて、本実施の形態における身体特性分析装置10の具体的構成について説明する。図2は、本実施の形態における身体特性分析装置の具体的構成を示すブロック図である。
Subsequently, a specific configuration of the physical
図2に示すように、本実施の形態では、身体特性分析装置10は、上述したデータ取得部11、骨格情報作成部12、及びタイプ判定部13に加えて、ジェスチャ入力受付部14も備えている。
As shown in FIG. 2, in the present embodiment, the physical
また、図2に示すように、本実施の形態における身体特性分析装置10には、デプスセンサ20と、表示装置30とが接続されている。デプスセンサ20は、例えば、特定のパターンで赤外線レーザ光を出射する光源と、対象物で反射された赤外線を受光する撮像素子とを備えており、これらによって、画素毎の深度が付加された画像データを、設定されたフレームレートで出力する。デプスセンサ20の具体例としては、Kinect(登録商標)といった既存のデプスセンサが挙げられる。
Further, as shown in FIG. 2, the
また、デプスセンサ20は、対象者40の動作を撮影可能となるように配置されている。従って、本実施の形態では、データ取得部11は、デプスセンサ20から、対象者40の動作に応じて変化するデータとして、対象者40が写った深度付の画像データを取得し、これを骨格情報作成部12に入力する。
Further, the
骨格情報作成部12は、本実施の形態では、設定されたフレームレートで出力された画像データ毎に、画像データ上での座標と画素に付加された深度とを用いて、対象者40の特定の部位の三次元座標を算出し、算出した三次元座標を用いて骨格情報を作成する。
In the present embodiment, the skeleton
図3は、本発明の実施の形態で作成された骨格情報の一例を示す図である。図3に示すように、骨格情報は、撮影開始時からの経過時間毎の各関節の三次元座標によって構成されている。なお、本明細書において、X座標は、画像データ上での水平方向における位置の値であり、Y座標は、画像データ上での垂直方向における位置の値であり、Z座標は、画素に付与された深度の値である。 FIG. 3 is a diagram showing an example of skeletal information created in the embodiment of the present invention. As shown in FIG. 3, the skeleton information is composed of the three-dimensional coordinates of each joint for each elapsed time from the start of imaging. In the present specification, the X coordinate is the value of the position in the horizontal direction on the image data, the Y coordinate is the value of the position in the vertical direction on the image data, and the Z coordinate is given to the pixel. The value of the depth.
特定の部位としては、例えば、頭、首、右肩、右肘、右手首、右手、右親指、右手先、左肩、左肘、左手首、左手、左親指、左手先、胸部、胸腰部、左腰、骨盤部、右腰、左股関節、左膝、左くるぶし、左足、右股関節、右膝、右くるぶし、右足等が挙げられる。図3においては、骨盤、胸腰部、親指右の三次元座標が例示されている。なお、本実施の形態では、特定の部位は、左肩、右肩、左腰、及び右腰の4つのみであっても良い。 Specific parts include, for example, head, neck, right shoulder, right elbow, right wrist, right hand, right thumb, right hand, left shoulder, left elbow, left wrist, left hand, left thumb, left hand, chest, chest and waist. Examples include the left hip, pelvic region, right hip, left hip joint, left knee, left ankle, left foot, right hip joint, right knee, right ankle, and right foot. In FIG. 3, the three-dimensional coordinates of the pelvis, the thoracolumbar region, and the right side of the thumb are illustrated. In this embodiment, there may be only four specific parts, the left shoulder, the right shoulder, the left hip, and the right hip.
また、画像データ上での座標と深度とから三次元座標を算出する手法は、下記の通りである。図4は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図4(a)は画像の水平方向(X座標)における算出処理を示し、図4(b)は画像の垂直方向(Y座標)における算出処理を示している。 The method for calculating the three-dimensional coordinates from the coordinates and the depth on the image data is as follows. FIG. 4 is a diagram for explaining the calculation process of the three-dimensional coordinates according to the embodiment of the present invention, FIG. 4A shows the calculation process in the horizontal direction (X coordinate) of the image, and FIG. 4B shows the calculation process. The calculation process in the vertical direction (Y coordinate) of the image is shown.
まず、深度が付加された画像データ上における、特定点の座標を(DX,DY)とし、特定点における深度をDPTとする。また、画像データの水平方向の画素数を2CX、垂直方向の画素数を2CYとする。そして、デプスセンサの水平方向の視野角を2θ、垂直方向の視野角を2φとする。この場合、特定点の三次元座標(WX,WY,WZ)は、図4(a)及び(b)から分かるように、以下の数1〜数3によって算出される。 First, the coordinates of a specific point on the image data to which the depth is added are defined as (DX, DY), and the depth at the specific point is defined as DPT. Further, the number of pixels in the horizontal direction of the image data is 2CX, and the number of pixels in the vertical direction is 2CY. Then, the horizontal viewing angle of the depth sensor is 2θ, and the vertical viewing angle is 2φ. In this case, the three-dimensional coordinates (WX, WY, WZ) of the specific point are calculated by the following equations 1 to 3, as can be seen from FIGS. 4 (a) and 4 (b).
(数1)
WX=((CX−DX)×DPT×tanθ)/CX
(Number 1)
WX = ((CX-DX) x DPT x tan θ) / CX
(数2)
WY=((CY−DY)×DPT×tanφ)/CY
(Number 2)
WY = ((CY-DY) x DPT x tanφ) / CY
(数3)
WZ=DPT
(Number 3)
WZ = DPT
ジェスチャ入力受付部14は、骨格情報作成部12によってされた骨格情報に基づいて、対象者40が予め設定されたジェスチャを行なっているかどうかを判定する。そして、ジェスチャ入力受付部14は、予め設定されたジェスチャが行なわれている場合は、そのジェスチャに紐付けられた指示を、タイプ判定部13に入力示する。
The gesture
ジェスチャの具体例としては、片腕を肩より上に上げる、片膝を上げる、片腕を前に突き出す等、種々の動作が挙げられる。また、ジェスチャに紐付けられた指示としては、タイプ判定の開始指示、タイプ判定のやり直し指示、タイプ判定の終了指示等が挙げられる。 Specific examples of gestures include various movements such as raising one arm above the shoulder, raising one knee, and pushing one arm forward. In addition, examples of the instruction associated with the gesture include an instruction to start the type determination, an instruction to redo the type determination, an instruction to end the type determination, and the like.
タイプ判定部13は、本実施の形態では、まず、タイプ判定開始のジェスチャが行なわれ、ジェスチャ入力受付部14によって開始が指示されると、骨格情報から対象者40の左肩、右肩、左腰、及び右腰の位置を特定する。
In the present embodiment, the
このとき、タイプの判定には、対象者40が静止している必要があることから、タイプ判定部13は、設定された時間(例えば、3秒間等)の間に生成された骨格情報を蓄積し、蓄積した骨格情報から、対象者40の左肩、右肩、左腰、及び右腰の位置を特定することができる。具体的には、タイプ判定部13は、部位毎に、蓄積した骨格情報から位置の平均を算出し、算出した平均の位置を、その部位の位置とする。
At this time, since the subject 40 needs to be stationary for the type determination, the
続いて、タイプ判定部13は、本実施の形態では、特定した左肩、右肩、左腰、及び右腰の位置から、肩部及び腰部それぞれの状態として、左肩と右肩との位置関係、及び左腰と右腰との位置関係を特定する。
Subsequently, in the present embodiment, the
更に、タイプ判定部13は、左肩と右肩との位置関係及び左腰と右腰との位置関係から、下記の要件(a)〜(c)の全てが満たされている判断できる場合は、対象者40は猫背になり易いタイプ(第1のタイプ)に該当すると判定する。タイプ判定部13は、判定の結果を表示装置30の画面上に表示させる。
(a)左肩が右肩より高いこと。
(b)左腰が右腰より低いこと。
(c)左腰が右腰より後であること。
Further, if the
(A) The left shoulder is higher than the right shoulder.
(B) The left hip is lower than the right hip.
(C) The left hip is behind the right hip.
一方、タイプ判定部13は、左肩と右肩との位置関係及び左腰と右腰との位置関係から、下記の要件(d)〜(f)の全てが満たされている判断できる場合は、対象者40は反腰になり易いタイプ(第2のタイプ)に該当すると判定する。この場合も、タイプ判定部13は、判定の結果を表示装置30の画面上に表示させる。
(d)左肩が右肩より低いこと。
(e)左腰が右腰より高いこと。
(f)左腰が右腰より前であること。
On the other hand, if the
(D) The left shoulder is lower than the right shoulder.
(E) The left hip is higher than the right hip.
(F) The left hip is in front of the right hip.
[装置動作]
次に、本発明の実施の形態における身体特性分析装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態における身体特性分析装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図4を参酌する。また、本実施の形態では、身体特性分析装置10を動作させることによって、身体特性分析方法が実施される。よって、本実施の形態における身体特性分析方法の説明は、以下の身体特性分析装置10の動作説明に代える。
[Device operation]
Next, the operation of the physical
図5に示すように、まず、データ取得部11は、デプスセンサ20から出力された深度付の画像データを取得する(ステップA1)。
As shown in FIG. 5, first, the
次に、骨格情報作成部12は、ステップA1で取得された画像データに基づいて、対象者40の複数の部位の位置を特定する骨格情報を作成する(ステップA2)。
Next, the skeleton
次に、タイプ判定部13は、ジェスチャ入力受付部14によって開始が指示されると、対象者40における、左肩と右肩との位置関係、及び左腰と右腰との位置関係を特定する(ステップA3)。
Next, when the gesture
具体的には、ステップA3では、タイプ判定部13は、設定された時間の間に生成された骨格情報を蓄積し、蓄積した骨格情報から、対象者40の左肩、右肩、左腰、及び右腰の位置を特定する。そして、タイプ判定部13は、特定した左肩、右肩、左腰、及び右腰の位置から、左肩と右肩との位置関係、及び左腰と右腰との位置関係を特定する。
Specifically, in step A3, the
次に、タイプ判定部13は、ステップA3で特定された左肩と右肩との位置関係及び左腰と右腰との位置関係から、対象者40が、猫背になり易いタイプ及び反腰になり易いタイプのうちいずれであるかを判定する(ステップA4)。
Next, from the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip identified in step A3, the
ステップA4の判定後、タイプ判定部13は、判定結果を特定するデータを表示装置30に出力し、その画面上に判定結果を表示させる(ステップA5)。
After the determination in step A4, the
続いて、図6を用いて、図5に示したタイプの判定処理(ステップA4)について更に具体的に説明する。図6は、図5に示したタイプの判定処理を具体的に示すフロー図である。 Subsequently, the determination process (step A4) of the type shown in FIG. 5 will be described more specifically with reference to FIG. FIG. 6 is a flow chart specifically showing the type of determination processing shown in FIG.
図6に示すように、ステップA3が実行されると、タイプ判定部13は、上述の要件(a)〜(c)の全てが満たされているかどうかを判定する(ステップA41)。
As shown in FIG. 6, when step A3 is executed, the
ステップA41の判定の結果、要件(a)〜(c)の全てが満たされている場合は、タイプ判定部13は、対象者40は猫背になり易いタイプに該当すると判定する(ステップA42)。
As a result of the determination in step A41, if all of the requirements (a) to (c) are satisfied, the
一方、ステップA41の判定の結果、要件(a)〜(c)の全てが満たされていない場合は、タイプ判定部13は、上述の要件(d)〜(f)の全てが満たされているかどうかを判定する(ステップA43)。
On the other hand, as a result of the determination in step A41, if all of the requirements (a) to (c) are not satisfied, is the
ステップA43の判定の結果、要件(d)〜(f)の全てが満たされている場合は、タイプ判定部13は、対象者40は反腰になり易いタイプに該当すると判定する(ステップA44)。
As a result of the determination in step A43, if all of the requirements (d) to (f) are satisfied, the
一方、ステップA43の判定の結果、要件(d)〜(f)の全てが満たされていない場合は、タイプ判定部13は、対象者40の各部の位置が正確に特定されていないと判定する(ステップA45)。この場合、上述のステップA5では、表示装置30の表示画面上にはエラーが表示され、再度の撮影を促すメッセージが表示される。
On the other hand, as a result of the determination in step A43, if all of the requirements (d) to (f) are not satisfied, the
[実施の形態における効果]
以上のように、本実施の形態によれば、対象者40がデプスセンサ20の前に立って静止するだけで、対象者40の特性が判定され、表示装置30の画面上には、対象者40のタイプが表示される。従って、身体特性分析装置10を利用する分析者は、対象者40の特性を考慮して、健康障害の発生リスク等を予測することができる。
[Effect in the embodiment]
As described above, according to the present embodiment, the characteristics of the subject 40 are determined only by the subject 40 standing in front of the
[変形例]
上述した例では、対象者40の動作に応じて変化するデータを取得するために、デプスセンサ20が用いられているが、本実施の形態では、データ取得のための手段は、デプスセンサに限定されることはない。本実施の形態では、デプスセンサの代わりに、モーションキャプチャシステムが用いられていても良い。また、モーションキャプチャシステムは、光学式、慣性センサ式、機械式、磁気式、及びビデオ式のいずれであっても良い。
[Modification example]
In the above example, the
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図5に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における身体特性分析装置10と身体特性分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、データ取得部11、骨格情報作成部12、タイプ判定部13、及びジェスチャ入力受付部14として機能し、処理を行なう。
[program]
The program in this embodiment may be any program that causes a computer to execute steps A1 to A5 shown in FIG. By installing this program on a computer and executing it, the physical
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれデータ取得部11、骨格情報作成部12、タイプ判定部13、及びジェスチャ入力受付部14のいずれかとして機能しても良い。
Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any of the
ここで、本実施の形態におけるプログラムを実行することによって、身体特性分析装置10を実現するコンピュータについて図6を用いて説明する。図7は、本発明の実施の形態における身体特性分析装置10を実現するコンピュータの一例を示すブロック図である。
Here, a computer that realizes the physical
図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
As shown in FIG. 7, the
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施の形態における身体特性分析装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、身体特性分析装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
The physical
以上のように、本発明によれば、人の身体の特性分析が可能となる。本発明は、生産現場、建設現場、医療現場、介護現場、更にはスポーツ等において有用である。 As described above, according to the present invention, it is possible to analyze the characteristics of the human body. The present invention is useful in production sites, construction sites, medical sites, nursing care sites, sports, and the like.
10 身体特性分析装置
11 データ取得部
12 骨格情報作成部
13 タイプ判定部
14 ジェスチャ入力受付部
20 デプスセンサ
30 表示装置
40 対象者
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
10 Physical
112
Claims (6)
前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、タイプ判定部と、
を備え、
前記タイプ判定部が、
前記肩部及び前記腰部それぞれの状態として、左肩と右肩との位置関係及び左腰と右腰との位置関係を特定し、
特定した左肩と右肩との位置関係及び左腰と右腰との位置関係から、
左肩が右肩より高く、左腰が右腰より低く、更に、左腰が右腰より後であると、判断できる場合は、前記対象者が前記猫背になり易いタイプであると判定し、
一方、左肩が右肩より低く、左腰が右腰より高く、更に、左腰が右腰より前であると、判断できる場合は、前記対象者が前記反腰になり易いタイプであると判定する、
ことを特徴とする身体特性分析装置。 A device for analyzing the physical characteristics of a subject,
A data acquisition unit that acquires data that changes according to the movement of the target person,
A skeleton information creation unit that creates skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
Based on the skeletal information, the states of the shoulder and the waist of the subject are specified, and based on the identified states of the shoulder and the waist, the subject is the first type and the first type and the first. A type determination unit that determines which of the two types is used,
With
The type determination unit
As the states of the shoulder and the waist, the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left waist and the right waist are specified.
From the identified positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip,
If it can be determined that the left shoulder is higher than the right shoulder, the left hip is lower than the right hip, and the left hip is later than the right hip, it is determined that the subject is the type that tends to be the stoop.
On the other hand, if it can be determined that the left shoulder is lower than the right shoulder, the left hip is higher than the right hip, and the left hip is in front of the right hip, it is determined that the subject is a type that is likely to have the anti-waist. do,
A physical characteristic analyzer characterized by this.
請求項1に記載の身体特性分析装置。 The data acquisition unit acquires image data to which the depth of each pixel is added as the data from the depth sensor arranged so as to photograph the target person.
The body characteristic analyzer according to claim 1.
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を有し、
前記(c)のステップにおいて、前記肩部及び前記腰部それぞれの状態として、左肩と右肩との位置関係及び左腰と右腰との位置関係を特定し、
特定した左肩と右肩との位置関係及び左腰と右腰との位置関係から、
左肩が右肩より高く、左腰が右腰より低く、更に、左腰が右腰より後であると、判断できる場合は、前記対象者が前記猫背になり易いタイプであると判定し、
一方、左肩が右肩より低く、左腰が右腰より高く、更に、左腰が右腰より前であると、判断できる場合は、前記対象者が前記反腰になり易いタイプであると判定する、
ことを特徴とする身体特性分析方法。 Computer is a way you analyze the characteristics of the subject's body,
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
Have,
In the step (c), the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left waist and the right waist are specified as the states of the shoulder and the waist, respectively.
From the identified positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip,
If it can be determined that the left shoulder is higher than the right shoulder, the left hip is lower than the right hip, and the left hip is later than the right hip, it is determined that the subject is the type that tends to be the stoop.
On the other hand, if it can be determined that the left shoulder is lower than the right shoulder, the left hip is higher than the right hip, and the left hip is in front of the right hip, it is determined that the subject is a type that is likely to have the anti-waist. do,
A physical characteristic analysis method characterized by this.
請求項3に記載の身体特性分析方法。 In the step (a), image data to which the depth of each pixel is added is acquired as the data from the depth sensor arranged so as to photograph the target person.
The physical characteristic analysis method according to claim 3.
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を実行させ、
前記(c)のステップにおいて、前記肩部及び前記腰部それぞれの状態として、左肩と右肩との位置関係及び左腰と右腰との位置関係を特定し、
特定した左肩と右肩との位置関係及び左腰と右腰との位置関係から、
左肩が右肩より高く、左腰が右腰より低く、更に、左腰が右腰より後であると、判断できる場合は、前記対象者が前記猫背になり易いタイプであると判定し、
一方、左肩が右肩より低く、左腰が右腰より高く、更に、左腰が右腰より前であると、判断できる場合は、前記対象者が前記反腰になり易いタイプであると判定する、
プログラム。 A program for analyzing the physical characteristics of a subject using a computer.
On the computer
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
To run,
In the step (c), the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left waist and the right waist are specified as the states of the shoulder and the waist, respectively.
From the identified positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip,
If it can be determined that the left shoulder is higher than the right shoulder, the left hip is lower than the right hip, and the left hip is later than the right hip, it is determined that the subject is the type that tends to be the stoop.
On the other hand, if it can be determined that the left shoulder is lower than the right shoulder, the left hip is higher than the right hip, and the left hip is in front of the right hip, it is determined that the subject is a type that is likely to have the anti-waist. do,
program.
請求項5に記載のプログラム。
In the step (a), image data to which the depth of each pixel is added is acquired as the data from the depth sensor arranged so as to photograph the target person.
The program according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017126214A JP6940139B2 (en) | 2017-06-28 | 2017-06-28 | Physical characteristic analyzer, physical characteristic analysis method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017126214A JP6940139B2 (en) | 2017-06-28 | 2017-06-28 | Physical characteristic analyzer, physical characteristic analysis method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019005466A JP2019005466A (en) | 2019-01-17 |
JP6940139B2 true JP6940139B2 (en) | 2021-09-22 |
Family
ID=65027227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017126214A Active JP6940139B2 (en) | 2017-06-28 | 2017-06-28 | Physical characteristic analyzer, physical characteristic analysis method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6940139B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021161365A1 (en) * | 2020-02-10 | 2021-08-19 | 株式会社 テクノミライ | Digital motion formula security system, method and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078728A (en) * | 2009-03-10 | 2011-04-21 | Shinsedai Kk | Body state evaluation unit, state estimation unit, step estimation unit, and health management system |
JP2014078145A (en) * | 2012-10-11 | 2014-05-01 | Verdi Corp | Optimal exercise program determination system based on posture evaluation |
JP2014090841A (en) * | 2012-11-02 | 2014-05-19 | Sony Corp | Information processing device, information processing method, and program |
CN103735268B (en) * | 2013-09-29 | 2015-11-25 | 沈阳东软医疗系统有限公司 | A kind of position detection method and system |
JP6433805B2 (en) * | 2015-02-09 | 2018-12-05 | 国立大学法人鳥取大学 | Motor function diagnosis apparatus and method, and program |
US20180153445A1 (en) * | 2015-06-26 | 2018-06-07 | Nec Solution Innovators, Ltd. | Measurement device and measurement method |
JP2017107503A (en) * | 2015-12-11 | 2017-06-15 | 株式会社リコー | Information processing apparatus, information processing method, program, and system |
-
2017
- 2017-06-28 JP JP2017126214A patent/JP6940139B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019005466A (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Diego-Mas et al. | Using Kinect™ sensor in observational methods for assessing postures at work | |
JP6381918B2 (en) | Motion information processing device | |
US9700242B2 (en) | Motion information processing apparatus and method | |
JP6662532B2 (en) | Gait analyzer, gait analysis method, and program | |
WO2017222072A1 (en) | Posture analysis device, posture analysis method, and computer-readable recording medium | |
WO2018087853A1 (en) | Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program | |
Skals et al. | A musculoskeletal model driven by dual Microsoft Kinect Sensor data | |
CN109219426B (en) | Rehabilitation training assistance control device and computer-readable recording medium | |
Li et al. | MOPED25: A multimodal dataset of full-body pose and motion in occupational tasks | |
JP6940139B2 (en) | Physical characteristic analyzer, physical characteristic analysis method, and program | |
De Rosario et al. | Correction of joint angles from Kinect for balance exercising and assessment | |
KR102310964B1 (en) | Electronic Device, Method, and System for Diagnosing Musculoskeletal Symptoms | |
WO2017090083A1 (en) | Measurement apparatus, measurement method, and program | |
JP6744139B2 (en) | Rehabilitation support control device and computer program | |
JP2021180904A (en) | Measuring apparatus | |
JP6558820B2 (en) | Measuring device, measuring method, and program | |
Alothmany et al. | Accuracy of joint angles tracking using markerless motion system | |
WO2023188796A1 (en) | Posture evaluation device, posture evaluation system, posture evaluation method, and non-transitory computer-readable medium | |
WO2023012915A1 (en) | Posture identification program, posture identification method, and information processing device | |
Ramos Jr et al. | Concurrent validity of a custom computer vision algorithm for measuring lumbar spine motion from RGB-D camera depth data | |
Parahoo | Design and Evaluation of a Mobile Marker-Based Motion Capture System Using the Kinect Sensor for Biomechanical Assessments of Caregivers in the Home | |
Nayak et al. | THE ART AND SCIENCE OF POSTURE ASSESSMENT: EXPLORING METHODS AND ADVANCEMENTS | |
JP2017093789A (en) | Measurement device, measurement method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170725 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6940139 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |