JP6940139B2 - Physical characteristic analyzer, physical characteristic analysis method, and program - Google Patents

Physical characteristic analyzer, physical characteristic analysis method, and program Download PDF

Info

Publication number
JP6940139B2
JP6940139B2 JP2017126214A JP2017126214A JP6940139B2 JP 6940139 B2 JP6940139 B2 JP 6940139B2 JP 2017126214 A JP2017126214 A JP 2017126214A JP 2017126214 A JP2017126214 A JP 2017126214A JP 6940139 B2 JP6940139 B2 JP 6940139B2
Authority
JP
Japan
Prior art keywords
shoulder
hip
subject
waist
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017126214A
Other languages
Japanese (ja)
Other versions
JP2019005466A (en
Inventor
剛 緒方
剛 緒方
奈津子 馬場
奈津子 馬場
寿治 鴻江
寿治 鴻江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2017126214A priority Critical patent/JP6940139B2/en
Publication of JP2019005466A publication Critical patent/JP2019005466A/en
Application granted granted Critical
Publication of JP6940139B2 publication Critical patent/JP6940139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人の身体の特性を分析するための、身体特性分析装置、及び身体特性分析方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to a physical characteristic analyzer for analyzing the characteristics of a human body, a physical characteristic analysis method, and a program for realizing these.

従来から、生産現場、建設現場等では、作業員が無理な姿勢をとること等により、腰痛等の健康障害が発生することがある。また、同様の健康障害は、介護施設、病院等において介護士等にも発生している。このため、作業員、介護士等の姿勢を分析して、腰痛等の健康障害の発生を抑制することが求められている。 Conventionally, at production sites, construction sites, etc., workers may take an unreasonable posture, which may cause health problems such as low back pain. In addition, similar health problems also occur in caregivers and the like in nursing care facilities and hospitals. Therefore, it is required to analyze the postures of workers, caregivers, etc. to suppress the occurrence of health problems such as low back pain.

姿勢を分析する手法としては、OWAS(Ovako Working Posture Analysing System)が知られている(非特許文献1及び2参照)。OWASでは、姿勢コードと評価表とを用いて、作業者の姿勢が評価される。 OWAS (Ovako Working Posture Analysing System) is known as a method for analyzing posture (see Non-Patent Documents 1 and 2). In OWAS, the posture of the worker is evaluated using the posture code and the evaluation table.

具体的には、姿勢コードは、背部、上肢、下肢、及び対象物の重量、それぞれ毎に設定されている。例えば、背部については、(1)背筋は真っ直ぐ、(2)前屈又は後屈、(3)捻る又は体側を曲げる、(4)捻る動作と前後屈又は体側曲、と設定されている。上肢については、(1)両腕とも肩より下、(2)片腕が肩の高さ以上、(3)両腕が肩の高さ以上、と設定されている。 Specifically, the posture code is set for each of the back, upper limbs, lower limbs, and weight of the object. For example, for the back, (1) the back muscles are straight, (2) forward bending or backward bending, (3) twisting or bending the body side, and (4) twisting motion and anterior-posterior bending or body side bending. Regarding the upper limbs, (1) both arms are set below the shoulders, (2) one arm is above the shoulder height, and (3) both arms are above the shoulder height.

下肢については、(1)座る、(2)直立、(3)片足重心(重心足は真っ直ぐ)、(4)中腰、(5)片足重心の中腰、(6)膝立ち又は片膝立ち、(7)歩く(移動)、と設定されている。重量については、(1)10kg以下、(2)10〜20kg、(3)20kgを超える、と設定されている。 For the lower limbs, (1) sit, (2) upright, (3) one-leg center of gravity (center of gravity foot is straight), (4) middle waist, (5) one-leg center of gravity middle waist, (6) knee-standing or one-knee standing, ( 7) It is set to walk (move). The weight is set to be (1) 10 kg or less, (2) 10 to 20 kg, and (3) more than 20 kg.

また、評価表には、背部、上肢、下肢、及び対象物の重量それぞれのコードの組合せ毎に、1〜4までの4段階で健康障害のリスクが規定されている。具体的には、リスク1は、「この姿勢による筋骨格系負担は問題ない。リスクは極めて低い。」を示している。リスク2は、「この姿勢は筋骨格系に有害である。リスクは低いが近いうちに改善が必要。」を示している。リスク3は、「この姿勢は筋骨格系に有害である。リスクも高く早急に改善すべき。」を示している。リスク4は「この姿勢は筋骨格系に非常に有害である。リスクは極めて高く、直ちに改善すべき。」を示している。 In addition, the evaluation table defines the risk of health disorders in four stages from 1 to 4 for each combination of codes for the weight of the back, upper limbs, lower limbs, and object. Specifically, risk 1 indicates that "the burden on the musculoskeletal system due to this posture is not a problem. The risk is extremely low." Risk 2 indicates that "this posture is harmful to the musculoskeletal system. The risk is low, but improvement is needed in the near future." Risk 3 indicates that "this posture is harmful to the musculoskeletal system. The risk is high and should be improved immediately." Risk 4 indicates that "this posture is very harmful to the musculoskeletal system. The risk is extremely high and should be improved immediately."

そして、分析者は、ビデオで撮影した作業者の作業の様子を観察しながら、背部、上肢、下肢、及び対象物の重量、それぞれについて適合するコードを特定し、特定したコードを、評価表に当てはめて、各作業における健康障害のリスクを判定する。 Then, the analyst identifies the matching code for each of the back, upper limbs, lower limbs, and weight of the object while observing the work of the worker taken by the video, and puts the identified code in the evaluation table. Apply to determine the risk of health problems in each task.

このように、OWASを用いれば、作業者、介護士等における負担を客観的に評価することができる。この結果、生産、建設、介護及び医療等の各種現場において、作業工程等の見直しが容易となり、健康障害の発生が抑制されることになる。 In this way, using OWAS, it is possible to objectively evaluate the burden on workers, caregivers, and the like. As a result, at various sites such as production, construction, long-term care, and medical care, it becomes easy to review the work process and the like, and the occurrence of health problems is suppressed.

“「職場における腰痛予防対策指針」の概要と腰痛等防止のためのリスク評価手法の例”,[online],愛知労働局,[平成26年6月1日検索],インターネット<URL:http://aichi-roudoukyoku.jsite.mhlw.go.jp/library/aichi-roudoukyoku/jyoho/roudoueisei/youtuubousi.pdf>"Outline of" Guidelines for Prevention of Back Pain in the Workplace "and Examples of Risk Assessment Methods for Prevention of Back Pain, etc.", [online], Aichi Labor Bureau, [Search on June 1, 2014], Internet <URL: http: //aichi-roudoukyoku.jsite.mhlw.go.jp/library/aichi-roudoukyoku/jyoho/roudoueisei/youtuubousi.pdf> “「OWAS: Ovako式作業身体特性分析システム”,[online],平成26年6月1日,愛知労働局,[平成26年6月1日検索],インターネット<URL:http://aichi-roudoukyoku.jsite.mhlw.go.jp/library/aichi-roudoukyoku/jyoho/roudoueisei/youtuubousi.pdf>"OWAS: Ovako-type work physical characteristics analysis system", [online], June 1, 2014, Aichi Labor Bureau, [Search June 1, 2014], Internet <URL: http: // aichi- roudoukyoku.jsite.mhlw.go.jp/library/aichi-roudoukyoku/jyoho/roudoueisei/youtuubousi.pdf>

しかしながら、人の身体には特性があり、ある人にとっては悪い姿勢でも、別の人にとっては良い姿勢となることがある。OWASでは、人の姿勢を一律に判断しているに過ぎず、人の身体の特性を判断することが求められている。 However, a person's body has its own characteristics, and what is bad for one person can be good for another. In OWAS, the posture of a person is only uniformly judged, and it is required to judge the characteristics of the human body.

本発明の目的の一例は、上記問題を解消し、人の身体の特性分析を可能にし得る、身体特性分析装置、身体特性分析方法、及びプログラムを提供することにある。 An example of an object of the present invention is to provide a physical characteristic analyzer, a physical characteristic analysis method, and a program capable of solving the above problems and enabling analysis of the characteristics of a human body.

上記目的を達成するため、本発明の一側面における身体特性分析装置は、対象者の身体の特性を分析するための装置であって、
前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、タイプ判定部と、
を備えていることを特徴とする。
In order to achieve the above object, the physical characteristic analyzer in one aspect of the present invention is an apparatus for analyzing the physical characteristics of a subject.
A data acquisition unit that acquires data that changes according to the movement of the target person,
A skeleton information creation unit that creates skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
Based on the skeletal information, the states of the shoulder and the waist of the subject are specified, and based on the identified states of the shoulder and the waist, the subject is the first type and the first type and the first. A type determination unit that determines which of the two types is used,
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における身体特性分析方法は、対象者の身体の特性を分析するための装置であって、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を備えていることを特徴とする。
Further, in order to achieve the above object, the physical characteristic analysis method in one aspect of the present invention is a device for analyzing the physical characteristics of the subject.
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、対象者の身体の特性を分析するためのプログラムであって、
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を実行させることを特徴とする。
Further, in order to achieve the above object, the program in one aspect of the present invention is a program for analyzing the physical characteristics of the subject by a computer.
On the computer
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
Is characterized by executing.

以上のように、本発明によれば、人の身体の特性分析を可能にすることができる。 As described above, according to the present invention, it is possible to analyze the characteristics of the human body.

図1は、本発明の実施の形態における身体特性分析装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a physical characteristic analyzer according to an embodiment of the present invention. 図2は、本実施の形態における身体特性分析装置の具体的構成を示すブロック図である。FIG. 2 is a block diagram showing a specific configuration of the physical characteristic analyzer according to the present embodiment. 図3は、本発明の実施の形態で作成された骨格情報の一例を示す図である。FIG. 3 is a diagram showing an example of skeletal information created in the embodiment of the present invention. 図4は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図4(a)は画像の水平方向(X座標)における算出処理を示し、図4(b)は画像の垂直方向(Y座標)における算出処理を示している。FIG. 4 is a diagram for explaining the calculation process of the three-dimensional coordinates according to the embodiment of the present invention, FIG. 4A shows the calculation process in the horizontal direction (X coordinate) of the image, and FIG. 4B shows the calculation process. The calculation process in the vertical direction (Y coordinate) of the image is shown. 図5は、本発明の実施の形態における身体特性分析装置の動作を示すフロー図である。FIG. 5 is a flow chart showing the operation of the physical characteristic analyzer according to the embodiment of the present invention. 図6は、図5に示したタイプの判定処理を具体的に示すフロー図である。FIG. 6 is a flow chart specifically showing the type of determination processing shown in FIG. 図7は、本発明の実施の形態における身体特性分析装置10を実現するコンピュータの一例を示すブロック図である。FIG. 7 is a block diagram showing an example of a computer that realizes the physical characteristic analyzer 10 according to the embodiment of the present invention.

(実施の形態)
以下、本発明の実施の形態における、身体特性分析装置、身体特性分析方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment)
Hereinafter, the physical characteristic analyzer, the physical characteristic analysis method, and the program according to the embodiment of the present invention will be described with reference to FIGS. 1 to 7.

[装置構成]
最初に、図1を用いて、本実施の形態における身体特性分析装置の概略構成について説明する。図1は、本発明の実施の形態における身体特性分析装置の概略構成を示すブロック図である。
[Device configuration]
First, the schematic configuration of the physical characteristic analyzer according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a physical characteristic analyzer according to an embodiment of the present invention.

図1に示す本実施の形態における身体特性分析装置10は、対象者の身体の特性を分析するための装置である。図1に示すように、身体特性分析装置10は、データ取得部11と、骨格情報作成部12と、タイプ判定部13とを備えている。 The physical characteristic analyzer 10 according to the present embodiment shown in FIG. 1 is an apparatus for analyzing the physical characteristics of the subject. As shown in FIG. 1, the physical characteristic analyzer 10 includes a data acquisition unit 11, a skeleton information creation unit 12, and a type determination unit 13.

データ取得部11は、対象者の動作に応じて変化するデータを取得する。骨格情報作成部12は、取得されたデータに基づいて、対象者の複数の部位の位置を特定する骨格情報を作成する。 The data acquisition unit 11 acquires data that changes according to the movement of the target person. The skeleton information creation unit 12 creates skeleton information that identifies the positions of a plurality of parts of the target person based on the acquired data.

タイプ判定部13は、骨格情報に基づいて、対象者における、肩部及び腰部それぞれの状態を特定する。また、タイプ判定部13は、特定した肩部及び腰部それぞれの状態に基づいて、対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する。 The type determination unit 13 identifies the state of each of the shoulder and waist in the subject based on the skeletal information. In addition, the type determination unit 13 determines whether the subject is one of the first type and the second type based on the identified states of the shoulder and the waist.

このように、本実施の形態では、対象者の動作に応じて変化するデータから、対象者の肩部及び腰部の状態が特定され、対象者の特性のタイプが判定される。つまり、本実施の形態によれば、人の身体の特性分析が可能となる。 As described above, in the present embodiment, the state of the shoulder and the waist of the subject is specified from the data that changes according to the movement of the subject, and the type of the characteristic of the subject is determined. That is, according to the present embodiment, it is possible to analyze the characteristics of the human body.

続いて、図2を用いて、本実施の形態における身体特性分析装置10の具体的構成について説明する。図2は、本実施の形態における身体特性分析装置の具体的構成を示すブロック図である。 Subsequently, a specific configuration of the physical characteristic analyzer 10 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a specific configuration of the physical characteristic analyzer according to the present embodiment.

図2に示すように、本実施の形態では、身体特性分析装置10は、上述したデータ取得部11、骨格情報作成部12、及びタイプ判定部13に加えて、ジェスチャ入力受付部14も備えている。 As shown in FIG. 2, in the present embodiment, the physical characteristic analyzer 10 includes the gesture input receiving unit 14 in addition to the data acquisition unit 11, the skeleton information creating unit 12, and the type determination unit 13 described above. There is.

また、図2に示すように、本実施の形態における身体特性分析装置10には、デプスセンサ20と、表示装置30とが接続されている。デプスセンサ20は、例えば、特定のパターンで赤外線レーザ光を出射する光源と、対象物で反射された赤外線を受光する撮像素子とを備えており、これらによって、画素毎の深度が付加された画像データを、設定されたフレームレートで出力する。デプスセンサ20の具体例としては、Kinect(登録商標)といった既存のデプスセンサが挙げられる。 Further, as shown in FIG. 2, the depth sensor 20 and the display device 30 are connected to the body characteristic analysis device 10 in the present embodiment. The depth sensor 20 includes, for example, a light source that emits infrared laser light in a specific pattern and an image sensor that receives infrared rays reflected by an object, and image data to which depth for each pixel is added by these. Is output at the set frame rate. Specific examples of the depth sensor 20 include existing depth sensors such as Kinect (registered trademark).

また、デプスセンサ20は、対象者40の動作を撮影可能となるように配置されている。従って、本実施の形態では、データ取得部11は、デプスセンサ20から、対象者40の動作に応じて変化するデータとして、対象者40が写った深度付の画像データを取得し、これを骨格情報作成部12に入力する。 Further, the depth sensor 20 is arranged so that the movement of the subject 40 can be photographed. Therefore, in the present embodiment, the data acquisition unit 11 acquires from the depth sensor 20 image data with a depth in which the target person 40 is captured as data that changes according to the operation of the target person 40, and obtains the skeleton information. Input to the creation unit 12.

骨格情報作成部12は、本実施の形態では、設定されたフレームレートで出力された画像データ毎に、画像データ上での座標と画素に付加された深度とを用いて、対象者40の特定の部位の三次元座標を算出し、算出した三次元座標を用いて骨格情報を作成する。 In the present embodiment, the skeleton information creating unit 12 identifies the target person 40 by using the coordinates on the image data and the depth added to the pixels for each image data output at the set frame rate. The three-dimensional coordinates of the part of are calculated, and the skeleton information is created using the calculated three-dimensional coordinates.

図3は、本発明の実施の形態で作成された骨格情報の一例を示す図である。図3に示すように、骨格情報は、撮影開始時からの経過時間毎の各関節の三次元座標によって構成されている。なお、本明細書において、X座標は、画像データ上での水平方向における位置の値であり、Y座標は、画像データ上での垂直方向における位置の値であり、Z座標は、画素に付与された深度の値である。 FIG. 3 is a diagram showing an example of skeletal information created in the embodiment of the present invention. As shown in FIG. 3, the skeleton information is composed of the three-dimensional coordinates of each joint for each elapsed time from the start of imaging. In the present specification, the X coordinate is the value of the position in the horizontal direction on the image data, the Y coordinate is the value of the position in the vertical direction on the image data, and the Z coordinate is given to the pixel. The value of the depth.

特定の部位としては、例えば、頭、首、右肩、右肘、右手首、右手、右親指、右手先、左肩、左肘、左手首、左手、左親指、左手先、胸部、胸腰部、左腰、骨盤部、右腰、左股関節、左膝、左くるぶし、左足、右股関節、右膝、右くるぶし、右足等が挙げられる。図3においては、骨盤、胸腰部、親指右の三次元座標が例示されている。なお、本実施の形態では、特定の部位は、左肩、右肩、左腰、及び右腰の4つのみであっても良い。 Specific parts include, for example, head, neck, right shoulder, right elbow, right wrist, right hand, right thumb, right hand, left shoulder, left elbow, left wrist, left hand, left thumb, left hand, chest, chest and waist. Examples include the left hip, pelvic region, right hip, left hip joint, left knee, left ankle, left foot, right hip joint, right knee, right ankle, and right foot. In FIG. 3, the three-dimensional coordinates of the pelvis, the thoracolumbar region, and the right side of the thumb are illustrated. In this embodiment, there may be only four specific parts, the left shoulder, the right shoulder, the left hip, and the right hip.

また、画像データ上での座標と深度とから三次元座標を算出する手法は、下記の通りである。図4は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図4(a)は画像の水平方向(X座標)における算出処理を示し、図4(b)は画像の垂直方向(Y座標)における算出処理を示している。 The method for calculating the three-dimensional coordinates from the coordinates and the depth on the image data is as follows. FIG. 4 is a diagram for explaining the calculation process of the three-dimensional coordinates according to the embodiment of the present invention, FIG. 4A shows the calculation process in the horizontal direction (X coordinate) of the image, and FIG. 4B shows the calculation process. The calculation process in the vertical direction (Y coordinate) of the image is shown.

まず、深度が付加された画像データ上における、特定点の座標を(DX,DY)とし、特定点における深度をDPTとする。また、画像データの水平方向の画素数を2CX、垂直方向の画素数を2CYとする。そして、デプスセンサの水平方向の視野角を2θ、垂直方向の視野角を2φとする。この場合、特定点の三次元座標(WX,WY,WZ)は、図4(a)及び(b)から分かるように、以下の数1〜数3によって算出される。 First, the coordinates of a specific point on the image data to which the depth is added are defined as (DX, DY), and the depth at the specific point is defined as DPT. Further, the number of pixels in the horizontal direction of the image data is 2CX, and the number of pixels in the vertical direction is 2CY. Then, the horizontal viewing angle of the depth sensor is 2θ, and the vertical viewing angle is 2φ. In this case, the three-dimensional coordinates (WX, WY, WZ) of the specific point are calculated by the following equations 1 to 3, as can be seen from FIGS. 4 (a) and 4 (b).

(数1)
WX=((CX−DX)×DPT×tanθ)/CX
(Number 1)
WX = ((CX-DX) x DPT x tan θ) / CX

(数2)
WY=((CY−DY)×DPT×tanφ)/CY
(Number 2)
WY = ((CY-DY) x DPT x tanφ) / CY

(数3)
WZ=DPT
(Number 3)
WZ = DPT

ジェスチャ入力受付部14は、骨格情報作成部12によってされた骨格情報に基づいて、対象者40が予め設定されたジェスチャを行なっているかどうかを判定する。そして、ジェスチャ入力受付部14は、予め設定されたジェスチャが行なわれている場合は、そのジェスチャに紐付けられた指示を、タイプ判定部13に入力示する。 The gesture input reception unit 14 determines whether or not the target person 40 is performing a preset gesture based on the skeleton information provided by the skeleton information creation unit 12. Then, when a preset gesture is performed, the gesture input receiving unit 14 inputs and indicates an instruction associated with the gesture to the type determination unit 13.

ジェスチャの具体例としては、片腕を肩より上に上げる、片膝を上げる、片腕を前に突き出す等、種々の動作が挙げられる。また、ジェスチャに紐付けられた指示としては、タイプ判定の開始指示、タイプ判定のやり直し指示、タイプ判定の終了指示等が挙げられる。 Specific examples of gestures include various movements such as raising one arm above the shoulder, raising one knee, and pushing one arm forward. In addition, examples of the instruction associated with the gesture include an instruction to start the type determination, an instruction to redo the type determination, an instruction to end the type determination, and the like.

タイプ判定部13は、本実施の形態では、まず、タイプ判定開始のジェスチャが行なわれ、ジェスチャ入力受付部14によって開始が指示されると、骨格情報から対象者40の左肩、右肩、左腰、及び右腰の位置を特定する。 In the present embodiment, the type determination unit 13 first makes a gesture to start the type determination, and when the gesture input reception unit 14 instructs the start, the left shoulder, right shoulder, and left hip of the subject 40 are instructed to start from the skeleton information. , And the position of the right hip.

このとき、タイプの判定には、対象者40が静止している必要があることから、タイプ判定部13は、設定された時間(例えば、3秒間等)の間に生成された骨格情報を蓄積し、蓄積した骨格情報から、対象者40の左肩、右肩、左腰、及び右腰の位置を特定することができる。具体的には、タイプ判定部13は、部位毎に、蓄積した骨格情報から位置の平均を算出し、算出した平均の位置を、その部位の位置とする。 At this time, since the subject 40 needs to be stationary for the type determination, the type determination unit 13 accumulates the skeleton information generated during the set time (for example, 3 seconds). Then, from the accumulated skeletal information, the positions of the left shoulder, right shoulder, left hip, and right hip of the subject 40 can be specified. Specifically, the type determination unit 13 calculates the average position from the accumulated skeleton information for each part, and sets the calculated average position as the position of the part.

続いて、タイプ判定部13は、本実施の形態では、特定した左肩、右肩、左腰、及び右腰の位置から、肩部及び腰部それぞれの状態として、左肩と右肩との位置関係、及び左腰と右腰との位置関係を特定する。 Subsequently, in the present embodiment, the type determination unit 13 determines the positional relationship between the left shoulder and the right shoulder as the states of the shoulder and the waist from the specified positions of the left shoulder, the right shoulder, the left waist, and the right waist. And identify the positional relationship between the left hip and the right hip.

更に、タイプ判定部13は、左肩と右肩との位置関係及び左腰と右腰との位置関係から、下記の要件(a)〜(c)の全てが満たされている判断できる場合は、対象者40は猫背になり易いタイプ(第1のタイプ)に該当すると判定する。タイプ判定部13は、判定の結果を表示装置30の画面上に表示させる。
(a)左肩が右肩より高いこと。
(b)左腰が右腰より低いこと。
(c)左腰が右腰より後であること。
Further, if the type determination unit 13 can determine from the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip that all of the following requirements (a) to (c) are satisfied, the type determination unit 13 can determine that all of the following requirements (a) to (c) are satisfied. It is determined that the subject 40 corresponds to the type (first type) that tends to be stooped. The type determination unit 13 displays the determination result on the screen of the display device 30.
(A) The left shoulder is higher than the right shoulder.
(B) The left hip is lower than the right hip.
(C) The left hip is behind the right hip.

一方、タイプ判定部13は、左肩と右肩との位置関係及び左腰と右腰との位置関係から、下記の要件(d)〜(f)の全てが満たされている判断できる場合は、対象者40は反腰になり易いタイプ(第2のタイプ)に該当すると判定する。この場合も、タイプ判定部13は、判定の結果を表示装置30の画面上に表示させる。
(d)左肩が右肩より低いこと。
(e)左腰が右腰より高いこと。
(f)左腰が右腰より前であること。
On the other hand, if the type determination unit 13 can determine from the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip that all of the following requirements (d) to (f) are satisfied, It is determined that the subject 40 corresponds to the type (second type) that tends to be anti-waist. In this case as well, the type determination unit 13 displays the determination result on the screen of the display device 30.
(D) The left shoulder is lower than the right shoulder.
(E) The left hip is higher than the right hip.
(F) The left hip is in front of the right hip.

[装置動作]
次に、本発明の実施の形態における身体特性分析装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態における身体特性分析装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図4を参酌する。また、本実施の形態では、身体特性分析装置10を動作させることによって、身体特性分析方法が実施される。よって、本実施の形態における身体特性分析方法の説明は、以下の身体特性分析装置10の動作説明に代える。
[Device operation]
Next, the operation of the physical characteristic analyzer 10 according to the embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flow chart showing the operation of the physical characteristic analyzer according to the embodiment of the present invention. In the following description, FIGS. 1 to 4 will be referred to as appropriate. Further, in the present embodiment, the physical characteristic analysis method is implemented by operating the physical characteristic analyzer 10. Therefore, the description of the physical characteristic analysis method in the present embodiment will be replaced with the following description of the operation of the physical characteristic analyzer 10.

図5に示すように、まず、データ取得部11は、デプスセンサ20から出力された深度付の画像データを取得する(ステップA1)。 As shown in FIG. 5, first, the data acquisition unit 11 acquires the image data with depth output from the depth sensor 20 (step A1).

次に、骨格情報作成部12は、ステップA1で取得された画像データに基づいて、対象者40の複数の部位の位置を特定する骨格情報を作成する(ステップA2)。 Next, the skeleton information creation unit 12 creates skeleton information that specifies the positions of a plurality of parts of the target person 40 based on the image data acquired in step A1 (step A2).

次に、タイプ判定部13は、ジェスチャ入力受付部14によって開始が指示されると、対象者40における、左肩と右肩との位置関係、及び左腰と右腰との位置関係を特定する(ステップA3)。 Next, when the gesture input reception unit 14 instructs the start, the type determination unit 13 specifies the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip in the subject 40 ( Step A3).

具体的には、ステップA3では、タイプ判定部13は、設定された時間の間に生成された骨格情報を蓄積し、蓄積した骨格情報から、対象者40の左肩、右肩、左腰、及び右腰の位置を特定する。そして、タイプ判定部13は、特定した左肩、右肩、左腰、及び右腰の位置から、左肩と右肩との位置関係、及び左腰と右腰との位置関係を特定する。 Specifically, in step A3, the type determination unit 13 accumulates the skeletal information generated during the set time, and from the accumulated skeletal information, the left shoulder, right shoulder, left hip, and the left hip of the subject 40. Identify the position of the right hip. Then, the type determination unit 13 specifies the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip from the identified positions of the left shoulder, the right shoulder, the left hip, and the right hip.

次に、タイプ判定部13は、ステップA3で特定された左肩と右肩との位置関係及び左腰と右腰との位置関係から、対象者40が、猫背になり易いタイプ及び反腰になり易いタイプのうちいずれであるかを判定する(ステップA4)。 Next, from the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip identified in step A3, the type determination unit 13 makes the subject 40 a type that tends to be stooped and an anti-waist. It is determined which of the easy types is (step A4).

ステップA4の判定後、タイプ判定部13は、判定結果を特定するデータを表示装置30に出力し、その画面上に判定結果を表示させる(ステップA5)。 After the determination in step A4, the type determination unit 13 outputs the data for identifying the determination result to the display device 30 and displays the determination result on the screen (step A5).

続いて、図6を用いて、図5に示したタイプの判定処理(ステップA4)について更に具体的に説明する。図6は、図5に示したタイプの判定処理を具体的に示すフロー図である。 Subsequently, the determination process (step A4) of the type shown in FIG. 5 will be described more specifically with reference to FIG. FIG. 6 is a flow chart specifically showing the type of determination processing shown in FIG.

図6に示すように、ステップA3が実行されると、タイプ判定部13は、上述の要件(a)〜(c)の全てが満たされているかどうかを判定する(ステップA41)。 As shown in FIG. 6, when step A3 is executed, the type determination unit 13 determines whether or not all of the above requirements (a) to (c) are satisfied (step A41).

ステップA41の判定の結果、要件(a)〜(c)の全てが満たされている場合は、タイプ判定部13は、対象者40は猫背になり易いタイプに該当すると判定する(ステップA42)。 As a result of the determination in step A41, if all of the requirements (a) to (c) are satisfied, the type determination unit 13 determines that the subject 40 corresponds to a type that tends to be stooped (step A42).

一方、ステップA41の判定の結果、要件(a)〜(c)の全てが満たされていない場合は、タイプ判定部13は、上述の要件(d)〜(f)の全てが満たされているかどうかを判定する(ステップA43)。 On the other hand, as a result of the determination in step A41, if all of the requirements (a) to (c) are not satisfied, is the type determination unit 13 satisfying all of the above requirements (d) to (f)? It is determined whether or not (step A43).

ステップA43の判定の結果、要件(d)〜(f)の全てが満たされている場合は、タイプ判定部13は、対象者40は反腰になり易いタイプに該当すると判定する(ステップA44)。 As a result of the determination in step A43, if all of the requirements (d) to (f) are satisfied, the type determination unit 13 determines that the subject 40 corresponds to a type that is prone to anti-waist (step A44). ..

一方、ステップA43の判定の結果、要件(d)〜(f)の全てが満たされていない場合は、タイプ判定部13は、対象者40の各部の位置が正確に特定されていないと判定する(ステップA45)。この場合、上述のステップA5では、表示装置30の表示画面上にはエラーが表示され、再度の撮影を促すメッセージが表示される。 On the other hand, as a result of the determination in step A43, if all of the requirements (d) to (f) are not satisfied, the type determination unit 13 determines that the position of each part of the target person 40 is not accurately specified. (Step A45). In this case, in step A5 described above, an error is displayed on the display screen of the display device 30, and a message prompting for another shooting is displayed.

[実施の形態における効果]
以上のように、本実施の形態によれば、対象者40がデプスセンサ20の前に立って静止するだけで、対象者40の特性が判定され、表示装置30の画面上には、対象者40のタイプが表示される。従って、身体特性分析装置10を利用する分析者は、対象者40の特性を考慮して、健康障害の発生リスク等を予測することができる。
[Effect in the embodiment]
As described above, according to the present embodiment, the characteristics of the subject 40 are determined only by the subject 40 standing in front of the depth sensor 20 and standing still, and the subject 40 is displayed on the screen of the display device 30. Type is displayed. Therefore, the analyst who uses the physical characteristic analyzer 10 can predict the risk of occurrence of health disorders and the like in consideration of the characteristics of the subject 40.

[変形例]
上述した例では、対象者40の動作に応じて変化するデータを取得するために、デプスセンサ20が用いられているが、本実施の形態では、データ取得のための手段は、デプスセンサに限定されることはない。本実施の形態では、デプスセンサの代わりに、モーションキャプチャシステムが用いられていても良い。また、モーションキャプチャシステムは、光学式、慣性センサ式、機械式、磁気式、及びビデオ式のいずれであっても良い。
[Modification example]
In the above example, the depth sensor 20 is used to acquire data that changes according to the movement of the subject 40, but in the present embodiment, the means for acquiring the data is limited to the depth sensor. There is no such thing. In this embodiment, a motion capture system may be used instead of the depth sensor. Further, the motion capture system may be any of an optical type, an inertial sensor type, a mechanical type, a magnetic type, and a video type.

[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図5に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における身体特性分析装置10と身体特性分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、データ取得部11、骨格情報作成部12、タイプ判定部13、及びジェスチャ入力受付部14として機能し、処理を行なう。
[program]
The program in this embodiment may be any program that causes a computer to execute steps A1 to A5 shown in FIG. By installing this program on a computer and executing it, the physical characteristic analyzer 10 and the physical characteristic analysis method according to the present embodiment can be realized. In this case, the CPU (Central Processing Unit) of the computer functions as a data acquisition unit 11, a skeleton information creation unit 12, a type determination unit 13, and a gesture input reception unit 14 to perform processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれデータ取得部11、骨格情報作成部12、タイプ判定部13、及びジェスチャ入力受付部14のいずれかとして機能しても良い。 Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any of the data acquisition unit 11, the skeleton information creation unit 12, the type determination unit 13, and the gesture input reception unit 14.

ここで、本実施の形態におけるプログラムを実行することによって、身体特性分析装置10を実現するコンピュータについて図6を用いて説明する。図7は、本発明の実施の形態における身体特性分析装置10を実現するコンピュータの一例を示すブロック図である。 Here, a computer that realizes the physical characteristic analyzer 10 by executing the program according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram showing an example of a computer that realizes the physical characteristic analyzer 10 according to the embodiment of the present invention.

図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。 As shown in FIG. 7, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. Each of these parts is connected to each other via a bus 121 so as to be capable of data communication.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。 The CPU 111 expands the programs (codes) of the present embodiment stored in the storage device 113 into the main memory 112 and executes them in a predetermined order to perform various operations. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program according to the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. The program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Further, specific examples of the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads a program from the recording medium 120, and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include a general-purpose semiconductor storage device such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk, or a CD-. Examples include optical recording media such as ROM (Compact Disk Read Only Memory).

なお、本実施の形態における身体特性分析装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、身体特性分析装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The physical characteristic analyzer 10 in the present embodiment can also be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the physical characteristic analyzer 10 may be partially realized by a program and the rest may be realized by hardware.

以上のように、本発明によれば、人の身体の特性分析が可能となる。本発明は、生産現場、建設現場、医療現場、介護現場、更にはスポーツ等において有用である。 As described above, according to the present invention, it is possible to analyze the characteristics of the human body. The present invention is useful in production sites, construction sites, medical sites, nursing care sites, sports, and the like.

10 身体特性分析装置
11 データ取得部
12 骨格情報作成部
13 タイプ判定部
14 ジェスチャ入力受付部
20 デプスセンサ
30 表示装置
40 対象者
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
10 Physical characteristic analyzer 11 Data acquisition unit 12 Skeleton information creation unit 13 Type judgment unit 14 Gesture input reception unit 20 Depth sensor 30 Display device 40 Target person 110 Computer 111 CPU
112 Main memory 113 Storage device 114 Input interface 115 Display controller 116 Data reader / writer 117 Communication interface 118 Input device 119 Display device 120 Recording medium 121 Bus

Claims (6)

対象者の身体の特性を分析するための装置であって、
前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、タイプ判定部と、
を備え、
前記タイプ判定部が、
前記肩部及び前記腰部それぞれの状態として、左肩と右肩との位置関係及び左腰と右腰との位置関係を特定し、
特定した左肩と右肩との位置関係及び左腰と右腰との位置関係から、
左肩が右肩より高く、左腰が右腰より低く、更に、左腰が右腰より後であると、判断できる場合は、前記対象者が前記猫背になり易いタイプであると判定し、
一方、左肩が右肩より低く、左腰が右腰より高く、更に、左腰が右腰より前であると、判断できる場合は、前記対象者が前記反腰になり易いタイプであると判定する、
ことを特徴とする身体特性分析装置。
A device for analyzing the physical characteristics of a subject,
A data acquisition unit that acquires data that changes according to the movement of the target person,
A skeleton information creation unit that creates skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
Based on the skeletal information, the states of the shoulder and the waist of the subject are specified, and based on the identified states of the shoulder and the waist, the subject is the first type and the first type and the first. A type determination unit that determines which of the two types is used,
With
The type determination unit
As the states of the shoulder and the waist, the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left waist and the right waist are specified.
From the identified positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip,
If it can be determined that the left shoulder is higher than the right shoulder, the left hip is lower than the right hip, and the left hip is later than the right hip, it is determined that the subject is the type that tends to be the stoop.
On the other hand, if it can be determined that the left shoulder is lower than the right shoulder, the left hip is higher than the right hip, and the left hip is in front of the right hip, it is determined that the subject is a type that is likely to have the anti-waist. do,
A physical characteristic analyzer characterized by this.
前記データ取得部が、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
請求項1に記載の身体特性分析装置。
The data acquisition unit acquires image data to which the depth of each pixel is added as the data from the depth sensor arranged so as to photograph the target person.
The body characteristic analyzer according to claim 1.
コンピュータが対象者の身体の特性を分析する方法であって、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を有し、
前記(c)のステップにおいて、前記肩部及び前記腰部それぞれの状態として、左肩と右肩との位置関係及び左腰と右腰との位置関係を特定し、
特定した左肩と右肩との位置関係及び左腰と右腰との位置関係から、
左肩が右肩より高く、左腰が右腰より低く、更に、左腰が右腰より後であると、判断できる場合は、前記対象者が前記猫背になり易いタイプであると判定し、
一方、左肩が右肩より低く、左腰が右腰より高く、更に、左腰が右腰より前であると、判断できる場合は、前記対象者が前記反腰になり易いタイプであると判定する、
ことを特徴とする身体特性分析方法。
Computer is a way you analyze the characteristics of the subject's body,
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
Have,
In the step (c), the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left waist and the right waist are specified as the states of the shoulder and the waist, respectively.
From the identified positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip,
If it can be determined that the left shoulder is higher than the right shoulder, the left hip is lower than the right hip, and the left hip is later than the right hip, it is determined that the subject is the type that tends to be the stoop.
On the other hand, if it can be determined that the left shoulder is lower than the right shoulder, the left hip is higher than the right hip, and the left hip is in front of the right hip, it is determined that the subject is a type that is likely to have the anti-waist. do,
A physical characteristic analysis method characterized by this.
前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
請求項3に記載の身体特性分析方法。
In the step (a), image data to which the depth of each pixel is added is acquired as the data from the depth sensor arranged so as to photograph the target person.
The physical characteristic analysis method according to claim 3.
コンピュータによって、対象者の身体の特性を分析するためのプログラムであって、
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、肩部及び腰部それぞれの状態を特定し、特定した、前記肩部及び前記腰部それぞれの状態に基づいて、前記対象者が、第1のタイプ及び第2のタイプのうちいずれであるかを判定する、ステップと、
を実行させ、
前記(c)のステップにおいて、前記肩部及び前記腰部それぞれの状態として、左肩と右肩との位置関係及び左腰と右腰との位置関係を特定し、
特定した左肩と右肩との位置関係及び左腰と右腰との位置関係から、
左肩が右肩より高く、左腰が右腰より低く、更に、左腰が右腰より後であると、判断できる場合は、前記対象者が前記猫背になり易いタイプであると判定し、
一方、左肩が右肩より低く、左腰が右腰より高く、更に、左腰が右腰より前であると、判断できる場合は、前記対象者が前記反腰になり易いタイプであると判定する、
プログラム。
A program for analyzing the physical characteristics of a subject using a computer.
On the computer
(A) A step of acquiring data that changes according to the movement of the target person, and
(B) A step of creating skeletal information that identifies the positions of a plurality of parts of the subject based on the data.
(C) Based on the skeletal information, the states of the shoulder and the waist in the subject are specified, and the subject is the first based on the states of the shoulder and the waist. A step and a step to determine whether it is a type or a second type.
To run,
In the step (c), the positional relationship between the left shoulder and the right shoulder and the positional relationship between the left waist and the right waist are specified as the states of the shoulder and the waist, respectively.
From the identified positional relationship between the left shoulder and the right shoulder and the positional relationship between the left hip and the right hip,
If it can be determined that the left shoulder is higher than the right shoulder, the left hip is lower than the right hip, and the left hip is later than the right hip, it is determined that the subject is the type that tends to be the stoop.
On the other hand, if it can be determined that the left shoulder is lower than the right shoulder, the left hip is higher than the right hip, and the left hip is in front of the right hip, it is determined that the subject is a type that is likely to have the anti-waist. do,
program.
前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
請求項5に記載のプログラム。
In the step (a), image data to which the depth of each pixel is added is acquired as the data from the depth sensor arranged so as to photograph the target person.
The program according to claim 5.
JP2017126214A 2017-06-28 2017-06-28 Physical characteristic analyzer, physical characteristic analysis method, and program Active JP6940139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017126214A JP6940139B2 (en) 2017-06-28 2017-06-28 Physical characteristic analyzer, physical characteristic analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017126214A JP6940139B2 (en) 2017-06-28 2017-06-28 Physical characteristic analyzer, physical characteristic analysis method, and program

Publications (2)

Publication Number Publication Date
JP2019005466A JP2019005466A (en) 2019-01-17
JP6940139B2 true JP6940139B2 (en) 2021-09-22

Family

ID=65027227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017126214A Active JP6940139B2 (en) 2017-06-28 2017-06-28 Physical characteristic analyzer, physical characteristic analysis method, and program

Country Status (1)

Country Link
JP (1) JP6940139B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161365A1 (en) * 2020-02-10 2021-08-19 株式会社 テクノミライ Digital motion formula security system, method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011078728A (en) * 2009-03-10 2011-04-21 Shinsedai Kk Body state evaluation unit, state estimation unit, step estimation unit, and health management system
JP2014078145A (en) * 2012-10-11 2014-05-01 Verdi Corp Optimal exercise program determination system based on posture evaluation
JP2014090841A (en) * 2012-11-02 2014-05-19 Sony Corp Information processing device, information processing method, and program
CN103735268B (en) * 2013-09-29 2015-11-25 沈阳东软医疗系统有限公司 A kind of position detection method and system
JP6433805B2 (en) * 2015-02-09 2018-12-05 国立大学法人鳥取大学 Motor function diagnosis apparatus and method, and program
US20180153445A1 (en) * 2015-06-26 2018-06-07 Nec Solution Innovators, Ltd. Measurement device and measurement method
JP2017107503A (en) * 2015-12-11 2017-06-15 株式会社リコー Information processing apparatus, information processing method, program, and system

Also Published As

Publication number Publication date
JP2019005466A (en) 2019-01-17

Similar Documents

Publication Publication Date Title
Diego-Mas et al. Using Kinect™ sensor in observational methods for assessing postures at work
JP6381918B2 (en) Motion information processing device
US9700242B2 (en) Motion information processing apparatus and method
JP6662532B2 (en) Gait analyzer, gait analysis method, and program
WO2017222072A1 (en) Posture analysis device, posture analysis method, and computer-readable recording medium
WO2018087853A1 (en) Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
Skals et al. A musculoskeletal model driven by dual Microsoft Kinect Sensor data
CN109219426B (en) Rehabilitation training assistance control device and computer-readable recording medium
Li et al. MOPED25: A multimodal dataset of full-body pose and motion in occupational tasks
JP6940139B2 (en) Physical characteristic analyzer, physical characteristic analysis method, and program
De Rosario et al. Correction of joint angles from Kinect for balance exercising and assessment
KR102310964B1 (en) Electronic Device, Method, and System for Diagnosing Musculoskeletal Symptoms
WO2017090083A1 (en) Measurement apparatus, measurement method, and program
JP6744139B2 (en) Rehabilitation support control device and computer program
JP2021180904A (en) Measuring apparatus
JP6558820B2 (en) Measuring device, measuring method, and program
Alothmany et al. Accuracy of joint angles tracking using markerless motion system
WO2023188796A1 (en) Posture evaluation device, posture evaluation system, posture evaluation method, and non-transitory computer-readable medium
WO2023012915A1 (en) Posture identification program, posture identification method, and information processing device
Ramos Jr et al. Concurrent validity of a custom computer vision algorithm for measuring lumbar spine motion from RGB-D camera depth data
Parahoo Design and Evaluation of a Mobile Marker-Based Motion Capture System Using the Kinect Sensor for Biomechanical Assessments of Caregivers in the Home
Nayak et al. THE ART AND SCIENCE OF POSTURE ASSESSMENT: EXPLORING METHODS AND ADVANCEMENTS
JP2017093789A (en) Measurement device, measurement method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R150 Certificate of patent or registration of utility model

Ref document number: 6940139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150