JPWO2017222072A1 - 姿勢分析装置、姿勢分析方法、及びプログラム - Google Patents

姿勢分析装置、姿勢分析方法、及びプログラム Download PDF

Info

Publication number
JPWO2017222072A1
JPWO2017222072A1 JP2018523708A JP2018523708A JPWO2017222072A1 JP WO2017222072 A1 JPWO2017222072 A1 JP WO2017222072A1 JP 2018523708 A JP2018523708 A JP 2018523708A JP 2018523708 A JP2018523708 A JP 2018523708A JP WO2017222072 A1 JPWO2017222072 A1 JP WO2017222072A1
Authority
JP
Japan
Prior art keywords
subject
posture
limbs
data
posture analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018523708A
Other languages
English (en)
Inventor
勇介 中尾
勇介 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2017222072A1 publication Critical patent/JPWO2017222072A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6891Furniture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Human Computer Interaction (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

姿勢分析装置(10)は、対象者の姿勢を分析するための装置であって、対象者を撮影するように配置されたデプスセンサから、画素毎の深度が付加された画像データを取得する、データ取得部(11)と、画像データに基づいて、対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部(12)と、骨格情報に基づいて、対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、状態特定部(13)と、特定された、対象者における、背部、上肢、及び下肢の状態に基づいて、対象者の姿勢を分析する、姿勢分析部(14)と、を備えている。

Description

本発明は、人の姿勢を分析するための、姿勢分析装置、及び姿勢分析方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
従来から、生産現場、建設現場等では、作業員が無理な姿勢をとること等により、腰痛等の健康障害が発生することがある。また、同様の健康障害は、介護施設、病院等において介護士等にも発生している。このため、作業員、介護士等の姿勢を分析して、腰痛等の健康障害の発生を抑制することが求められている。
具体的には、姿勢を分析する手法としては、OWAS(Ovako Working Posture Analysing System)が知られている(非特許文献1及び2参照)。ここで、図8及び図9を用いて、OWASについて説明する。図8は、OWASで用いられる姿勢コードを示す図である。図9は、OWASで用いられる評価表を示す図である。
図8に示すように、姿勢コードは、背部、上肢、下肢、及び対象物の重量、それぞれ毎に設定されている。また、図8に示す各姿勢コードの内容は下記の通りである。
[背部]
1:背筋は真っ直ぐ
2:前屈又は後屈
3:捻る又は体側を曲げる
4:捻る動作と前後屈又は体側曲
[上肢]
1:両腕とも肩より下
2:片腕が肩の高さ以上
3:両腕が肩の高さ以上
[下肢]
1:座る
2:直立
3:片足重心(重心足は真っ直ぐ)
4:中腰
5:片足重心の中腰
6:膝立ち又は片膝立ち
7:歩く(移動)
[重量]
1:10kg以下
2:10〜20kg
3:20kgを超える
まず、分析者は、ビデオで撮影した作業者の作業の様子を観察しながら、各作業者について、動作毎に、背部、上肢、下肢の動きを、図8に示す姿勢コードに照合する。そして、分析者は、背部、上肢、下肢それぞれについて対応するコードを特定し、特定したコードを記録する。また、分析者は、作業者が扱う対象物の重量に対応するコードも記録する。その後、分析者は、記録した各コードを、図9に示す評価表に当てはめて、各作業における健康障害のリスクを判定する。
図9において、各コード以外の数値は、リスクを表している。具体的なリスクの内容は下記の通りである。
1:この姿勢による筋骨格系負担は問題ない。リスクは極めて低い。
2:この姿勢は筋骨格系に有害である。リスクは低いが近いうちに改善が必要。
3:この姿勢は筋骨格系に有害である。リスクも高く早急に改善すべき。
4:この姿勢は筋骨格系に非常に有害である。リスクは極めて高く、直ちに改善すべき。
このように、OWASを用いれば、作業者、介護士等における負担を客観的に評価することができる。この結果、生産、建設、介護及び医療等の各種現場において、作業工程等の見直しが容易となり、健康障害の発生が抑制されることになる。
"「職場における腰痛予防対策指針」の概要と腰痛等防止のためのリスク評価手法の例",[online],愛知労働局,[平成26年6月1日検索],インターネット<URL:http://aichi-roudoukyoku.jsite.mhlw.go.jp/library/aichi-roudoukyoku/jyoho/roudoueisei/youtuubousi.pdf> "「OWAS: Ovako式作業姿勢分析システム",[online],平成26年6月1日,愛知労働局,[平成26年6月1日検索],インターネット<URL:http://aichi-roudoukyoku.jsite.mhlw.go.jp/library/aichi-roudoukyoku/jyoho/roudoueisei/youtuubousi.pdf>
ところで、上述したようにOWASは、通常、人手によるビデオ分析にて行なわれている。このため、OWASの実行には、時間及び労力がかかり過ぎるという問題がある。また、OWASの実行を支援するコンピュータソフトウェアは開発されているが、このソフトウェアを利用しても、作業の様子からコードを特定する作業は人手による必要があり、時間及び労力の軽減には限界がある。
本発明の目的の一例は、上記問題を解消し、人手によることなく、対象者の姿勢の分析を行ない得る、姿勢分析装置、姿勢分析方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
上記目的を達成するため、本発明の一側面における姿勢分析装置は、対象者の姿勢を分析するための装置であって、
前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、状態特定部と、
特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、姿勢分析部と、
を備えていることを特徴とする。
また、上記目的を達成するため、本発明の一側面における姿勢分析方法は、対象者の姿勢を分析するための方法であって、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
(d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータによって、対象者の姿勢を分析するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
(d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
を実行させる、命令を含むプログラムを記録していることを特徴とする。
以上のように、本発明によれば、人手によることなく、対象者の姿勢の分析を行なうことができる。
図1は、本発明の実施の形態における姿勢分析装置の概略構成を示すブロック図である。 図2は、本実施の形態における姿勢分析装置の具体的構成を示すブロック図である。 図3は、本発明の実施の形態で作成された骨格情報の一例を示す図である。 図4は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図4(a)は画像の水平方向(X座標)における算出処理を示し、図4(b)は画像の垂直方向(Y座標)における算出処理を示している。 図5は、本発明の実施の形態における姿勢分析装置の動作を示すフロー図である。 図6は、図5に示した下肢コードの判定処理を具体的に示すフロー図である。 図7は、本発明の実施の形態における姿勢分析装置を実現するコンピュータの一例を示すブロック図である。 図8は、OWASで用いられる姿勢コードを示す図である。 図9は、OWASで用いられる評価表を示す図である。
(実施の形態)
以下、本発明の実施の形態における、姿勢分析装置、姿勢分析方法、及びプログラムについて、図1〜図7を参照しながら説明する。
[装置構成]
最初に、図1を用いて、本実施の形態における姿勢分析装置の概略構成について説明する。図1は、本発明の実施の形態における姿勢分析装置の概略構成を示すブロック図である。
図1に示す本実施の形態における姿勢分析装置10は、対象者の姿勢を分析するための装置である。図1に示すように、姿勢分析装置10は、データ取得部11と、骨格情報作成部12と、状態特定部13と、姿勢分析部14とを備えている。
データ取得部11は、対象者の動作に応じて変化するデータを取得する。骨格情報作成部12は、取得されたデータに基づいて、対象者の複数の部位の位置を特定する骨格情報を作成する。
状態特定部13は、骨格情報に基づいて、対象者における、背部、上肢、及び下肢、それぞれの状態を特定する。姿勢分析部14は、特定された、対象者における、背部、上肢、及び下肢の状態に基づいて、対象者の姿勢を分析する。
このように、本実施の形態では、対象者の動作に応じて変化するデータから、作業者、介護士等の姿勢を特定できる。つまり、本実施の形態によれば、人手によることなく、対象者の姿勢の分析を行なうことができる。
続いて、図2を用いて、本実施の形態における姿勢分析装置10の具体的構成について説明する。図2は、本実施の形態における姿勢分析装置の具体的構成を示すブロック図である。
図2に示すように、本実施の形態における姿勢分析装置10には、デプスセンサ20と、分析者の端末装置30とが接続されている。デプスセンサ20は、例えば、特定のパターンで赤外線レーザ光を出射する光源と、対象物で反射された赤外線を受光する撮像素子とを備えており、これらによって、画素毎の深度が付加された画像データを出力する。デプスセンサの具体例としては、Kinect(登録商標)といった既存のデプスセンサが挙げられる。
また、デプスセンサ20は、対象者40の動作を撮影可能となるように配置されている。従って、本実施の形態では、データ取得部11は、デプスセンサ20から、対象者40の動作に応じて変化するデータとして、対象者40が写った深度付の画像データを取得し、これを骨格情報作成部12に入力する。
骨格情報作成部12は、本実施の形態では、画像データ毎に、画像データ上での座標と画素に付加された深度とを用いて、ユーザの特定の部位の三次元座標を算出し、算出した三次元座標を用いて骨格情報を作成する。
図3は、本発明の実施の形態で作成された骨格情報の一例を示す図である。図3に示すように、骨格情報は、撮影開始時からの経過時間毎の各関節の三次元座標によって構成されている。なお、本明細書において、X座標は、画像データ上での水平方向における位置の値であり、Y座標は、画像データ上での垂直方向における位置の値であり、Z座標は、画素に付与された深度の値である。
特定の部位としては、例えば、頭、首、右肩、右肘、右手首、右手、右親指、右手先、左肩、左肘、左手首、左手、左親指、左手先、胸部、胸腰部、骨盤部、右股関節、右膝、右くるぶし、右足、左股関節、左膝、左くるぶし、左足等が挙げられる。図3においては、骨盤部、胸腰部、親指右の三次元座標が例示されている。
また、画像データ上での座標と深度とから三次元座標を算出する手法は、下記の通りである。図4は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図4(a)は画像の水平方向(X座標)における算出処理を示し、図4(b)は画像の垂直方向(Y座標)における算出処理を示している。
まず、深度が付加された画像データ上における、特定点の座標を(DX,DY)、特定点における深度をDPTとする。また、画像データの水平方向の画素数を2CX、垂直方向の画素数を2CYとする。そして、デプスセンサの水平方向の視野角を2θ、垂直方向の視野角を2φとする。この場合、特定点の三次元座標(WX,WY,WZ)は、図4(a)及び(b)から分かるように、以下の数1〜数3によって算出される。
(数1)
WX=((CX−DX)×DPT×tanθ)/CX
(数2)
WY=((CY−DY)×DPT×tanφ)/CY
(数3)
WZ=DPT
また、状態特定部13は、本実施の形態では、骨格情報から対象者40の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定する。この判定の結果から、背部、上肢、下肢、それぞれの状態が特定される。
具体的には、状態特定部13は、骨格情報から特定される各部位の三次元座標を用いて、背部、上肢、及び下肢、それぞれ毎に、対象者40の姿勢が、図8に示した姿勢コードのいずれに該当しているかを判定する。
また、このとき、状態特定部13は、左右の下肢の位置が特定された部位のうち、最も接地面に近い位置にある部位(例えば、右足、左足)を選択し、選択した部位の位置(Y座標)を用いて、対象者40の接地面の位置(Y座標)を検出する。そして、状態特定部13は、検出した接地面の位置を基準にして、下肢についてのパターン(姿勢コード)を判定する。
例えば、状態特定部13は、接地面の位置と対象者40の右足及び左足の位置とを比較して、対象者40の下肢が片足重心(下肢コード3)又は片足重心の中腰(下肢コード5)に該当しているかどうかを判定する(図8参照)。また、状態特定部13は、接地面の位置と対象者40の右膝及び左膝の位置とを比較して、対象者40の下肢が膝立ち又は片膝立ち(下肢コード6)に該当しているかどうかを判定する。
姿勢分析部14は、本実施の形態では、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、対象者40の姿勢にリスクがあるかどうかを判定する。
具体的には、姿勢分析部14は、状態特定部13によって判定された、背部、上肢、及び下肢それぞれのコードを、図9に示した評価表に照合し、該当するリスクを特定する。そして、姿勢分析部14は、状態特定部13によって判定された各コードと、特定したリスクとを、端末装置30に通知する。これにより、端末装置30の画面上には、通知された内容が表示される。
[装置動作]
次に、本発明の実施の形態における姿勢分析装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態における姿勢分析装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図4を参酌する。また、本実施の形態では、姿勢分析装置10を動作させることによって、姿勢分析方法が実施される。よって、本実施の形態における姿勢分析方法の説明は、以下の姿勢分析装置10の動作説明に代える。
図5に示すように、まず、データ取得部11は、デプスセンサ20から出力された深度付の画像データを取得する(ステップA1)。
次に、骨格情報作成部12は、ステップA1で取得された画像データに基づいて、対象者40の複数の部位の位置を特定する骨格情報を作成する(ステップA2)。
次に、状態特定部13は、ステップA2で作成された骨格情報に基づいて、対象者40の背部の状態を特定する(ステップA3)。具体的には、状態特定部13は、骨格情報から、頭、首、胸部、胸腰部、骨盤部の三次元座標を取得し、取得した三次元座標を用いて、対象者40の背部が、図8に示した背部コードのいずれに該当しているかを判定する。
次に、状態特定部13は、ステップA2で作成された骨格情報に基づいて、対象者40の上肢の状態を特定する(ステップA4)。具体的には、状態特定部13は、骨格情報から、右肩、右肘、右手首、右手、右親指、右手先、左肩、左肘、左手首、左手、左親指、左手先、の三次元座標を取得し、取得した三次元座標を用いて、対象者40の上肢が、図8に示した上肢コードのいずれに該当しているかを判定する。
次に、状態特定部13は、ステップA2で作成された骨格情報に基づいて、対象者40の下肢の状態を特定する(ステップA5)。具体的には、状態特定部13は、骨格情報から、右股関節、右膝、右くるぶし、右足、左股関節、左膝、左くるぶし、左足の三次元座標を取得し、取得した三次元座標を用いて、対象者40の下肢が、図8に示した下肢コードのいずれに該当しているかを判定する。なお、ステップA5については図6を用いてより具体的に説明する。
次に、姿勢分析部14は、対象者40の背部、上肢、及び下肢の状態に基づいて、対象者40の姿勢を分析する(ステップA6)。具体的には、姿勢分析部14は、状態特定部13によって判定された、背部、上肢、及び下肢それぞれのコードを、図9に示した評価表に照合し、該当するリスクを特定する。そして、姿勢分析部14は、状態特定部13によって判定された各コードと、特定したリスクとを、端末装置30に通知する。なお、重量コードについてきは、分析者が予め設定しているとする。
以上のステップA1からA6の実行により、端末装置30の画面上には、判定された各コードと、特定したリスクとが表示されるので、分析者は、画面を確認するだけで、作業者等における健康障害の発生リスクを予測することができる。また、ステップA1からA6は、デプスセンサ20から画像データが出力される度に繰り返し実行される。
続いて、図6を用いて、図5に示した下肢のコードの判定処理(ステップA5)について更に具体的に説明する。図6は、図5に示した下肢コードの判定処理を具体的に示すフロー図である。
図6に示すように、最初に、状態特定部13は、対象者40の接地面の位置が検出されているかどうかを判定する(ステップB1)。ステップB1の判定の結果、接地面の位置が検出されていない場合は、姿勢分析部14は、接地面の位置の検出を実行する(ステップB2)。
具体的には、ステップB1では、状態特定部13は、左右の足の位置が特定された部位のうち、最も接地面に近い位置にある部位(例えば、右足、左足)を選択し、選択した部位のY座標を用いて、対象者40の接地面のY座標を検出する。
また、対象者40がジャンプしていると、接地面の位置が正しく検出できないため、状態特定部13は、設定された時間の間に出力された複数の画像データを用いて、接地面のY座標を検出しても良い。
ステップB3の実行後は、状態特定部13における処理は終了する。下肢の状態の特定は、次に出力されてきた画像データに基づいて行なわれることになる。なお、接地面の位置の検出精度を高めるため、状態特定部13は、定期的にステップB1を実行することもできる。
一方、ステップB1の判定の結果、接地面の位置が既に検出されている場合は、姿勢分析部14は、対象者40の膝が接地面に着いているかどうかを判定する(ステップB3)。
具体的には、ステップB3では、状態特定部13は、骨格情報から、右膝のY座標を取得し、取得した右膝のY座標と接地面のY座標との差を算出し、算出した差が閾値以下なら、右膝が接地面に着いていると判定する。また、同様に、状態特定部13は、骨格情報から、左膝のY座標を取得し、取得した左膝のY座標と接地面のY座標との差を算出し、算出した差が閾値以下なら、左膝が接地面に着いていると判定する。
ステップB3の判定の結果、いずれかの膝が接地面に着いている場合は、状態特定部13は、下肢の状態を、コード6(片方又は両方の膝が地面に着けている)と判定する(ステップB4)。
また、ステップB3の判定の結果、いずれの膝も接地面に着いていない場合は、状態特定部13は、対象者40の両足が接地面から浮いているかどうかを判定する(ステップB5)
具体的には、ステップB5では、状態特定部13は、骨格情報から、右足及び左足のY座標を取得し、それぞれのY座標と接地面のY座標との差を算出し、両方において、算出した差が閾値超えているなら、両足が接地面から浮いていると判定する。
ステップB5の判定の結果、両足が接地面から浮いている場合は、状態特定部13は、該当コードなしと判定する(ステップB6)。
一方、ステップB5の判定の結果、両足が接地面から浮いているのではない場合は、状態特定部13は、右足が接地面から浮いているかどうかを判定する(ステップB7)。具体的には、ステップB7では、状態特定部13は、ステップB5で算出した右足のY座標と接地面のY座標との差が閾値を超えているなら、右足が接地面から浮いていると判定する。
ステップB7の判定の結果、右足が接地面から浮いている場合は、状態特定部13は、更に、左膝が曲がっているかどうかを判定する(ステップB8)。
具体的には、ステップB8では、状態特定部13は、骨格情報から、左股関節、左膝、左くるぶし、それぞれの三次元座標を取得し、取得した各三次元座標を用いて、左股関節と左膝との距離、左膝と左くるぶしとの距離を算出する。そして、各三次元座標と、各距離とを用いて、左膝の角度を算出し、算出した角度が閾値(例えば150度)以下の場合は、状態特定部13は左膝が曲がっていると判定する。
ステップB8の判定の結果、左膝が曲がっている場合は、状態特定部13は、下肢の状態を、コード5(片足重心の中腰)と判定する(ステップB9)。一方、ステップB8の判定の結果、左膝が曲がっていない場合は、状態特定部13は、下肢の状態を、コード3(片足重心)と判定する(ステップB10)。
また、ステップB7の判定の結果、右足が接地面から浮いていない場合は、状態特定部13は、左足が接地面から浮いているかどうかを判定する(ステップB11)。具体的には、ステップB11では、状態特定部13は、ステップB5で算出した左足のY座標と接地面のY座標との差が閾値を超えているなら、左足が接地面から浮いていると判定する。
ステップB11の判定の結果、左足が接地面から浮いている場合は、状態特定部13は、更に、右膝が曲がっているかどうかを判定する(ステップB12)。
具体的には、ステップB12では、状態特定部13は、骨格情報から、右股関節、右膝、右くるぶし、それぞれの三次元座標を取得し、取得した各三次元座標を用いて、右股関節と右膝との距離、右膝と右くるぶしとの距離を算出する。そして、各三次元座標と、各距離とを用いて、右膝の角度を算出し、算出した角度が閾値(例えば150度)以下の場合は、状態特定部13は右膝が曲がっていると判定する。
ステップB12の判定の結果、右膝が曲がっている場合は、状態特定部13は、下肢の状態を、コード5(片足重心の中腰)と判定する(ステップB13)。一方、ステップB12の判定の結果、右膝が曲がっていない場合は、状態特定部13は、下肢の状態を、コード3(片足重心)と判定する(ステップB14)。
また、ステップB11の判定の結果、左足が接地面から浮いていない場合は、状態特定部13は、両膝が曲がっているかどうかを判定する(ステップB15)。
具体的には、ステップB15では、状態特定部13は、ステップB8と同様に、右膝の角度を算出し、ステップB12と同様に、左膝の角度も算出する。そして、状態特定部13は、右膝及び左膝の角度がそれぞれ閾値(例えば150度)以下の場合は、両膝が曲がっていると判定する。
ステップB15の判定の結果、両膝が曲がっている場合は、状態特定部13は、下肢の状態を、コード4(中腰)と判定する(ステップB16)。一方、ステップB15の判定の結果、両膝が曲がっていない場合は、状態特定部13は、右膝は曲がっているが、左膝は真っ直ぐになっているかどうかを判定する(ステップB17)。
具体的には、ステップB17では、状態特定部13は、ステップB15で算出した右膝及び左膝の角度のうち、右膝の角度のみが閾値(例えば150度)以下の場合は、状態特定部13は、右膝は曲がっているが、左膝は真っ直ぐになっていると判定する。
次に、ステップB17の判定の結果、右膝は曲がっているが、左膝は真っ直ぐになっている場合は、状態特定部13は、対象者40の重心が右足にかかっているかどうかを判定する(ステップB18)
具体的には、ステップB18では、状態特定部13は、骨格情報から、骨盤部、右足及び左足、それぞれの三次元座標を取得し、取得した各三次元座標を用いて、骨盤部と右足との距離、骨盤部と左足との距離を算出する。そして、状態特定部13は、算出した2つの距離を比較し、骨盤部と左足との距離が、骨盤部と右足との距離よりも大きい場合は、対象者40の重心が右足にかかっていると判定する。
ステップB18の判定の結果、対象者40の重心が右足にかかっている場合は、状態特定部13は、下肢の状態を、コード5(片足重心の中腰)と判定する(ステップB19)。一方、ステップB18の判定の結果、対象者40の重心が右足にかかっていない場合は、状態特定部13は、下肢の状態を、コード3(片足重心)と判定する(ステップB20)。
また、ステップB17の判定の結果、右膝は曲がっているが、左膝は真っ直ぐになっている状態でない場合は、状態特定部13は、左膝が曲がっているが、右膝は真っ直ぐになっているかどうかを判定する(ステップB21)。
具体的には、ステップB21では、状態特定部13は、ステップB15で算出した右膝及び左膝の角度のうち、左膝の角度のみが閾値(例えば150度)以下の場合は、状態特定部13は、左膝は曲がっているが、右膝は真っ直ぐになっていると判定する。
次に、ステップB21の判定の結果、左膝は曲がっているが、右膝は真っ直ぐになっている場合は、状態特定部13は、対象者40の重心が左足にかかっているかどうかを判定する(ステップB22)
具体的には、ステップB22では、状態特定部13は、骨格情報から、骨盤部、右足及び左足、それぞれの三次元座標を取得し、取得した各三次元座標を用いて、骨盤部と右足との距離、骨盤部と左足との距離を算出する。そして、状態特定部13は、算出した2つの距離を比較し、骨盤部と右足との距離が、骨盤部と左足との距離よりも大きい場合は、対象者40の重心が左足にかかっていると判定する。
ステップB22の判定の結果、対象者40の重心が左足にかかっている場合は、状態特定部13は、下肢の状態を、コード5(片足重心の中腰)と判定する(ステップB23)。一方、ステップB22の判定の結果、対象者40の重心が左足にかかっていない場合は、状態特定部13は、下肢の状態を、コード3(片足重心)と判定する(ステップB24)。
次に、ステップB21の判定の結果、左膝は曲がっているが、右膝は真っ直ぐになっている状態でない場合は、状態特定部13は、対象者40の足は真っ直ぐになっていると判定する(ステップB25)。
以上のステップB1〜B25により、下肢の状態は、図8に示した下肢のコードによって特定される。なお、ステップB1〜B25では、コード1及び7については判定されないが、コード1については、椅子等に圧力センサを配置して、圧力センサからのセンサデータが、姿勢分析装置10に入力されるようにすることで判定可能となる。また、コード7については、例えば、骨盤部の移動速度を算出することで判定可能となる。
[実施の形態における効果]
以上のように、本実施の形態によれば、デプスセンサ20の前で対象者40に作業をしてもらうだけで、対象者40の動作に該当するコードが特定され、手によることなく、対象者40における健康障害のリスクを判定できる。
[変形例]
上述した例では、対象者40の動作に応じて変化するデータを取得するために、デプスセンサ20が用いられているが、本実施の形態では、データ取得のための手段は、デプスセンサ20に限定されることはない。本実施の形態では、デプスセンサ20の代わりに、モーションキャプチャシステムが用いられていても良い。また、モーションキャプチャシステムは、光学式、慣性センサ式、機械式、磁気式、及びビデオ式のいずれであっても良い。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図5に示すステップA1〜A6を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における姿勢分析装置10と姿勢分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、データ取得部11、骨格情報作成部12、状態特定部13及び姿勢分析部14として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、データ取得部11、骨格情報作成部12、状態特定部13及び姿勢分析部14のいずれかとして機能しても良い。
ここで、本実施の形態におけるプログラムを実行することによって、姿勢分析装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における姿勢分析装置を実現するコンピュータの一例を示すブロック図である。
図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
なお、本実施の形態における姿勢分析装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、姿勢分析装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記15)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
対象者の姿勢を分析するための装置であって、
前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、状態特定部と、
特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、姿勢分析部と、
を備えていることを特徴とする姿勢分析装置。
(付記2)
前記データ取得部が、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
付記1に記載の姿勢分析装置。
(付記3)
前記状態特定部が、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、
付記1または2に記載の姿勢分析装置。
(付記4)
前記姿勢分析部が、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
付記3に記載の姿勢分析装置。
(付記5)
前記状態特定部が、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
付記3または4に記載の姿勢分析装置。
(付記6)
対象者の姿勢を分析するための方法であって、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
(d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
を有することを特徴とする姿勢分析方法。
(付記7)
前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
付記6に記載の姿勢分析方法。
(付記8)
前記(c)のステップにおいて、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、付記6または7に記載の姿勢分析方法。
(付記9)
前記(d)のステップにおいて、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
付記8に記載の姿勢分析方法。
(付記10)
前記(c)のステップにおいて、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
付記8または9に記載の姿勢分析方法。
(付記11)
コンピュータによって、対象者の姿勢を分析するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
(d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
を実行させる、命令を含むプログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記12)
前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
付記11に記載のコンピュータ読み取り可能な記録媒体。
(付記13)
前記(c)のステップにおいて、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、付記11または12に記載のコンピュータ読み取り可能な記録媒体。
(付記14)
前記(d)のステップにおいて、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
付記13に記載のコンピュータ読み取り可能な記録媒体。
(付記15)
前記(c)のステップにおいて、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
付記13または14に記載のコンピュータ読み取り可能な記録媒体。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2016年6月23日に出願された日本出願特願2016−124876を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明によれば、人手によることなく、対象者の姿勢の分析を行なうことができる。本発明は、生産現場、建設現場、医療現場、介護現場等において有用である。
10 姿勢分析装置
11 データ取得部
12 骨格情報作成部
13 状態特定部
14 姿勢分析部
20 デプスセンサ
30 端末装置
40 対象者
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
本発明は、人の姿勢を分析するための、姿勢分析装置、及び姿勢分析方法に関し、更には、これらを実現するためのプログラムに関する。
[実施の形態における効果]
以上のように、本実施の形態によれば、デプスセンサ20の前で対象者40に作業をしてもらうだけで、対象者40の動作に該当するコードが特定され、手によることなく、対象者40における健康障害のリスクを判定できる。
(付記11)
コンピュータによって、対象者の姿勢を分析するためのプログラムであって、
前記コンピュータに、
(a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
(b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
(c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
(d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
を実行させるプログラム。
(付記12)
前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
付記11に記載のプログラム
(付記13)
前記(c)のステップにおいて、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、付記11または12に記載のプログラム
(付記14)
前記(d)のステップにおいて、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
付記13に記載のプログラム
(付記15)
前記(c)のステップにおいて、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
付記13または14に記載のプログラム

Claims (15)

  1. 対象者の姿勢を分析するための装置であって、
    前記対象者の動作に応じて変化するデータを取得する、データ取得部と、
    前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、骨格情報作成部と、
    前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、状態特定部と、
    特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、姿勢分析部と、
    を備えていることを特徴とする姿勢分析装置。
  2. 前記データ取得部が、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
    請求項1に記載の姿勢分析装置。
  3. 前記状態特定部が、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、
    請求項1または2に記載の姿勢分析装置。
  4. 前記姿勢分析部が、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
    請求項3に記載の姿勢分析装置。
  5. 前記状態特定部が、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
    請求項3または4に記載の姿勢分析装置。
  6. 対象者の姿勢を分析するための方法であって、
    (a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
    (b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
    (c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
    (d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
    を有することを特徴とする姿勢分析方法。
  7. 前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
    請求項6に記載の姿勢分析方法。
  8. 前記(c)のステップにおいて、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、請求項6または7に記載の姿勢分析方法。
  9. 前記(d)のステップにおいて、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
    請求項8に記載の姿勢分析方法。
  10. 前記(c)のステップにおいて、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
    請求項8または9に記載の姿勢分析方法。
  11. コンピュータによって、対象者の姿勢を分析するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
    (a)前記対象者の動作に応じて変化するデータを取得する、ステップと、
    (b)前記データに基づいて、前記対象者の複数の部位の位置を特定する骨格情報を作成する、ステップと、
    (c)前記骨格情報に基づいて、前記対象者における、背部、上肢、及び下肢、それぞれの状態を特定する、ステップと、
    (d)特定された、前記対象者における、背部、上肢、及び下肢の状態に基づいて、前記対象者の姿勢を分析する、ステップと、
    を実行させる、命令を含むプログラムを記録しているコンピュータ読み取り可能な記録媒体。
  12. 前記(a)のステップにおいて、前記対象者を撮影するように配置されたデプスセンサから、前記データとして、画素毎の深度が付加された画像データを取得する、
    請求項11に記載のコンピュータ読み取り可能な記録媒体。
  13. 前記(c)のステップにおいて、前記骨格情報から前記対象者の各部位の位置を特定し、特定した各部位の位置から、背部、上肢、及び下肢、それぞれが、予め定められたパターンのいずれに該当するかを判定し、判定結果に基づいて、それぞれの状態を特定する、請求項11または12に記載のコンピュータ読み取り可能な記録媒体。
  14. 前記(d)のステップにおいて、各パターンとリスクとの関係を予め規定したリスク表に、背部、上肢、及び下肢、それぞれについて判定されたパターンを照合することによって、前記対象者の姿勢にリスクがあるかどうかを判定する、
    請求項13に記載のコンピュータ読み取り可能な記録媒体。
  15. 前記(c)のステップにおいて、前記下肢において位置が特定された前記部位のうち、最も地面に近い位置にある部位を選択し、選択した部位の位置を用いて、前記対象者の接地面の位置を検出し、そして、検出した前記接地面の位置を基準にして、前記下肢についてのパターンを判定する、
    請求項13または14に記載のコンピュータ読み取り可能な記録媒体。
JP2018523708A 2016-06-23 2017-06-23 姿勢分析装置、姿勢分析方法、及びプログラム Pending JPWO2017222072A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016124876 2016-06-23
JP2016124876 2016-06-23
PCT/JP2017/023310 WO2017222072A1 (ja) 2016-06-23 2017-06-23 姿勢分析装置、姿勢分析方法、及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JPWO2017222072A1 true JPWO2017222072A1 (ja) 2019-04-25

Family

ID=60783873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018523708A Pending JPWO2017222072A1 (ja) 2016-06-23 2017-06-23 姿勢分析装置、姿勢分析方法、及びプログラム

Country Status (3)

Country Link
US (1) US20190200919A1 (ja)
JP (1) JPWO2017222072A1 (ja)
WO (1) WO2017222072A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503689B (zh) * 2019-08-30 2022-04-26 清华大学 位姿预测方法、模型训练方法及装置
DE102020207975A1 (de) * 2020-06-26 2022-01-13 Deep Care Gmbh Verfahren und Vorrichtung zur Verminderung der durch das Sitz- und Bewegungsverhalten eines Nutzers verursachten gesundheitlichen Belastung
US20240054804A1 (en) * 2020-12-14 2024-02-15 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer-readable medium
CN112472481A (zh) * 2020-12-15 2021-03-12 沈阳工业大学 一种躯干遮挡状态下动态人体位姿识别嵌入式平台
JPWO2022239048A1 (ja) * 2021-05-10 2022-11-17

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5579014B2 (ja) * 2010-10-12 2014-08-27 キヤノン株式会社 映像情報処理装置および方法
JP2015102913A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 姿勢推定装置及び姿勢推定方法

Also Published As

Publication number Publication date
WO2017222072A1 (ja) 2017-12-28
US20190200919A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JPWO2017222072A1 (ja) 姿勢分析装置、姿勢分析方法、及びプログラム
JP6334925B2 (ja) 動作情報処理装置及び方法
JP6662532B2 (ja) 歩行分析装置、歩行分析方法、及びプログラム
Chu et al. Monocular vision–based framework for biomechanical analysis or ergonomic posture assessment in modular construction
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
JP6930995B2 (ja) 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
JPWO2009116597A1 (ja) 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法
Ryu et al. Analysis of the limits of automated rule-based ergonomic assessment in bricklaying
JP2018069035A (ja) 歩行解析システム及び方法
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
De Rosario et al. Correction of joint angles from Kinect for balance exercising and assessment
JP2021180904A (ja) 測定装置
KR102310964B1 (ko) 근골격계 증상을 진단하기 위한 전자 장치, 방법, 및 시스템
JP6940139B2 (ja) 身体特性分析装置、身体特性分析方法、及びプログラム
WO2017090083A1 (ja) 測定装置、測定方法、及びプログラム
JP6558820B2 (ja) 計測装置、計測方法、及びプログラム
JPWO2020174586A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Blasco-García et al. A computer vision-based system to help health professionals to apply tests for fall risk assessment
Payandeh et al. Experimental Study of a Deep-Learning RGB-D Tracker for Virtual Remote Human Model Reconstruction
WO2023100679A1 (ja) 判定方法、判定装置、及び、判定システム
JP7147848B2 (ja) 処理装置、姿勢解析システム、処理方法、及び処理プログラム
Alothmany et al. Accuracy of joint angles tracking using markerless motion system
JP2022061691A (ja) 深度推定方法
JP2023064594A (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP2017093789A (ja) 測定装置、測定方法、及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200107