JP6662532B2 - 歩行分析装置、歩行分析方法、及びプログラム - Google Patents

歩行分析装置、歩行分析方法、及びプログラム Download PDF

Info

Publication number
JP6662532B2
JP6662532B2 JP2018509417A JP2018509417A JP6662532B2 JP 6662532 B2 JP6662532 B2 JP 6662532B2 JP 2018509417 A JP2018509417 A JP 2018509417A JP 2018509417 A JP2018509417 A JP 2018509417A JP 6662532 B2 JP6662532 B2 JP 6662532B2
Authority
JP
Japan
Prior art keywords
image data
frames
skeleton information
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018509417A
Other languages
English (en)
Other versions
JPWO2017170832A1 (ja
Inventor
宏紀 寺島
宏紀 寺島
克幸 永井
克幸 永井
友見 木下
友見 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2017170832A1 publication Critical patent/JPWO2017170832A1/ja
Application granted granted Critical
Publication of JP6662532B2 publication Critical patent/JP6662532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4528Joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4571Evaluating the hip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4585Evaluating the knee
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、人の歩行動作を分析するための、歩行分析装置、及び歩行分析方法に関し、更には、これらを実現するためのプログラムに関する。
近年、Kinect(登録商標)に代表されるデプスセンサによって、ヒトの動作を分析する試みがなされている。例えば、非特許文献1は、リハビリテーション中の患者が関節を動かすところをデプスセンサで撮影することで、患者の関節の可動範囲を測定するシステムを開示している。また、非特許文献1に開示されたシステムを用いれば、リハビリテーション時以外の動作の分析も行うことができると考えられる。
例えば、非特許文献1に開示されたシステムによれば、ヒトの歩行動作の分析も可能となる。歩行中の転倒は、特に高齢になる程、健康を損ない、寝たきりや引きこもりの原因となる可能性が高いことから、転倒リスクの程度を予め予測しておくことは重要である。この予測に、非特許文献1に開示されたシステムを用いた歩行動作の分析が有用になると考えられる。この場合、分析対象者が、デプスセンサに向かって歩行するだけで良い。
狐崎直文、安達栄治郎、横田卓、水澤順一著、「KINECTのリハビリテーション用アプリケーションの実用化」、一般社団法人電子情報通信学会、信学技報IE2012−89、2012年11月、p.41−46
ところで、非特許文献1に開示されたシステムでは、動作を正確に分析するためには、分析対象となるユーザは、デプスセンサの正面に位置している必要がある。従って、歩行動作の分析を行う場合は、ユーザは、デプスセンサに向かって歩行する必要がある。
しかしながら、デプスセンサに向かって歩行する場合、ユーザは、無意識にデプスセンサを障害物と捉えてしまうため、デプスセンサの近くで急に歩行速度を弱めてしまったり、進路を変えてしまったりすることがある。この場合、歩行動作の分析精度が低下するおそれがある。
本発明の目的の一例は、上記問題を解消し、デプスセンサによって歩行動作を分析する際において、分析精度の向上を図り得る、歩行分析装置、歩行分析方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における歩行分析装置は、
歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、データ取得部と、
前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、計測情報作成部と、
取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、共通部分抽出部と、
抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、補正処理部と、
補正後の骨格情報を用いて、前記ユーザの歩行を分析する、分析処理部と、
を備えていることを特徴とする。
また、上記目的を達成するため、本発明の一側面における歩行分析方法は、
(a)歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、ステップと、
(b)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、ステップと、
(c)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、ステップと、
(d)取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、ステップと、
(e)抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、ステップと、
(f)補正後の骨格情報を用いて、前記ユーザの歩行を分析する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、ステップと、
(b)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、ステップと、
(c)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、ステップと、
(d)取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、ステップと、
(e)抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、ステップと、
(f)補正後の骨格情報を用いて、前記ユーザの歩行を分析する、ステップと、
を実行させることを特徴とする。
以上のように、本発明によれば、デプスセンサによって歩行動作を分析する際において、分析精度の向上を図ることができる。
図1は、本発明の実施の形態における歩行分析装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態における歩行分析装置の構成をより具体的に示すブロック図である。 図3は、本実施の形態で用いられるデプスセンサの配置の一例を示す図である。図3(a)〜(c)は、それぞれ異なる態様を示している。 図4は、本発明の実施の形態で作成された骨格情報の一例を示す図である。 図5は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図5(a)は画面の水平方向を示し、図5(b)は画面の垂直方向を示している。 図6は、ユーザの胸腰部のY座標の値(y値)の時系列変化と接地判定の結果との一例を示す図である。 図7は、本発明の実施の形態で作成された計測情報の一例を示す図である。 図8(a)及び(b)は、本発明の実施の形態で行われる、フレーム数が一致しない場合の補填処理の一例を示す図である。図8(a)及び(b)はそれぞれ異なる例を示している。 図9は、ユーザの胸腰部のx座標の値(x値)及びz座標の値(z値)の時系列変化の一例を示す図である。 図10は、ユーザの進行方向とデプスセンサの位置との関係の一例を示す図である。 図11は、本発明の実施の形態における骨格情報の補正を説明する図であり、図11(a)は第1の画像データの骨格情報の一例を示し、図11(b)は第2の画像データの骨格情報の一例を示し、図11(c)は補正後の骨格情報の一例を示している。 図12は、本発明の実施の形態における歩行分析装置の動作を示すフロー図である。 図13は、本発明の実施の形態における歩行分析装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
以下、本発明の実施の形態における、歩行分析装置、歩行分析方法、及びプログラムについて、図1〜図13を参照しながら説明する。
[装置構成]
最初に、本実施の形態における歩行分析装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態における歩行分析装置の概略構成を示すブロック図である。
図1に示す本実施の形態における歩行分析装置10は、ユーザの歩行を分析するための装置である。図1に示すように、歩行分析装置10は、データ取得部11と、骨格情報作成部12と、計測情報作成部13と、共通部分抽出部14と、補正処理部15と、分析処理部16とを備えている。
データ取得部11は、歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データを、1フレーム毎に取得する。また、データ取得部11は、歩行中のユーザを、進行方向に対して第1の方向とは別の方向に傾斜した第2の方向から、上記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データも、1フレーム毎に取得する。
骨格情報作成部12は、第1の画像データ及び第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、ユーザの特定の関節の位置を特定する骨格情報を作成する。
計測情報作成部13は、第1の画像データ及び第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、ユーザの全歩数とユーザの左右の足の接地履歴とを特定する計測情報を作成する。
共通部分抽出部14は、取得されている全ての第1の画像データの計測情報と、取得されている全ての第2の画像データの計測情報とを対比する。そして、共通部分抽出部14は、取得されている全ての第1の画像データの骨格情報と、取得されている全ての第2の画像データの骨格情報との中から、ユーザの左右の足の接地履歴が共通している部分を抽出する。
補正処理部15は、抽出された第1の画像データと、抽出された第2の画像データとのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する。分析処理部16は、補正後の骨格情報を用いて、ユーザの歩行を分析する。
このように、歩行分析装置10では、デプスセンサをユーザの正面から外れた位置に配置した状態で得られた画像データを用いて、ユーザの歩行を分析できる。従って、ユーザが、無意識にデプスセンサを障害物と捉えて、デプスセンサの近くで急に歩行速度を弱めてしまったり、進路を変えてしまったりすることが抑制される。このため、歩行分析装置10によれば、デプスセンサによって歩行動作を分析する際において、分析精度の向上を図ることができる。
続いて、図2〜図11を用いて、本実施の形態における歩行分析装置10の構成及び機能について具体的に説明する。図2は、本発明の実施の形態における歩行分析装置の構成をより具体的に示すブロック図である。
図2に示すように、本実施の形態においては、歩行分析装置10は、デプスセンサ20及び21に接続されている。歩行分析装置10は、デプスセンサ20及び21から、有線又は無線によって、画素毎の深度が付加された画像データを受信する。デプスセンサ20及び21は、例えば、特定のパターンで赤外線レーザ光を出射する光源と、対象物で反射された赤外線を受光する撮像素子とを備えており、これらによって、画素毎の深度が付加された画像データを出力する。デプスセンサ20及び21の具体例としては、Kinect(登録商標)といった既存のデプスセンサが挙げられる。
ここで、図3を用いて、デプスセンサの位置とユーザの進行方向との関係を説明する。図3は、本実施の形態で用いられるデプスセンサの配置の一例を示す図である。図3(a)〜(c)は、それぞれ異なる態様を示している。また、図3(a)〜(c)において、実線の矢印はユーザ30の進行方向を示し、破線の矢印はデプスセンサの撮影方向を示している。
図3(a)に示すように、本実施の形態では、デプスセンサ20は、歩行中のユーザ30の主に右側を撮影するように配置され、デプスセンサ21は、歩行中のユーザ30の主に左側を撮影するように配置されている。つまり、図3(a)の例では、デプスセンサ20は、歩行中のユーザ30の進行方向に対して右側へと傾斜した方向から、ユーザ30を撮影し、デプスセンサ21は、歩行中のユーザ30の進行方向に対して左側へと傾斜した方向から、ユーザ30を撮影している。
また、本実施の形態は、図3(b)及び(c)に示すように、デプスセンサが1台のみ配置されている態様であっても良い。例えば、図3(b)に示すように、ユーザ30が、デプスセンサ20の前を横切るように歩行し、更に、方向を180度変えて引き返せば、一台のデプスセンサ20で、歩行中のユーザ30の進行方向に対して右側へ傾斜した方向と左側へ傾斜した方向とから撮影できる。
更に、図3(c)に示すように、ユーザ30が、デプスセンサ20の左側へと抜けるように歩行し、更に、右側へと抜けるように歩行した場合も、一台のデプスセンサ20で、歩行中のユーザ30の進行方向に対して右側へ傾斜した方向と左側へ傾斜した方向とから撮影できる。
データ取得部11は、デプスセンサ20及び21が図3(a)に示す態様で配置されていれば、デプスセンサ20から第1の画像データを取得し、デプスセンサ21から第2の画像データを取得する。但し、1台のデプスセンサのみが配置される図3(b)及び(c)の態様では、データ取得部11は、1台のデプスセンサから、第1の画像データと第2の画像データとを取得する。
骨格情報作成部12は、本実施の形態では、画像データ毎に、画像データ上での座標と画素に付加された深度とを用いて、ユーザの特定の関節の三次元座標を算出し、算出した三次元座標を用いて骨格情報を作成する。図4は、本発明の実施の形態で作成された骨格情報の一例を示す図である。図4に示すように、骨格情報は、撮影開始時からの経過時間毎の各関節の三次元座標によって構成されている。なお、本明細書において、X座標は、画像データ上での水平方向における位置の値であり、Y座標は、画像データ上での垂直方向における位置の値であり、Z座標は、画素に付与された深度の値である。
特定の関節としては、例えば、頭、首、右肩、右肘、右手首、右手、右手親指、右手先、左肩、左肘、左手首、左手、左手親指、左手先、胸部、胸腰部、骨盤部、右股関節、右膝、右くるぶし、右足甲、左股関節、左膝、左くるぶし、左足甲等が挙げられる。図4においては、骨盤部、胸腰部、親指右(右手親指)の三次元座標が例示されている。
また、画像データ上での座標と深度とから三次元座標を算出する手法は、下記の通りである。図5は、本発明の実施の形態における三次元座標の算出処理を説明する図であり、図5(a)は画像の水平方向(X座標)における算出処理を示し、図5(b)は画像の垂直方向(Y座標)における算出処理を示している。
まず、深度が付加された画像データ上における、特定点の座標を(DX,DY)、特定点における深度をDPTとする。また、画像データの水平方向の画素数を2CX、垂直方向の画素数を2CYとする。そして、デプスセンサの水平方向の視野角を2θ、垂直方向の視野角を2φとする。この場合、特定点の三次元座標(WX,WY,WZ)は、図5(a)及び(b)から分かるように、以下の数1〜数3によって算出される。
Figure 0006662532
Figure 0006662532
Figure 0006662532
計測情報作成部13は、本実施の形態では、まず、第1の画像データ及び第2の画像データそれぞれ毎に、ユーザの足が床面に着地しているかどうかを判断し、足が床面に着地しているタイミング、即ち、接地タイミングを特定する。そして、計測情報作成部13は、特定した接地タイミングから、計測情報を作成する。
具体的には、計測情報作成部13は、ユーザの胸腰部のY座標の変位を観察し、変位が負の値から正の値になった時のフレームを接地タイミングとする。図6は、ユーザの胸腰部のY座標の値(y値)の時系列変化と接地判定の結果との一例を示す図である。図6においては、実線は接地判定を示している。そして、胸腰部のY座標の変位が負の値から正の値になった時に、接地判定の値は「1」とされ、接地していると判定されている。一方、これ以外の場合は、接地判定の値は「0」とされ、接地していないと判定される。また、図6において、破線は胸腰部のy値を示している。
そして、計測情報作成部13は、接地判定の結果に基づいて、例えば、図7に示す計測情報を作成する。図7は、本発明の実施の形態で作成された計測情報の一例を示す図である。図7に示すように、計測情報は、撮影開始時からの経過時間毎に、ピッチ[秒]と、右足及び左足の歩行リズム[秒]とを記録している。
図7において、ピッチは、接地タイミング間の時間を表している。歩行リズムは、例えば右足であれば、左足の接地タイミングを基準として、次に右足が接地するまでの時間を表している。従って、図7に示す計測情報を用いれば、ピッチの値の変化の総数からユーザの全歩数が計算できる。また、左右どちらの足の歩行リズムが先に変化するかを特定することで、接地履歴として、接地足の順番が特定できる。更に、歩行リズムが変化するまでのフレーム数から、接地履歴として、接地時の経過フレーム数が特定できる。
共通部分抽出部14は、本実施の形態では、まず、第1の画像データの計測情報から、全歩数と接地の順番とを特定し、更に、第2の画像データからも、全歩数と接地の順番とを特定して、両方の骨格情報の中から、接地履歴の共通している部分を抽出する。例えば、第1の画像データの計測情報から、総歩数「5」、接地履歴「左右左右左」が特定され、第2の画像データの計測情報から総歩数「3」、接地履歴「右左右」が特定されている場合は、共通部分抽出部14は、両者の「右左右」を共通している部分として特定する。そして、共通部分抽出部14は、第1の画像データ及び第2の画像データそれぞれの共通している部分に該当する骨格情報を特定し、特定した骨格情報を抽出する。
補正処理部15は、まず、抽出された骨格情報に対応する画像データのフレーム数が、第1の画像データと第2の画像データとで一致していない場合は、フレーム数を一致させる処理を実行する。つまり、補正処理部15は、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された第1の画像データのフレーム数と、抽出された第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する。
ここで、フレーム数を一致させる処理について図8を用いて説明する。図8(a)及び(b)は、本発明の実施の形態で行われる、フレーム数が一致しない場合の補填処理の一例を示す図である。図8(a)及び(b)はそれぞれ異なる例を示している。
図8(a)の例では、第1の画像データのフレーム数が10フレームであるのに対して、第2の画像データのフレーム数が7フレームであるので、第2の画像データの骨格情報を補填する必要がある。そして、補填タイミングは、次の組数、待数、及び飛数を計算することによって決定される。なお、以下の説明では、元々存在する骨格情報を実データと表記し、補填される骨格情報を仮データと表記する。
組数は、実データと組になる仮データの数であり、多い方の総フレーム数を少ない方の総フレーム数で除算し、得られた値の少数部分を切り捨てて、整数部分から1を減算することで算出される。待数は、組数に従って追加される仮データとは別の仮データを追加する前に出現すべき実データの数である。待数は、少ない方の総フレーム数を、多い方の総フレーム数を少ない方の総フレーム数で除算したときの余りの値で除算し、得られた値の少数部分を切り捨てることで算出される。飛数は、待数のカウント飛ばしを行う回数であり、待数を算出したときの余りの値である。なお、待数のカウント飛ばしとは、実データの数が待数に達するまで実データの数をカウントする際に、1つ目の実データをカウントの対象から除外する回数である。
図8(a)の例では、第1の画像データのフレーム数が10、第2の画像データのフレーム数が7であるので、組数は、10÷7=1.42...(1余り3)となるので、1−1=0より、「0」となる。また、待数は、7÷3=2.33...(2余り1)より、「2」となる。そして、飛数は「1」となる。よって、補填後の第1の画像データ及び第2の画像データは、図8(a)に示す通りとなる。具体的には、図8(a)の例では、組数が「0」であるので、実データと組になる仮データは追加されていない。また、飛数が「1」で、待数が「2」であるので、第2の画像データの1つ目の実データが待数のカウントから除外され、3つ目、5つ目及び7つ目の実データの後にそれぞれ仮データが追加されている。
また、図8(b)の例では、第1の画像データのフレーム数が18、第2の画像データのフレーム数が7であるので、組数は、18÷7=2.57...(2余り4)となるので、2−1=1より、「1」となる。また、待数は、7÷4=1.75(1余り3)より、「1」となる。そして、飛数は「3」となる。よって、補填後の第1の画像データ及び第2の画像データは、図8(b)に示す通りとなる。図8(b)においては、組を説明するために、実データ仮データとの各組をそれぞれ四角で囲っている。具体的には、図8(b)の例では、組数が「1」であるので、各実データに対してそれぞれ仮データが1つ追加されている。また、飛数が「3」であるので、待数のカウント飛ばしが3回行われ、第2の画像データの1つ目、3つ目及び5つ目の実データが待数のカウントから除外されている。更に、待数が「1」であるので、待数が1になるごとに仮データが追加され、3つ目、5つ目及び7つ目の実データの前にそれぞれ仮データが追加されている。
また、図8(a)及び(b)において、「●」が補填された骨格情報を示している。また、補填された骨格情報としては、その前のフレームの実データが用いられている。つまり、「●」の骨格情報は、その左隣の「○」の骨格情報と同一である。
また、補正処理部15は、フレーム数を一致させる処理の後、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正するため、まず、第1の画像データの取得時のユーザの進行方向と、第2の画像データの取得時のユーザの進行方向とを特定する。
補正処理部15は、本実施の形態では、胸腰部の三次元座標の変化から、胸腰部の水平面(X軸及びZ軸を含む面)での移動ベクトルを算出し、算出した移動ベクトルを用いて、デプスセンサの撮像面に対するユーザの進行方向の角度θを算出する。図9は、ユーザの胸腰部のx座標の値(x値)及びz座標の値(z値)の時系列変化の一例を示す図である。図10は、ユーザの進行方向とデプスセンサの位置との関係の一例を示す図である。
また、図9においては、プロットされた黒丸から得られた実線のグラフは胸腰部のx値及びz値を示し、丸で囲まれている部分は接地タイミングを示している。特に、グラフの左側に位置する丸はユーザの右足の接地タイミングを示し、右側に位置する丸はユーザの左足の接地タイミングを示している。また、図10において、矢印ABは、ユーザの進行方向を示す移動ベクトルABである。Oは、デプスセンサの撮像面上の任意の点を示している。
具体的には、図9に示すように、補正処理部15は、胸腰部のx値及びz値の時系列変化から、ユーザのいずれか一方の足の接地タイミングを特定し、特定した接地点を結ぶベクトルを求め、求めたベクトルを移動ベクトルABとして、ユーザの進行方向を特定する。また、補正処理部15は、データ取得の開始点と終了点とを特定し、特定した開始点と終了点とを結ぶベクトルを求め、求めたベクトルを移動ベクトルABとして、ユーザの進行方向を特定しても良い。
図9において、実線で表現された矢印は、接地タイミングから求められた移動ベクトルを示し、破線で表現された矢印は、データ取得の開始点と終了点とから求められた移動ベクトルを示している。
補正処理部15は、上述したいずれかの手法によって、ユーザの移動ベクトルABを特定すると、更に、デプスセンサの位置とユーザのデータ取得の開始時の位置とからベクトルAOを求め、下記の数4を用いて、角度θを算出する。
Figure 0006662532
また、補正処理部15は、第1の画像データの取得時及び第2の画像データの取得時それぞれにおいてユーザの進行方向を特定すると、特定した各進行方向が一致するように、一方又は両方の骨格情報における各関節の三次元座標を、特定したユーザの進行方向の角度θを用いて、y軸を中心に回転させて変換する。
その後、補正処理部15は、第1の画像データの骨格情報と第2の画像データの骨格情報とを補正によって合成して、新たな骨格情報を作成する。この点について図11を用いて説明する。図11は、本発明の実施の形態における骨格情報の補正を説明する図であり、図11(a)は第1の画像データの骨格情報の一例を示し、図11(b)は第2の画像データの骨格情報の一例を示し、図11(c)は補正後の骨格情報の一例を示している。
また、実際には、骨格情報は、補正前及び補正後のいずれであっても、図4に示したように、各関節の三次元情報によって構成されているが、図11(a)〜(c)の例では、骨格情報は、説明のため骨格で表現されている。また、図11(a)〜(c)それぞれにおいては、骨格情報に含まれる全ての関節ではなく、主な関節のみが示されている。更に、図11(a)〜(c)それぞれにおいて、左側の骨格はユーザを正面から捉えた場合の骨格であり、右側の骨格は、ユーザを右側面から捉えた場合の骨格である。
例えば、第1の方向がユーザの進行方向に対して右側へと傾斜した方向であり、第2の方向が、歩行中のユーザの進行方向に対して左側へと傾斜した方向であり、第2の画像データのフレーム数が第1の画像データのフレーム数よりも多いとする。この場合は、補正処理部15は、図11(c)に示すように、第2の画像データの骨格情報における右側の腕及び足の関節の位置を、第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える。
なお、第1の画像データのフレーム数が第2の画像データのフレーム数よりも多い場合は、補正処理部15は、第1の画像データの骨格情報における左側の腕及び足の関節の位置を第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換える。
分析処理部16は、本実施の形態では、補正後の骨格情報を用いて、膝の開き度合、爪先の上がり具合といった歩行情報を算出し、算出した歩行情報を表示画面に表示する。また、分析処理部16は、骨格情報から得られる骨格(図11(a)〜(c)参照)を表示画面に表示することもできる。
[装置動作]
次に、本発明の実施の形態における歩行分析装置10の動作について図12を用いて説明する。図12は、本発明の実施の形態における歩行分析装置10の動作を示すフロー図である。以下の説明においては、適宜図1〜図11を参酌する。また、本実施の形態では、歩行分析装置10を動作させることによって、歩行分析方法が実施される。よって、本実施の形態における歩行分析方法の説明は、以下の歩行分析装置10の動作説明に代える。
図12に示すように、最初に、データ取得部11は、デプスセンサ20から第1の画像データを取得し、デプスセンサ21から第2の画像データを取得する(ステップS1)。データ取得部11は、取得した各画像データを骨格情報作成部12に渡す。
次に、骨格情報作成部12は、画像データ毎に、画像データ上での座標と画素に付加された深度とを用いて、ユーザの特定の関節の三次元座標を算出し、算出した三次元座標を用いて骨格情報を作成する(ステップS2)。骨格情報作成部12は、作成した骨格情報を共通部分抽出部14に渡す。
次に、計測情報作成部13は、第1の画像データ及び第2の画像データそれぞれ毎に、接地タイミングを特定し、特定した接地タイミングから、計測情報を作成する(ステップS3)。計測情報作成部13は、作成した計測情報を共通部分抽出部14に渡す。
次に、共通部分抽出部14は、第1の画像データの計測情報から、全歩数と接地の順番とを特定し、第2の画像データからも、全歩数と接地の順番とを特定して、両方の骨格情報の中から、接地履歴の共通している部分を特定する(ステップS4)。
次に、補正処理部15は、抽出された骨格情報に対応する画像データのフレーム数が、第1の画像データと第2の画像データとで一致していない場合は、フレーム数を一致させる処理を実行する(ステップS5)。なお、抽出された骨格情報に対応する画像データのフレーム数が、第1の画像データと第2の画像データとで一致している場合は、ステップS5はスキップされる。
次に、補正処理部15は、第1の画像データの取得時のユーザの進行方向と、第2の画像データの取得時のユーザの進行方向とを特定する(ステップS6)。続いて、補正処理部15は、各画像データの取得時におけるユーザの進行方向を特定すると、特定した各進行方向が一致するように、一方又は両方の骨格情報における各関節の三次元座標を、ユーザの進行方向の角度θを用いて、y軸を中心に回転させて変換する(ステップS7)。
次に、補正処理部15は、第1の画像データの骨格情報と第2の画像データの骨格情報とを補正によって合成して、新たな骨格情報を作成する(ステップS8)。また、補正処理部15は、補正後の新たな骨格情報を分析処理部16に渡す。
次に、分析処理部16は、補正後の骨格情報を用いて、ユーザの歩行を分析する(ステップS9)。具体的には、分析処理部16は、補正後の骨格情報を用いて、膝の開き度合、爪先の上がり具合といった歩行情報を算出し、算出した歩行情報を表示画面に表示する。また、分析処理部16は、骨格情報から得られる骨格(図11(c)参照)も表示画面に表示する。
以上のように、本実施の形態によれば、歩行するユーザを斜め方向から撮影した場合であっても、正面から撮影した場合と同様の骨格情報を得ることができる。よって、撮影時において、ユーザが無意識にデプスセンサを障害物と捉えて、デプスセンサの近くで急に歩行速度を弱めてしまったり、進路を変えてしまったりすることが抑制されるので、歩行の分析における精度の向上が図られることになる。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図12に示すステップS1〜S9を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における歩行分析装置10と歩行分析方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、データ取得部11、骨格情報作成部12、計測情報作成部13、共通部分抽出部14、補正処理部15、及び分析処理部16として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、データ取得部11、骨格情報作成部12、計測情報作成部13、共通部分抽出部14、補正処理部15、及び分析処理部16のいずれかとして機能しても良い。
[物理構成]
ここで、本実施の形態におけるプログラムを実行することによって、歩行分析装置10を実現するコンピュータについて図13を用いて説明する。図13は、本発明の実施の形態における歩行分析装置10を実現するコンピュータの一例を示すブロック図である。
図13に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
なお、本実施の形態における歩行分析装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、歩行分析装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記9)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、データ取得部と、
前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、骨格情報作成部と、
前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、計測情報作成部と、
取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、共通部分抽出部と、
抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、補正処理部と、
補正後の骨格情報を用いて、前記ユーザの歩行を分析する、分析処理部と、
を備えていることを特徴とする歩行分析装置。
(付記2)
前記補正処理部は、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された前記第1の画像データのフレーム数と、抽出された前記第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する、
付記1に記載の歩行分析装置。
(付記3)
前記第1の方向が、歩行中の前記ユーザの進行方向に対して右側へと傾斜した方向であり、前記第2の方向が、歩行中の前記ユーザの進行方向に対して左側へと傾斜した方向であり、
前記補正処理部は、
前記第1の画像データのフレーム数が前記第2の画像データのフレーム数よりも多い場合は、前記第1の画像データの骨格情報における左側の腕及び足の関節の位置を、前記第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換え、
前記第2の画像データのフレーム数が前記第1の画像データのフレーム数よりも多い場合は、前記第2の画像データの骨格情報における右側の腕及び足の関節の位置を、前記第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える、
付記1または2に記載の歩行分析装置。
(付記4)
(a)歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、ステップと、
(b)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、ステップと、
(c)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、ステップと、
(d)取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、ステップと、
(e)抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、ステップと、
(f)補正後の骨格情報を用いて、前記ユーザの歩行を分析する、ステップと、
を有することを特徴とする歩行分析方法。
(付記5)
前記(e)のステップにおいて、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された前記第1の画像データのフレーム数と、抽出された前記第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する、
付記4に記載の歩行分析方法。
(付記6)
前記第1の方向が、歩行中の前記ユーザの進行方向に対して右側へと傾斜した方向であり、前記第2の方向が、歩行中の前記ユーザの進行方向に対して左側へと傾斜した方向であり、
前記(e)のステップにおいて、
前記第1の画像データのフレーム数が前記第2の画像データのフレーム数よりも多い場合は、前記第1の画像データの骨格情報における左側の腕及び足の関節の位置を、前記第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換え、
前記第2の画像データのフレーム数が前記第1の画像データのフレーム数よりも多い場合は、前記第2の画像データの骨格情報における右側の腕及び足の関節の位置を、前記第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える、
付記4または5に記載の歩行分析方法。
(付記7)
コンピュータに、
(a)歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、ステップと、
(b)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、ステップと、
(c)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、ステップと、
(d)取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、ステップと、
(e)抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、ステップと、
(f)補正後の骨格情報を用いて、前記ユーザの歩行を分析する、ステップと、
を実行させるプログラム。
(付記8)
前記(e)のステップにおいて、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された前記第1の画像データのフレーム数と、抽出された前記第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する、
付記7に記載のプログラム
(付記9)
前記第1の方向が、歩行中の前記ユーザの進行方向に対して右側へと傾斜した方向であり、前記第2の方向が、歩行中の前記ユーザの進行方向に対して左側へと傾斜した方向であり、
前記(e)のステップにおいて、
前記第1の画像データのフレーム数が前記第2の画像データのフレーム数よりも多い場合は、前記第1の画像データの骨格情報における左側の腕及び足の関節の位置を、前記第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換え、
前記第2の画像データのフレーム数が前記第1の画像データのフレーム数よりも多い場合は、前記第2の画像データの骨格情報における右側の腕及び足の関節の位置を、前記第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える、
付記7または8に記載のプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2016年3月31日に出願された日本出願特願2016−072411を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明によれば、デプスセンサによって歩行動作を分析する際において、分析精度の向上を図ることができる。本発明は、人の歩行の分析が必要な種々の分野に有用である。
10 歩行分析装置
11 データ取得部
12 骨格情報作成部
13 計測情報作成部
14 共通部分抽出部
15 補正処理部
16 分析処理部
20、21 デプスセンサ
30 ユーザ
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (9)

  1. 歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、データ取得部と、
    前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、骨格情報作成部と、
    前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、計測情報作成部と、
    取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、共通部分抽出部と、
    抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、補正処理部と、
    補正後の骨格情報を用いて、前記ユーザの歩行を分析する、分析処理部と、
    を備えていることを特徴とする歩行分析装置。
  2. 前記補正処理部は、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された前記第1の画像データのフレーム数と、抽出された前記第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する、
    請求項1に記載の歩行分析装置。
  3. 前記第1の方向が、歩行中の前記ユーザの進行方向に対して右側へと傾斜した方向であり、前記第2の方向が、歩行中の前記ユーザの進行方向に対して左側へと傾斜した方向であり、
    前記補正処理部は、
    前記第1の画像データのフレーム数が前記第2の画像データのフレーム数よりも多い場合は、前記第1の画像データの骨格情報における左側の腕及び足の関節の位置を、前記第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換え、
    前記第2の画像データのフレーム数が前記第1の画像データのフレーム数よりも多い場合は、前記第2の画像データの骨格情報における右側の腕及び足の関節の位置を、前記第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える、
    請求項1または2に記載の歩行分析装置。
  4. コンピュータが実行する歩行分析方法であって、
    (a)歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、ステップと、
    (b)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、ステップと、
    (c)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、ステップと、
    (d)取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、ステップと、
    (e)抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、ステップと、
    (f)補正後の骨格情報を用いて、前記ユーザの歩行を分析する、ステップと、
    を有することを特徴とする歩行分析方法。
  5. 前記(e)のステップにおいて、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された前記第1の画像データのフレーム数と、抽出された前記第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する、
    請求項4に記載の歩行分析方法。
  6. 前記第1の方向が、歩行中の前記ユーザの進行方向に対して右側へと傾斜した方向であり、前記第2の方向が、歩行中の前記ユーザの進行方向に対して左側へと傾斜した方向であり、
    前記(e)のステップにおいて、
    前記第1の画像データのフレーム数が前記第2の画像データのフレーム数よりも多い場合は、前記第1の画像データの骨格情報における左側の腕及び足の関節の位置を、前記第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換え、
    前記第2の画像データのフレーム数が前記第1の画像データのフレーム数よりも多い場合は、前記第2の画像データの骨格情報における右側の腕及び足の関節の位置を、前記第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える、
    請求項4または5に記載の歩行分析方法。
  7. コンピュータに、
    (a)歩行中のユーザを、進行方向に対して傾斜した第1の方向から、デプスセンサによって撮影して得られた第1の画像データと、歩行中の前記ユーザを、前記進行方向に対して前記第1の方向とは別の方向に傾斜した第2の方向から、前記デプスセンサ又は別のデプスセンサによって撮影して得られた第2の画像データとを、それぞれ1フレーム毎に取得する、ステップと、
    (b)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、それぞれが含む深度情報を用いて、取得されている全ての画像データについて、前記ユーザの特定の関節の位置を特定する骨格情報を作成する、ステップと、
    (c)前記第1の画像データ及び前記第2の画像データそれぞれ毎に、取得されている全ての画像データを用いて、前記ユーザの全歩数と前記ユーザの左右の足の接地履歴とを特定する計測情報を作成する、ステップと、
    (d)取得されている全ての前記第1の画像データの計測情報と、取得されている全ての前記第2の画像データの計測情報とを対比して、取得されている全ての前記第1の画像データの骨格情報と、取得されている全ての前記第2の画像データの骨格情報との中から、前記ユーザの左右の足の接地履歴が共通している部分を抽出する、ステップと、
    (e)抽出された前記第1の画像データの骨格情報と、抽出された前記第2の画像データの骨格情報とのうち、フレーム数が多い方の画像データの骨格情報を、フレーム数が少ない方の画像データの骨格情報で補正する、ステップと、
    (f)補正後の骨格情報を用いて、前記ユーザの歩行を分析する、ステップと、
    を実行させるプログラム。
  8. 前記(e)のステップにおいて、フレーム数が少ない方の骨格情報に対して、補完用の骨格情報を追加して、抽出された前記第1の画像データのフレーム数と、抽出された前記第2の画像データのフレーム数とを一致させた上で、フレーム数が多い方の骨格情報を、フレーム数が少ない方の骨格情報で補正する、
    請求項7に記載のプログラム。
  9. 前記第1の方向が、歩行中の前記ユーザの進行方向に対して右側へと傾斜した方向であり、前記第2の方向が、歩行中の前記ユーザの進行方向に対して左側へと傾斜した方向であり、
    前記(e)のステップにおいて、
    前記第1の画像データのフレーム数が前記第2の画像データのフレーム数よりも多い場合は、前記第1の画像データの骨格情報における左側の腕及び足の関節の位置を、前記第2の画像データの骨格情報における左側の腕及び足の関節の位置に置き換え、
    前記第2の画像データのフレーム数が前記第1の画像データのフレーム数よりも多い場合は、前記第2の画像データの骨格情報における右側の腕及び足の関節の位置を、前記第1の画像データの骨格情報における右側にある腕及び足の関節の位置に置き換える、
    請求項7または8に記載のプログラム。
JP2018509417A 2016-03-31 2017-03-30 歩行分析装置、歩行分析方法、及びプログラム Active JP6662532B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016072411 2016-03-31
JP2016072411 2016-03-31
PCT/JP2017/013171 WO2017170832A1 (ja) 2016-03-31 2017-03-30 歩行分析装置、歩行分析方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017170832A1 JPWO2017170832A1 (ja) 2019-01-24
JP6662532B2 true JP6662532B2 (ja) 2020-03-11

Family

ID=59965922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018509417A Active JP6662532B2 (ja) 2016-03-31 2017-03-30 歩行分析装置、歩行分析方法、及びプログラム

Country Status (5)

Country Link
US (1) US11089977B2 (ja)
EP (1) EP3437557B1 (ja)
JP (1) JP6662532B2 (ja)
CN (1) CN108778123B (ja)
WO (1) WO2017170832A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815858B (zh) * 2019-01-10 2021-01-01 中国科学院软件研究所 一种日常环境中的目标用户步态识别系统及方法
CN113873939A (zh) * 2019-05-29 2021-12-31 日本电气株式会社 信息处理设备、个人识别设备、个人识别系统、信息处理方法以及存储介质
CN112764546B (zh) * 2021-01-29 2022-08-09 重庆子元科技有限公司 一种虚拟人物位移控制方法、装置及终端设备
JPWO2022209288A1 (ja) * 2021-03-29 2022-10-06
JPWO2022209287A1 (ja) * 2021-03-29 2022-10-06
CN112998700B (zh) * 2021-05-26 2021-09-24 北京欧应信息技术有限公司 用于辅助对象运动功能评估的设备、系统和方法
JP2023021782A (ja) * 2021-08-02 2023-02-14 株式会社日立ハイテク 計測システム、計測装置、計測データ処理方法及び計測データ処理プログラム
CN114648810B (zh) * 2022-03-11 2022-10-14 北京中科睿医信息科技有限公司 一种交互式步态识别方法、装置及电子设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9289153B2 (en) 1998-09-14 2016-03-22 The Board Of Trustees Of The Leland Stanford Junior University Joint and cartilage diagnosis, assessment and modeling
JP2002345783A (ja) * 2001-05-22 2002-12-03 Hitachi Kiden Kogyo Ltd 足跡分析装置
DE102006022243A1 (de) * 2006-05-12 2007-11-15 Zebris Medical Gmbh Vorrichtung zur Analyse am Laufband
CN101558996B (zh) 2009-05-15 2010-11-10 天津大学 基于人体运动结构正投影三维重建的步态识别方法
WO2014115817A1 (ja) 2013-01-23 2014-07-31 株式会社東芝 動作情報処理装置
JP2017205134A (ja) * 2014-08-25 2017-11-24 ノーリツプレシジョン株式会社 体調検出装置、体調検出方法及び体調検出プログラム
CN104200200B (zh) * 2014-08-28 2017-11-10 公安部第三研究所 融合深度信息和灰度信息实现步态识别的系统及方法
CN104463118A (zh) * 2014-12-04 2015-03-25 龙岩学院 一种基于Kinect的多视角步态识别方法

Also Published As

Publication number Publication date
EP3437557A1 (en) 2019-02-06
WO2017170832A1 (ja) 2017-10-05
CN108778123B (zh) 2021-04-06
EP3437557B1 (en) 2020-12-02
US11089977B2 (en) 2021-08-17
JPWO2017170832A1 (ja) 2019-01-24
CN108778123A (zh) 2018-11-09
US20190076060A1 (en) 2019-03-14
EP3437557A4 (en) 2019-11-20

Similar Documents

Publication Publication Date Title
JP6662532B2 (ja) 歩行分析装置、歩行分析方法、及びプログラム
US11986286B2 (en) Gait-based assessment of neurodegeneration
Ye et al. A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis
JP5898199B2 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
US11403882B2 (en) Scoring metric for physical activity performance and tracking
CN1842824A (zh) 人物判定装置及人物搜索跟踪装置
US9342189B2 (en) Information processing apparatus and information processing method for obtaining three-dimensional coordinate position of an object
WO2017222072A1 (ja) 姿勢分析装置、姿勢分析方法、及びコンピュータ読み取り可能な記録媒体
JP2017205134A (ja) 体調検出装置、体調検出方法及び体調検出プログラム
KR102310964B1 (ko) 근골격계 증상을 진단하기 위한 전자 장치, 방법, 및 시스템
JP6558820B2 (ja) 計測装置、計測方法、及びプログラム
Bakar et al. Computer vision-based hand deviation exercise for rehabilitation
JP2018161397A (ja) 診断画像処理装置、評価支援方法及びプログラム
JP6940139B2 (ja) 身体特性分析装置、身体特性分析方法、及びプログラム
JP6170696B2 (ja) 画像処理装置及び画像処理方法
CN111435535A (zh) 一种关节点信息的获取方法及装置
JP7335046B2 (ja) 歩行分析装置、歩行分析方法、及びプログラム
US20230057733A1 (en) Computer-readable recording medium storing identification program, identification method, and information processing apparatus
WO2020195272A1 (ja) 部位検出装置、部位検出方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200206

R150 Certificate of patent or registration of utility model

Ref document number: 6662532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150