JPWO2016208290A1 - 測定装置及び測定方法 - Google Patents

測定装置及び測定方法 Download PDF

Info

Publication number
JPWO2016208290A1
JPWO2016208290A1 JP2017524728A JP2017524728A JPWO2016208290A1 JP WO2016208290 A1 JPWO2016208290 A1 JP WO2016208290A1 JP 2017524728 A JP2017524728 A JP 2017524728A JP 2017524728 A JP2017524728 A JP 2017524728A JP WO2016208290 A1 JPWO2016208290 A1 JP WO2016208290A1
Authority
JP
Japan
Prior art keywords
limb
measurement period
information
time
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017524728A
Other languages
English (en)
Other versions
JP6465419B2 (ja
Inventor
尚志 野田
尚志 野田
克幸 永井
克幸 永井
友見 木下
友見 木下
宏紀 寺島
宏紀 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2016208290A1 publication Critical patent/JPWO2016208290A1/ja
Application granted granted Critical
Publication of JP6465419B2 publication Critical patent/JP6465419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

測定装置は、体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得する取得部と、取得された位置情報又は向き情報に基づいて、当該被験者の肢体の、当該測定期間に対応する肢体能力種の指標となる角度又は距離を算出する算出部と、算出された角度又は距離を出力する出力処理部と、を有する。

Description

本発明は、人の肢体能力の測定技術に関する。
現在、モーションキャプチャ技術や三次元センシング技術を用いて、人の動きを三次元で捉え、デジタルデータ化する様々なアプリケーションが存在する。映画やゲームにおけるCG(Computer Graphics)キャラクタの生成やスポーツ分析を行うアプリケーションや、ジェスチャ操作を認識するアプリケーション等が例示される。モーションキャプチャの方式には、人の体に複数のマーカやセンサを取り付け、各マーカの検出や各センサのセンシングにより、人の動きを三次元データ化する方式が存在する。また、三次元センサから得られる三次元情報を用いて人体の姿勢推定を行うことで、人体にマーカやセンサを付すことなく、人の動きを三次元データ化する方式も存在する。人体の姿勢推定では、三次元情報から人の肢体の各部位(頭、手、腕、脚など)が認識され、各部位の動きが記録される。
下記特許文献1では、Kinect(登録商標)から得られる情報に基づいて人物の動作情報(カラー画像情報、距離画像情報、骨格情報等)が取得される度に、リハビリテーションの評価の指標となる指標値を測定する装置が提案されている。この提案では、肩の屈曲伸展、肩の水平屈曲伸展、肩甲帯の屈曲伸展、股の屈曲伸展、頭部の前屈後屈、胸腰部の前屈後屈及び胸腰部の回旋のうちの少なくとも一つの指標値が測定される。下記非特許文献1には、関節可動域の正しい測定方法が規定されている。
また、下記非特許文献2では、KINECT(登録商標)から得られる骨格情報を用いて、関節可動域をリアルタイムに測定する手法が提案されている。この手法では、骨格情報が表示され、マウスを測定対象となり得る関節に重ねると、その関節での計測項目が表示される。そして、希望する計測項目を選択することで、計測が開始される。但し、この文献には、具体的な計測手法については開示されていない。
特開2015−61579号公報
"関節可動域表示ならびに測定法",日本整形外科学会・日本リハビリテーション医学会,リハビリテーション医学32,207−217,1995年 狐崎 直文ほか,"KINECTのリハビリテーション用アプリケーションの実用化",電子情報通信学会,信学技法,IE2012‐89(2012‐11)
しかしながら、上記各提案手法では、被験者は、測定のために決められた動作をする必要がある。被験者は、測定のための動作を覚えなければならず、また、測定のためだけにわざわざその動作を行う必要がある。これにより、測定自体が被験者にとって億劫なものとなってしまう可能性がある。
本発明は、このような事情に鑑みてなされたものであり、肢体能力の測定の利便性を向上させる技術を提供する。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の側面は、測定装置に関する。第1の側面に係る測定装置は、体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得する取得手段と、取得された位置情報又は向き情報に基づいて、当該被験者の肢体の、当該測定期間に対応する肢体能力種の指標となる角度又は距離を算出する算出手段と、算出された角度又は距離を出力する出力処理手段と、を有する。
第2の側面は、少なくとも一つのコンピュータにより実行される測定方法に関する。第2の側面に係る測定方法は、体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得し、取得された位置情報又は向き情報に基づいて、当該被験者の肢体の、当該測定期間に対応する肢体能力種の指標となる角度又は距離を算出し、算出された角度又は距離を出力する、ことを含む。
なお、本発明の他の側面は、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムである。また、他の側面は、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各側面によれば、肢体能力の測定の利便性を向上させることができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
第一実施形態における測定装置のハードウェア構成例を概念的に示す図である。 第一実施形態における測定装置の処理構成例を概念的に示す図である。 肩の屈曲運動の能力を測定するために設定された測定期間の例を示す図である。 肩の外転運動及び内転運動の各能力をそれぞれ測定するために設定された測定期間の例を示す図である。 肩の能力指標の算出手法を示す図である。 胸腰部の屈曲運動に関する能力指標の算出方法を示す図である。 出力処理部による出力の具体例を示す図である。 第一実施形態における測定装置の動作例を示すフローチャートである。 肢体動作の認識処理を概念的に示す図である。 第二実施形態における測定装置の動作例を示すフローチャートである。 第三実施形態における測定装置の動作例を示すフローチャートである。
以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。
[第一実施形態]
〔装置構成〕
図1は、第一実施形態における測定装置10のハードウェア構成例を概念的に示す図である。第一実施形態における測定装置10は、いわゆるコンピュータであり、例えば、バスで相互に接続される、CPU(Central Processing Unit)1、メモリ2、入出力インタフェース(I/F)3、通信ユニット4等を有する。
CPU1には、一般的なCPUに加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれる。
メモリ2は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力I/F3は、表示装置5、入力装置6等のユーザインタフェース装置と接続可能である。表示装置5は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU1等により処理された描画データに対応する画面を表示する装置である。入力装置6は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置5及び入力装置6は一体化され、タッチパネルとして実現されてもよい。また、入力装置6は、音声を取得するマイクロフォンユニットであってもよい。入出力I/F3には、スピーカユニット等のような他の出力装置が接続されてもよい。
通信ユニット4は、他のコンピュータとの通信網(図示せず)を介した通信や、プリンタ等のような他の機器との信号のやりとり等を行う。通信ユニット4には、USB(Universal Serial Bus)等により三次元センサ7と接続される。但し、通信ユニット4と三次元センサ7との通信形態は制限されない。また、通信ユニット4には、可搬型記録媒体等も接続され得る。
三次元センサ7は、三次元情報を検出する。三次元センサ7は、例えば、Kinect(登録商標)や3Dカメラのように、可視光カメラ及び深度センサが統合されたセンサとして実現される。深度センサは、距離画像センサとも呼ばれ、レーザから近赤外光のパターンを対象者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから対象者までの距離が算出される。三次元センサ7は、視野内の被験者の所定部位の三次元位置を検出することができれば、その実現手法は制限されない。例えば、三次元センサ7は、複数の可視光カメラを用いる三次元スキャナ方式で実現されてもよい。以下の説明では、説明を分かり易くするために、三次元センサ7は、可視光カメラ及び深度センサが統合されたセンサであると仮定する。
被験者は、三次元センサ7の視野内で体操を行う。被験者により行われる体操自体は何ら制限されない。例えば、被験者は、ラジオ体操を行う。これにより、測定装置10は、三次元センサ7から得られる情報に基づいて、ラジオ体操をしている被験者の肢体の所定部位の三次元位置又は向きを取得することができる。
測定装置10のハードウェア構成は、図1に示される例に限定されない。測定装置10は、図示されていない他のハードウェア要素を含み得る。また、各ハードウェア要素の数も、図1の例に制限されない。例えば、測定装置10は、複数のCPU1を有していてもよい。また、測定装置10は、複数の三次元センサ7に接続されていてもよい。この場合、各三次元センサ7は、被験者を複数の方向からセンシングできるように、異なる位置及び方向でそれぞれ設置されることが望ましい。
〔処理構成〕
図2は、第一実施形態における測定装置10の処理構成例を概念的に示す図である。第一実施形態における測定装置10は、取得部11、算出部12、出力処理部13等を有する。これら各処理モジュールは、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから通信ユニット4を介してインストールされ、メモリ2に格納されてもよい。
取得部11は、三次元センサ7から得られる情報に基づいて、体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報、向き情報、又は両情報を取得する。取得部11は、位置情報及び向き情報以外の情報を更に取得してもよい。以降、取得部11により取得される、当該測定期間における被験者の肢体の所定部位に関する情報を総称して「肢体データ」と表記する場合もある。肢体データにより表される肢体の所定部位は、当該体操で測定可能な能力種に応じて決められてもよいし、出来る限り多くの所定部位の肢体データが取得されてもよい。
「体操期間」とは、被験者により行われている体操の最初から最後までの全期間を意味する。例えば、被験者がラジオ体操第一を行っている場合、「体操期間」は、ラジオ体操第一の最初から最後までの全期間を意味する。「ラジオ体操第一」は、「伸びの運動」から「深呼吸」までの13種の所定運動からなる周知の運動である。
「測定期間」とは、被験者により行われる体操の全期間内の一部の期間であり、或る一つの肢体能力種を測定できる動きが行われる期間を意味する。即ち、「測定期間」は、測定される能力種毎にそれぞれ設けられる。「測定期間」は、体操期間の一部の期間であれば、その時間長は制限されない。測定対象となる肢体能力種は、例えば、上記非特許文献1で規定されている全ての項目又はその一部の項目である。
図3及び図4は、測定期間の設定例を示す図である。
図3は、肩の屈曲運動の能力を測定するために設定された測定期間を例示する。図3では、ラジオ体操第一における最初の運動である「伸びの運動」の中の、腕を体の正面で下から上に上げる動きの間が測定期間M11及びM12に設定されている。「伸びの運動」では、同じ動作が2回繰り返されるため、2つの測定期間M11及びM12が設定されている。即ち、図3の例では、肩の屈曲運動の能力に関し2つの測定期間M11及びM12が設けられている。
図4は、肩の外転運動及び内転運動の各能力をそれぞれ測定するために設定された測定期間を例示する。図4では、ラジオ体操第一における3つ目の運動である「腕を回す運動」の中の腕を体の側面で下から上に上げる動きの間が測定期間M21に設定されており、「腕を回す運動」の中の腕を体の側面で上から下に下げる動きの間が測定期間M22に設定されている。測定期間M21は、肩の外転運動の能力の測定のために設けられ、測定期間M22は、肩の内転運動の能力の測定のために設けられている。
取得部11は、三次元センサ7から取得可能な二次元画像のフレーム及び深度画像(距離画像)のフレームの中で、当該測定期間を表す1以上のフレームを取得することができる。三次元センサ7から取得可能な二次元画像及び深度画像の各フレームレートに基づいて、取得部11は、或るフレームから所定時間後のフレームを選択的に取得することができる。例えば、フレームレートが毎秒30フレームに設定される場合、或るフレームから30秒後のフレームは、当該或るフレームから900フレーム目に取得できる。以降、二次元画像及び深度画像(距離画像)の各フレームは、二次元画像及び深度画像と略称される。
取得部11は、姿勢推定技術を用いて、取得された二次元画像及び深度画像から、三次元センサ7の視野内に位置する被験者の肢体の複数の所定部位を認識し、各部位の三次元位置(世界座標系)を特定する。取得部11は、既存の様々な姿勢推定技術を用いることができる。例えば、取得部11は、左肩、左肘、左手首、左手、右肩、右肘、右手首、右手、頭、肩中央、背骨、腰中央、右腰、左腰、右膝、右かかと、右足、左膝、左かかと、左足のような、肢体の複数部位の位置情報を取得することができる。取得部11により取得される位置情報は、被験者が実際に存在する三次元空間に相当する世界座標系で表される。例えば、取得される位置情報は、三次元センサ7の視野の中心を原点として、左右方向をx軸(右方向を正)、上下方向をy軸(上方向を正)、深度方向(奥行方向を正)をz軸とする世界座標系により表される。以下、この世界座標系の例を用いて説明される。但し、世界座標系の三軸及び原点の配置は、このような例に限定されない。以降、取得部11により取得される、被験者の肢体の所定部位の位置情報を骨格データと表記する場合もある。
また、取得部11は、測定期間の深度画像のみを用いて、被験者の肢体の所定部位の位置情報や床面の位置情報を取得することもできる。例えば、取得部11は、測定期間の深度画像に対して既存のパターンマッチング技術を適用することにより、被験者の輪郭を特定し、その特定された輪郭に基づいて、被験者の指先の位置情報や床面の位置情報を取得することができる。このように取得される位置情報は、深度画像の画像座標系のx座標及びy座標、並びに世界座標系のz座標(深度)により表される。
更に、取得部11は、既存の画像認識技術を用いることにより、三次元センサ7から得られる二次元画像及び深度画像から人の顔を認識し、認識された顔の各部位の位置関係からその人の顔の向きを特定することができる。人の顔及び顔内の各部位の認識手法には、様々な既存の画像認識手法を用いることができる。取得部11により取得される顔の向き情報は、z軸からの角度で表される。取得される被験者の深度情報は、深度画像に基づく情報であり、顔の中心等のような被験者の肢体の或る一点の深度、又は被験者の肢体の複数点の中心位置の深度を示す。また、取得部11は、上述のように取得された骨格データを用いて、被験者の体の向きを特定することもできる。例えば、取得部11は、両肩の位置情報に基づいて、両肩を結ぶ線分と、x軸方向との、y軸に直交する平面上になす角度を、体の向きとして算出することができる。算出される体の向きは、肩の開き角度と表記することもできる。取得部11は、算出された体の向きと上述のように特定された顔の向きとを合わせることで、体に対する顔の向きを算出することができる。
本実施形態では、取得部11は、或る体操に関し予め決められ保持される時間情報を用いて、次のように測定期間を特定し、その特定された測定期間における肢体データを取得する。
取得部11は、第一所定時間の情報及び第二所定時間の情報を予め保持する。取得部11は、体操の開始時点から第一所定時間の経過後の時点を測定期間の開始時点として特定し、体操の開始時点又は測定期間の開始時点から第二所定時間の経過後の時点を測定期間の終了時点として特定する。即ち、第二所定時間は、体操の開始時点から測定期間の終了時点までの時間長を示すか、又は測定期間の時間長を示す。このように特定された開始時点及び終了時点に基づいて、取得部11は、測定期間の開始時点の後かつ測定期間の終了時点の前の、位置情報又は向き情報を取得する。例えば、取得部11は、測定期間の開始時点から測定期間の終了時点までの間の二次元画像及び深度画像を取得し、その取得された画像情報に基づいて、当該測定期間における肢体データを取得する。
一つの体操に関して複数の肢体能力種が測定対象とされる場合、取得部11は、第一所定時間の情報と第二所定時間の情報との少なくとも一つのペアを肢体能力種毎にそれぞれ保持する。取得部11は、一つの肢体能力種について複数のペアを保持してもよい。そして、取得部11は、保持される複数のペアを用いて特定された複数の測定期間の各々について、上述のように肢体データを取得すると共に、その取得された肢体データから指標値を算出すべき肢体能力種の識別情報を算出部12に渡す。
上述のように測定期間を特定するためには、取得部11は、体操の開始時点を認識する必要がある。例えば、体操開始時点以降、三次元センサ7からの情報の取得が可能となる場合には、取得部11は、三次元センサ7から最初に情報が取得されたタイミングを体操開始時点と認識することができる。この場合、例えば、測定装置10は、体操開始と同時に、三次元センサ7のセンシングを開始させる。また、取得部11は、三次元センサ7から最初に情報が取得されたタイミングから所定時間経過後の時点を体操開始時点として認識してもよい。この場合、取得部11は、その所定時間の情報を予め保持していればよい。
また、取得部11は、マイクロフォンにより集音された音声情報を入出力I/F3を介して更に取得し、その音声情報で体操の開始時点を認識することもできる。取得部11は、入力装置6を用いたユーザ操作の検出タイミングにより、体操の開始時点を認識してもよい。この場合、取得部11は、体操開始時にユーザに所定操作を行わせる画面を表示装置5に表示し、その画面に対する所定操作が検出された時点を体操の開始時点として認識する。
また、取得部11は、三次元センサ7から得られる情報に対して、体操の開始時点に対応する所定の肢体姿勢の認識処理を行い、この認識結果に基づいて、体操の開始時点を特定することもできる。例えば、取得部11は、既存の画像認識技術を用いて、周期的に取得される二次元画像から被験者の所定姿勢を認識する。体操は、両腕を下げた直立の姿勢で開始されることが多い。よって、取得部11は、両腕を下げた直立の姿勢を認識した時点を体操の開始時点として特定してもよい。また、取得部11は、取得される骨格データから直立の姿勢を認識することもできる。
算出部12は、取得部11により取得される測定期間の肢体データに基づいて、被験者の肢体の、その測定期間に対応する肢体能力種の指標となる角度又は距離を算出する。測定期間について複数の肢体データが取得される場合、算出部12は、各肢体データについて、角度又は距離をそれぞれ算出する。複数の肢体能力種が測定対象とされる場合には、算出部12は、各肢体能力種に対応する能力指標の計算手法を用いて、角度又は距離を算出する。このとき、算出部12は、取得部11から肢体データと共に肢体能力種の識別情報を取得し、その肢体能力種の識別情報に基づいて、複数の肢体能力種に対応する複数の計算手法の中から、実行すべき計算手法を選択する。能力指標の計算手法には、既知の様々な手法が利用されればよく、その計算手法自体は制限されない。各肢体能力種に対応する能力指標の計算手法は、非特許文献1で示される規定に準拠していることが望ましい。
例えば、算出部12は、次のようにして、各肢体能力種に対応する能力指標となる角度又は距離を算出する。
図5は、肩の能力指標の算出手法を示す図である。
算出部12は、肩の位置P1を端点としy軸負方向の線分L1と、肩の位置P1と手の位置P2とを結ぶ線分L2との、x軸に直交する平面(yz平面、図3の紙面)上になす角度A1を肩の屈曲運動の能力指標として算出する。
算出部12は、線分L1と、線分L2との、x軸に直交する平面(yz平面、図3の紙面)上になす角度A2を肩の伸展運動の能力指標として算出する。
算出部12は、肩の位置P3を端点としy軸負方向の線分L3と、肩の位置P3と手の位置P4とを結ぶ線分L4との、z軸に直交する平面(xy平面、図3の紙面)上になす角度A3を肩の外転運動又は内転運動の能力指標として算出する。
算出部12は、肘の位置P5を端点としz軸負方向の線分L5と、肘の位置P5と手の位置P6とを結ぶ線分L6との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A5を、肩の外旋運動の能力指標として算出する。
算出部12は、線分L5と、線分L6との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A6を、肩の内旋運動の能力指標として算出する。
算出部12は、肩の位置P7を端点としx軸負方向の線分L7と、肩の位置P7と手の位置P8とを結ぶ線分L8との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A7を、肩の水平屈曲運動の能力指標として算出する。
算出部12は、線分L7と、線分L8との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A8を、肩の水平伸展運動の能力指標として算出する。
図6は、胸腰部の屈曲運動に関する能力指標の算出方法を示す図である。算出部12は、被験者の指先P9と、その指先P9からy軸負方向の線分と床面との交点P10との間の距離を算出する。例えば、算出部12は、取得部11により取得された、手の指先のy座標及び床面のy座標に基づいて、深度画像上における指先から床面までの画素数PX1を算出する。算出部12は、算出された画素数PX1と、特定された被験者の指先P9の深度DPTと、二次元画像の高さの半分の画素数PX2と、三次元センサ7(二次元画像を撮像する可視光カメラ等)の垂直視野角の半分(例えば、30度)とを用いて、次のような式により、世界座標系における被験者の指先と床面との間の距離を算出することができる。
世界座標系の距離=(PX1・DPT・tan30)/PX2
但し、被験者の指先と床面との間の距離の算出手法は、この式に限定されない。例えば、PX2は、深度画像の高さの半分の画素数とし、垂直視野角は、深度センサの垂直視野角としてもよい。また、PX1は、二次元画像上における画素数としてもよい。
出力処理部13は、算出部12により算出された角度又は距離を出力する。或る測定期間に関して複数の角度又は複数の距離が算出される場合がある。この場合には、出力処理部13は、算出された複数の角度又は複数の距離の中の最大値又は最小値を、その測定期間に対応する肢体能力種の指標値として出力してもよい。また、複数の肢体能力種が測定対象とされる場合には、出力処理部13は、複数の肢体能力種をそれぞれ識別する各識別情報と関連付けた状態で、算出された角度又は距離をそれぞれ出力することもできるし、最大値又は最小値をそれぞれ出力することもできる。肢体能力種を識別する識別情報は、数値であってもよいし、「肩の屈曲運動」のように文字列であってもよい。
出力処理部13は、算出部12により角度又は距離が算出される度に出力してもよいし、肢体能力種の指標値として最大値又は最小値が決定される度に出力してもよい。また、出力処理部13は、全ての測定期間について角度又は距離の算出が完了した時点で一括に出力してもよい。また、出力処理部13の出力方法は制限されない。出力処理部13は、肢体能力種の指標値を表示装置5に表示してもよいし、通信ユニット4に接続されるプリンタ装置に印刷させてもよい。また、出力処理部13は、肢体能力種の指標値を、通信ユニット4を経由して可搬型記録媒体に格納してもよいし、通信ユニット4を介して他のコンピュータに送信してもよい。また、出力処理部13は、当該指標値をファイルとして蓄積することもできる。
図7は、出力処理部13による出力の具体例を示す図である。図7の例では、肢体能力種毎に区分けされた表形式で、肢体能力種の名称及び能力指標値として算出された角度又は距離が出力されている。例えば、出力処理部13は、全ての測定期間について角度又は距離の算出が完了した時点で、図7に示される表を出力する。
〔動作例/測定方法〕
以下、第一実施形態における測定方法について図8を用いて説明する。
図8は、第一実施形態における測定装置10の動作例を示すフローチャートである。図8に示されるように、第一実施形態における測定方法は、測定装置10のような少なくとも一つのコンピュータにより実行される。図8に示される各処理工程は、測定装置10が有する上述の各処理モジュールの処理内容と同様であるため、各処理工程の詳細は、適宜省略される。
測定装置10は、肢体能力種毎に、第一所定時間の情報と第二所定時間の情報との少なくとも一つのペアを保持する。保持される時間情報のペアは、一つの測定期間を特定するための情報である。以下、或る体操について複数の肢体能力種が測定対象とされる場合が例示される。
測定装置10は、時間的に早いものから順に、第一所定時間及び第二所定時間のペアを取得する(S81)。このとき、測定装置10は、取得された時間ペアに基づいて測定すべき肢体能力種を特定する(S82)。例えば、測定装置10は、時間ペアを肢体能力種の識別情報と関連付けて予め保持しており、当該時間ペアと共に、そのペアに関連付けられた肢体能力種の識別情報を取得する。
測定装置10は、(S81)で取得された時間ペアに基づいて、測定期間の開始時点及び終了時点を特定する(S83)。具体的には、測定装置10は、体操の開始時点から第一所定時間の経過後の時点を測定期間の開始時点として特定し、体操の開始時点又は測定期間の開始時点から第二所定時間の経過後の時点を測定期間の終了時点として特定する。例えば、測定期間の開始時点は、体操の開始時点から15秒後に設定され、測定期間の終了時点は、体操の開始時点から20秒後又は測定期間の開始時点から5秒後に設定される。以降、(S82)で開始時点及び終了時点が特定された測定期間は、対象測定期間と表記される。
測定装置10は、(S83)で特定された測定期間の開始時点及び終了時点に基づいて、体操をしている被験者の肢体の所定部位に関する、当該測定期間における肢体データを取得する(S84)。例えば、測定装置10は、設定されているフレームレートに従って体操開始時点以降に三次元センサ7から取得される二次元画像及び深度画像の数をカウントすることにより、測定期間の開始時点より後でかつ終了時点より前の二次元画像及び深度画像を取得する。そして、測定装置10は、取得された二次元画像及び深度画像から、被験者の肢体の所定部位に関する位置情報、向き情報、又はその両方(肢体データ)を取得する。但し、測定装置10は、深度画像のみからその位置情報を取得することもできる。二次元画像及び深度画像、又は深度画像のみからの肢体データの取得手法については、上述したとおりである(取得部11)。
測定装置10は、測定期間の開始時点の後かつ測定期間の終了時点の前の各肢体データについて、角度又は距離をそれぞれ算出する(S85;NO、S86)。このとき、測定装置10は、複数の肢体能力種に対応する複数の計算手法の中から、(S82)で特定されている肢体能力種に対応する算出手法を選択する。測定装置10は、算出された角度又は距離を、(S82)で特定されている肢体能力種毎に区別できるように、保持する。
測定装置10は、測定期間の終了時点が経過すると(S85;YES)、他の時間ペアが存在するか否かを判定する(S87)。言い換えれば、測定装置10は、他の測定期間が設定されているか否かを判定する。ここで、測定期間の終了時点の経過は、例えば、測定期間の終了時点より後の二次元画像及び深度画像が取得されたか否かで判断される。測定装置10は、他の時間ペアが存在する場合(S87;YES)、新たな第一所定時間及び新たな第二所定時間のペアを取得し(S81)、この新たに取得された時間ペアに基づいて、(S82)以降を実行する。
測定装置10は、他の時間が存在しない場合(S87;NO)、(S86)で算出され保持されている複数の角度又は複数の距離を、肢体能力種毎に集計し、各肢体能力種についての能力指標値をそれぞれ決定する(S88)。具体的には、測定装置10は、肢体能力種毎に、最大角度、最小角度、最大距離、又は最小距離を決定し、決定された最大値又は最小値を各肢体能力種の能力指標値にそれぞれ決定する。
測定装置10は、(S88)で決定された、肢体能力種毎の能力指標値を出力する(S89)。上述したとおり、能力指標値の出力方法は制限されない(出力処理部13)。
本実施形態の測定方法は、図8の例に限定されない。本実施形態の測定方法は、図8に示される1以上の処理工程を含まなくてもよい。また、各処理工程の実行順序は、内容的に支障のない範囲で変更することができる。例えば、(S88)は、(S86)の後に実行されてもよい。この場合、測定装置10は、(S86)で角度又は距離が算出される度に、その算出された角度又は距離が示す肢体能力種に関する能力指標値を決定することになる。この場合、(S88)の後に(S89)が実行されてもよい。これによれば、一つの測定期間について計算が終了する度に、対応する肢体能力種の能力指標値が出力される。また、(S88)は、実行されず、(S86)で算出された角度又は距離がそのまま出力されてもよい。
〔第一実施形態の作用及び効果〕
上述したとおり、第一実施形態では、肢体能力の測定期間を特定するための時間情報(第一所定時間及び第二所定時間)が測定装置10で予め保持されており、この時間情報で特定された測定期間における肢体データに基づいて、被験者の肢体の、その測定期間に対応する肢体能力種の指標となる角度又は距離が算出される。このように、第一実施形態では、或る体操を構成する運動の中で、被験者の肢体能力を測定できる動きの期間が測定期間として自動で特定され、その測定期間内の被験者の肢体の所定部位の位置又は向きから、或る肢体能力種の指標値が算出される。
これにより、被験者は、測定のための専用の動きではなく或る体操を行えば、自身の肢体能力の指標値を得ることができるため、肢体能力の測定自体への被験者の抵抗感を和らげることができる。結果、測定頻度を上げさせ、被験者に自身の体の積極的な管理を促すことができる。更に、専用の動きを被験者に要求しなくてすむため、被験者が測定を意識し過ぎることもなく、被験者本来の能力を測定することができる。
また、図3及び図4に例示したように、複数種の肢体能力を測定できる体操がある。第一実施形態では、肢体能力種毎に測定期間がそれぞれ設けられ、各測定期間を特定するための時間情報がそれぞれ保持され、複数の肢体能力種に関し、能力指標値がそれぞれ決定される。これにより、被験者は、一つの体操を行うことで、複数の肢体能力種の指標値を得ることができる。
[第一実施形態の補足]
第一実施形態は、ラジオ体操第一及びラジオ体操第二のように複数種の体操に対応することもできる。即ち、測定装置10(取得部11)は、各体操種について、その体操種で測定可能な肢体能力種毎の時間情報のペアをそれぞれ保持する。具体的には、測定装置10は、体操種の識別情報、肢体能力種の識別情報、及び時間情報のペアの対応付けを予め保持する。測定装置10(取得部11)は、被験者により行われている体操種を特定し、その特定された体操種に対応付けられた、肢体能力種毎の時間情報のペアを取得することで、各測定期間をそれぞれ特定することができる。体操種は、入力装置6を用いたユーザ操作により指定されてもよいし、体操の開始後一定期間の被験者の動作を認識することで、自動で特定されてもよい。
また、上述の説明では、体操をしている被験者の動きからリアルタイムに肢体能力の指標値が算出された。しかしながら、上述の第一実施形態は、体操をしている被験者の三次元的な動きが記録(格納)された情報に基づいて、肢体能力の指標値を算出することもできる。この場合、被験者が体操をしている間に、その被験者をセンシングする三次元センサ7から所定周期で取得される二次元画像及び深度画像が、取得されたタイミングを区別できるように、測定装置10又は他の装置に一旦格納される。測定装置10(取得部11)は、この格納された二次元画像群及び深度画像群を通信等により取得し、取得された二次元画像群及び深度画像群から、測定期間の肢体データを取得する。取得される二次元画像群及び深度画像群は、取得タイミングで区別可能であるため、測定装置10は、測定期間の開始時点及び終了時点に対応する各取得タイミングに基づいて、測定期間の肢体データを取得することができる。
上述の説明では特に言及されなかったが、複数の測定期間が設けられる場合、二番目以降の測定期間の開始時点を特定するための第一所定時間は、体操の開始時点からの時間長であってもよいし、直前の測定期間の開始時点又は終了時点からの時間長であってもよい。
[第二実施形態]
上述の第一実施形態では、肢体能力の測定期間を特定するための時間情報(第一所定時間及び第二所定時間)が測定装置10で予め保持されていた。第二実施形態における測定装置10及び測定方法は、体操をしている被験者の三次元的な動きが記録(格納)された記録情報に基づいて、第一実施形態のような時間情報を用いず、自動的に測定期間を特定する。以下、第二実施形態における測定装置及び測定方法について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
第二実施形態では、上述のように、体操をしている被験者の三次元的な動きが記録(格納)された記録情報が存在することが前提となる。測定装置10がこの記録情報を生成してもよい。この場合、測定装置10は、被験者が体操をしている間に、その被験者をセンシングする三次元センサ7から二次元画像及び深度画像を周期的に取得し、取得された二次元画像及び深度画像を、取得タイミングを区別できるように、メモリ2に格納する。測定装置10は、記録情報として、骨格データを格納してもよい。また、この記録情報は他の装置により生成されてもよい。この場合、測定装置10は、三次元センサ7に接続されている必要はなく、その記録情報を通信ユニット4を介して他の装置又は可搬型記録媒体から取得すればよい。
〔処理構成〕
取得部11は、上述のように取得された記録情報に対する測定期間に対応する所定の肢体動作の認識処理により、その記録情報の中のその測定期間を特定する。取得部11は、肢体能力種毎に、その肢体能力種の能力指標を測定できる肢体動作の情報を予め保持しておく。保持される情報は、例えば、その肢体動作を構成する複数の姿勢を表す骨格データパターン又は深度画像の輪郭(シルエット)パターンである。骨格データパターンは、各姿勢をそれぞれ表す骨格データの集合である。骨格データパターンを形成する骨格データは、或る姿勢の肢体における複数の所定部位の位置情報である。例えば、両手を挙げた姿勢は、両手、頭、両肩、腰中央、両膝、及び両足の位置を示す骨格データにより表される。骨格データパターンを形成する骨格データは、頭に対する左手の位置のように、所定部位間の相対位置を示すデータであってもよい。輪郭パターンは、深度画像における人の各姿勢をそれぞれ表す輪郭の集合である。
取得部11は、記録情報として取得される各骨格データ又は各深度画像に対して、その保持される骨格データパターン又は深度画像の輪郭パターンのマッチング処理をそれぞれ行うことにより、そのパターン情報で表される所定の肢体動作の認識を試みる。具体的には、取得部11は、記録情報として取得される各骨格データと、保持される骨格データパターンとの比較を行い、取得される各骨格データに所定の肢体動作が含まれているか否かを判定する。また、取得部11は、記録情報として取得される各深度画像に、輪郭パターンに含まれる複数の輪郭が含まれているか否かを判定する。
取得部11は、肢体能力種に関して保持される骨格データパターン又は輪郭パターンと類似する骨格データパターン又は輪郭パターンを含む、時間的に連続した取得タイミングで取得された複数の二次元画像及び複数の深度画像を、当該記録情報の中の測定期間の情報として特定する。取得部11は、測定期間の情報として特定された複数の二次元画像及び複数の深度画像に基づいて、第一実施形態と同様に、測定期間の肢体データを取得する。但し、取得部11は、所定の肢体動作の認識のために、二次元画像のパターンマッチングを用いることもできる。この場合、取得部11は、所定の肢体動作を構成する複数の姿勢を表す複数のパターン画像を保持しており、記録情報として取得される各二次元画像に対して、その保持される各パターン画像を用いたパターンマッチング処理をそれぞれ行えばよい。
図9は、肢体動作の認識処理を概念的に示す図である。図9の例では、取得部11は、PT1、PT2、及びPT3で示される人の3つの姿勢を表す深度画像の輪郭(シルエット)パターンを予め保持する。取得部11は、記録情報として取得された深度画像群に対して、時間順に、輪郭情報PT1とのパターンマッチング処理を行う。取得部11は、輪郭情報PT1と類似する輪郭を含む深度画像を検出すると、その深度画像よりも後に取得された深度画像に対して、輪郭情報PT2とのパターンマッチング処理を行う。取得部11は、輪郭情報PT2と類似する輪郭を含み、先に検出された深度画像に時間的に近い深度画像を検出すると、その深度画像よりも後に取得された深度画像に対して、輪郭情報PT3とのパターンマッチング処理を行う。取得部11は、輪郭情報PT3と類似する輪郭を含み、先に検出された深度画像に時間的に近い深度画像を検出すると、最初に検出された深度画像から最後に検出された深度画像までの間を測定期間として特定する。図9の例では、測定期間M11及びM12が特定される。
図9では、深度画像の輪郭パターンとのパターンマッチングにより、所定の肢体動作が認識されたが、上述したとおり、所定の肢体動作の認識のために、骨格データパターン又は二次元画像パターンが利用されてもよい。骨格データパターンが利用される場合、取得部11は、PT1、PT2、及びPT3で示される人の3つの姿勢を表す3つの骨格データを予め保持していればよい。また、二次元画像パターンが利用される場合、取得部11は、PT1、PT2、及びPT3に対応する3つのパターン画像を予め保持していればよい。
〔動作例/測定方法〕
以下、第二実施形態における測定方法について図10を用いて説明する。
図10は、第二実施形態における測定装置10の動作例を示すフローチャートである。図10に示されるように、第二実施形態における測定方法は、測定装置10のような少なくとも一つのコンピュータにより実行される。図10に示される各処理工程は、測定装置10が有する上述の各処理モジュールの処理内容と同様であるため、各処理工程の詳細は、適宜省略される。
測定装置10は、体操をしている被験者の三次元的な動きが記録(格納)された記録情報を取得する(S91)。測定装置10は、メモリ2からその記録情報を取得してもよいし、他の装置又は可搬型記録媒体からその記録情報を通信ユニット4を介して取得してもよい。この記録情報は、例えば、被験者が体操をしている間に、その被験者をセンシングする三次元センサ7から周期的に取得された二次元画像及び深度画像が、取得タイミングを区別できるように、格納されたものである。
測定装置10は、取得された記録情報に対して或る肢体能力種に対応する所定の肢体動作の認識処理を行う。上述したとおり、測定装置10は、複数の肢体能力種の各々について、その肢体能力種に対応する測定期間を特定するための所定の肢体動作を示す情報をそれぞれ保持している。所定の肢体動作を示す情報及びその肢体動作の認識処理については、上述したとおりである(取得部11)。
測定装置10は、当該所定の肢体動作の認識に成功すると(S93;YES)、(S91)で取得された記録情報の中のその肢体動作を表す期間を、その肢体能力種に対応する測定期間として特定する(S94)。測定装置10は、記録情報の中のその特定された測定期間の情報に基づいて、当該測定期間の肢体データを取得する(S95)。この肢体データの取得手法についても上述したとおりである(取得部11)。
測定装置10は、測定期間の開始時点の後かつ測定期間の終了時点の前の各肢体データについて、角度又は距離をそれぞれ算出する(S95、S96)。このとき、測定装置10は、複数の肢体能力種に対応する複数の計算手法の中から、(S92)で選択されている肢体能力種に対応する算出手法を選択する。測定装置10は、算出された角度又は距離を、(S92)で選択されている肢体能力種毎に区別できるように、保持する。
測定装置10は、(S96)の後、又は当該所定の肢体動作の認識に失敗した場合に(S93;NO)、測定すべき他の肢体能力種が存在するか否かを判定する(S97)。測定装置10は、他の肢体能力種が存在する場合(S97;YES)、(S91)で取得された記録情報に対して、新たな肢体能力種に対応する所定の肢体動作の認識を試みる(S92)。測定装置10は、この新たな肢体能力種に関して、(S92)以降を実行する。
測定装置10は、測定すべき他の肢体能力種が存在しなくなると(S97;NO)、(S96)で算出され保持されている複数の角度又は複数の距離を、肢体能力種毎に集計し、各肢体能力種についての能力指標値をそれぞれ決定する(S98)。具体的には、測定装置10は、肢体能力種毎に、最大角度、最小角度、最大距離、又は最小距離を決定し、決定された最大値又は最小値を各肢体能力種の能力指標値にそれぞれ決定する。
測定装置10は、(S98)で決定された、肢体能力種毎の能力指標値を出力する(S99)。上述したとおり、能力指標値の出力方法は制限されない(出力処理部13)。
本実施形態の測定方法は、図10の例に限定されない。本実施形態の測定方法は、図10に示される1以上の処理工程を含まなくてもよい。また、各処理工程の実行順序は、内容的に支障のない範囲で変更することができる。例えば、(S98)は、(S96)の後かつ(S97)の前に実行されてもよい。この場合、測定装置10は、或る測定期間についての角度又は距離の算出が完了する度に、その測定期間に対応する肢体能力種に関する能力指標値を決定することになる。この場合、(S98)の後に(S99)が実行されてもよい。これによれば、一つの測定期間について計算が終了する度に、対応する肢体能力種の能力指標値が出力される。また、(S98)は、実行されず、(S96)で算出された角度又は距離がそのまま出力されてもよい。
〔第二実施形態の作用及び効果〕
上述のように、第二実施形態では、体操をしている被験者の三次元的な動きが記録された記録情報が存在し、この記録情報に対する所定の肢体動作の認識処理により記録情報の中の測定期間が自動で特定される。このように、第二実施形態によれば、測定期間を特定するための時間情報が予め保持されていなくても、肢体動作の認識処理により測定期間を特定することができる。従って、測定装置10にとって知らない体操が被験者により行われたとしても、その体操を行う被験者の動きの記録情報があれば、被験者の肢体能力を測定することができる。即ち、第二実施形態によれば、体操が行われるリアルタイムな時間での測定はできないものの、被験者に行わせる体操の種類を限定せず、どんな体操が行われたとしても、肢体能力を測定することができる。
[変形例]
上述の第一実施形態では、測定期間の特定のために体操の開始時点が特定された。しかしながら、体操の開始時点が特定されなくてもよい。ラジオ体操第一やラジオ体操第二等では、同じ運動が複数回繰り返される。具体的には、ラジオ体操第一において、伸びの運動では、同じ動きが2回繰り返され、腕を回す運動では、同じ動きが4回繰り返される。そこで、複数回繰り返される運動において測定が行われる場合、体操の開始時点の代わりに、繰り返される運動間の時間関係により、測定期間が特定されてもよい。
具体的には、取得部11は、三次元センサ7から周期的に取得される二次元画像及び深度画像に対する所定の肢体動作の認識処理により、繰り返しの中の一つである第一運動の期間内で仮の測定期間を検出する。所定の肢体動作は、測定期間で行われる予め決められた動きであり、その認識処理は、第二実施形態で述べたとおりである。図9の例によれば、取得部11は、測定期間M12を特定するために、測定期間M11を仮の測定期間として検出する。この場合、同じ運動が2回繰り返される伸びの運動の中の、1回目の運動が第一運動に該当する。取得部11は、例えば、PT1、PT2、及びPT3で示される人の3つの姿勢を表す3つの輪郭パターンを用いて、その一回目の運動の期間内で測定期間M11を仮の測定期間として自動で検出する。
取得部11は、検出された仮の測定期間の開始時点又は終了時点から、保持される第一所定時間の経過後の時点を測定期間の開始時点として特定し、当該仮の測定期間の開始時点又は終了時点から、保持される第二所定時間の経過後の時点、若しくは測定期間の開始時点からその第二所定時間の経過後の時点を測定期間の終了時点として特定する。図9の例では、取得部11に予め保持される第一所定時間は、仮の測定期間M11の開始時点又は終了時点から測定期間M12の開始時点までの時間長を示す。第二所定時間は、仮の測定期間M11の開始時点又は終了時点から測定期間M12の終了時点までの時間長、若しくは測定期間M12の開始時点から測定期間M12の終了時点までの時間長を示す。取得部11は、このように自動で特定された測定期間の開始時点の後かつ測定期間の終了時点の前の、位置情報又は向き情報を肢体データとして取得する。
この構成によれば、体操の開始時点の特定が難しい場合でも、肢体動作の認識処理により測定期間を特定することができ、被験者の肢体能力を測定することができる。
[各実施形態の補足]
上述の説明では、測定装置10には三次元センサ7が接続され、三次元センサ7から取得される、二次元画像及び深度画像、又は深度画像のみに基づいて、肢体データが取得される例が示された。しかしながら、肢体データの元となる情報は、二次元画像及び深度画像のみに制限されない。即ち、測定装置10(取得部11)は、体操をしている被験者の三次元的な動きを表す時系列情報、又は体操をしている被験者の三次元的な動きが記録された記録情報から肢体データを取得することができる。この時系列情報及び記録情報の一具体例が、二次元画像、深度画像である。例えば、測定装置10(取得部11)は、人の体に取り付けられたマーカの検出又はセンサとの通信により、被験者の肢体の所定部位に関する位置情報又は向き情報を取得し、この取得された位置情報又は向き情報の中から、測定期間における位置情報又は向き情報を取得してもよい。また、深度情報は、二次元位置毎の深度を示す情報であれば、どのような形式で表されていてもよい。
[第三実施形態]
以下、第三実施形態における測定装置及び測定方法について図1、図2、及び図11を用いて説明する。また、第三実施形態は、この測定方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録した当該少なくとも1つのコンピュータが読み取り可能な記録媒体であってもよい。
第三実施形態における測定装置のハードウェア構成は、上述の各実施形態と同様であってもよい(図1参照)。但し、第三実施形態における測定装置には、表示装置5、入力装置6、及び三次元センサ7が接続されていなくてもよい。
第三実施形態における測定装置の処理構成は、上述の各実施形態と同様である(図2参照)。但し、次のような点で、各処理モジュールの処理内容は、上述の各実施形態と異なっていてもよい。
取得部11は、体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得する。「肢体の所定部位」、「体操期間」及び「測定期間」については、上述のとおりである。取得部11は、体操をしている被験者の位置情報又は向き情報をリアルタイムに取得してもよいし、記録された位置情報又は向き情報を任意のタイミングで取得してもよい。位置情報又は向き情報は、測定装置10自身により記録されてもよいし、他の装置により記録されてもよい。取得部11は、記録された位置情報又は向き情報を可搬型記録媒体又は他の装置から取得してもよい。
例えば、深度情報のみが必要とされる場合には、測定装置10には深度センサ(図示せず)が接続され、測定装置10(取得部11)は、深度センサから、深度情報を周期的に取得してもよい。取得される深度情報は、二次元位置毎の深度を示す情報であれば、どのような形式で表されていてもよい。また、測定装置10(取得部11)は、人の体に取り付けられたマーカの検出又はセンサとの通信により、被験者の肢体の所定部位に関する位置情報又は向き情報を取得することもできる。即ち、測定装置10(取得部11)は、体操をしている被験者の三次元的な動きを表す時系列情報、又は体操をしている被験者の三次元的な動きが記録された記録情報から、測定期間における位置情報又は向き情報を取得する。
算出部12は、取得部11により取得された位置情報又は向き情報に基づいて、被験者の肢体の、測定期間に対応する肢体能力種の指標となる角度又は距離を算出する。算出部12による具体的な算出手法の例は、上述のとおりである。算出部12による角度又は距離の算出手法は制限されない。
出力処理部13は、算出部12により算出された角度又は距離を出力する。出力処理部13による出力例は、上述のとおりである。出力処理部13による角度又は距離の出力タイミング及び出力方法は制限されない。
図11は、第三実施形態における測定装置10の動作例を示すフローチャートである。図11に示されるように、第三実施形態における測定方法は、測定装置10のような少なくとも1つのコンピュータにより実行される。例えば、図示される各工程は、測定装置10が有する各処理モジュールにより実行される。
本実施形態における測定方法は、(S111)、(S112)、及び(S113)を含む。(S111)では、測定装置10は、体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得する。(S112)では、測定装置10は、(S111)で取得された位置情報又は向き情報に基づいて、被験者の肢体の、測定期間に対応する肢体能力種の指標となる角度又は距離を算出する。(S113)では、測定装置10は、(S112)で算出された角度又は距離を出力する。
第三実施形態では、被験者が行っている体操の一部の期間(測定期間と表記される)における、その被験者の肢体の所定部位の位置情報又は向き情報が取得され、その取得された情報に基づいて、その被験者のその測定期間に対応する肢体能力種の指標となる角度又は距離が算出及び出力される。これにより、被験者は、或る体操を行っていれば、その体操内の或る期間に対応する能力種の指標を得ることができる。従って、第三実施形態によれば、測定のための専用の動きを要求する必要もなく、肢体能力測定の利便性を向上させることができる。
体操自体は、本来、肢体能力の測定を主目的とするものではない。本発明者らは、このような肢体能力の測定とは一見、無関係に見える体操に着目し、各種体操には肢体能力を測定可能な動きが含まれており、その動きの期間を用いることで肢体能力の測定の利便性を向上できるという新たな着想を得た。そして、上述の各実施形態は、このような新たな着想を具現化するものである。現在、ダンス採点システムやダンスゲーム等のように、音楽やリズムに合わせて動く人の動作を判定するシステムが存在する。このシステムでは、ポーズの一致度、又は一部の部位の動きの一致度により動作の良し悪しが判定される。各実施形態で具現化されている上述のような技術思想は、このシステムのように予め決められた動きや姿勢と一致するか否かを単に判定するものとは相違するものである。
なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態及び各変形例の一部又は全部は、以下のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
1. 体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得する取得手段と、
前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の、前記測定期間に対応する肢体能力種の指標となる角度又は距離を算出する算出手段と、
前記算出された角度又は距離を出力する出力処理手段と、
を備える測定装置。
2. 前記出力処理手段は、前記測定期間における複数の位置情報又は複数の向き情報に基づいて算出された複数の角度又は複数の距離の中の最大値又は最小値を、前記測定期間に対応する肢体能力種の指標値として出力する、
1.に記載の測定装置。
3. 前記測定期間は、測定される肢体能力種毎にそれぞれ設けられ、
前記出力処理手段は、複数の肢体能力種をそれぞれ識別する各識別情報と関連付けて、前記算出された角度又は距離をそれぞれ出力する、
1.又は2.に記載の測定装置。
4. 前記取得手段は、
第一所定時間の情報及び第二所定時間の情報を予め保持し、
前記体操の開始時点から前記第一所定時間の経過後の時点を前記測定期間の開始時点として特定し、
前記体操の開始時点又は前記測定期間の開始時点から前記第二所定時間の経過後の時点を前記測定期間の終了時点として特定し、
前記測定期間の開始時点の後かつ前記測定期間の終了時点の前の、位置情報又は向き情報を取得する、
1.から3.のいずれか1つに記載の測定装置。
5. 前記取得手段は、前記体操をしている前記被験者の三次元的な動きを表す時系列情報に対する前記体操の開始時点に対応する所定の肢体姿勢の認識処理により、前記体操の開始時点を特定する、
4.に記載の測定装置。
6. 前記体操は、同一運動の繰り返しを含み、
前記取得手段は、
第一所定時間の情報及び第二所定時間の情報を予め保持し、
前記体操をしている前記被験者の三次元的な動きを表す時系列情報に対する所定の肢体動作の認識処理により、前記繰り返しの中の一つである第一運動の期間内で仮の測定期間を検出し、
前記検出された仮の測定期間の開始時点又は終了時点から前記第一所定時間の経過後の時点を前記測定期間の開始時点として特定し、
前記検出された仮の測定期間の開始時点又は終了時点から前記第二所定時間の経過後の時点、若しくは前記測定期間の開始時点から前記第二所定時間の経過後の時点を前記測定期間の終了時点として特定し、
前記測定期間の開始時点の後かつ前記測定期間の終了時点の前の、位置情報又は向き情報を取得する、
1.から3.のいずれか1つに記載の測定装置。
7. 前記取得手段は、
第一所定時間の情報と第二所定時間の情報とのペアを肢体能力種毎にそれぞれ保持し、
保持される複数のペアを用いて特定された複数の測定期間の各々について、位置情報又は向き情報を取得し、
前記出力処理手段は、前記複数の測定期間に対応する複数の肢体能力種をそれぞれ識別する各識別情報と関連付けて、前記算出された角度又は距離をそれぞれ出力する、
4.から6.のいずれか1つに記載の測定装置。
8. 前記取得手段は、前記体操をしている前記被験者の三次元的な動きが記録された記録情報に対する前記測定期間に対応する所定の肢体動作の認識処理により、その記録情報の中の前記測定期間を特定する、
1.から3.のいずれか1つに記載の測定装置。
9. 少なくとも一つのコンピュータにより実行される測定方法において、
体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得し、
前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の、前記測定期間に対応する肢体能力種の指標となる角度又は距離を算出し、
前記算出された角度又は距離を出力する、
ことを含む測定方法。
10. 前記測定期間における複数の位置情報又は複数の向き情報に基づいて算出された複数の角度又は複数の距離の中の最大値又は最小値を、前記測定期間に対応する肢体能力種の指標値として決定する、
ことを更に含む9.に記載の測定方法。
11. 前記測定期間は、測定される肢体能力種毎にそれぞれ設けられ、
前記出力は、複数の肢体能力種をそれぞれ識別する各識別情報と関連付けて、前記算出された角度又は距離をそれぞれ出力する、
9.又は10.に記載の測定方法。
12. 前記取得は、
前記体操の開始時点から予め保持される第一所定時間の経過後の時点を前記測定期間の開始時点として特定し、
前記体操の開始時点又は前記測定期間の開始時点から予め保持される第二所定時間の経過後の時点を前記測定期間の終了時点として特定し、
前記測定期間の開始時点の後かつ前記測定期間の終了時点の前の、位置情報又は向き情報を取得する、
ことを含む9.から11.のいずれか1つに記載の測定方法。
13. 前記取得は、
前記体操をしている前記被験者の三次元的な動きを表す時系列情報に対する前記体操の開始時点に対応する所定の肢体姿勢の認識処理により、前記体操の開始時点を特定する、
ことを更に含む12.に記載の測定方法。
14. 前記体操は、同一運動の繰り返しを含み、
前記取得は、
前記体操をしている前記被験者の三次元的な動きを表す時系列情報に対する所定の肢体動作の認識処理により、前記繰り返しの中の一つである第一運動の期間内で仮の測定期間を検出し、
前記検出された仮の測定期間の開始時点又は終了時点から予め保持される第一所定時間の経過後の時点を前記測定期間の開始時点として特定し、
前記検出された仮の測定期間の開始時点又は終了時点から予め保持される第二所定時間の経過後の時点、若しくは前記測定期間の開始時点からその第二所定時間の経過後の時点を前記測定期間の終了時点として特定し、
前記測定期間の開始時点の後かつ前記測定期間の終了時点の前の、位置情報又は向き情報を取得する、
ことを含む9.から11.のいずれか1つに記載の測定方法。
15. 前記取得は、肢体能力種毎に保持される、第一所定時間の情報と第二所定時間の情報との複数のペアを用いて特定された複数の測定期間の各々について、位置情報又は向き情報を取得し、
前記出力は、前記複数の測定期間に対応する複数の肢体能力種をそれぞれ識別する各識別情報と関連付けて、前記算出された角度又は距離をそれぞれ出力する、
12.から14.のいずれか1つに記載の測定方法。
16. 前記取得は、前記体操をしている前記被験者の三次元的な動きが記録された記録情報に対する前記測定期間に対応する所定の肢体動作の認識処理により、その記録情報の中の前記測定期間を特定する、
ことを含む9.から11.のいずれか1つに記載の測定方法。
17. 9.から16.のいずれか1つに記載の測定方法を少なくとも一つのコンピュータに実行させるプログラム。
この出願は、2015年6月26日に出願された日本出願特願2015−129018号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (10)

  1. 体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得する取得手段と、
    前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の、前記測定期間に対応する肢体能力種の指標となる角度又は距離を算出する算出手段と、
    前記算出された角度又は距離を出力する出力処理手段と、
    を備える測定装置。
  2. 前記出力処理手段は、前記測定期間における複数の位置情報又は複数の向き情報に基づいて算出された複数の角度又は複数の距離の中の最大値又は最小値を、前記測定期間に対応する肢体能力種の指標値として出力する、
    請求項1に記載の測定装置。
  3. 前記測定期間は、測定される肢体能力種毎にそれぞれ設けられ、
    前記出力処理手段は、複数の肢体能力種をそれぞれ識別する各識別情報と関連付けて、前記算出された角度又は距離をそれぞれ出力する、
    請求項1又は2に記載の測定装置。
  4. 前記取得手段は、
    第一所定時間の情報及び第二所定時間の情報を予め保持し、
    前記体操の開始時点から前記第一所定時間の経過後の時点を前記測定期間の開始時点として特定し、
    前記体操の開始時点又は前記測定期間の開始時点から前記第二所定時間の経過後の時点を前記測定期間の終了時点として特定し、
    前記測定期間の開始時点の後かつ前記測定期間の終了時点の前の、位置情報又は向き情報を取得する、
    請求項1から3のいずれか1項に記載の測定装置。
  5. 前記取得手段は、前記体操をしている前記被験者の三次元的な動きを表す時系列情報に対する前記体操の開始時点に対応する所定の肢体姿勢の認識処理により、前記体操の開始時点を特定する、
    請求項4に記載の測定装置。
  6. 前記体操は、同一運動の繰り返しを含み、
    前記取得手段は、
    第一所定時間の情報及び第二所定時間の情報を予め保持し、
    前記体操をしている前記被験者の三次元的な動きを表す時系列情報に対する所定の肢体動作の認識処理により、前記繰り返しの中の一つである第一運動の期間内で仮の測定期間を検出し、
    前記検出された仮の測定期間の開始時点又は終了時点から前記第一所定時間の経過後の時点を前記測定期間の開始時点として特定し、
    前記検出された仮の測定期間の開始時点又は終了時点から前記第二所定時間の経過後の時点、若しくは前記測定期間の開始時点から前記第二所定時間の経過後の時点を前記測定期間の終了時点として特定し、
    前記測定期間の開始時点の後かつ前記測定期間の終了時点の前の、位置情報又は向き情報を取得する、
    請求項1から3のいずれか1項に記載の測定装置。
  7. 前記取得手段は、
    第一所定時間の情報と第二所定時間の情報とのペアを肢体能力種毎にそれぞれ保持し、
    保持される複数のペアを用いて特定された複数の測定期間の各々について、位置情報又は向き情報を取得し、
    前記出力処理手段は、前記複数の測定期間に対応する複数の肢体能力種をそれぞれ識別する各識別情報と関連付けて、前記算出された角度又は距離をそれぞれ出力する、
    請求項4から6のいずれか1項に記載の測定装置。
  8. 前記取得手段は、前記体操をしている前記被験者の三次元的な動きが記録された記録情報に対する前記測定期間に対応する所定の肢体動作の認識処理により、その記録情報の中の前記測定期間を特定する、
    請求項1から3のいずれか1項に記載の測定装置。
  9. 少なくとも一つのコンピュータにより実行される測定方法において、
    体操をしている被験者の肢体の所定部位に関する、体操期間内の一部の測定期間における位置情報又は向き情報を取得し、
    前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の、前記測定期間に対応する肢体能力種の指標となる角度又は距離を算出し、
    前記算出された角度又は距離を出力する、
    ことを含む測定方法。
  10. 請求項9に記載の測定方法を少なくとも一つのコンピュータに実行させるプログラム。
JP2017524728A 2015-06-26 2016-05-12 測定装置及び測定方法 Active JP6465419B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015129018 2015-06-26
JP2015129018 2015-06-26
PCT/JP2016/064138 WO2016208290A1 (ja) 2015-06-26 2016-05-12 測定装置及び測定方法

Publications (2)

Publication Number Publication Date
JPWO2016208290A1 true JPWO2016208290A1 (ja) 2017-11-09
JP6465419B2 JP6465419B2 (ja) 2019-02-06

Family

ID=57584823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017524728A Active JP6465419B2 (ja) 2015-06-26 2016-05-12 測定装置及び測定方法

Country Status (2)

Country Link
JP (1) JP6465419B2 (ja)
WO (1) WO2016208290A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230355163A1 (en) 2020-09-29 2023-11-09 Mitsubishi Tanabe Pharma Corp Neuromuscular disease evaluation system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002000584A (ja) * 2000-06-16 2002-01-08 Matsushita Electric Ind Co Ltd 関節可動域検査訓練システム
JP2010213782A (ja) * 2009-03-13 2010-09-30 Oki Networks Co Ltd 行動認識方法、装置及びプログラム
JP2013111407A (ja) * 2011-11-30 2013-06-10 Fujitsu Ltd 軌跡演算装置および軌跡演算方法
JP2013240467A (ja) * 2012-05-21 2013-12-05 Hitachi-Ge Nuclear Energy Ltd 災害防止支援システム
JP2014068714A (ja) * 2012-09-28 2014-04-21 Kitasato Institute 関節角度測定システム
US20140156218A1 (en) * 2011-05-25 2014-06-05 Korea Institute Of Science And Technology Method of motion tracking
JP2014138661A (ja) * 2013-01-21 2014-07-31 Toshiba Corp 医用画像表示装置及びプログラム
JP2014138873A (ja) * 2014-02-26 2014-07-31 Yunimekku:Kk 三次元加速度計を備えた脳・神経系疾患の病状診断システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002000584A (ja) * 2000-06-16 2002-01-08 Matsushita Electric Ind Co Ltd 関節可動域検査訓練システム
JP2010213782A (ja) * 2009-03-13 2010-09-30 Oki Networks Co Ltd 行動認識方法、装置及びプログラム
US20140156218A1 (en) * 2011-05-25 2014-06-05 Korea Institute Of Science And Technology Method of motion tracking
JP2013111407A (ja) * 2011-11-30 2013-06-10 Fujitsu Ltd 軌跡演算装置および軌跡演算方法
JP2013240467A (ja) * 2012-05-21 2013-12-05 Hitachi-Ge Nuclear Energy Ltd 災害防止支援システム
JP2014068714A (ja) * 2012-09-28 2014-04-21 Kitasato Institute 関節角度測定システム
JP2014138661A (ja) * 2013-01-21 2014-07-31 Toshiba Corp 医用画像表示装置及びプログラム
JP2014138873A (ja) * 2014-02-26 2014-07-31 Yunimekku:Kk 三次元加速度計を備えた脳・神経系疾患の病状診断システム

Also Published As

Publication number Publication date
WO2016208290A1 (ja) 2016-12-29
JP6465419B2 (ja) 2019-02-06

Similar Documents

Publication Publication Date Title
KR102097190B1 (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
JP6482103B2 (ja) 測定装置及び測定方法
US10776423B2 (en) Motor task analysis system and method
TWI638280B (zh) 自動配置感測器的方法、電子設備及記錄媒體
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
JP2020174910A (ja) 運動支援システム
JP7008342B2 (ja) 運動評価システム
CN107871116A (zh) 用于确定人的姿势平衡的方法和系统
TWI652039B (zh) Simple detection method and system for sarcopenia
Breedon et al. Enhancing the measurement of clinical outcomes using microsoft kinect
JP6465419B2 (ja) 測定装置及び測定方法
KR20160035497A (ko) 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템
JP6259301B2 (ja) 移動運動解析装置、方法及びシステム並びにプログラム
CN108885087A (zh) 测量装置、测量方法和计算机可读记录介质
JP7482471B2 (ja) 学習モデルの生成方法
JP6378492B2 (ja) 移動運動解析装置及びプログラム
JP6482102B2 (ja) 測定装置及び測定方法
Wu et al. Seamless vision-assisted placement calibration for wearable inertial sensors
Li et al. Fitness coach: Design and implementation of a smart mirror based on automatic image recognition and action model comparison
JP6486200B2 (ja) 移動運動解析装置及びシステム並びにプログラム
JP6378491B2 (ja) 移動運動解析装置、方法及びシステム並びにプログラム
TWI559144B (zh) Scale - guided limb rehabilitation system
WO2023275940A1 (ja) 姿勢推定装置、姿勢推定システム、姿勢推定方法
JP2017213175A (ja) 移動運動解析装置及びシステム並びにプログラム
CN115910310A (zh) 一种心肺复苏按压姿势标准阈值的确定方法及处理器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181227

R150 Certificate of patent or registration of utility model

Ref document number: 6465419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150