JP6842044B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP6842044B2
JP6842044B2 JP2018228832A JP2018228832A JP6842044B2 JP 6842044 B2 JP6842044 B2 JP 6842044B2 JP 2018228832 A JP2018228832 A JP 2018228832A JP 2018228832 A JP2018228832 A JP 2018228832A JP 6842044 B2 JP6842044 B2 JP 6842044B2
Authority
JP
Japan
Prior art keywords
measurement
information processing
subject
item
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018228832A
Other languages
English (en)
Other versions
JP2019096328A (ja
Inventor
晃 野崎
晃 野崎
大樹 深谷
大樹 深谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Publication of JP2019096328A publication Critical patent/JP2019096328A/ja
Application granted granted Critical
Publication of JP6842044B2 publication Critical patent/JP6842044B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Television Signal Processing For Recording (AREA)
  • Rehabilitation Tools (AREA)

Description

本発明は、情報処理装置、情報処理方法、プログラムに関する。
近年、人物や物体の動きをデジタル的に記録するモーションキャプチャ技術を用いて、介護やリハビリテーションにおける効果測定が行われている。
モーションキャプチャ技術の方式の一つとして、被験者にマーカを付けて複数方位からカメラにより撮影することで、マーカを検出し、被験者の動きをデジタルデータに変換し記録する方式がある。また、マーカを使わずに、赤外線センサーを利用してセンサーから被験者までの距離を測定し、測定された値をもとに、被験者の動きを記録する方式がある。
特許文献1には、リハビリテーションの現場においてモーションキャプチャ技術を用いた仕組みについて開示されている。
特開2015−61577号公報
特許文献1には、骨格情報と、カラー画像情報とを含む動作情報を取得し、被検体の動作を確認可能な医用画像情報を生成し、骨格情報と、医用画像情報とを時系列順に含む閲覧用動作情報を出力する方法が記載されている。
しかし、特許文献1による方法では、被験者の単一測定種目に対する測定データを単純に時系列順に出力するだけであり、一連の時系列情報を順に確認しなければ、被験者の測定状況を把握することができず、また、異なる種目に対して総合的に把握することもできない。
そこで、本発明は、被験者に対する任意の測定日の測定種目における特定の動作状態の前回からの変化を効率的に把握するための仕組みを提供することを目的とする。
本発明の情報処理装置は、測定種目毎に動作を行っている被験者の測定日、動画データ及び関節データを含む測定データを測定種目毎に記憶する情報処理装置であって、前記動画データから特定の動作状態を示すフレーム画像を取得する条件として、所定の関節の状態を測定種目に対応付けて記憶する記憶手段と、前記測定日に対する選択条件を受け付ける受付手段と、前記選択条件に基づく測定日に従い、所定の測定種目の当該測定日に先行する測定日を特定し、当該測定種目の当該測定日と当該測定日に先行する測定日それぞれの動画データ及び関節データを取得する取得手段と、前記取得した前記測定種目の動画データ及び関節データと当該測定種目に対応づけられた所定の関節の状態とに基づいて、前記取得した測定種目の動画データの中から当該測定種目の特定の動作状態を示すフレーム画像を選択する画像選択手段と、前記測定日の前記測定種目の前記測定日と当該測定日に先行する測定日における前記それぞれの動画データから選択されたフレーム画像を出力する出力手段と、を備えることを特徴とする。
本発明によれば、被験者に対する任意の測定日の測定種目における特定の動作状態の前回からの変化を効率的に把握するための仕組みを提供することが可能となる。
情報処理装置101の機能構成を示す図 情報処理装置101のハードウェア構成を示す図 被験者を撮影しながら測定を行う処理を示すフローチャート 予め記録されたモーション情報を用いた場合の、各種目の測定処理を示すフローチャート レポート作成処理を示すフローチャート 被験者リストの一例を示す図 各関節の座標情報の一例を示す図 モーション情報取得部151により取得された被験者の様子を示す図 各関節の座標情報から形成された被験者の骨格情報の一例を示す図 本発明において、情報処理装置101のディスプレイ212に表示される被験者の選択をユーザから受け付ける画面の一例を示す図である。 本発明において、ステップS301でユーザから「通常歩行」の種目の選択を受け付けた場合に、情報処理装置101のCPU201が実行する処理の一例を示す図である。 本発明において、ステップS301でユーザから「通常歩行」の種目の選択を受け付けた場合に、情報処理装置101のディスプレイ212に表示される画面の一例を示す図である。 本発明において、ステップS301でユーザから「開眼片足立ち」の種目の選択を受け付けた場合に、情報処理装置101のCPU201が実行する処理の一例を示す図である。 本発明において、ステップS302で情報処理装置101が被験者の撮影を開始したときに情報処理装置101のディスプレイ212に表示される画面の一例を示す図である。 本発明において、ステップS502で、情報処理装置101のCPU201が測定結果を抽出する処理の一例を示す図である。 本発明において、ステップS503で、情報処理装置101のCPU201がレポートを作成する処理の一例を示す図である。 本発明において、計測結果を抽出するときに情報処理装置101のディスプレイ212に表示される画面の一例を示す図である。 本発明において、計測結果を抽出した後に情報処理装置101のディスプレイ212に表示される画面の一例を示す図である。 本発明において、情報処理装置101の記憶装置204にて測定結果を記憶する測定結果管理テーブルの一例を示す図である。 本発明において、情報処理装置101のCPU201にて作成され印刷装置等に出力されるレポートの一例を示す図である。 モーション情報取得部151において撮影し取得された映像と、骨格情報を合成した画面の一例 骨格情報が表示される領域の面積が調整された画面の一例 評価対象の動画と、比較対象の動画とを縦に並べて表示した画面の一例 評価対象の動画と、比較対象の動画とを横に並べて表示した画面の一例 種目ごとにレイアウトが登録されたテーブルの一例を示す図 図23の画面における上の動画の左右を反転させた場合を示す図 比較対象の動画を重ね合わせて表示した画面の一例 背景等を表示せず、骨格情報だけを表示した画面の一例 被験者の動作を評価し、被験者や介護者に対するメッセージを表示する処理を示すフローチャート 評価条件の一例を示す図 メッセージテーブルの一例を示す図 測定結果の画面出力処理の一例を示すフローチャート 測定結果の画面出力データ作成処理の一例を示すフローチャート 測定結果の画面出力例を示す画面イメージ
以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、情報処理装置101の機能構成を示した図である。
モーション情報取得部151は、介護やリハビリが行われる空間における人物(本発明においては、被験者(介護やリハビリを受ける者))の動きを検知し、被験者のモーション情報を取得する。
具体的には、モーション情報取得部151は、Kinect(登録商標)として知られるセンサー群であり、RGBカメラ、深度センサー、音声センサーなどが内蔵され、被写体(本発明においては、被験者(介護やリハビリを受ける者))の位置、動き、声、顔などを認識することができる。
深度センサーは、赤外線を利用して被験者までの距離を測定する方式を用いるものとする。この方式によれば、被験者にマーカ等を付けることなくセンサーから被験者までの距離を測定することが可能である。
モーション情報取得部151で取得された各データは、動画データとして記憶部に記憶される。
モーション情報取得部151の各センサーにより取得されたモーション情報は、モーション情報解析部152に送信され、データ解析が行われる。
モーション情報解析部152では、モーション情報取得部151により取得された各データを解析し、被験者の動作を座標情報に変換する。
図8はモーション情報取得部151により取得された被験者の様子を示している。モーション情報取得部151は、被験者の動きを検知し、予め記憶された人体パターンとマッチングすることで、被験者の人体表面の座標を得る。そして、当該被験者の骨格を形成する各関節の座標を算出し、算出された座標情報に基づき、被験者の骨格を形成する。
各関節の座標情報の一例を図7に示す。また、各関節の座標情報から形成された被験者の骨格情報の一例を図9に示す。
このようにして各関節の座標情報を算出し、各関節の座標の変化を検出することで、被験者が足を上げたり、膝を曲げたりする動作を認識することが可能となる。
測定部153は、モーション情報解析部152により解析されたモーション情報と、各種目に応じた設定に基づき、当該種目における測定を行う。
図2は、本発明の実施形態に係わる情報処理装置101のハードウェア構成の一例を示すブロック図である。
図2に示すように、情報処理装置101では、システムバス200を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、記憶装置204、入力コントローラ205、音声入力コントローラ206、ビデオコントローラ207、メモリコントローラ208、よび通信I/Fコントローラ209が接続される。
CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。
ROM202あるいは記憶装置204は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは記憶装置204からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。
入力コントローラ205は、キーボード/タッチパネル210などの入力装置からの入力を制御する。入力装置はこれに限ったものでなく、マウスやマルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。
ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができる。
この入力装置を用いて各種通信装置で利用可能な通信宛先に対する宛先を入力するようになっている。
音声入力コントローラ206は、マイク211からの入力を制御する。マイク211から入力された音声を音声認識することが可能となっている。
ビデオコントローラ207は、ディスプレイ212などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作により受け付け可能な装置については、キーボード/タッチパネル210からの入力を受け付けることも可能となる。
なおビデオコントローラ207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。
本発明では、ユーザが情報処理装置を通常する場合の表示に用いられる第1のビデオメモリ領域と、所定の画面が表示される場合に、第1のビデオメモリ領域の表示内容に重ねての表示に用いられる第2のビデオメモリ領域を有している。ビデオメモリ領域は2つに限ったものではなく、情報処理装置の資源が許す限り複数有することが可能なものとする。
メモリコントローラ208は、外部メモリ213へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。
通信I/Fコントローラ209、ネットワーク214を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の3G回線を用いた通信が可能である。
なお、記憶装置204は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。
また本実施形態における通信端末で行われる各種処理時の一時的なメモリエリアとしても利用可能である。
次に図3に示すフローチャートを用いて、被験者を撮影しながら測定を行う処理について説明する。なお、図3のフローチャートで示す処理は、情報処理装置101のCPU201が所定のプログラムを読み出して実行する処理である。
ステップS301では、ユーザから被験者の選択と種目の選択を受け付ける。
被験者情報は、図6に示す被験者リストに登録されているものとする。また、種目としては、眼を開けて片足で立っていられた時間を計測する「開眼片足立ち」、制限時間内に立ち座り動作を何回行えたかを計測する「椅子立ち座り」、最大歩幅を計測する「最大一歩」、5mの距離の歩行にかかる時間を計測する「通常歩行」、椅子から立ち上がり3mの距離を往復して椅子に座るまでの時間を計測する「TUG(TimedUp&Go)」などがある。
種目の選択を受け付けることで、当該種目の測定に必要な設定ファイルやプログラムを読み込む。
被験者情報については、既に登録されている情報から選択するだけでなく、新規で登録しても良い。
ステップS302では、ユーザから撮影指示を受け付ける。撮影指示を受け付けると、情報処理装置101のモーション情報取得部151は、被験者の撮影を開始する。また、各センサーにより得られた情報(各関節の座標情報など)であるモーション情報の取得を行う。
ステップS303では、撮影された映像に複数の人物がいる場合に、いずれの人物が被験者であるかの選択を受け付ける。
以下、図10を用いて、ステップS303の処理の詳細について説明する。
図10は、ステップS303において、情報処理装置101が、いずれの人物が被験者であるかの選択をユーザから受け付ける画面であり、図10の画面は、情報処理装置101のディスプレイ212に表示される。
図10の1003には、情報処理装置101のモーション情報取得部151が取得した動画が表示される。
図10の1001にはモーション情報取得部151により取得された人物(被験者または介助者)の様子を、各関節の座標情報により特定される骨格情報と共に表示する。
まず、人物切替ボタン1005がユーザによるマウスポインタ1004の操作により押下されると、モーション情報取得部151で取得された情報に基づき、被験者の骨格情報を1001に表示する。
次に、ユーザによるマウスポインタ1004の操作により、図10の1001に表示される人物のうち、被験者の指定を行う。
そして、マウスポインタ1004により選択した人物が誰であるかを、ドロップダウンリスト1002の中からユーザによるマウスポインタ1004により選択する。
ドロップダウンリスト1002には、予め情報処理装置101が管理する被験者リスト(図6)に含まれる被験者の名前が表示される。
ステップS304では、ステップS302において取得されたモーション情報から被験者の各関節の座標情報を取得する。再生動画を用いる場合は、再生対象の動画データに含まれるモーション情報を用いて、被験者の各関節の座標情報を取得する。
各関節の座標情報の一例を図7に示す。
ステップS305では、ステップS303で取得した映像と、ステップS304で取得した各関節の座標情報に基づき得られた骨格情報とを合成して、ディスプレイ212に表示する。
図21にモーション情報取得部151において撮影し取得された映像と、骨格情報を合成した画面の一例を示す。
図21の2101には、映像と骨格情報が合成された状態で表示される。また、2102には被験者を上から見た場合の骨格情報が表示され、2103には被験者を横から見た場合の骨格情報が表示される。
2102、2103の領域に表示される骨格情報は、モーション情報取得部151において取得された各関節の座標情報に基づき算出され生成される。
2102や2103の表示領域の面積は、骨格情報が表示可能な面積に調整されるものとする。例えば、図21に示す画面は、調整されていない場合の画面である。この場合、2103に表示される骨格情報はほとんど移動しないにも関らず、骨格情報の周囲に大きな余白が生じている。
図22はサイズの調整が行われた場合の画面の一例である。骨格情報が収まるように調整され、余白部分が縮小している。
このように無駄な余白を表示しないよう制御することで、3つの骨格情報を近くに集めることが可能となるため、より観察しやすくなっている。
表示範囲の決定方法については、例えば骨格情報が収まる矩形を特定し、当該矩形から所定の幅を余白として表示する方法が考えられる。
ステップS306では、ステップS304で解析された骨格情報を用いて、ステップS301で選択された種目に応じた測定を行う。
具体的な処理の内容は、図11、図13、図29を用いて説明する。
次に、図11を用いて、本発明において、ステップS301でユーザから「通常歩行」の種目の選択を受け付けた場合に、情報処理装置101のCPU201が実行する処理について説明する。
なお、図11の処理において、情報処理装置101のディスプレイ212に表示される画面は、例えば、図12である。
ここで、図12について説明する。
図12の計測開始(終了)座標1201は、予め設定された通常歩行の計測を開始または終了する(x、y、z)座標を示し、被験者のつま先のx座標と、計測開始(終了)座標1201のx座標が1回目重なったタイミングで、秒数のカウントを開始し、計測開始(終了)座標1201のx座標が2回目重なったタイミングで、秒数のカウントを終了する。
例えば、被験者が図12の画面左から歩いてきた場合には、図12の画面左側の計測開始(終了)座標1201のx座標と被験者のつま先のx座標が重なった時点で秒数のカウントを開始し、図12の画面右側の計測開始(終了)座標1201のx座標と被験者のつま先のx座標が重なった時点で秒数のカウントを終了する。
モーション情報取得部151の特性上、撮影範囲の左右両端から所定の距離は、関節の座標の特定精度が低いため、計測開始(終了)座標1201は、図12の画面左右両端よりも少し距離を開けた位置(座標)に設定される。
図12の1202は、タイムラインを示し、タイムライン1202は、録画した撮影データを評価する場合に表示される。
図12の1203は、評価時間指定部であり、録画した撮影データを評価する場合に、計測開始(終了)座標1201間とは異なる区間で、被験者の動作を評価したい場合に、評価する時間を、評価時間指定部1203をユーザによるマウス等の操作により動かすことで指定できる。
図11の説明に戻る。
ステップS1101において、情報処理装置101は、現在処理対象となっているフレームの画像から被験者のつま先の座標を特定する。
ステップS1102において、情報処理装置101は、ステップS1101で現在処理対象となっているフレームの画像から被験者のつま先の座標が特定できたか否かを判定し、特定できたのであれば、ステップS1103に処理を移行し、特定できなければ本処理を終了する。
ステップS1102の処理を実行する理由について説明する。モーション情報取得部151は被験者がモーション情報取得部151に対して正面を向いていることを前提として被験者の各関節の位置座標を特定する。そのため、通常歩行のように被験者がモーション情報取得部151に対して横方向を向いている場合には、図3のステップS304、ステップS305によって、被験者の各関節の座標情報を取得することが困難である。各関節の座標情報を取得できた場合でなければステップS1103以降の処理を実行することができないため、ステップS1102の処理により、ステップS1103以降の処理が実行できるかを判定している。
ステップS1103において、情報処理装置101は、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201の間ではなく、外側の座標であるかを判定する。
ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201の外側の座標である場合に、情報処理装置101は本処理を終了し、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201の外側以外の座標である場合に、情報処理装置101は、ステップS1104に処理を移行する。
ステップS1104において、情報処理装置101は、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201のいずれかの座標上であるかを判定する。
ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201のいずれかの座標上である場合に、情報処理装置101は、ステップS1105に処理を移行し、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201のいずれかの座標上でない場合に、情報処理装置101は、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201の間であると判断し、ステップS1109に処理を移行する。
ステップS1105において、情報処理装置101は、ステップS1104で予め設定された2つの計測開始(終了)座標1201のいずれかの座標上であると判定したのが1回目であるか否かを判定する。
ステップS1104で予め設定された2つの計測開始(終了)座標1201のいずれかの座標上であると判定したのが1回目であると判定した場合に、情報処理装置101は、ステップS1106に処理を移行し、ステップS1104で予め設定された2つの計測開始(終了)座標1201のいずれかの座標上であると判定したのが1回目でない(つまり2回目)と判定した場合に、情報処理装置101は、ステップS1107に処理を移行する。
ステップS1106において、情報処理装置101は、秒数のカウントを実行し、本処理を終了する。
ステップS1107において、情報処理装置101は、ステップS1106で実行した秒数のカウントを終了する。そして、ステップS1108で、被験者の動作の評価を実行し、測定結果管理テーブル(図19)に記憶する。
ステップS1108の処理をより具体的に説明すると、情報処理装置101は、まず、歩行距離を、計測開始点(X1,Y1,Z1)、計測終了点(X2,Y2,Z2)間のX方向の距離である、X1−X2の絶対値(単位はメートル)により求める。
ここでいう計測開始点とは、被験者が図12の画面左から歩いてきた場合には、図12の画面左側の計測開始(終了)座標1201(右から歩いてきた場合には、右側の計測開始(終了)座標1201)、もしくは、ステップS1109でNoと判断したときのフレームの画像に含まれる、被験者のつま先の座標である。
また、ここでいう計測終了点とは、被験者が図12の画面左から歩いてきた場合には、図12の画面右側の計測開始(終了)座標1201(右から歩いてきた場合には、左側の計測開始(終了)座標1201)である。
なお、本実施例では、被験者が真っ直ぐ歩けずに斜め(図12の画面手前もしくは奥側)にずれていってしまうことも考えられるため、基本的には被験者が真横に歩いたとして歩行距離を計算している。
ただ、他の実施例として、斜め(図12の画面手前もしくは奥側)にずれていってしまった場合を考慮する場合、計測開始点(X1,Y1,Z1)、計測終了点(X2,Y2,Z2)間のx座標とz座標により、歩行距離を計算してもよい。
次に、情報処理装置101は、被験者の歩行速度を、先に求めた歩行距離をステップS1107でカウントを終了するまでにかかった時間によって割ることで求める。
そして、最後に、情報処理装置101は、先に求めた歩行速度で5m歩いたときに要する時間を算出し、その時間が予め設定されている時間よりも長いか短いかにより、正しい通常歩行が行われたかを判定する。5mという数字は、被験者の通常歩行の動作を判定するのに必要な距離である。
上述したような計算を行うことにより、例えば、被験者が5m歩けないような狭い部屋であっても、通常歩行の動作を正しく行ったかを判定することが可能となる。
ステップS1109において、情報処理装置101は、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201のいずれかの座標上であると判定されることで秒数のカウントを開始した後であるか否かを判定する。
秒数のカウントを開始した後であると判定した場合には、情報処理装置101は、本処理を終了し、秒数のカウントを開始する前であると判定した場合には、ステップS1106に処理を移行する。
ステップS1109でNoと判定される場合とは、例えば、現在処理を実行しているフレームの画像よりも前のフレームの画像の処理を実行しているときに、ステップS1101で特定した被験者のつま先の座標が、予め設定された2つの計測開始(終了)座標1201のいずれかの座標上と重なり、本来秒数のカウントを開始すべきところを、当該フレームの画像について図3のステップS304、ステップS305によって、被験者の各関節の座標情報を特定できなかった場合に、ステップS1109でNoと判定される。
その場合に、ステップS1106において、計測開始(終了)座標1201の間で被験者のつま先の座標が認識できたところから秒数のカウントを開始することで、撮影し直しをすることなく被験者の動作を評価することが可能となる。
以上で図11の説明を終了する。
次に、図13を用いて、本発明において、ステップS301でユーザから「開眼片足立ち」の種目の選択を受け付けた場合に、情報処理装置101のCPU201が実行する処理について説明する。
ステップS1301において、情報処理装置101は、被験者の足が上がっているか否かを判定する。
より具体的には、まずステップS1301の処理を実行する前に、情報処理装置101は、被験者の両足のかかとのy座標の値を特定しておき、それぞれの足のかかとの座標の値の差が所定の範囲以内であることを特定することで、両足が揃って地面についていると判断する。
次に、ステップS1301において、いずれかの足のy座標の値が、ステップS1301の処理を実行する前に情報処理装置101が特定した被験者の両足のかかとのy座標の値よりも所定以上変化しているかを情報処理装置101が現在処理対象となっているフレームの画像から特定し、所定以上変化している場合に、その足が上がっていると情報処理装置101は判断する。
ステップS1301で、被験者の足が上がっていると判定した場合には、情報処理装置101は、ステップS1302の処理に移行し、被験者の足が上がっていないと判定した場合には、情報処理装置101は、ステップS1304の処理に移行する。
ステップS1302において、情報処理装置101は、ステップS1301で上がっていると判定した被験者の足が、所定の高さまで上がっているかを判定する。
ステップS1301で上がっていると判定した被験者の足が、所定の高さまで上がっているかを判定した場合、ステップS1303において情報処理装置101は、秒数のカウントを始め、ステップS1301で上がっていると判定した被験者の足が、所定の高さまで上がっていないと判定した場合、情報処理装置101は、本処理を終了する。
より具体的には、「開眼片足立ち」で被験者が足を上げるべき高さ(図30)まで足を上げているかを、ステップS1302において、各足のy座標の値が、ステップS1301の処理を実行する前に情報処理装置101が特定した被験者の両足のかかとのy座標の値よりも所定以上変化しているかを情報処理装置101が現在処理対象となっているフレームの画像から特定し、所定以上変化している場合に、その足が所定の高さまで上がっていると情報処理装置101は判断する。
なお、ステップS1302における「所定」の値は、ステップS1301における「所定」の値よりも大きい値である。
ステップS1304において、情報処理装置101は、現在処理対象となっているフレームの画像よりも前のフレームにおいて、被験者の足が上がっている(ステップS1301でYES)と判断しているか否かを判定する。
現在処理対象となっているフレームの画像よりも前のフレームの画像において、被験者の足が上がっている(ステップS1301でYES)と判断しているならば、情報処理装置101はステップS1305に処理を移行し、現在測定しているフレームの画像よりも前のフレームの画像において、被験者の足が上がっている(ステップS1301でYES)と判断していないと判定した場合、情報処理装置101は、被験者がまだ足を上げていないと判断して、本処理を終了する。
ステップS1305において、情報処理装置101は、被験者の足が下りたか否かを判定する。
より具体的には、ステップS1305において、各足のy座標の値が、ステップS1301の処理を実行する前に情報処理装置101が特定した被験者の両足のかかとのy座標の値よりも所定以上変化していないかを情報処理装置101が現在処理対象となっているフレームの画像から特定し、所定以上変化していない場合に、その足が下りていると情報処理装置101は判断する。
ステップS1305で、被験者の足が下りていると判定した場合には、情報処理装置101は、ステップS1306の処理に移行し、ステップS1303で実行した秒数のカウントを終了し、被験者の足が下りていないと判定した場合には、情報処理装置101は、被験者がまだ足を上げていると判定して、本処理を終了する。
ステップS1307において、情報処理装置101は、ステップS1303で秒数のカウントを開始してからステップS1306でカウントを終了するまでにカウントした秒数が所定の秒数(例えば、24秒)を下回っているか、上回っているかによって被験者の運動能力を評価する。評価結果を測定結果管理テーブル(図19)に記憶する。
以上で図13の説明を終了する。
なお、図13では、情報処理装置101が自動で被験者の足の上げ下げを判定するとしたが、図14に示すように、ユーザ(例えば評価者)が手動で被験者の足の上げ下げを指定することも可能である。
そこで、以下、図14を用いて、ユーザ(例えば評価者)が手動で被験者の足の上げ下げを指定する仕組みについて説明する。
図14は、ステップS302で情報処理装置101が被験者の撮影を開始したときに情報処理装置101のディスプレイ212に表示される画面である。
1401には、情報処理装置101のモーション情報取得部151が取得した動画が表示される。
1402は、上げ下げボタンであり、上げ下げボタン1402が、ユーザによるマウス等の操作により、1回目押下されると、情報処理装置101は図13の処理を停止して、上げ下げボタン1402が1回目押下されたタイミングで被験者が足を上げたと情報処理装置101は判断し、秒数のカウントを開始する。
そして、上げ下げボタン1402が、ユーザによるマウス等の操作により、2回目押下されると、被験者が足を下げたと情報処理装置101は判断し、秒数のカウントを終了する。そして、カウントした秒数に従って、被験者の運動能力を評価する。
なお、本実施例では、上げ下げボタン1402が、ユーザによるマウス等の操作により、1回目押下されると、情報処理装置101は図13の処理を停止するとしたが、他の実施例として、図13のステップS1303の処理以降に上げ下げボタン1402がユーザによるマウス等の操作により押下された場合に、情報処理装置101は、ステップS1304、ステップS1305の処理を実行することなく秒数のカウントを終了したり、ステップS1302の処理より前に上げ下げボタン1402がユーザによるマウス等の操作により押下された場合に、情報処理装置101は、ステップS1301、ステップS1302の処理を実行することなく秒数のカウントを開始し、その後ステップS1304以降の処理を実行するとしても良い。
図14のように、ユーザ(例えば評価者)が手動で被験者の足の上げ下げを指定可能とすることで、図13のように情報処理装置101が自動で被験者の足の上げ下げを判定する場合に、被験者が足を上げているにも関わらず足を上げていないと情報処理装置が判定してしまった場合や、被験者が足を下ろしているにも関わらず足を下ろしていないと判定してしまう場合であっても、判定結果を修正することが可能となる。
以上で、図14の説明を終了する。
次に、図29を用いて、被験者の動作を評価し、被験者や介護者に対するメッセージを表示する処理について説明する。図29のフローチャートで示す処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出して実行する処理である。
ステップS2901では、特定された骨格情報が予め定められた評価条件を満たすかを判定する。
評価条件を満たす場合(ステップS2901:YES)は、処理をステップS2902に移行する。
評価条件を満たさない場合(ステップS2901:NO)は、処理をステップS2903に移行する。
評価条件の一例を図30に示す。図30に示す通り、種目ごとに評価条件と評価内容とが対応付けられている。
例えば、「種目:椅子立ち座り」については、膝の角度が175度以上になった場合には立ち上がる動作として評価し、95度以下になった場合には座る動作として評価する。そして、立ち上がる動作と座る動作とが行われた場合には、立ち座り動作が1回行われたものと評価される。
開眼片足立ちにおいては、左右の足の高さの差が5cm以上になった場合に、片足を上げたと評価される。
ステップS2902では、評価値を加算等する。例えば、椅子立ち座りであれば1回を加算する。また開眼片足立ちでは、片足立ちの開始条件を満たした場合は、片足立ち時間の計測を開始する。終了条件を満たした場合は、片足立ち時間の計測を終了する。
ステップS2903では、特定された骨格座標に基づき、メッセージを特定する。
メッセージ内容は、図31に示すメッセージテーブルに基づき特定される。例えば、種目:椅子立ち座りにおいては、膝の角度が175度以上になった場合には「座ってください」というメッセージが特定される。また、膝の角度が175度未満の状態で座る動作に移行した場合(膝の角度が小さくなった場合)には、「しっかり立ってください」とのメッセージが特定される。
また、開眼片足立ちにおいては、足を上げていない状態だと「足を上げてください」というメッセージが、上げている足の高さが低い場合には「もっと足を上げてください」というメッセージが、しっかり足を上げている状態だと「計測中」というメッセージが特定される。
このようにメッセージを表示することで、被験者や介護者は、しっかりと評価される動作をしているのか、どのような動作をすれば評価されるのかを認識することが可能となる。
ステップS2904では、ステップ2903で特定されたメッセージを表示する。一例として図22の2201を示す。
図3の説明に戻る。
ステップS304〜S306の処理は、モーション情報取得部151により動画フレームが取得される度に行われる処理である。このようにフレームが取得される度に骨格情報を認識することで、各関節の座標情報の変化を検知し、動作を認識することが可能となる。
ステップS307では、情報処理装置101のCPU201は、ステップS306で測定された結果を保存する(図19)。
次に、図4を用いて、予め記録されたモーション情報を用いた場合の、各種目の測定処理について説明する。
なお、図3に示すリアルタイムでの測定(モーション情報を取得しながら測定も行う処理)を実行するか、図4に示す予め記録されたモーション情報を用いた測定を実行するかは、ユーザの選択により決定される。
ステップS401では、ユーザから再生する動画(測定したい被験者の動作を撮影した動画)の選択を受け付け、当該動画の再生指示を受け付ける。
なお、動画データは、モーション情報取得部151の各センサーにより取得されたデータを含むものである。
ステップS402では、ステップS401で選択を受け付けた動画と比較対象となる動画の選択を受け付ける。
ステップS403では、再生対象の動画と、比較対象の動画について、各種設定を受け付ける。
ステップS404では、ステップS402で受け付けた設定を保存する。図28における2801の保存ボタンが押下されることで、保存処理が実行される。
ステップS405では、再生指示された動画と比較対象として設定された動画を再生する。
この際、同時再生ボタンが押下された場合には、両動画が同時に再生され、個別の再生ボタンが押下された場合には、押下された動画が個別に再生される。
そして、図3のステップS304以降の処理を実行する。
図3、図4に示すように、被験者を撮影しながらリアルタイムで動作を評価する場合と、被験者を撮影した動画を保存し、後から動作を評価する場合とを切り替え可能にすることで、例えば、被験者にその場でフィードバックしたい場合には、リアルタイムで動作を評価するようにユーザが設定し、先に複数の被験者を録画して後で評価したい場合や、繰り返し細かい動きなどをユーザ(評価者)が見ながら確認したい場合や、撮影した動画を別の種目として評価したい場合や、アノテーション機能により被験者の骨格の角度を確認したい場合や、被験者と評価者が一緒である場合には、被験者を撮影した動画を保存し、後から動作を評価するようにユーザが設定することが可能となる。
また、被験者を撮影した動画を保存し、後から動作を評価する場合には、誤検出があった場合撮りなおしをせずに、ユーザが手動で評価結果を変更できるというメリットがある。
図23、図24に比較画面の一例を示す。
図23は評価対象の動画と、比較対象の動画とを縦に並べて表示した画面の一例である。
図24は評価対象の動画と、比較対象の動画とを横に並べて表示した画面の一例である。
比較画面のレイアウト(縦に並べるか、横に並べるか)については、例えば種目ごとに縦にならべるか横に並べるかを登録しておき、当該登録内容に従って表示する方法がある。種目ごとにレイアウトが登録されたテーブルを図25に示す。
図25に示す通り、椅子立ち座りは横に並べ、通常歩行は縦に並べることを示している。このように、予め登録しておくことで、被験者が上下方向に移動するような種目(「椅子立ち座り」など)は横に並べ、左右方向に移動する種目(「通常歩行」など)は、縦に並べるといったことが可能となる。このように移動方向に応じて並べ方を決定することで、比較しやすいレイアウトで表示することが可能となる。
このように予め登録しておく方法は、種目が予め特定されている場合に有効である。
また、被験者の軌跡に基づき、レイアウトを決定する方法もある。例えば、被験者の軌跡が左右方向であれば上下に並べ、被験者の軌跡が上下方向であれば左右に並べるといったように、被験者の動きに基づき、レイアウトを決定する。
このように被験者の軌跡に基づき判断する方法によれば、予め種目が特定されていない場合でも、比較しやすいレイアウトで表示することが可能となる。
また、比較画面においては、動画の左右を反転させることが可能である。
図26は、図23の画面における上の動画の左右を反転させた場合を示す図である。図26に示す通り、上の動画に映っている人物が図23では右向きであったのが、図26では左向きになっている。
反転する旨の指示は、図26の2601で示すチェックボックスにチェックがなされることにより受け付ける。2601における「上画面反転」がチェックされると上の画面が反転する。「下画面反転」がチェックされると下の画面が反転する。両方にチェックがなされると、上下両方の画面が反転する。
このように反転させることで、例えば1ヶ月前は映像の左から右に向かって歩いて測定したが、今回は右から左に向かって測定したといった場合にも、両者の歩く方向を統一することが出来るため、比較しやすくなり、両者の差異を詳しく把握することが可能となる。
また、比較画面においては、比較対象の画像を並べて表示するだけでなく、重ね合わせて表示することも可能である。
重ね合わせて表示した一例を図27に示す。図27における2701と2702は、比較対象の画像である。そして、2703は2701と2702の画像を重ね合わせた画像である。
比較画面においては、比較対象の画像のサイズや位置を調整することが可能である。
サイズについては、図27の自動調整メニュー2704の「大きさ」にチェックを入れることで、例えば頭部と腰部までの長さを用いて、当該長さを比較対象の骨格情報間で一致するよう調整される。
また、自動で調整するだけでなく、ユーザの操作により調整することも可能である。この場合は、図27における大きさ調整ボタン2705、2706を押下することにより、調整可能である。
このようにサイズの調整ができることで、身長の異なる人物同士を比較する場合や、過去に撮影されたものと倍率が異なる場合等においても、比較しやすくなり、両者の差異を詳しく把握することが可能となる。
位置については、図27の自動調整メニュー2704の「位置」にチェックを入れることで、例えば頭部の位置を比較対象の骨格情報間で一致するよう調整される。また、合成画像の中央に人物が映るよう位置が調整される。
また、ユーザがドラッグ操作することで、位置を調整することも可能である。
このように、位置を調整可能にすることで、比較対象の骨格情報を所望の位置に配置して比較することや、重ね合わせて比較することが可能となり、比較しやすくなり、両者の差異を詳しく把握することが可能となる。
また、自動調整メニュー2704の「両方」にチェックを入れると、サイズと位置の両方が調整される。
また、比較画面においては、背景等を表示せず、骨格情報だけを表示することが可能である。
骨格情報だけを表示した画面の一例を図28に示す。
例えば、比較対象の動画がそれぞれ異なる部屋で撮影された場合には、背景の違いが邪魔をして骨格の動きの比較が困難となってしまう。特に合成画像においては、異なる背景同士が重畳して表示されるため、非常に見づらくなり、比較しづらくなってしまう。そこで、背景を消すことで、比較対象を明確に表示することができ、両者の差異を詳しく把握することが可能となる。
上述した各種画面において設定された内容(比較動画の組み合わせ、画面レイアウト、位置、サイズなど)は、比較シナリオとして保存し、再利用可能である。
比較シナリオの情報には、動画ファイルの情報、再生開始位置、再生終了位置、ズーム状態、合成映像の調整済み位置、左右反転の設定が含まれる。
このように、設定された内容を比較シナリオとして保存することで、あとから再度見直したいというときにも、再度設定する手間を省くことができる。
次に、図5を用いて、レポート作成処理について説明する。
ステップS501では、ユーザから被験者の選択を受け付け、当該被験者の測定結果(レポート)の出力指示を受け付ける。
ステップS502では、出力指示を受け付けた被験者の測定結果を抽出する。
ここで図15を用いて、測定結果抽出処理の詳細について説明する。
ステップS1501では、情報処理装置101は、ユーザから抽出条件の設定を受け付ける。図17に抽出条件設定画面のイメージを示す。図17の画面では、抽出条件として、開始日付1701、終了日付1702を設定させる。
ステップS1502では、情報処理装置101は、ユーザから種目の選択を受け付ける。図17の画面では、種目1703として、開眼片足立ち、椅子立ち座り、最大一歩、通常歩行、TUGから選択させる。
ステップS1503では、情報処理装置101は、ステップS1501およびS1502で受け付けた、抽出条件、種目に従って、図19に示す測定結果管理テーブルから今回および前回の測定結果を抽出する。具体的には、図17の抽出ボタン1704が押下されることにより本処理が実行され、抽出条件である開始日付1701と終了日付1702の範囲で、選択された種目1703に対して測定結果管理テーブルを検索し、最新の測定結果と、2番目に新しい測定結果を、今回結果、前回結果として抽出する。すなわち、ユーザから受け付けた抽出条件に従い測定データを抽出する処理の一例を示すステップである。
このように指定された種目(通常複数指定あり)に対して、指定された期間範囲に含まれる最新の測定結果と、2番目に新しい結果を今回測定結果、前回測定結果として抽出することにより、それぞれの種目に対して検索条件を設定して測定結果を検索して今回測定結果と前回測定結果を選定するといった一連作業を実施することなく、レポート出力するための測定結果を抽出することができる。
ここで図19を用いて、測定結果管理テーブルについて説明する。測定結果管理テーブルは、測定結果ID1901、被験者1902、測定日時1903、種目1904、測定値1905、評価点1906、動画ファイル1907を項目として含む。測定結果ID1901は測定結果を一意に識別するための文字列である。被験者1902は測定を受けた被験者である。測定日時1903は測定を開始した日時である。種目1904は測定された種目であり、開眼片足立ち、椅子立ち座り、最大一歩、通常歩行、TUGのいずれかである。測定値1905は測定結果を表す数値である。評価点1906は測定値1905をもとに評価された点数である。動画ファイル1907は測定結果に対応する動画データのファイル名、または、動画データへのリンクである。
ステップS1504では、情報処理装置101は、ステップS1503にて抽出した測定結果をディスプレイ212等に表示する。図18に抽出結果表示画面のイメージを示す。図18の画面では、抽出された測定結果に対応する動画データのサムネイル画像1801を表示する。
図5の説明に戻る。
ステップS503では、ステップS502で抽出された結果に基づき、レポートを作成する。
ここで図16を用いて、レポート作成処理の詳細について説明する。
ステップS1601からS1605の処理は、ステップS1502で選択を受け付けた種目ごとに繰り返し実行する。
ステップS1601では、情報処理装置101は、ステップS1503にて抽出した、今回および前回の測定結果を取得する。
ステップS1602では、情報処理装置101は、ステップS1601にて取得した測定結果が評価済みかどうか判定する。具体的には、測定結果管理テーブルの評価点1906に値が設定されているかで判定する。評価済みであればステップS1604に進み、評価済みでなければステップS1603に進む。
ステップS1603では、情報処理装置101は、未評価の測定結果に対して評価を実施し、測定結果管理テーブルの測定値1905および評価点1906に登録する。
ステップS1604では、情報処理装置101は、測定結果に対応する動画から、動画の各フレーム画像を検索して、種目に対して特徴的なタイミングのフレーム画像を抽出する。特徴的なタイミングを決定する条件は種目ごとに決められており、例えば、開眼片足立ちであれば足を地面につけたタイミング、つまり足を上げている状態から足をついた状態に状態が遷移したタイミング、最大一歩であれば最も大きく両脚を開いたタイミング、つまり最高記録と判定された時の足を上げている状態から足をついたタイミング、のように決められている。具体的な条件は、各関節に対する座標データの値や変化状況、複数の関節の座標データの相関関係等を基に設定される。なお、特徴的なタイミングのフレーム画像は、本処理で抽出してもよいし、評価時に抽出して保存しておき本処理で呼び出してもよい。また、本実施例では、種目ごとに1つの特徴的なフレーム画像を抽出しているが、条件によっては複数のフレーム画像を抽出してもよい。すなわち、抽出された測定データに含まれる動画データのフレーム画像ごとに、当該フレーム画像内の被験者の状態を認識する処理、および、測定種目に対して認識された被験者の状態に従い、動画データからフレーム画像を選択する処理の一例を示すステップである。
ステップS1605では、情報処理装置101は、ステップS1604にて抽出した特徴的なフレーム画像のサムネイル画像と、各種目に対する評価結果をレポート要素として出力する。ステップS1604にて特徴的なフレーム画像が複数抽出された場合には、対応するサムネイル画像を並べて複数出力してもよいし、1つに絞り込んで出力してもよい。すなわち、選択されたフレーム画像をもとに静止画像を出力する処理の一例を示すステップである。
このようにレポート要素に各種目に対する評価結果と、特徴的なフレーム画像のサムネイル画像を出力することにより、数値データによる状況把握だけではなく、視覚的、直感的に測定結果の良否等を把握することができる。
ステップS1606では、各種目に対して出力されたレポート要素を集約し、レポート作成日や、被験者情報、測定場所情報などの測定に関する情報を付加してレポートを作成する。
図5の説明に戻る。
ステップS504では、情報処理装置101のCPU201は、ステップS503で作成したレポートを出力する。
図20に本処理にて作成され、ステップS504にて出力されるレポートの出力例を示す。図20の出力例では、レポート情報欄2001には作成日、実施者(被験者)、実施場所、担当者が表示され、総合コメント欄2002には評価者からコメント、レーダーチャート欄2003には種目ごとの評価点のレーダーチャートが表示される。ピックアップ種目欄2004にはユーザに選択させた種目に対し、ステップS1605にて抽出した特徴的な画像からサムネイルおよび骨格画像が表示される。種目別結果欄2005には種目別の今回および前回の実施日、結果(測定値)、今回と前回の評価点から判定される改善度合、評価者からの種目に対するコメントと、ステップS1605にて抽出した特徴的なフレーム画像のサムネイル画像が表示される。
次に、測定結果表示の別の実施例として、ディスプレイ212等の画面に表示する実施例について説明する。
図32に測定結果を画面表示するための全体処理を示す。
ステップS3201は図5のステップS501と同様の処理であり、ユーザから被験者の選択を受け付け、当該被験者の測定結果の画面出力指示を受け付ける。
ステップS3202では、画面出力指示を受け付けた被験者の測定結果を抽出する。なお、ステップS3202の測定結果抽出処理の詳細処理は図15の処理と同じであり、詳細説明を省略する。
ステップS3203では、ステップS3202で抽出された結果に基づき、画面データを作成する。
ここで図33を用いて、ステップS3203の画面データ作成処理の詳細について説明する。
ステップS3301からS3304の処理は、図5のステップS1601からS1604の処理と同じであり、詳細説明を省略する。
ステップS3305では、情報処理装置101は、ステップS3304にて抽出した特徴的なフレーム画像のサムネイル画像と、各種目に対する評価結果を画面データとして出力する。ステップS3304にて特徴的なフレーム画像が複数抽出された場合には、対応するサムネイル画像を並べて複数出力してもよいし、1つに絞り込んで出力してもよい。また、サムネイル画像に対応する動画ファイル1907(図19)のハイパーリンクを割り当てることにより、画面上でサムネイル画像がクリックされた場合に動画を再生することが可能となる。
また、サムネイル画像として静止画像ではなく、特徴的なフレーム画像の前後一定時間の動画データを出力してもよい。それにより、画面上で特徴的な動作状況を直観的に確認できるようになる。
ステップS3306では、情報処理装置101は、ステップS3304にて抽出した特徴的なフレーム画像に対応する各関節の座標情報を取得する。この座標情報は測定時に画像とともに取得され、3次元の座標データとして記録されている。
ステップS3307では、情報処理装置101は、ステップS3306にて取得した各関節の座標情報をもとに正面および横方向から見た骨格画像を生成し画面データとして出力する。骨格画像の典型的な例としては、各関節を表す節点の間を骨格を表す線分で結合する。骨格画像は、特徴的なフレーム画像に重畳して出力してもよいし、特徴的なフレーム画像と別に出力してもよい。また、骨格画像についても、特徴的なフレーム画像の前後一定時間についてフレームごとの骨格画像をもとに動画データを生成し出力してもよい。
ステップS3308では、各種目に対して出力された画面データを集約し、レポート作成日や、被験者情報、測定場所情報などの測定に関する情報を付加して全体の画面データを作成する。
以上で画面データ作成処理を終了する。
図32の説明に戻る。
ステップS3204では、情報処理装置101のCPU201は、ディスプレイ212等にステップS3203で作成した画面データをもとに測定結果表示画面を表示する。なお、画面を表示するのは情報処理装置101のディスプレイ212に限らず、他の情報処理装置や携帯端末の表示装置でもよく、その場合は画面データを対象の機器に送信して表示させる。
図34にステップS3204にて表示される測定結果表示画面の出力例を示す。
図34の画面出力例3401では、図20のレポートと同様に、全体情報として作成日、実施者(被験者)、実施場所、担当者が表示され、総合コメント欄には評価者からコメント、レーダーチャート欄には種目ごとの評価点のレーダーチャートが表示される。ピックアップ種目欄にはユーザに選択させた種目に対し、ステップS3305、S3307にて出力した特徴的な画像からサムネイル画像3402および骨格画像3403が別々の表示枠に表示される。種目別結果欄には種目別の今回および前回の実施日、結果(測定値)、今回と前回の評価点から判定される改善度合、評価者からの種目に対するコメントと、ステップS3305にて出力した特徴的なフレーム画像のサムネイル画像3404にステップS3307にて出力した骨格画像が重畳表示される。
また、特徴的なフレーム画像および骨格画像については、ステップS3305、S3307にて動画データとして出力した場合には、それぞれの種目ごとに特徴的なフレーム画像の前後一定時間の動画が再生されることになる。
図32の説明に戻る。
ステップS3205では、情報処理装置101は、ユーザから種目の指定を受け付けたかどうかを判断する。ここでは、ユーザにより画面上に表示されたサムネイル画像をクリックされたかどうかを検知し判断する。種目の指定を受け付けた場合はステップS3206に移り、それ以外の場合は、受け付けた操作に対応する処理を実行して終了する。
ステップS3206では、情報処理装置101は、ステップS3205にて受け付けた種目に対応する動画を再生表示する。具体的には、ステップS3305にてサムネイル画像に割り当てたハイパーリンクが指す動画ファイルを取得して再生表示する。
図34に動画再生の表示例を示す。サムネイル画像3404をクリックすることにより、動画再生画面3405が表示され、サムネイル画像に対応する種目の動画が再生される。
以上で測定結果を画面表示するための全体処理を終了する
上記により、被験者に対する各種目別の測定結果および種目全体の状況を直観的に把握できるようになる。
また、本発明におけるプログラムは、図3〜図5、図11、図13、図15、図16、図29、図32、図33の処理をコンピュータに実行させるプログラムである。なお、本発明におけるプログラムは、図3〜図5、図11、図13、図15、図16、図29、図32、図33の各処理ごとのプログラムであってもよい。
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
101 情報処理装置

Claims (8)

  1. 測定種目毎に動作を行っている被験者の測定日、動画データ及び関節データを含む測定データを測定種目毎に記憶する情報処理装置であって、
    前記動画データから特定の動作状態を示すフレーム画像を取得する条件として、所定の関節の状態を測定種目に対応付けて記憶する記憶手段と、
    前記測定日に対する選択条件を受け付ける受付手段と、
    前記選択条件に基づく測定日に従い、所定の測定種目の当該測定日に先行する測定日を特定し、当該測定種目の当該測定日と当該測定日に先行する測定日それぞれの動画データ及び関節データを取得する取得手段と、
    前記取得した前記測定種目の動画データ及び関節データと当該測定種目に対応づけられた所定の関節の状態とに基づいて、前記取得した測定種目の動画データの中から当該測定種目の特定の動作状態を示すフレーム画像を選択する画像選択手段と、
    前記測定日の前記測定種目の前記測定日と当該測定日に先行する測定日における前記それぞれの動画データから選択されたフレーム画像を出力する出力手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記動画データのフレーム画像ごとに被験者の関節の位置情報が対応付けられており、
    前記画像選択手段は、前記被験者の関節の位置情報に基づいて当該被験者の関節の状態を判断することを特徴とする請求項1に記載の情報処理装置。
  3. 前記出力手段は、出力するべく指示された測定種目ごとの前記測定日と当該測定日に先行する測定日における前記選択されたフレーム画像を出力することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記出力手段は、前記選択されたフレーム画像とともに、前記測定データに対応する測定結果を出力することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記出力手段は、前記選択されたフレーム画像に対応する骨格画像を出力することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記出力手段は、前記選択されたフレーム画像を含む動画に対応する骨格画像の動画を出力することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 測定種目毎に動作を行っている被験者の測定日、動画データ及び関節データを含む測定データを測定種目毎に記憶し、前記動画データから特定の動作状態を示すフレーム画像を取得する条件として所定の関節の状態を測定種目に対応付けて記憶する記憶手段を持つ情報処理装置の制御方法であって、
    受付手段が、前記測定日に対する選択条件を受け付ける受付ステップと、
    取得手段が、前記選択条件に基づく測定日に従い、所定の測定種目の当該測定日に先行する測定日を特定し、当該測定種目の当該測定日と当該測定日に先行する測定日それぞれの動画データ及び関節データを取得する取得ステップと、
    画像選択手段が、前記取得した前記測定種目の動画データ及び関節データと当該測定種目に対応づけられた所定の関節の状態とに基づいて、前記取得した測定種目の動画データの中から当該測定種目の特定の動作状態を示すフレーム画像を選択する画像選択ステップと、
    出力手段が、前記測定日の前記測定種目の前記測定日と当該測定日に先行する測定日における前記それぞれの動画データから選択されたフレーム画像を出力する出力ステップと、
    を備えることを特徴とする情報処理装置の制御方法。
  8. 測定種目毎に動作を行っている被験者の測定日、動画データ及び関節データを含む測定データを測定種目毎に記憶する情報処理装置において実行可能なプログラムであって、
    前記情報処理装置を、
    前記動画データから特定の動作状態を示すフレーム画像を取得する条件として、所定の関節の状態を測定種目に対応付けて記憶する記憶手段と、
    前記測定日に対する選択条件を受け付ける受付手段と、
    前記選択条件に基づく測定日に従い、所定の測定種目の当該測定日に先行する測定日を特定し、当該測定種目の当該測定日と当該測定日に先行する測定日それぞれの動画データ及び関節データを取得する取得手段と、
    前記取得した前記測定種目の動画データ及び関節データと当該測定種目に対応づけられた所定の関節の状態とに基づいて、前記取得した測定種目の動画データの中から当該測定種目の特定の動作状態を示すフレーム画像を選択する画像選択手段と、
    前記測定日の前記測定種目の前記測定日と当該測定日に先行する測定日における前記それぞれの動画データから選択されたフレーム画像を出力する出力手段、
    として機能させることを特徴とするプログラム。
JP2018228832A 2015-10-29 2018-12-06 情報処理装置、情報処理方法、プログラム Active JP6842044B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015213495 2015-10-29
JP2015213495 2015-10-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016210384A Division JP6447609B2 (ja) 2015-10-29 2016-10-27 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019096328A JP2019096328A (ja) 2019-06-20
JP6842044B2 true JP6842044B2 (ja) 2021-03-17

Family

ID=58713315

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016210384A Active JP6447609B2 (ja) 2015-10-29 2016-10-27 情報処理装置、情報処理方法、プログラム
JP2018228832A Active JP6842044B2 (ja) 2015-10-29 2018-12-06 情報処理装置、情報処理方法、プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016210384A Active JP6447609B2 (ja) 2015-10-29 2016-10-27 情報処理装置、情報処理方法、プログラム

Country Status (1)

Country Link
JP (2) JP6447609B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6804781B1 (ja) * 2019-08-03 2020-12-23 株式会社プラニス 情報処理システム、情報処理方法およびコンピュータプログラム
CN114846514A (zh) * 2019-12-27 2022-08-02 松下知识产权经营株式会社 作业分析装置和作业分析方法
CN112905925B (zh) * 2021-02-08 2024-07-05 北京秒针人工智能科技有限公司 一种提示框展示的方法、系统、设备及存储介质
CN117999578A (zh) 2021-09-24 2024-05-07 索尼集团公司 信息处理系统、信息处理方法和程序
WO2023243095A1 (ja) * 2022-06-17 2023-12-21 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334381A (ja) * 2006-06-10 2007-12-27 Neuro Technology Corp 運動指導支援システム
JP6188332B2 (ja) * 2013-01-21 2017-08-30 東芝メディカルシステムズ株式会社 医用画像表示装置及びプログラム
JP6359343B2 (ja) * 2013-07-01 2018-07-18 キヤノンメディカルシステムズ株式会社 動作情報処理装置及び方法

Also Published As

Publication number Publication date
JP6447609B2 (ja) 2019-01-09
JP2019096328A (ja) 2019-06-20
JP2017080414A (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6842044B2 (ja) 情報処理装置、情報処理方法、プログラム
US20210049353A1 (en) Ai-based physical function assessment system
JP6744559B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6129968B2 (ja) 医学処置イベントの記録をリアルタイムに得るグラフィカルユーザインタフェース
JP2017080197A (ja) 情報処理装置、情報処理方法、プログラム
KR101514170B1 (ko) 입력 장치, 입력 방법 및 기록 매체
CN106650217B (zh) 信息处理装置以及信息处理方法
JP7248437B2 (ja) プログラム、電子機器およびデータ記録方法
JP6165815B2 (ja) 学習システム、学習方法、プログラム、記録媒体
JP2020140719A (ja) 情報処理装置、情報処理方法、プログラム
JP2019083519A (ja) 動画像記録システム
US20230249031A1 (en) Systems and methods for personalized exercise protocols and tracking thereof
JP2017080199A (ja) 情報処理装置、情報処理方法、プログラム
JP6803111B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2017085427A (ja) 情報処理装置、情報処理方法、プログラム
JP2017080203A (ja) 情報処理装置、情報処理方法、プログラム
JP2017080201A (ja) 情報処理装置、情報処理方法、プログラム
JP2017080202A (ja) 情報処理装置、情報処理方法、プログラム
JP2017080198A (ja) 情報処理装置、情報処理方法、プログラム
JP6631594B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム
JP2017084194A (ja) 情報処理装置、情報処理方法、プログラム
JP6458707B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム
JP2017080195A (ja) 情報処理装置、情報処理方法、プログラム
JP2020119335A (ja) プログラム、カメラワークデータ生成方法および電子機器
JP2017084193A (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R151 Written notification of patent or utility model registration

Ref document number: 6842044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250