JPWO2014042121A1 - 動作評価装置及びそのプログラム - Google Patents

動作評価装置及びそのプログラム Download PDF

Info

Publication number
JPWO2014042121A1
JPWO2014042121A1 JP2014535535A JP2014535535A JPWO2014042121A1 JP WO2014042121 A1 JPWO2014042121 A1 JP WO2014042121A1 JP 2014535535 A JP2014535535 A JP 2014535535A JP 2014535535 A JP2014535535 A JP 2014535535A JP WO2014042121 A1 JPWO2014042121 A1 JP WO2014042121A1
Authority
JP
Japan
Prior art keywords
user
motion
teacher
coordinates
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014535535A
Other languages
English (en)
Other versions
JP6124308B2 (ja
Inventor
依田 育士
育士 依田
正輝 大西
正輝 大西
哲男 行岡
哲男 行岡
太田 祥一
祥一 太田
三島 史朗
史朗 三島
順 織田
順 織田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Publication of JPWO2014042121A1 publication Critical patent/JPWO2014042121A1/ja
Application granted granted Critical
Publication of JP6124308B2 publication Critical patent/JP6124308B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/288Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for artificial respiration or heart massage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Graphics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)

Abstract

効果的に利用者に模範動作を教示することができる動作教示装置を提供することを目的とする。本発明の動作評価装置は、利用者の画像データに基づいて利用者の体の部位座標を算出する部位座標算出部と、部位座標に基づいて利用者の形状モデルを生成し、教師動作パラメータに基づいて利用者の形状モデルによる教師動作の動画像データを生成する利用者モデル生成部と、部位座標に基づいて利用者の動作を評価する動作評価部と、利用者の形状モデルによる教師動作と利用者の動作とを重畳表示し、評価結果を出力する出力制御部とを有する。

Description

本発明は、特に胸骨圧迫動作(いわゆる心臓マッサージ)などの救急措置や介護、スポーツなど、身体で動作を覚える必要がある場合に、利用者に模範動作を教示し、利用者の動作を評価することで、動作習得を支援する動作評価装置及びそのプログラムに関するものである。
従来、利用者へ動作を教示する動作教示装置として、様々な装置が検討されてきた。例えば、胸骨圧迫動作の訓練においては、センサを埋め込んだ心肺蘇生人形を床に寝かせ、その人形に対して胸骨圧迫動作を行わせることで、人形に対する胸骨圧迫の深さをセンサで計測し、適正な動作かどうかを判断することが行われている。しかし、胸骨圧迫を正しく行っているかどうかは、胸骨圧迫の深さを計測するだけでは不十分である。正しく胸骨圧迫動作を行うには、適切な姿勢、肘の角度、適切な圧迫周期で行う必要がある。従来の心肺蘇生人形での訓練においては、行為者の姿勢等を判定することができず、正しい動作を教示できないという問題があった。
特許文献1においては、ロボットが動作を教示し利用者が動作すると、撮影した利用者の動作とロボットの教示動作との差異を撮影画像に基づいて判定し、差異を補正するためのアドバイスを出力する技術が開示されている。
また、特許文献2においては、利用者の視線方向を検出し、利用者のアングルからの教師画像を提供することで適切な教師画像を提供することができる技術が開示されている。
特開2006−320424号公報 特開平11−249772号公報
しかし、特許文献1や特許文献2に開示された技術では、ロボットが教示した動作と利用者の動作との細かな差異やテンポを適切に教示できないという問題があった。また、これらの技術では、利用者の体格に合わせた教師画像ではないため、利用者が動きの違いを把握することが難しく、十分に習得できないという問題があった。
本発明は、上述した従来技術の課題に鑑みてなされたもので、利用者の体格に合ったモデルによる教師動作画像を提供し、利用者の動作と重畳して表示し、また動作を評価することで効果的に利用者に模範動作を教示することができる動作教示装置を提供することを目的とする。
上記目的に鑑み、本発明は利用者の画像データに基づいて利用者の体の部位座標を算出する部位座標算出部と、部位座標に基づいて利用者の形状モデルを生成し、教師動作パラメータに基づいて利用者の形状モデルによる教師動作の動画像データを生成する利用者モデル生成部と、部位座標に基づいて利用者の動作を評価する動作評価部と、利用者の形状モデルによる教師動作と利用者の動作とを重畳表示し、評価結果を出力する出力制御部とを有する動作評価装置を提供する。
また、本発明の部位座標算出部は、利用者の頭、両肩、両肘、手、両手首それぞれの重心座標を算出することで各部位の部位座標を算出することを特徴とする。さらに、部位座標算出部は、各部位の所定範囲内の画素における少なくとも視差情報に基づいて算出してもよい。そして、部位座標算出部は、両肩の部位座標を算出し、両肩の部位座標に基づいて頭の部位座標を算出してもよい。
また、利用者モデル生成部は、部位座標算出部が算出した部位座標に基づいて利用者の体格データを生成する体格データ算出部と、利用者の体格データに教師動作パラメータを各時点で加算することで利用者の形状モデルによる教師動画像データを生成する教師動作加算部と、を有することを特徴とする。
さらに、教師動作加算部は、体格データ算出部から取得した体格データのうち、両肘及び両肩の部位座標を、両手首の部位座標と、教師動作の初期角度に基づいて補正することを特徴とする。
また、動作評価部は、利用者の動作を1周期分抽出して評価を行い、出力制御部は、評価結果をあわせて出力することを特徴とする。
なお、本発明にいう動作は胸骨圧迫動作であり、利用者の胸骨圧迫動作を評価してもよい。
また、本発明は、利用者の画像データに基づいて利用者の体の部位座標を算出する部位座標算出部と、部位座標に基づいて利用者の形状モデルを生成し、教師動作パラメータに基づいて利用者の形状モデルによる教師動作動画像データを生成する利用者モデル生成部と、部位座標に基づいて利用者の動作を評価する動作評価部と、利用者の形状モデルによる教師動作と利用者の動作とを重畳表示し、評価結果を出力する出力制御部とを有する動作評価装置としてコンピュータを機能させることを特徴とするプログラムであることを特徴とする。
本発明によれば、利用者の体格に合った形状モデルを生成し、そのモデルによる教師動作を表示させることができる。このため、利用者が正しい動作への理解が容易となり、より早く正しい動作を習得することができる。また、三次元の形状モデルでの教師画像を提供するため、従来わかり難かった奥行方向での姿勢の違いについても、差異が明確となり、より正確に動作を習得することができる。
さらに、本発明によれば教師画像と利用者が行っている動作の画像とを重畳表示させ、評価結果を出力するため、利用者は、教師動作との細かな差異を明確に理解することができる。従って、正確な動作を早期に習得することが可能となる。
本発明における動作評価装置100の全体構成の一例を示すブロック図である。 動作評価装置100により実行される利用者の体の各部位の部位座標の算出処理の流れの一例を示すフロー図である。 部位座標算出範囲として指定された座標範囲の一例を表す図である。 右肘部の重心算出方法を説明する図である。四角形が、視差及び色情報がパラメータの範囲内である画素のイメージ図である。 頭部として抽出する領域を説明する図面である。 頭部の重心算出に用いた画素及び算出された重心を示す模式図である。 利用者モデル生成部104の構成の一例を示す機能ブロック図である。 教師動画像に基づく教師動作パラメータの生成処理のフローチャートである。 利用者の形状モデルによる教師動作の動画像生成処理のフローチャートである。 利用者の体格データの補正に関する模式図である。 利用者の動作を評価する処理のフローチャートである。 利用者の体格による形状モデル画像と、利用者の画像とを重畳表示させた例である。 利用者の手の部位座標の推移を示すグラフである。 各画像データ間における差分と、圧迫方向の向きを表すテーブルである。 利用者の手の部位座標の推移に基づいて検出した胸骨圧迫動作の1周期を算出したテーブルの一例である。 特徴量とその閾値を表す評価テーブルの一例である。 教師動作を行う利用者の形状モデルと利用者の胸骨圧迫動作とを重畳表示させ、画面にアドバイスを表示された表示画面の一例である。 動作評価装置のハードウェア構成図の一例である。
図1は本発明における動作評価装置100の全体構成の一例を示すブロック図である。図1においては、動作評価装置100は、撮像装置10、音声出力装置20、表示装置30と接続されている。撮像装置10は、例えば2つのカメラを有するいわゆるステレオカメラである。また、3次元距離画像を取得できるカメラであってもよい。たとえば、撮像装置10は、胸骨圧迫動作など、習得しようとしている動作を行っている利用者を撮像する。撮像装置10は、撮影により時系列的に画像データを取得し、動作評価装置100へと送る。音声出力装置20は、例えば、スピーカであって、利用者への指示や、動作評価装置100での評価結果やアドバイスなどを音声出力する。表示装置30は、例えば、ディスプレイであって、撮像装置10によって撮像される動画像データを表示する。また利用者の動作に対する評価結果を表示し、生成された利用者の形状モデルによる教師動作と撮像データの重畳表示を行う。
動作評価装置100は、画像取込部101、部位座標算出部102、教師動作記憶部103、利用者モデル生成部104、動作評価部105、出力制御部106を有する。
画像取込部101は、たとえば、撮像装置10からリアルタイムで入力される利用者の動作を撮像した動画像、または図示していないデータベース等に記憶された動画像データを取り込む。取り込んだ動画像データは、視差データ又は距離データを有する動画像データである。
部位座標算出部102は、画像取込部101によって取り込まれた動画像データの一フレーム画像データ各々において、利用者の体の各部位の部位座標を算出する。体の各部位とは、例えば、頭や肩などの人間の体の一部分を指す。部位座標算出部102は、取り込んだ画像における視差や色情報に基づいて、利用者の体の部位を検出し、各部位の重心を算出することで、その画像における利用者の体の各部位の部位座標を算出する。具体的な算出方法については、後述する。算出した部位座標は利用者モデル生成部104または動作評価部105へ出力される。
教師動作記憶部103は、例えば、データベースを有するメモリであり、模範となる教師動作を撮像した動画像データを記憶する。胸骨圧迫動作を教示する場合、例えば、救命士が行う胸骨圧迫動作が撮像された動画像データを記憶する。教師動作記憶部103に記憶されている動画像データは、視差データ又は距離データを有している。なお、後述するが、教師動作パラメータ生成部601を有しない構成とする場合、教師動作記憶部103は、各部位の部位座標の時系列変化データである教師動作パラメータを記憶する。
利用者モデル生成部104は、利用者の三次元による形状モデルを生成し、利用者の形状モデルによる教師動作の動画像データを生成する。つまり、部位座標算出部102でフレーム画像データから算出された利用者の各部位の部位座標に基づいて、利用者の体格データを算出し、利用者の形状モデルを生成する。また、教師動作記憶部103に教師動画像データが記憶されている場合は、教師動画像データに基づいて教師動作パラメータを生成し、教師動作記憶部103に教師動作パラメータが記憶されている場合は教師動作パラメータを読みだす。利用者の形状モデルに教師動作パラメータを加算することで、利用者の形状モデルによる教師動作を生成する。
動作評価部105は、利用者の動作を、利用者の形状モデルによる教師動作に基づいて評価する。利用者の動作は、画像取込部101で取り込んだ画像や部位座標算出部102で算出した動作中の部位座標の時系列変化が算出されることで解析される。これに対し評価テーブルを設け、教師動作に基づいて設定された所定の部位におけるしきい値を記憶し、そのしきい値と比較することで、利用者の動作の評価を行う。なお、利用者モデル生成部104で生成された利用者の体格に合った形状モデルによる教師動作の動画像データと比較することで評価を行ってもよい。また、動作評価部105は、利用者の動作評価だけではなく、より理想的な動作を行うための改善点などのアドバイスを選択し、出力してもよい。
出力制御部106は、表示装置30や音声出力装置20への出力を制御する。出力制御部106は、撮像装置10から画像取込部101により取得される利用者の動作が撮像されている動画像データと、利用者モデル生成部104で生成された利用者の体格に合った形状モデルによる教師動作の動画像データとを重畳表示するように出力を制御する。また、動作評価部105における評価結果やアドバイスを表示または音声出力するように出力制御する。
本発明に係る動作評価装置の処理は、次の3つに大別される。(1)利用者の体の各部位の部位座標の算出処理、(2)利用者の形状モデルによる教師動作の生成処理、(3)利用者の動作と教師動作を重畳表示させ、利用者の動作を評価する処理の3つである。撮像装置10から入力された利用者が映っている動画像はフレーム画像データ各々について(1)の部位座標の算出処理が行われる。動作評価装置は、利用者が動作を行う前に、まず利用者の形状モデルを生成するために、静止するよう指示し、(1)での部位座標の算出結果をもとに(2)の利用者の形状モデルによる教師動作の生成処理(利用者形状モデル生成モード)を行う。(2)の処理が完了後は、動作評価モードとなり、(1)による部位座標の算出結果をもとに、(3)の評価処理へとうつる。従って、(2)の処理、(3)の処理、いずれの処理が行われる場合であっても、その前に動画像データに対して(1)の処理が行われる。以下、これらの処理について具体的に説明する。
(1)利用者の体の各部位の部位座標の算出処理
図2は、動作評価装置100により実行される利用者の体の各部位の部位座標の算出処理の流れの一例を示すフロー図である。ここでは、胸骨圧迫動作を教示する場合に沿って説明する。
画像取込部101は、撮像装置から入力される距離画像データ、つまり画像データ及び視差データを取り込む(ステップS201)。なお、ステレオカメラから2つの画像データを取り込み、画像取込部101で視差を算出してもよい。また、視差データとしているが、撮像装置がステレオカメラではなく、距離計を有するカメラである場合には、画像データ及び距離データを取り込んでもよい。ここでいう「画像データ」は、時系列画像である動画像データのうちの各時点の画像データ(一フレーム画像)である。部位座標の算出処理は、取り込まれる画像データ各々に対して行われる。画像取込部101は、入力される画像データ及び視差データを部位座標算出部102へと出力する。
次に、部位座標算出部102は、画像取込部101が取り込んだ画像データから、体の各部位に該当する範囲の画面座標の各画素における視差・色情報を取得する(ステップS202)。部位座標算出部102は、利用者の体の各部位ごとに部位座標の算出処理を行う。各部位とは、頭、両肩(右肩、左肩)、両肘(右肘、左肘)、手、両手首(右手首、左手首)である。利用者は、部位座標の算出が容易となるように、肩や肘、手首などの所定の位置に特定の色が付されたマーカを装着していてもよい。例えば、肩の場合は、わきから肩を巻くようにマーカを装着し、肘の場合は、上腕部の最下部、肘の曲がる箇所付近に付けるなど、装着位置は予め決められているものとする。また、利用者は撮像装置から所定の距離であってカメラの正面に位置し、画像データのなかで所定のサイズとなる場所に位置する。このため、部位座標算出部102は、画像データのなかで体の各部位が存在しうる部位座標算出範囲として、座標範囲(画面座標におけるx,y座標)を記憶しており、その範囲における画面座標の視差及び色情報(例えば色相、彩度、明度)を取得して算出する。
部位座標算出部102は、体の各部位についてパラメータを入力する(ステップS203)。パラメータとは、視差及び色情報に関するしきい値であって、体の各々の部位によって異なるパラメータが設定されている。例えば、右肘のパラメータとして、視差:155〜255、色相:79〜89、彩度:150〜200、明度:0〜19といった値が設定されている。色情報については、例えば、0〜255の範囲で表現される。肩、肘、手首にマーカが装着されている場合、そのマーカの色を考慮してパラメータを設定する。手については肌色を考慮してパラメータが設定される。なお、胸骨圧迫動作においては、両手を組んだ状態でおかれるため、左手と右手とが一体となって検出される。これらのパラメータは、部位座標算出部102にあらかじめ記憶されている。また、パラメータはこれに限らず外部の記憶装置から入力してもよい。部位座標算出部102は、各部位に対応する範囲座標の画素を抽出し、各画素について、視差及び色情報がパラメータによって設定された範囲内の値を有しているかどうか、比較する。部位座標算出部102は、視差及び色情報全てのパラメータにおいて設定範囲内の値を有している画素を抽出し、それらの画素の座標値を取得する。
次に、部位座標算出部102は、各部位について重心座標を算出する(ステップS204)。ステップS203で抽出した視差及び色情報が所定範囲内である画素の座標の平均値を重心として算出し、部位座標データとする。基本的に重心座標の算出にあたって、算出順序は問わない。但し、頭部及び手の重心座標の算出にあたっては、両肩及び両手首の重心座標の算出結果を用いると、より正確な算出が行うことが可能である。
例えば、手の重心座標の算出において、抽出範囲としてあらかじめ記憶されている座標範囲を、算出された手首の重心座標により修正する。具体的には、画面座標において水平方向をx座標、垂直方向をy座標とすると、手の設定座標範囲のy座標の最大値を手首の重心のy座標と修正してから抽出を行う。頭部についても同様に、肩の重心座標のy座標を用いて抽出範囲を修正する。
頭部については、中央部分の視差抜けにより、正しく重心座標を算出できない場合があるため、算出に用いる座標値の領域についてさらに補正を行ってから重心座標を算出する。頭部の重心座標の算出方法については後述する。
部位座標算出部102は、各部位のカメラ座標における重心座標を取得する(ステップS205)。ステップS204で算出された座標値は、画面座標であるため、カメラ座標に変換する必要がある。ここで、カメラを原点とし、カメラ面に平行な面をX−Y平面、カメラ面から延びる光軸をZ軸とすると、3次元空間上の位置(カメラ座標)の算出は、例えば以下の式により得られる。
Figure 2014042121
部位座標算出部102はカメラ座標の算出を体の各部位において行うと、それらの部位座標を利用者モデル生成部104または動作評価部105へ出力する。
図3は、部位座標算出範囲として指定された座標範囲の一例を表す図である。部位座標算出部102は、例えば、画像データのなかで右肘が存在しうる範囲として、(X1,Y1)と(X2,Y2)の2つの座標値を記憶している。つまり、x座標及びy座標におけるそれぞれの最大値及び最小値である。部位座標算出部102は、画像データを取得すると、これら2つの座標値、つまり(X1,Y1)、(X1,Y2)、(X2,Y1)、(X2、Y2)で形成される矩形を部位座標算出範囲として抽出する。他の部位についても同様に、各部位に対応した範囲座標が部位座標算出部102に記憶されている。部位座標算出部102は、記憶されている範囲座標に基づいて画像データから該当する範囲に位置している画素の視差及び色情報を取得する。
図4は、右肘部の重心算出方法を説明する図である。四角形のマス目が、視差及び色情報がパラメータの範囲内である画素のイメージである。部位座標算出部102は、パラメータの範囲内であるこれらの画素を抽出して座標平均値を重心として算出し、重心座標を部位座標とする。図4における丸い点が算出された右肘の重心位置である。
図5は、頭部の重心座標の算出方法を説明する図である。図5aは、頭部として抽出する領域を説明する図面である。他の部位の重心算出と同様に画像データ及び視差データは取り込まれているものとし、ここでは頭部の部位座標算出方法について説明する。部位座標算出部102は、頭部の重心座標算出の際に、記憶している頭部の範囲座標を読みだす。また、算出した左肩及び右肩の重心座標のy座標を取得し、その平均値を算出し、頭部の範囲座標のy座標の最小値を両肩のy座標の平均値に修正する。次に、部位座標算出部102は、修正後の範囲座標に基いて画面座標の視差・色情報を取得する。ステップS202に相当する処理である。そして、部位座標算出部102は、頭部のパラメータを入力する。ステップS203に相当する処理である。頭部のパラメータとして視差のしきい値が記憶されており、該当する視差値を有する画素を抽出する。
部位座標算出部102は、抽出した画素の座標値からx座標の最大値(LeftX)と最小値(RightX)及びy座標の最大値(TopY)を取得する。y座標の最大値(TopY)と両肩の重心のy座標の平均値(Shoulder Hight)との中間点となるy座標の座標値(BottomY)を算出する。視差値に基づいて抽出した画素のうち、LeftX、RightX、TopY、BottomYで囲まれた領域の画素を重心算出に用いる領域として修正する。
重心算出に用いる画素は、さらに輪郭部分の画素のみを抽出する処理を行うことで、さらに絞り込む。LeftX、RightX、TopY、BottomYで囲まれた領域の画素であって、所定の視差値を有する画素のうち、領域内の上部及び左右部分にある輪郭部分(エッジ)の画素及び内側に向かって数ピクセルの部分の画素のみを抽出する。抽出された画素により形成される領域は概ね三日月型となる。
図5bは、頭部の重心算出に用いた画素及び算出された重心を示す模式図である。輪郭領域の画素の座標値に基づいて頭部の重心座標の算出を行う(ステップS204に相当)。図中のマス目は、重心算出に用いた画素のイメージであり、中心の黒い点が算出された頭部の重心である。所定の範囲座標の所定の視差値を有する画素に基づいて、重心算出を行った場合、頭部中央部分は、通常は髪の毛であるため色が同じとなりステレオマッチングが困難であるために視差データに誤差が生じる。また、精度のよいアクティブ型の距離センサであっても、揺れ動く髪の毛による光の吸収等により視差情報が欠落してしまうという問題が生じ、頭部の中央部分の視差データの欠落が大きく、正しい重心座標を算出できないという問題がある。これを、上述のように、重心算出に用いる画素を肩の重心座標を用いて修正し、さらに頭部の輪郭領域の視差画素の重心を頭部の重心座標として算出することで正確で安定した頭部領域の抽出を可能とする。なお、画素の視差・色情報取得の際に視差抜けにより重心に対応する画素の情報が存在しない場合がある。そのときには、重心の周囲3×3にある画素のカメラ座標を合わせて算出し、値が存在する画素の平均を重心のカメラ座標として算出を行っている。
(2)利用者の形状モデルによる教師動作の生成処理
図6は、利用者モデル生成部104の構成の一例を示す機能ブロック図である。例えば、利用者モデル生成部104は、教師動作パラメータ生成部601、体格データ算出部602、教師動作加算部603から構成される。教師動作パラメータ生成部601は、教師動作記憶部103に記憶された教師動画像データを読み出し、教師動作パラメータを生成する。教師動作パラメータとは、部位座標の隣接する画像フレーム間での変化値である。体の各部位のx、y、zの座標値それぞれにおいて算出される。具体的には、教師動画像の各画像データにおいて体の各部位の部位座標を算出し、各部位座標の時系列での差分を取得することで教師動作パラメータを生成する。なお、すでに教師動作パラメータを生成し、教師動作記憶部103に教師動作パラメータが記憶されている場合は、教師動作パラメータ生成部601は不要である。
体格データ算出部602は、利用者に体格データが算出可能となるよう、カメラの正面であって画像のなかに利用者の上半身が収まる位置で、胸骨圧迫動作を行える態勢で所定時間(例えば、1〜2秒程度、1フレームあたり1/30秒の場合に50フレーム画像分)静止させる。一例として、床においた心肺蘇生人形の胸に手を置き、両肩を結ぶ線の中点と手の平を結ぶ直線が床平面に対し垂直となる姿勢で静止するよう指示する。この場合、音声出力装置20から静止するよう音声でアナウンスしてもよい。静止している間の動画像データを取得し、所定時間分の動画像データに基づいて体格データを算出する。ここでの算出方法は、(1)で述べた部位座標の算出処理によって、部位座標算出部102が算出した部位座標に基づき、所定時間分の複数の部位座標に基づいて、体格データ算出部602が、それぞれの部位での平均を算出することで体格データを算出している。
教師動作加算部603は、体格データ算出部602で生成された利用者の体格データに、教師動作パラメータ生成部601で生成された部位座標の座標値の時系列変化である教師動作パラメータを加算することで、利用者の体格にあった教師動作の動画像データを生成する。
次に、利用者の形状モデルによる教師動作の動画像データの生成処理についてフローチャートを用いて詳細に説明する。図7aは、教師動画像に基づく教師動作パラメータの生成処理のフローチャートである。
まず、教師動作パラメータ生成部601は、教師動作記憶部103に記憶されている教師動画像データを取り込む(ステップS701)。次に、胸骨圧迫動作1周期分の動画像データを抽出する(ステップS702)。たとえば、救命士の胸骨圧迫時の動画像データを教師動画像データとし、胸骨を圧迫して戻す、を1周期とした動画像データを抽出する。1周期の抽出方法の一例として、教師動画像データから、手の部位座標の人形の胸を圧迫する方向の座標(y座標)の変化を抽出することで行う。なお、記憶されている動画像データがすでに1周期分の動画像データである場合には、本ステップは省略可能である。
教師動作パラメータ生成部601は、胸骨圧迫動作1周期分の動画像データの各画像データにおいて、体の各部位の部位座標の算出を行う(ステップS703)。部位座標の算出方法は、前述した方法と同様であり、頭部、両肩、両肘、手、両手首の各部位の部位座標を算出する。
教師動作パラメータ生成部601は、抽出した部位座標の動きを平均化する(ステップS704)。算出された部位座標データを、部位座標ごとにまとめて、動きの時系列を正規化する。たとえば、頭部のy座標データについて7フレーム分のデータがあったとする。
Figure 2014042121
これを、下記のように正規化する。
Figure 2014042121
さらに、各部位座標ごとにまとめて最小二乗法による多項式近似を行う。生成した多項式は、0≦t≦1(t=時間)の範囲でそれぞれ対応した部位座標の正しい推移を表すため、多項式に正解動作の平均フレーム数を正規化したものを代入することで時系列による動きの変化データである教師動作を生成できる。
教師動作パラメータ生成部601は、時系列による動きの変化データである教師動作パラメータを生成する(ステップS705)。生成された教師動作は、位置を示す3次元の座標データではなく、時系列での座標データの変化の推移を示すデータとなっている。つまり隣接フレーム間での座標値の差分データとなっている。
たとえば、多項式近似を行った後の頭部のy座標データについての教師動作パラメータは、下記のようになる。
Figure 2014042121
なお、表3では7フレーム分であるが、教師動作パラメータは、各々の部位座標について胸骨圧迫動作1周期の時間分、生成される。
また、時系列による動きの変化データである教師動作は、予め生成されていてもよい。この場合、教師動作パラメータ生成部601が行っている生成処理は事前に行われており、教師動作記憶部103には、1周期分の時系列による動きの変化データである教師動作パラメータのデータが記憶され、教師動作加算部603が、教師動作記憶部103から教師動作パラメータを読み出して加算処理を行う。
図7bは、利用者の形状モデルによる教師動作の動画像生成処理のフローチャートである。体格データ算出部602は、利用者を所定時間(例えば、2〜3秒程度)、撮像装置に利用者の上半身が映るような所定の位置で静止するよう音声または表示によって指示したうえで、利用者の各部位の部位座標を複数フレーム分取得する(ステップS711)。各部位の部位座標は、部位座標算出部102で各画像データにおいて算出され、体格データ算出部602に入力される。このため、体格データ算出部602は入力された部位座標データを複数フレーム分(例えば、50フレーム分)、ストアする。
体格データ算出部602は、ストアした複数フレーム分の部位座標データについてそれぞれの部位の部位座標データについて平均値を算出することで、利用者の体格データとして算出する(ステップS712)。教師動作加算部603は、体格データ算出部602から体格データを取得し、これらの部位座標データを体格データとして初期値に設定する(ステップS713)。算出された体格データに基づいて原則として、利用者の初期値の形状モデルが生成される。なお、両肘及び両肩の部位座標に関する補正処理は、教師動作加算部603で行われるが、その処理については後述する。
なお、ここでは、静止した状態でのそれぞれの部位の部位座標データの平均値を算出して体格データを算出したが、手の部位座標については、数回の胸骨圧迫動作を試みに行わせてから、算出してもよい。この場合、利用者が撮像されていない状態で、心肺蘇生人形の胸の三次元形状データを取得しておく。具体的には、部位座標算出部102は、心肺蘇生人形の胸の稜線部分の座標のデータ列を取得する。その後、動作評価装置100は、利用者に心肺蘇生人形に手を置かせて、胸に押し込んで元に戻す胸骨圧迫動作を複数回行わせるよう音声等で指示する。そのときに変化する手の動きのうち、手が一番上にある位置(y座標値が最大となる位置)、つまり手が胸に押し込んでいない位置での重心座標値(x,y)を、体格データ算出部602が算出する。手の部位座標データでのx座標値は、この値とする。そして、このx座標値の位置における人形の胸の稜線部分のy値を取得して手のy座標値と比較し、大きい方のy値を手の部位座標データでのy座標値とする。圧迫していない状態での手の位置を、初期位置にするためである。手の部位座標をこのように算出することで手の初期位置を正確に設定することができ、精度の高い動作評価を行うことができる。
教師動作加算部603には、体格データ算出部602で算出された利用者の体格データと、教師動作パラメータ生成部601で生成された教師動作とが入力される。教師動作加算部603は、体格データ算出部602で算出された利用者の体格データを初期値として、各時点(フレーム画像各々)で、教師動作を加算する(ステップS714)。つまり、各部位における座標の時系列変化データを示している教師動作パラメータを利用者の体格データへ加算し、加算された座標値にさらに加算していくことで、利用者の部位座標が教師動作に従って変化する。これにより、利用者の体格にあった教師動作の動画像データを生成することができる。
但し、そのまま利用者の体格データを利用して教師動作を生成するときに、利用者の初期の姿勢が正しい姿勢ではない場合、誤った教師動作を教示してしまう問題が生じる。図8は、利用者の体格データの補正に関する模式図である。図8の(a)に示すように、特に胸骨圧迫動作においては、初期の正しい姿勢は腕が比較的まっすぐに近い状態である。しかし、図8(b)のように、利用者の初期姿勢は、腕が曲がった状態である場合がある。このため、両手首の体格データを基準として、両肘及び両肩の体格データについては、教師動作加算部603において補正を行う。
教師動作加算部603は、教師動作パラメータが生成されたときの両手首、両肘、両肩の初期値の部位座標データを教師動作パラメータ生成部601から取得し、手首、肘、肩で構成される初期角度θを算出する。なお、初期角度θは、予め算出し記憶していてもよい。
教師動作加算部603は、体格データを体格データ算出部602から取得し、利用者の手首と肘の部位座標から、手首から肘までの長さを、両腕ともに算出する。同様に、利用者の肘と肩の部位座標から、肘から肩までの長さを算出する。教師動作加算部603は、体格データにおける両手首の部位座標と、教師動作の初期角度θ、算出された手首から肘までの長さ、肘から肩までの長さに基づいて、両手首の部位座標を基準として、利用者の腕が初期角度θをなす場合の両肘、両肩の部位座標を算出し、体格データにおける肘及び方の部位座標を補正する。
こうして、体格データのうち両肘の部位座標及び両肩の部位座標は、正しい初期姿勢における座標データに置き換える。このため、利用者の体格に合った初期姿勢を教示することができる。
(3)利用者の動作と教師動作を重畳表示させ、利用者の動作を評価する処理
体格データの算出が終わると、利用者のモデルによる教師動作が表示できる状態となり、動作学習へとうつる(動作評価モード)。利用者が動作を行う際に利用者のモデルによる教師動作が重畳表示され、利用者の動作について評価が行われる。図9は、利用者の動作を評価する処理のフローチャートである。
はじめに、利用者モデル生成部104によって生成された、補正後の利用者の体格に合った初期姿勢をとった教師動作を行う形状モデルが出力制御部106による出力制御のもと、表示装置30へ表示され、撮像装置で撮像されている利用者の画像との重畳表示が開始される(ステップS901)。形状モデルが表示されると、利用者は、形状モデルと自らを写した画像と同一となるよう、姿勢を調整する。
利用者へ動作学習のスタートを動作評価装置100が表示又は音声にて指示すると、利用者は胸骨圧迫動作を開始し、動作評価が同時に開始される。動作評価が行われている間、形状モデルは重畳表示されている。動作評価部105は、部位座標算出部102が各画像データにおいて算出する利用者の体の各部位の部位座標を一フレーム画像ごとにバッファする(ステップS902)。バッファされた各部位座標データは、胸骨圧迫動作1周期を検出、または動作評価の特徴量算出に用いる。
動作評価部105は、胸骨圧迫動作1周期分を抽出する(ステップS903)。利用者の手が、心肺蘇生人形に対し、胸骨圧迫動作を行う際の両手の部位座標の推移をバッファすることで、チェックする。特に、利用者の手の部位座標のうち、心肺蘇生人形を圧迫する方向の座標(y座標)が、圧迫を示す動き(例えば、y座標の値が減少し続けるフレーム群)と、手をもとに戻す動き(例えば、y座標の値が増加し続けるフレーム群)を抽出し、それらを胸骨圧迫動作1周期として抽出を行う。なお、座標値の変化が所定値以下であるような動きが小さい動きについては無効とする。胸骨圧迫動作1周期の抽出方法については詳述する。
動作評価部105は、胸骨圧迫動作1周期を抽出すると、1周期分の部位座標データに基づいて、利用者の動作評価及びアドバイスのための特徴量を生成する(ステップS904)。特徴量は、例えば、胸骨圧迫動作1周期にかかった時間(フレーム数)、1周期中での左肘角度の最小値と右肘角度の最小値の平均などである。動作評価部105は、例えば評価に用いる特徴量をその特徴量のしきい値及び評価とを対応付けて評価テーブルとして記憶する。
動作評価部105は、生成した特徴量について、評価テーブルを参照し、記憶された所定のしきい値と比較することで、利用者の動作を評価する(ステップS905)。それぞれの特徴量としきい値を比較し、しきい値から外れている特徴量を抽出する。動作評価は各周期において行われる。評価結果及びアドバイス内容は、出力制御部106により出力制御され、各周期ごとに音声及び画面表示がされる。
動作評価部105は、評価開始から一定時間が経過したかどうか検出する(ステップS906)。一定時間経過していない場合は(ステップS906でNo)、評価を継続する。一定時間経過とは、例えば、胸骨圧迫に関するガイドラインにある1人の人が継続実施する目安である2分間である。しかし、これに限らず自由に設定してもよい。一定時間経過した場合(ステップS906でYes)は、最終評価結果を出力する(ステップS907)。
図10は、利用者の体格による形状モデル画像と、利用者の画像とを重畳表示させた例である。教師動作を行う形状モデルの動画像データは、教師動作加算部603において体の各部位の部位座標に基づいて利用者の形状モデルが生成されると、図10のように網目状の形状による形状モデルが表示される。なお、体の重心の部位座標に基づく形状モデルは既存技術により生成されるため、説明を省略する。
次に、図9のステップS903における胸骨圧迫動作1周期の抽出方法について、説明する。図11は、図9のステップS902でバッファした利用者の手の部位座標の推移を示すグラフである。y座標とはカメラ座標でのy座標であり、垂直方向である。従って、利用者の手が人形の胸骨を圧迫し戻す方向であり、部位座標のうちy座標の座標値の変化を抽出している。動作評価部105は、画像データ間における座標の変化(差分)を抽出する。
図12は、各画像データ間(画像データフレーム間)における差分と、圧迫方向の向き(正又は負で)を表すテーブルである。動作評価部105は、7−8フレームのように変化が正であるが、両方の隣接するフレーム間が負である場合には、7−8フレーム間の動きを無効とし、「負」に変更する処理を行っている。このように1フレーム間の動きの向きのみが異なる場合には、無効とする処理を行う。
図13は、利用者の手の部位座標の推移に基づいて検出した胸骨圧迫動作の1周期を算出したテーブルの一例である。座標値の変化が「正」だったフレームについては、手が人形から離れる方向、つまり上昇しているとみなされ、胸骨圧迫から戻す動きとみなされる。また、座標値の変化が「負」だったフレームについては、手が人形方向へ近づく方向、つまり下降しているとみなされ、胸骨を圧迫する動きとみなされる。動作評価部105は、圧迫動作と戻す動きとを1セットとし、胸骨圧迫動作1周期として抽出する。
図14は、図9のステップS904において生成される特徴量とそのしきい値を表す評価テーブルの一例である。それぞれの特徴量に対応付けて望ましい動作におけるしきい値が記憶されており、動作評価部105は、ステップS905において胸骨圧迫動作1周期ごとに、評価テーブルに基づき、各特徴量について評価を行う。例えば、右手首のy座標の初期位置と最大値の差が40であれば上手と判定される。評価テーブルには、評価のための特徴量として頭や肩、肘のz座標の最大・最小値が設定されている。利用者はカメラに対して正面に位置しているため、z方向は奥行き方向となる。頭や肩・肘が初期姿勢からz方向でのずれをみることで、胸骨圧迫動作時に利用者が適切な姿勢をとっているかを評価することができる。また、肘角度が165度以上あるかをみることで、腕をまっすぐ伸ばして胸骨圧迫動作を行っているか評価することができる。こうした評価を行うことで、正確な姿勢で動作を行っているか評価できる。
なお、ここでは、評価テーブルにはしきい値のみが記憶されているが、これらに対応付けてアドバイスを記憶していてもよい。例えば、1周期にかかったフレーム数が6フレーム未満である場合のアドバイスとして「もっとゆっくり」、8フレーム以上である場合のアドバイスとして「もっと速く」等である。これらの評価とアドバイスは表示・音声出力される。
図15は、教師動作を行う利用者の形状モデルの動画像データと利用者の胸骨圧迫動作の動画像データとを重畳表示させ、画面にアドバイスを表示された表示画面の一例である。ある胸骨圧迫動作1周期において、すべての特徴量がしきい値の範囲内であった場合、動作評価部105は、模範動作であると評価を行う。図15のように、模範動作である場合は「上手」としてその回数をカウントし、表示させてもよい。また、図15のように利用者の手が人形の手を圧迫する深さ、つまり手のy座標の推移を表示し、胸骨圧迫に必要な深さのしきい値ラインを合わせて表示することで、胸骨圧迫に必要なだけの圧迫が行われているか、ひと目でわかるようにしてもよい。
動作評価装置100は、図16に示されているようにシステム使用者の所有するパーソナルコンピュータと、パーソナルコンピュータ上で実行されるプログラムとして構成されてもよい。パーソナルコンピュータは、CPU(中央演算装置)1601と、CPU1601にバスを介して接続されているRAM(Random Access Memory)1603、ROM(Read Only Memory)1605、ハードディスクドライブなどの外部記憶装置1607、I/Oインターフェース1609、通信ネットワーク回線に接続するための通信インターフェース1611などとを備え、インターフェース1609には、カメラ1613、マイク1615、ディスプレイ1617が接続されている。この場合、例えば、動作評価装置100の画像取込部101、部位座標算出部102、利用者モデル生成部104、動作評価部105、出力制御部106の機能が、パーソナルコンピュータ上で実行されるプログラムによって実現され、教師動作記憶部103の機能が外部記憶装置によって実現され、撮像装置10、音声出力装置20、表示装置30の機能がそれぞれカメラ、マイク、ディスプレイによって実現される。各種機能を実現するプログラムは、外部記憶装置1607に記憶され、RAM1603に読みだされた後に、CPU1601によって実行される。
10 撮像装置
20 音声出力装置
30 表示装置
100 動作評価装置
101 画像取込部
102 部位座標算出部
103 教師動作記憶部
104 利用者モデル生成部
105 動作評価部
106 出力制御部

Claims (9)

  1. 利用者の画像データに基づいて利用者の体の部位座標を算出する部位座標算出部と、
    前記部位座標に基づいて利用者の形状モデルを生成し、教師動作パラメータに基づいて前記利用者の形状モデルによる教師動作の動画像データを生成する利用者モデル生成部と、
    前記部位座標に基づいて利用者の動作を評価する動作評価部と、
    前記利用者の形状モデルによる教師動作と利用者の動作とを重畳表示し、評価結果を出力する出力制御部とを有する動作評価装置。
  2. 前記部位座標算出部は、利用者の頭、両肩、両肘、手、両手首それぞれの重心座標を算出することで各部位の部位座標を算出することを特徴とする請求項1記載の動作評価装置。
  3. 前記部位座標算出部は、各部位の所定範囲内の画素における少なくとも視差情報に基づいて算出することを特徴とする請求項1又は2記載の動作評価装置。
  4. 前記部位座標算出部は、両肩の部位座標を算出し、両肩の部位座標に基づいて頭の部位座標を算出することを特徴とする請求項2又は3記載の動作評価装置。
  5. 前記利用者モデル生成部は、
    前記部位座標算出部が算出した部位座標に基づいて利用者の体格データを生成する体格データ算出部と、
    前記利用者の体格データに教師動作パラメータを各時点で加算することで前記利用者の形状モデルによる教師動画像データを生成する教師動作加算部と、
    を有する、請求項1〜4記載の動作評価装置。
  6. 前記教師動作加算部は、前記体格データ算出部から取得した体格データのうち、両肘及び両肩の部位座標を、両手首の部位座標と、教師動作の初期角度に基づいて補正することを特徴とする請求項5記載の動作評価装置。
  7. 前記動作評価部は、利用者の動作を1周期分抽出して評価を行い、
    前記出力制御部は、評価結果をあわせて出力する請求項1〜6記載の動作評価装置。
  8. 動作は胸骨圧迫動作であり、利用者の胸骨圧迫動作を評価することを特徴とする請求項1〜7記載の動作評価装置。
  9. 利用者の画像データに基づいて利用者の体の部位座標を算出する部位座標算出部と、
    前記部位座標に基づいて利用者の形状モデルを生成し、教師動作パラメータに基づいて前記利用者の形状モデルによる教師動作の動画像データを生成する利用者モデル生成部と、
    前記部位座標に基づいて利用者の動作を評価する動作評価部と、
    前記利用者の形状モデルによる教師動作と利用者の動作とを重畳表示し、評価結果を出力する出力制御部とを有する動作評価装置としてコンピュータを機能させることを特徴とするプログラム。
JP2014535535A 2012-09-12 2013-09-09 動作評価装置及びそのプログラム Active JP6124308B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012200433 2012-09-12
JP2012200433 2012-09-12
PCT/JP2013/074227 WO2014042121A1 (ja) 2012-09-12 2013-09-09 動作評価装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JPWO2014042121A1 true JPWO2014042121A1 (ja) 2016-08-18
JP6124308B2 JP6124308B2 (ja) 2017-05-10

Family

ID=50278232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014535535A Active JP6124308B2 (ja) 2012-09-12 2013-09-09 動作評価装置及びそのプログラム

Country Status (3)

Country Link
US (1) US20150255005A1 (ja)
JP (1) JP6124308B2 (ja)
WO (1) WO2014042121A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2703950A4 (en) * 2011-04-28 2015-01-14 Nec Solution Innovators Ltd INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
WO2014150457A2 (en) * 2013-03-15 2014-09-25 Nike, Inc. Feedback signals from image data of athletic performance
EP3940520A1 (en) 2015-04-13 2022-01-19 Huawei Technologies Co., Ltd. Method, apparatus, and device for enabling task management interface
JP6661110B2 (ja) * 2016-02-04 2020-03-11 公立大学法人岩手県立大学 聴診システム
US11219575B2 (en) * 2016-03-23 2022-01-11 Zoll Medical Corporation Real-time kinematic analysis during cardio-pulmonary resuscitation
US10737140B2 (en) 2016-09-01 2020-08-11 Catalyft Labs, Inc. Multi-functional weight rack and exercise monitoring system for tracking exercise movements
WO2018124188A1 (ja) * 2016-12-27 2018-07-05 Coaido株式会社 測定装置およびプログラム
JP7122090B2 (ja) * 2017-07-21 2022-08-19 前田建設工業株式会社 熟練動作教示システム
CN110634177A (zh) * 2018-06-21 2019-12-31 华为技术有限公司 一种物体建模运动方法、装置与设备
JP7262937B2 (ja) * 2018-06-29 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN109859537B (zh) * 2019-03-22 2022-10-18 吉首大学 一种织锦教学系统及方法、信息数据处理终端
KR102276009B1 (ko) * 2019-10-15 2021-07-13 정성호 심폐소생술 훈련 시뮬레이션 장치 및 방법
CN111539245B (zh) * 2020-02-17 2023-04-07 吉林大学 一种基于虚拟环境的cpr技术训练评价方法
WO2022075116A1 (ja) * 2020-10-06 2022-04-14 国立研究開発法人産業技術総合研究所 情報表示装置及び情報表示方法
WO2022232968A1 (en) * 2021-05-04 2022-11-10 Nutricia Early Life Nutrition (Shanghai) Co.,Ltd. A massage coaching method, device and application thereof
CN115641646B (zh) * 2022-12-15 2023-05-09 首都医科大学宣武医院 一种cpr自动检测质控方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237494A (ja) * 2004-02-24 2005-09-08 Nihon Knowledge Kk 実技分析システム及びプログラム
JP2011062352A (ja) * 2009-09-17 2011-03-31 Koki Hashimoto 運動モーション教示装置および遊戯施設
JP2011095935A (ja) * 2009-10-28 2011-05-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4448534A (en) * 1978-03-30 1984-05-15 American Hospital Corporation Antibiotic susceptibility testing
US5681223A (en) * 1993-08-20 1997-10-28 Inventures Inc Training video method and display
US5823786A (en) * 1993-08-24 1998-10-20 Easterbrook; Norman John System for instruction of a pupil
US6390996B1 (en) * 1998-11-09 2002-05-21 The Johns Hopkins University CPR chest compression monitor
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US20020064764A1 (en) * 2000-11-29 2002-05-30 Fishman Lewis R. Multimedia analysis system and method of use therefor
US20060247070A1 (en) * 2001-06-11 2006-11-02 Recognition Insight, Llc Swing position recognition and reinforcement
US20050272517A1 (en) * 2001-06-11 2005-12-08 Recognition Insight, Llc Swing position recognition and reinforcement
US6702691B2 (en) * 2002-08-12 2004-03-09 Callaway Golf Company Static pose fixture
US7457439B1 (en) * 2003-12-11 2008-11-25 Motion Reality, Inc. System and method for motion capture
US7428318B1 (en) * 2003-12-11 2008-09-23 Motion Reality, Inc. Method for capturing, measuring and analyzing motion
US20060094523A1 (en) * 2004-11-04 2006-05-04 Hall Carolyn W Method and apparatus for teaching how to execute a predetermined motion
US20070291035A1 (en) * 2004-11-30 2007-12-20 Vesely Michael A Horizontal Perspective Representation
WO2007030947A1 (en) * 2005-09-16 2007-03-22 Anthony Szturm Mapping motion sensors to standard input devices
US8323189B2 (en) * 2006-05-12 2012-12-04 Bao Tran Health monitoring appliance
US20090259148A1 (en) * 2006-07-19 2009-10-15 Koninklijke Philips Electronics N.V. Health management device
WO2008099301A1 (en) * 2007-02-14 2008-08-21 Koninklijke Philips Electronics N.V. Feedback device for guiding and supervising physical exercises
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
US8175326B2 (en) * 2008-02-29 2012-05-08 Fred Siegel Automated scoring system for athletics
US7671802B2 (en) * 2008-03-17 2010-03-02 Disney Enterprises, Inc. Active player tracking
US20100152600A1 (en) * 2008-04-03 2010-06-17 Kai Sensors, Inc. Non-contact physiologic motion sensors and methods for use
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
JP2011078728A (ja) * 2009-03-10 2011-04-21 Shinsedai Kk 身体状態評価装置、状態推測装置、歩幅推測装置、及び、健康管理システム
US10335346B2 (en) * 2009-07-22 2019-07-02 Physio-Control Canada Sales Ltd. Optical techniques for the measurement of chest compression depth and other parameters during CPR
US8206266B2 (en) * 2009-08-05 2012-06-26 David Hall Sensor, control and virtual reality system for a trampoline
US8202161B2 (en) * 2009-10-23 2012-06-19 Disney Enterprises, Inc. Virtual game instructor
IT1399855B1 (it) * 2010-04-28 2013-05-09 Technogym Spa Apparato per l'esecuzione assistita di un esercizio ginnico.
US20110269601A1 (en) * 2010-04-30 2011-11-03 Rennsselaer Polytechnic Institute Sensor based exercise control system
US8602887B2 (en) * 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US8562403B2 (en) * 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US20130171601A1 (en) * 2010-09-22 2013-07-04 Panasonic Corporation Exercise assisting system
US9358426B2 (en) * 2010-11-05 2016-06-07 Nike, Inc. Method and system for automated personal training
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
US9457256B2 (en) * 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
US9223936B2 (en) * 2010-11-24 2015-12-29 Nike, Inc. Fatigue indices and uses thereof
US9011293B2 (en) * 2011-01-26 2015-04-21 Flow-Motion Research And Development Ltd. Method and system for monitoring and feed-backing on execution of physical exercise routines
US8718748B2 (en) * 2011-03-29 2014-05-06 Kaliber Imaging Inc. System and methods for monitoring and assessing mobility
US8786680B2 (en) * 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras
US9600934B2 (en) * 2011-06-30 2017-03-21 Orange Augmented-reality range-of-motion therapy system and method of operation thereof
US8696450B2 (en) * 2011-07-27 2014-04-15 The Board Of Trustees Of The Leland Stanford Junior University Methods for analyzing and providing feedback for improved power generation in a golf swing
US11133096B2 (en) * 2011-08-08 2021-09-28 Smith & Nephew, Inc. Method for non-invasive motion tracking to augment patient administered physical rehabilitation
US9350951B1 (en) * 2011-11-22 2016-05-24 Scott Dallas Rowe Method for interactive training and analysis
US8951138B2 (en) * 2012-01-25 2015-02-10 Wawgd, Inc. Golf club head measurement system
JP5314224B1 (ja) * 2012-02-29 2013-10-16 美津濃株式会社 ランニングフォーム診断システムおよびランニングフォームを得点化する方法
US9579048B2 (en) * 2012-07-30 2017-02-28 Treefrog Developments, Inc Activity monitoring system with haptic feedback
KR102025752B1 (ko) * 2012-07-30 2019-11-05 삼성전자주식회사 사용자의 자세에 따라 콘텐트를 제공하는 전자기기 및 콘텐트 제공 방법
KR20140062892A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 운동 서비스를 제공하기 위한 웨어러블 디바이스와 디스플레이 장치 및 이를 포함하는 운동 서비스 제공 시스템과 그 방법
US9161708B2 (en) * 2013-02-14 2015-10-20 P3 Analytics, Inc. Generation of personalized training regimens from motion capture data
JP6539272B2 (ja) * 2013-08-07 2019-07-03 ナイキ イノベイト シーブイ コンピュータにより実現される方法、非一時的かつコンピュータが読み取り可能な媒体、および単一装置
US10134307B2 (en) * 2013-12-12 2018-11-20 Koninklijke Philips N.V. Software application for a portable device for CPR guidance using augmented reality
SE539429C2 (en) * 2015-12-15 2017-09-19 Greater Than S A Method and system for assessing the trip performance of a driver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237494A (ja) * 2004-02-24 2005-09-08 Nihon Knowledge Kk 実技分析システム及びプログラム
JP2011062352A (ja) * 2009-09-17 2011-03-31 Koki Hashimoto 運動モーション教示装置および遊戯施設
JP2011095935A (ja) * 2009-10-28 2011-05-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Kinect のトラッキング原理「部位認識に基づく3D 姿勢推定」", DERIVE コンピュータビジョンブログ, JPN6016022216, 7 June 2016 (2016-06-07), ISSN: 0003338376 *

Also Published As

Publication number Publication date
WO2014042121A1 (ja) 2014-03-20
US20150255005A1 (en) 2015-09-10
JP6124308B2 (ja) 2017-05-10

Similar Documents

Publication Publication Date Title
JP6124308B2 (ja) 動作評価装置及びそのプログラム
CN109432753B (zh) 动作矫正方法、装置、存储介质及电子设备
CN111091732B (zh) 一种基于ar技术的心肺复苏指导器及指导方法
US11069144B2 (en) Systems and methods for augmented reality body movement guidance and measurement
JP6045139B2 (ja) 映像生成装置、映像生成方法及びプログラム
TWI508034B (zh) 心肺復甦術教學系統及方法
US20160048993A1 (en) Image processing device, image processing method, and program
CN110544301A (zh) 一种三维人体动作重建系统、方法和动作训练系统
EP2203896B1 (en) Method and system for selecting the viewing configuration of a rendered figure
CN110544302A (zh) 基于多目视觉的人体动作重建系统、方法和动作训练系统
CN111539245B (zh) 一种基于虚拟环境的cpr技术训练评价方法
CN110490173B (zh) 一种基于3d体感模型的智能动作打分系统
CN113856186B (zh) 一种引体向上动作判定与计数的方法、系统及装置
CN112749684A (zh) 心肺复苏术训练和评估的方法及装置、设备、存储介质
CN114022512A (zh) 运动辅助方法、装置及介质
CN110477921B (zh) 基于骨架折线Ridge回归的身高测量方法
CN114783001A (zh) 游泳姿态评估方法、系统、装置及计算机可读存储介质
WO2016107226A1 (zh) 图像处理方法及装置
WO2021039857A1 (ja) 映像生成装置
CN112818800A (zh) 一种基于人体骨骼点深度图像的体育动作评估方法及系统
KR102310964B1 (ko) 근골격계 증상을 진단하기 위한 전자 장치, 방법, 및 시스템
CN116525061B (zh) 一种基于远程人体姿态评估的训练监控方法及系统
JP2022045832A (ja) 姿勢評価プログラム、姿勢評価装置、姿勢評価方法、及び姿勢評価システム。
JP7482471B2 (ja) 学習モデルの生成方法
Piraintorn et al. Stroke rehabilitation based on intelligence interaction system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170220

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170329

R150 Certificate of patent or registration of utility model

Ref document number: 6124308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250