JP6757010B1 - 動作評価装置、動作評価方法、動作評価システム - Google Patents

動作評価装置、動作評価方法、動作評価システム Download PDF

Info

Publication number
JP6757010B1
JP6757010B1 JP2019196328A JP2019196328A JP6757010B1 JP 6757010 B1 JP6757010 B1 JP 6757010B1 JP 2019196328 A JP2019196328 A JP 2019196328A JP 2019196328 A JP2019196328 A JP 2019196328A JP 6757010 B1 JP6757010 B1 JP 6757010B1
Authority
JP
Japan
Prior art keywords
partial
motion
evaluation
moving image
whole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019196328A
Other languages
English (en)
Other versions
JP2021071773A (ja
Inventor
宏輝 藤原
宏輝 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019196328A priority Critical patent/JP6757010B1/ja
Application granted granted Critical
Publication of JP6757010B1 publication Critical patent/JP6757010B1/ja
Publication of JP2021071773A publication Critical patent/JP2021071773A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現する。【解決手段】トレーニの動作を評価する動作評価方法は、機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価するステップを備える。【選択図】図3

Description

本発明は、動作評価装置、動作評価方法、動作評価システムに関する。
様々な分野(例えば、介護、医療、スポーツ等の分野)で、トレーニングの様子の動画を撮影し、且つ、当該動画を利用して専門知識を有する指導者が指導することにより、学習を効率化する取り組みが行われている。
トレーニングを実施するトレーニは、指導者の指導を受けられないときに、自ら撮影したトレーニングの様子を含む動画を自ら学習する場合がある。トレーニングの様子が撮影された動画を用いた学習は、トレーニの学習効率の向上の観点で有用である。
例えば、特許文献1には、スポーツの分野において、画像から推定される被検者の関節間の距離と基準長さとの比に基づいて、被検者の動作状態を示す値を計算し、且つ、当該動作状態を示す値に基づいて被検者の動作を評価する技術が開示されている。
国際公開WO2019082376号公報
実際のトレーニングでは、指導者は、個別の動作だけではなく、一連の動作を全体的に評価する。
しかし、特許文献1では、動作を個別に評価するものであるが、一連の動作を全体的に評価するものではない。
したがって、特許文献1によって得られる評価は、指導者の評価とは大きく異なる。
本発明の目的は、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することである。
本発明の一態様は、
トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備える、
動作評価方法である。
本発明によれば、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
第1実施形態の動作評価システムの構成を示すブロック図である。 図1の動作評価システムの機能ブロック図である。 第1実施形態の概要の説明図である。 本実施形態のユーザ情報データベースのデータ構造を示す図である。 本実施形態の動作識別情報データベースのデータ構造を示す図である。 本実施形態の部分動作情報データベースのデータ構造を示す図である。 本実施形態の全体動画情報データベースのデータ構造を示す図である。 本実施形態の評価条件データテーブルのデータ構造を示す図である。 第1実施形態の検出モデルの教師データの説明図である。 第1実施形態の動作の評価処理のシーケンス図である。 図10の評価の詳細なフローチャートである。 図10の情報処理において表示される画面例を示す図である。 図11の部分動画の検出の説明図である。 第1実施形態の部分評価情報のデータ構造を示す図である。 変形例1の情報処理のシーケンス図である。 図15の情報処理において表示される画面例を示す図である。 変形例2の概要の説明図である。 変形例3の概要の説明図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)第1実施形態
第1実施形態を説明する。
(1−1)動作評価システムの構成
第1実施形態の動作評価システムの構成を説明する。図1は、第1実施形態の動作評価システムの構成を示すブロック図である。図2は、図1の動作評価システムの機能ブロック図である。
図1に示すように、動作評価システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10は、サーバ30にリクエストを送信するコンピュータ(「情報処理装置」の一例)である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供するコンピュータ(「動作評価装置」の一例)である。サーバ30は、例えば、ウェブサーバである。
(1−1−1)クライアント装置の構成
クライアント装置10の構成を説明する。
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、を備える。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、撮影アプリケーション)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、これらの組み合わせである。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
カメラ15は、画像(例えば、動画)を撮影するように構成される。
(1−1−2)サーバの構成
サーバ30の構成を説明する。
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
(1−2)第1実施形態の概要
第1実施形態の概要を説明する。図3は、第1実施形態の概要の説明図である。
図3に示すように、クライアント装置10は、サーバ30に全体動画を送信する。全体動画は、トレーニの全体動作が撮影された動画である。全体動作は、一連の複数の部分動作を含む。
サーバ30は、機械学習によって生成された検出モデルを用いて、全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する。
サーバ30は、検出された複数の部分動画を参照して、トレーニの全体動作及び部分動作の少なくとも1つを評価する。
(1−3)データ構造
第1実施形態のデータ構造を説明する。以下のデータは、記憶装置31に記憶される。
(1−3−1)ユーザ情報データベース
本実施形態のユーザ情報データベースを説明する。図4は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
図4のユーザ情報データベースには、ユーザ情報が格納されている。ユーザ情報は、ユーザに関する情報である。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「クライアントID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
「ユーザID」フィールドには、ユーザ識別情報が格納される。ユーザ識別情報は、ユーザを識別する情報である。
「ユーザ名」フィールドには、ユーザ名に関する情報(例えば、テキスト)が格納される。
「ユーザ属性」フィールドには、ユーザ属性情報が格納される。ユーザ属性情報は、ユーザの属性に関する情報である。ユーザの属性は、例えば、以下の少なくとも1つを含む。
・性別
・年齢
・職業(介護士、医師、スポーツ選手等)
「クライアントID」フィールドには、クライアント識別情報が格納される。クライアント識別情報は、ユーザのクライアント装置10を識別する情報である。
(1−3−2)動作種別情報データベース
本実施形態の動作種別情報データベースを説明する。図5は、本実施形態の動作識別情報データベースのデータ構造を示す図である。
図5の動作種別情報データベースには、動作種別情報が格納されている。動作種別情報は、動作の種別に関する情報である。
動作種別情報データベースは、「全体動作ID」フィールドと、「全体動作名」フィールドと、「部分動作ID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
「全体動作ID」フィールドには、全体動作識別情報が格納される。全体動作識別情報は、全体動作を識別する情報である。
「全体動作名」フィールドには、全体動作名に関する情報(例えば、テキスト)が格納される。全体動作は、例えば、以下の少なくとも1つを含む。
・介護関連動作(一例として、手洗い、立ち上がり介助、歩行介助等)
・医療関連動作(一例として、縫合、切開等)
・スポーツ関連動作(一例として、投球、走行、歩行等)
「部分動作ID」フィールドには、全体動作を構成する部分動作を識別する部分動作識別情報が格納される。
(1−3−3)部分動作情報データベース
本実施形態の部分動作情報データベースを説明する。図6は、本実施形態の部分動作情報データベースのデータ構造を示す図である。
図6の部分動作情報データベースには、部分動作情報が格納されている。部分動作情報は、部分動作に関する情報である。
部分動作情報データベースは、「部分動作ID」フィールドと、「部分動作名」フィールドと、「モデルID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
部分動作情報データベースは、全体動作識別情報に関連付けられている。
「部分動作ID」フィールドには、部分動作識別情報が格納される。部分動作識別情報は、全体動作を構成する部分動作を識別する情報である。
「部分動作名」フィールドには、部分動作名に関する情報(例えば、テキスト)が格納される。例えば、全体動作「手洗い」の部分動作は、「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、「すすぐ」等を含む。
「モデルID」フィールドには、モデル識別情報が格納される。モデル識別情報は、全体動画から部分動作に該当するフレーム(以下「部分動画」という)を検出する検出モデルを識別する情報である。
(1−3−4)全体動画情報データベース
本実施形態の全体動画情報データベースを説明する。図7は、本実施形態の全体動画情報データベースのデータ構造を示す図である。
図7の全体動画情報データベースには、全体動画情報が格納される。全体動画情報は、全体動画に関する情報である。
全体動画情報データベースは、「全体動画ID」フィールドと、「全体動画」フィールドと、「評価結果」フィールドと、を含む。各フィールドは、互いに関連付けられている。
全体動画情報データベースは、ユーザ識別情報に関連付けられている。
「全体動画ID」フィールドには、全体動画識別情報が格納される。全体動画識別情報は、全体動画を識別する情報である。
「全体動画」フィールドには、全体動画が格納される。
「評価結果」フィールドには、評価結果情報が格納される。評価結果情報は、全体動画に含まれる全体動作及び部分動作に対する評価の結果に関する情報である。「評価結果」フィールドは、「評価日時」フィールドと、「部分評価」フィールドと、「全体評価」フィールドと、を含む。
「評価日時」フィールドには、評価の日時に関する情報が格納される。
「部分評価」フィールドには、部分評価情報が格納される。部分評価情報は、部分動作の評価結果に関する情報である。
「全体評価」フィールドには、全体評価情報が格納される。全体評価情報は、全体動作の評価結果に関する情報である。
(1−3−5)評価条件データテーブル
本実施形態の評価条件データテーブルを説明する。図8は、本実施形態の評価条件データテーブルのデータ構造を示す図である。
図8の評価条件データテーブルには、評価条件情報が格納されている。評価条件情報は、全体動作及び部分動作の評価の際に参照される評価条件に関する情報である。
評価条件データテーブルは、「評価指標」フィールドと、「評価スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
評価条件データテーブルは、部分動作識別情報に関連付けられている。つまり、評価条件は、部分動作毎に用意される。
「評価指標」フィールドには、評価指標情報が格納される。評価指標情報は、評価指標に関する情報である。評価指標は、例えば、以下を含む。
・「有無」…部分動画の有無
・「順番」…全体動画における部分動画の順番
・「期間」…部分動画の長さ
・「開始時間」…全体動画の開始時点から部分動画の開始時点までの経過時間
「評価スコア」フィールドには、評価指標毎の評価スコアに関する条件が格納されている。
例えば、部分動画が無い(つまり、部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画が有る(つまり、部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の順番が誤りである(つまり、所定の順番に従って部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画の順番が正しい(つまり、所定の順番に従って部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の長さが所定の期間閾値Pth未満である(つまり、所定の期間だけ部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画の長さが期間閾値Pth以上である(つまり、所定の期間だけ部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の開始時間STが所定の第1開始時間閾値Sth1未満である(つまり、所定タイミング迄に部分動作が実行された)場合には、部分動作の評価スコアは「0」である。部分動画の開始時間STが第1開始時間閾値Sth1以上であり、且つ、第2開始時間閾値Sth2(>Sth1)未満である(つまり、所定期間内に部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
(1−4)情報処理
第1実施形態の情報処理を説明する。
(1−4−1)検出モデルの生成処理
第1実施形態の検出モデルの生成処理を説明する。図9は、第1実施形態の検出モデルの教師データの説明図である。
本実施形態の検出モデルの生成処理を実行するために、教師データ、機械学習モデル、及び、サンプル部分動画を用意する。
図9に示すように、教師データは、複数の学習用動画、及び、複数の正解データの組合せである。
学習用動画は、対象動画Y、及び、対象動画とは異なる非対象動画Xnのランダムな組合せである。
正解データは、各学習用動画における対象動画Yの位置を示す時系列データである。
検出モデルは、機械学習モデルに教師データを機械学習させることにより生成される。機械学習は、学習用動画を入力すると、正解データを出力するように機械学習モデルのパラメータを調整することにより実行される。これにより、学習用動画が入力されると、対象動画Yの尤度を時系列で出力するように構成された汎用モデルが生成される。
対象動画Yが部分動画となるように、汎用モデルを転移学習させる。これにより、全体動画から部分動画を検出するための検出モデルが生成される。
(1−4−2)動作の評価処理
第1実施形態の動作の評価処理を説明する。図10は、第1実施形態の動作の評価処理のシーケンス図である。図11は、図10の評価の詳細なフローチャートである。図12は、図10の情報処理において表示される画面例を示す図である。図13は、図11の部分動画の検出の説明図である。図14は、第1実施形態の部分評価情報のデータ構造を示す図である。
以下の例では、クライアント装置10のユーザは、動作のトレーニングを実行するトレーニ(例えば、介護者、医師、スポーツ選手等)である。
図10の処理は、ユーザを識別するユーザ識別情報を用いて撮影アプリケーションを起動することによって開始する。
図10に示すように、クライアント装置10は、動作種別の指定の受付(S111)を実行する。
具体的には、プロセッサ12は、画面G10(図12)をディスプレイに表示する。
画面G10は、操作オブジェクトB10a〜B10dを含む。
操作オブジェクトB10a〜B10cは、それぞれ、全体動作名「手洗い」、「立ち上がり介助」、又は、「歩行介助」を指定するためのユーザ指示を受け付けるためのオブジェクトである。操作オブジェクトB11a〜B11cには、それぞれ、全体動作名「手洗い」、「立ち上がり介助」、及び、「歩行介助」の全体動作識別情報が割り当てられている。ユーザが操作オブジェクトB10a〜B10cの何れかを操作すると、プロセッサ12は、操作された操作オブジェクトB10a〜B10cの何れかに割り当てられた全体動作識別情報を、評価の対象となる全体動作識別情報(以下「対象全体動作識別情報」という)として受け付ける。
操作オブジェクトB10dは、動画の撮影を開始するためのユーザ指示を受け付けるためのオブジェクトである。操作オブジェクトB10dが操作されると、プロセッサ12は、カメラ15に動画の撮影を開始させる。
ステップS111の後、クライアント装置10は、全体動作の撮影(S112)を実行する。
具体的には、ユーザが操作オブジェクトB10a及びB10dを操作すると、プロセッサ12は、カメラ15に動画の撮影を開始させる。
ユーザが動画の撮影を終了するためのユーザ指示をクライアント装置10に与えると(例えば、動画の撮影を終了するためのユーザ指示を受け付ける操作オブジェクト(不図示)を操作すると)、プロセッサ12は、全体動画を記憶装置11に記憶し、且つ、画面G11(図12)をディスプレイに表示する。
画面G11は、動画オブジェクトMOV11と、操作オブジェクトB11と、を含む。
動画オブジェクトMOV11は、記憶装置11に記憶された全体動画のサムネイル画像のオブジェクトである。
操作オブジェクトB11は、全体動画をサーバ30にアップロードするためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11を操作すると、プロセッサ12は、記憶装置11に記憶された全体動画をサーバ30にアップロードする。
ステップS112の後、クライアント装置10は、評価リクエスト(S113)を実行する。
具体的には、ユーザが操作オブジェクトB11を操作すると、プロセッサ12は、評価リクエストデータをサーバ30に送信する。評価リクエストデータは、以下の情報を含む。
・撮影アプリケーションを起動するときに指定されたユーザ識別情報
・ステップS111で受け付けられた対象全体動作識別情報
・ステップS112で記憶装置11に記憶された全体動画
ステップS113の後、サーバ30は、図11のフローに従って評価(S131)を実行する。
図11に示すように、サーバ30は、検出モデルの決定(S1311)を実行する。
具体的には、プロセッサ32は、動作種別情報データベース(図5)を参照して、評価リクエストデータに含まれる対象全体動作識別情報に関連付けられた「部分動作ID」フィールドの情報(つまり、ユーザが指定した動作種別の全体動作を構成する部分動作の部分動作識別情報(以下「対象部分動作識別情報」という))を特定する。
プロセッサ32は、部分動作情報データベース(図6)を参照して、各対象部分動作識別情報に関連付けられた「モデルID」フィールドの情報(つまり、対象部分動作識別情報に対応する部分動作(以下「対象部分動作」という)を検出するための検出モデルのモデル識別情報)を特定する。
例えば、対象全体動作識別情報「T01」(全体動作名「手洗い」)の場合、対象部分動作識別情報「P11」〜「P14」(部分動作名「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、及び、「すすぐ」)、並びに、モデル識別情報「M11」〜「M14」が特定される(図6)。
ステップS1311の後、サーバ30は、部分動画の検出(S1312)を実行する。
具体的には、プロセッサ32は、ステップS1311で特定された各検出モデルに対して、評価リクエストデータに含まれる全体動画を入力する。プロセッサ32は、各検出モデルの出力に基づいて、各部分動画を検出する。
より具体的には、対象全体動作識別情報「T01」(全体動作名「手洗い」)の場合、プロセッサ32は、モデル識別情報「M11」〜「M14」に対応する各検出モデルに対して、全体動画を入力する。
図13に示すように、各検出モデル(モデル識別情報「M11」〜「M14」)は、対象全体動作識別情報「T01」(全体動作名「手洗い」)に対応する全体動作を構成する部分動作(「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、及び、「すすぐ」)に対応する部分動画P11〜P14の尤度をそれぞれ時系列で出力する。
プロセッサ32は、出力された尤度に基づいて、各部分動画P11〜P14の開始時間ST1〜ST4、及び、終了時間ET1〜ET4を特定する。一例として、プロセッサ32は、尤度と所定の尤度閾値を比較することにより、開始時間ST1〜ST4、及び、終了時間ET1〜ET4を特定する。
プロセッサ32は、部分動画P11〜P14の対象部分動作識別情報、部分動画P11〜P14の開始時間ST1〜ST4、及び、終了時間ET1〜ET4の組合せを記憶装置31に記憶する。
ステップS1312の後、サーバ30は、部分動作の評価(S1313)を実行する。
具体的には、プロセッサ32は、ステップS1312で記憶装置31に記憶された各対象部分動作識別情報に関連付けられた評価条件データテーブル(図8)を特定する。
プロセッサ32は、特定した評価条件データテーブルを参照して、「評価指標」フィールドの情報(例えば、各部分動作を含む部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間)に対応する「評価スコア」フィールドの情報(つまり、評価スコア)を特定する。これにより、部分評価情報(図14)が得られる。
ステップS1313の後、サーバ30は、全体動作の評価(S1314)を実行する。
ステップS1314の第1例では、プロセッサ32は、ステップS1313で得られた部分評価情報を参照して、全体動作の評価スコア(つまり、全体評価情報)を決定する。
より具体的には、プロセッサ32は、以下の少なくとも1つを全体動作の評価スコアとして決定する。
・部分動作の評価スコアの合計値
・部分動作の評価スコアの平均値
・当該合計値又は当該平均値に対応する指標(例えば、ランク)
一例として、動作種別が「手のひらを洗う」である場合、図8の評価条件データテーブルが参照される。
この場合、プロセッサ32は、部分動画P11が検出され、部分動画P11の順番が評価条件に示される順番と同一であり、部分動画P11の期間がPth以上であり、開始時間STが第1開始時間閾値Sth1〜第2開始時間閾値Sth2の間に含まれる場合、部分動画P11の評価スコアを「4」に決定する。
ステップS1314の第2例では、プロセッサ32は、ステップS1312で検出された部分動画の数に応じて、全体動作の評価スコアを決定する。
この場合、ステップS1313は省略可能である。
ステップS131の後、サーバ30は、データベースの更新(S132)を実行する。
具体的には、プロセッサ32は、評価リクエストデータに含まれるユーザ識別情報に関連付けられた全体動画情報データベース(図7)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「全体動画ID」フィールド…新規の全体動画識別情報
・「全体動画」フィールド…評価リクエストデータに含まれる全体動画
・「評価日時」フィールド…ステップS131の実行日時に関する情報
・「部分評価」フィールド…ステップS1313で得られた部分評価情報
・「全体評価」フィールド…ステップS1314で得られた全体評価情報
ステップS132の後、サーバ30は、評価レスポンス(S133)を実行する。
具体的には、プロセッサ32は、評価レスポンスデータをクライアント装置10に送信する。評価レスポンスデータは、以下の情報を含む。
・ステップS1312の実行結果(つまり、部分動画の検出結果)に関する情報
・ステップS1313の実行結果(つまり、部分評価情報)
・ステップS1314の実行結果(つまり、全体評価情報)
ステップS133の後、クライアント装置10は、評価結果の表示(S114)を実行する。
具体的には、プロセッサ12は、画面G12(図12)をディスプレイに表示する。
画面G12には、評価レスポンスデータに含まれる情報が表示される。画面G12は、表示オブジェクトA12a〜A12bと、画像オブジェクトIMG12と、動画オブジェクトMOV11と、を含む。
表示オブジェクトA12aには、部分評価情報が表示される。
表示オブジェクトA12bには、全体評価情報が表示される。
画像オブジェクトIMG12は、部分動画の検出結果を時系列で示すオブジェクトである。
なお、ステップS133では、評価レスポンスデータは、部分評価情報を含まなくても良い。この場合、ステップS114では、部分評価情報の表示は省略される。
また、ステップS133では、評価レスポンスデータは、全体評価情報を含まなくても良い。この場合、ステップS114では、全体評価情報の表示は省略される。
第1実施形態によれば、全体動画から部分動画を検出し、且つ、部分動画に関する評価条件を用いて、全体動作を評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
また、第1実施形態によれば、部分動作毎の検出モデルを用いて部分動画を検出する。これにより、適切に部分動作を検出することができる。
また、第1実施形態によれば、検出された部分動画の数に応じて、全体動作及び部分動作の少なくとも1つを評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
また、第1実施形態によれば、検出された部分動画の順番、各部分動画の期間、及び、各部分動作の開始時間の少なくとも1つを参照して、全体動作及び部分動作の少なくとも1つを評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
また、第1実施形態によれば、予め指定されたトレーニの動作の種別に応じて、全体動作及び部分動作の少なくとも1つを評価する。これにより、より正確な評価を実現することができる。
また、第1実施形態によれば、検出された部分動作の種別に応じた検出モデルを用いて部分動画を検出する。これにより、適切に部分動画を検出することができる。
また、第1実施形態によれば、動作の種別に応じた評価条件を用いて部分動画を評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
(2)第2実施形態
第2実施形態を説明する。第2実施形態は、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて部分動作を評価する例である。なお、上記の実施形態と同様の説明は省略する。
(2−1)動作の評価処理
第2実施形態の動作の評価処理を説明する。
サーバ30は、第1実施形態(図11)と同様に、検出モデルの決定(S1311)〜部分動画の検出(S1312)を実行する。
ステップS1312の後、サーバ30は、部分動作の評価(S1313)を実行する。
具体的には、記憶装置31には、部分動作毎の部分動作評価モデルが記憶されている。各部分動作評価モデルは、部分動作識別情報に関連付けられている。
部分動作評価モデルには、各部分動作に含まれる要素動作(例えば、姿勢、表情、及び、発話の少なくとも1つ)毎の評価条件が記述されている。部分動作評価モデルは、例えば、予め定められたルール、又は、機械学習により生成された学習済モデルである。
プロセッサ32は、対象部分動作識別情報に関連付けられた部分動作評価モデルを参照して、ステップS1312で検出された各部分動画に対応する部分動作に含まれる要素動作の評価スコアを決定する。
プロセッサ32は、各要素動作の評価スコアを参照して、部分動作の部分動作評価情報を決定する。
より具体的には、プロセッサ32は、以下の少なくとも1つを部分動作の評価スコアとして決定する。
・要素動作の評価スコアの合計値
・要素動作の評価スコアの平均値
・当該合計値又は当該平均値に対応する指標(例えば、ランク)
・部分動画の有無
・部分動画の順番
・部分動画の期間
・各部分動画における部分動作の開始時間
一例として、動作種別が「歩行介助」であり、且つ、部分動作が「被介助者の手を取る」であり、評価対象となる要素動作が「表情」であり、且つ、要素動作の評価条件が「笑顔で被介助者の目を見る」である場合、プロセッサ32は、部分動画を解析することによって、トレーニの表情(例えば、笑顔のレベル)を特定する。
プロセッサ32は、特定結果(例えば、笑顔のレベル)に基づいて、要素動作「表情」の評価スコアを計算する。
ステップS1313の後、サーバ30は、第1実施形態(図10)と同様に、全体動作の評価(S1314)を実行する。
ステップS1314の後、サーバ30は、図10のデータベースの更新(S132)を実行する。
具体的には、プロセッサ32は、評価リクエストデータに含まれるユーザ識別情報に関連付けられた全体動画情報データベース(図7)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「全体動画ID」フィールド…新規の全体動画識別情報
・「全体動画」フィールド…評価リクエストデータに含まれる全体動画
・「評価日時」フィールド…ステップS131の実行日時に関する情報
・「部分評価」フィールド…ステップS1313で得られた部分評価情報
・「全体評価」フィールド…ステップS1314で得られた全体評価情報
ステップS2311の後、サーバ30は、第1実施形態(図10)と同様に、評価レスポンス(S133)を実行する。
ステップS133の後、クライアント装置10は、第1実施形態と同様に、評価結果の表示(S114)を実行する。
第2実施形態によれば、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて、部分動作を構成する複数の要素動作のそれぞれを評価し、且つ、各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する。これにより、全体動作及び部分動作の少なくとも1つをより詳細に評価することができる。
(3)変形例
本実施形態の変形例を説明する。
(3−1)変形例1
本実施形態の変形例1を説明する。変形例1は、サーバ30が動作種別を判定する例である。
図15は、変形例1の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
図15に示すように、クライアント装置10は、全体動作の撮影(S111)を実行する。
具体的には、プロセッサ12は、画面G20(図16)をディスプレイに表示する。画面G20は、操作オブジェクトB10dを含む。
ステップS111の後、クライアント装置10は、評価リクエスト(S112)を実行する。
具体的には、プロセッサ12は、評価リクエストデータをサーバ30に送信する。評価リクエストデータは、以下の情報を含む。
・撮影アプリケーションを起動するときに指定されたユーザ識別情報
・ステップS112で記憶装置11に記憶された全体動画
ステップS112の後、サーバ30は、動作種別の特定(S331)を実行する。
具体的には、記憶装置31には、動作種別特定モデルが記憶されている。動作種別特定モデルには、動画の特徴量と動作種別との相関関係が記述されている。
プロセッサ32は、評価リクエストデータに含まれる全体動画を動作種別特定モデルに入力することにより、全体動画の動作種別(つまり、全体動作の種別)を特定する。
ステップS331の後、サーバ30は、第1実施形態(図10)又は第2実施形態と同様に、評価(S131)〜評価レスポンス(S133)を実行する。
ステップS133の後、クライアント装置10は、本実施形態(図10)と同様に、評価結果の表示(S114)を実行する。
なお、動作種別の特定(S331)は、部分動画の検出(S1312)の後に実行されても良い。
この場合、プロセッサ32は、ステップS1312で検出された複数の部分動画の少なくとも1つを動作種別特定モデルに入力することにより、全体動画の動作種別を特定する。
変形例1によれば、ユーザが指定することなく、動作の種別が特定される。これにより、動作の評価におけるユーザの負担を軽減することができる。
(3−2)変形例2
本実施形態の変形例2を説明する。変形例2は、全体動画に含まれるトレーニ以外の人物(以下「非トレーニ」という)の動作を考慮して、トレーニの動作を評価する例である。
(3−2−1)変形例2の概要
本実施形態の変形例2の概要を説明する。図17は、変形例2の概要の説明図である。
図17に示すように、変形例2では、全体動画に含まれる非トレーニの動作(全体動作及び部分動作の少なくとも1つ)、並びに、トレーニの動作(全体動作及び部分動作の少なくとも1つ)を参照して、トレーニの動作を評価する。
非トレーニは、例えば、以下の少なくとも1つを含む。
・トレーニが介護者である場合の被介護者
・トレーニが医師である場合の患者
・トレーニがスポーツ選手である場合の相手選手
図17に示すように、変形例2では、クライアント装置10がサーバ30に全体動画を送信する。全体動画は、トレーニの動作(例えば、一連の部分動作を含む全体動作)、及び、非トレーニの動作(例えば、一連の部分動作を含む全体動作)の組合せに対応する。
サーバ30は、機械学習によって生成された検出モデルを用いて、全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する。
サーバ30は、検出された複数の部分動画(つまり、非トレーニの動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せ)を参照して、全体動作及び部分動作の少なくとも1つを評価する。
(3−2−2)情報処理
本実施形態の変形例2の情報処理を説明する。
変形例2の検出モデルは、動画の種別に応じて、トレーニの部分動作及び非トレーニの部分動作の組合せを検出するように構成される。
記憶装置31には、トレーニの姿勢及び非トレーニの姿勢の相関関係に関する評価条件テーブル、トレーニの表情及び非トレーニの表情の相関関係に関する評価条件テーブル、並びに、トレーニの発話及び非トレーニの発話の相関関係に関する評価条件テーブルの少なくとも1つが記憶されている。
プロセッサ32は、ステップS1312(図11)において、記憶装置11に記憶されたルール又は機械学習モデルを用いて、部分動画から、トレーニの姿勢の画像、トレーニの表情の画像、及び、トレーニの発話の画像又は音声の少なくとも1つを抽出する。
プロセッサ32は、トレーニの姿勢及び非トレーニの姿勢の相関関係に関する評価条件テーブルと、抽出されたトレーニの姿勢及び非トレーニの姿勢の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、姿勢に関する評価スコア)を計算する。
プロセッサ32は、トレーニの表情及び非トレーニの表情の相関関係に関する評価条件テーブルと、抽出されたトレーニの表情及び非トレーニの表情の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、表情に関する評価スコア)を計算する。
プロセッサ32は、トレーニの発話及び非トレーニの発話の相関関係に関する評価条件テーブルと、抽出されたトレーニの発話及び非トレーニの発話の音声と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、発話に関する評価スコア)を計算する。
変形例2によれば、動作の評価において、非トレーニの動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。
(3−3)変形例3
本実施形態の変形例3を説明する。変形例3は、全体動画に含まれる物体の動作を考慮して、トレーニの動作を評価する例である。
(3−3−1)変形例3の概要
本実施形態の変形例3の概要を説明する。図18は、変形例3の概要の説明図である。
図18に示すように、変形例3では、全体動画に含まれる物体の動作(全体動作及び部分動作の少なくとも1つ)、並びに、トレーニの動作(全体動作及び部分動作の少なくとも1つ)を参照して、トレーニの動作を評価する。
物体は、例えば、以下の少なくとも1つを含む。
・トレーニが介護者である場合の介護用品(一例として、可動式介護用ベッド)
・トレーニが医師である場合の医療機器(一例として、手術器具)
・トレーニがスポーツ選手である場合のスポーツ器具(一例として、ボール、バット、ラケット、ゴルフクラブ等)
サーバ30は、機械学習によって生成された検出モデルを用いて、全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する。
サーバ30は、検出された複数の部分動画(つまり、物体の動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せ)を参照して、全体動作及び部分動作の少なくとも1つを評価する。
(3−3−2)情報処理
本実施形態の変形例3の情報処理を説明する。
変形例3の検出モデルは、動画の種別に応じて、トレーニの部分動作及び物体の部分動作の組合せを検出するように構成される。
記憶装置31には、トレーニの姿勢及び物体の姿勢の相関関係に関する評価条件テーブル、並びに、トレーニの発話及び物体の発話の相関関係に関する評価条件テーブルの少なくとも1つが記憶されている。
プロセッサ32は、ステップS1312(図11又は図16)において、記憶装置11に記憶されたルール又は機械学習モデルを用いて、部分動画から、トレーニの姿勢の画像、及び、トレーニの発話の画像又は音声の少なくとも1つを抽出する。
プロセッサ32は、トレーニの姿勢及び物体の姿勢の相関関係に関する評価条件テーブルと、抽出されたトレーニの姿勢及び物体の姿勢の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、姿勢に関する評価スコア)を計算する。
プロセッサ32は、トレーニの発話及び物体の動作音の相関関係に関する評価条件テーブルと、抽出されたトレーニの発話及び物体の動作音の音声と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、発話に関する評価スコア)を計算する。
ステップS1312の後、サーバ30は、第1実施形態(図10)又は第2実施形態と同様に、データベースの更新(S132)〜評価レスポンス(S133)を実行する。
ステップS133の後、クライアント装置10は、第1実施形態又は第2実施形態と同様に、評価結果の表示(S114)を実行する。
変形例3によれば、動作の評価において、物体の動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。
(4)本実施形態の小括
本実施形態について小括する。
本実施形態の第1態様は、
トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップ(例えば、ステップS1312)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価するステップ(例えば、ステップS1313〜S1314)を備える、
動作評価方法である。
第1態様によれば、全体動画から部分動画を検出し、且つ、部分動画に関する評価条件を用いて、全体動作及び部分動作の少なくとも1つを評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
本実施形態の第2態様は、
検出するステップは、
複数の部分動作のそれぞれに対応する検出モデルを用いて、各部分動作の尤度を計算し、
各部分動作の尤度に基づいて、各部分動画を検出する、
動作評価方法である。
第2態様によれば、部分動作毎の検出モデルを用いて部分動画を検出する。これにより、適切に部分動画を検出することができる。
本実施形態の第3態様は、
評価するステップは、検出された部分動画の数を参照して、全体動作を評価する、
動作評価方法である。
第3態様によれば、部分動画の数に応じて評価を実行する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
本実施形態の第4態様は、
評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
第4態様によれば、部分動画の順番及び期間、並びに、部分動作の開始時間の少なくとも1つに応じて評価を実行する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
本実施形態の第5態様は、
トレーニの動作の種別に関する種別情報を取得するステップ(例えば、ステップS1311)を備え、
取得された種別情報を参照して、全体動画の種別を特定するステップ(S1311)を備える、
動作評価方法である。
第5態様によれば、予め指定されたトレーニの動作の種別に応じて評価を実行する。これにより、より正確な評価を実現することができる。
本実施形態の第6態様は、
全体動画及び部分動画の少なくとも1つを参照して、トレーニの動作の種別を特定するステップ(例えば、ステップS331)を備える、
動作評価方法である。
第6態様によれば、ユーザが指定することなく、動作の種別が特定される。これにより、動作の評価におけるユーザの負担を軽減することができる。
本実施形態の第7態様は、
検出するステップは、特定された種別に応じた検出モデルを用いる、
動作評価方法である。
第7態様によれば、第6態様と同様の効果が得られる。
本実施形態の第8態様は、
評価するステップは、特定された種別に応じた評価条件を参照して、各部分動画を評価する、
動作評価方法である。
第8態様によれば、動作の種別に応じた評価条件を用いて部分動画を評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。
本実施形態の第9態様は、
評価するステップは、全体動画に含まれるトレーニ以外の人物の動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
第9態様によれば、動作の評価において、非トレーニの動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。
本実施形態の第10態様は、
評価するステップは、全体動画に含まれるトレーニ以外の物体の様子、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
第10態様によれば、動作の評価において、物体の動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。
本実施形態の第11態様は、
評価するステップは、
部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
第11態様によれば、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて、部分動作を構成する複数の要素動作のそれぞれを評価し、且つ、各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する。これにより、全体動作及び部分動作の少なくとも1つをより詳細に評価することができる。
本実施形態の第12態様は、
トレーニの動作を評価する動作評価装置(例えば、サーバ30)であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段(例えば、ステップS1312を実行するプロセッサ32)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価する手段(例えば、ステップS1313〜S1314を実行するプロセッサ32)を備える、
動作評価装置(例えば、サーバ30)である。
第12態様によれば、第1態様と同様の効果が得られる。
本実施形態の第13態様は、
トレーニの動作を評価する動作評価システム1であって、
クライアント装置10と、サーバ30と、を備え、
クライアント装置10は、
一連の部分動作を含む全体動作が撮影された全体動画をサーバ30に送信する手段(例えば、ステップS113を実行するプロセッサ12)を備え、
サーバ30は、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段(例えば、ステップS1312を実行するプロセッサ32)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価する手段(例えば、ステップS1313〜S1314を実行するプロセッサ32)を備える、
動作評価システム1である。
第13態様によれば、第1態様と同様の効果が得られる。
(5)その他の変形例
その他の変形例を説明する。
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
例えば、クライアント装置10が上記の情報処理の全てのステップを実行可能である場合、クライアント装置10は、サーバ30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。
本実施形態では、クライアント装置10が全体動画を撮影する例を示したが、本実施形態の範囲はこれに限られない。本実施形態は、以下の何れかの場合にも適用可能である。
・ステップS111の実行前に記憶装置11に記憶されていた全体動画(つまり、図10の処理の実行前に撮影された全体動画)
・クライアント装置10のカメラ15以外のカメラ(例えば、ステップS111を実行するクライアント装置10と通信可能な外部カメラ)で撮影された全体動画
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :動作評価システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

Claims (26)

  1. トレーニの動作を評価する動作評価方法であって、
    機械学習によって生成された検出モデルのうち前記トレーニの動作の種別に応じた検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備える、
    動作評価方法。
  2. 前記評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    請求項1に記載の動作評価方法。
  3. 前記トレーニの動作の種別に関する種別情報を取得するステップを備える、
    請求項1又は2に記載の動作評価方法。
  4. 前記全体動画を参照して、前記トレーニの動作の種別を特定するステップを備える、請求項1又は2に記載の動作評価方法。
  5. 前記評価するステップは、前記トレーニの動作の種別に応じた評価条件を参照して、各部分動画を評価する、
    請求項1〜の何れかに記載の動作評価方法。
  6. トレーニの動作を評価する動作評価方法であって、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備え、
    前記評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    動作評価方法。
  7. 前記トレーニの動作の種別に関する種別情報を取得するステップを備える、
    請求項6に記載の動作評価方法。
  8. 前記全体動画を参照して、前記トレーニの動作の種別を特定するステップを備える、請求項6に記載の動作評価方法。
  9. 前記評価するステップは、前記トレーニの動作の種別に応じた評価条件を参照して、各部分動画を評価する、
    請求項7又は8に記載の動作評価方法。
  10. トレーニの動作を評価する動作評価方法であって、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備え、
    前記評価するステップは、前記検出された部分動画の数を参照して、前記全体動作を評価する、
    動作評価方法。
  11. トレーニの動作を評価する動作評価方法であって、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備え、
    前記評価するステップは、
    前記部分動作を構成する複数の要素動作のそれぞれを評価し、
    各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    動作評価方法。
  12. 前記トレーニの動作の種別に関する種別情報を取得するステップを備え、
    前記取得された種別情報を参照して、前記全体動画の種別を特定するステップを備える、
    請求項10又は11に記載の動作評価方法。
  13. 前記全体動画を参照して、前記トレーニの動作の種別を特定するステップを備える、請求項10又は11に記載の動作評価方法。
  14. 前記検出するステップは、前記特定された種別に応じた検出モデルを用いる、
    請求項12又は13に記載の動作評価方法。
  15. 前記評価するステップは、前記特定された種別に応じた評価条件を参照して、各部分動画を評価する、
    請求項12〜14の何れかに記載の動作評価方法。
  16. 前記検出するステップは、
    前記複数の部分動作のそれぞれに対応する検出モデルを用いて、各部分動作の尤度を計算し、
    各部分動作の尤度に基づいて、各部分動画を検出する、
    請求項1〜15の何れかに記載の動作評価方法。
  17. 前記評価するステップは、前記全体動画に含まれる前記トレーニ以外の人物の動作、並びに、前記トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    請求項1〜16の何れかに記載の動作評価方法。
  18. 前記評価するステップは、前記全体動画に含まれる前記トレーニ以外の物体の様子、並びに、前記トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    請求項1〜17の何れかに記載の動作評価方法。
  19. トレーニの動作を評価する動作評価装置であって、
    機械学習によって生成された検出モデルのうち前記トレーニの動作の種別に応じた検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備える、
    動作評価装置。
  20. トレーニの動作を評価する動作評価装置であって、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
    前記評価する手段は、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    動作評価装置。
  21. トレーニの動作を評価する動作評価装置であって、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
    前記評価する手段は、前記検出された部分動画の数を参照して、前記全体動作を評価する、
    動作評価装置。
  22. トレーニの動作を評価する動作評価装置であって、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
    前記評価する手段は、
    前記部分動作を構成する複数の要素動作のそれぞれを評価し、
    各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    動作評価装置。
  23. トレーニの動作を評価する動作評価システムであって、
    クライアント装置と、サーバと、を備え、
    前記クライアント装置は、
    一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
    前記サーバは、
    機械学習によって生成された検出モデルのうち前記トレーニの動作の種別に応じた検出モデルを用いて、前記全体動画から、各部分動作に対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備える、
    動作評価システム。
  24. トレーニの動作を評価する動作評価システムであって、
    クライアント装置と、サーバと、を備え、
    前記クライアント装置は、
    一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
    前記サーバは、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
    前記評価する手段は、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    動作評価システム。
  25. トレーニの動作を評価する動作評価システムであって、
    クライアント装置と、サーバと、を備え、
    前記クライアント装置は、
    一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
    前記サーバは、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
    前記評価する手段は、前記検出された部分動画の数を参照して、前記全体動作を評価する、
    動作評価システム。
  26. トレーニの動作を評価する動作評価システムであって、
    クライアント装置と、サーバと、を備え、
    前記クライアント装置は、
    一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
    前記サーバは、
    機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
    前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
    前記評価する手段は、
    前記部分動作を構成する複数の要素動作のそれぞれを評価し、
    各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
    動作評価システム。
JP2019196328A 2019-10-29 2019-10-29 動作評価装置、動作評価方法、動作評価システム Active JP6757010B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019196328A JP6757010B1 (ja) 2019-10-29 2019-10-29 動作評価装置、動作評価方法、動作評価システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196328A JP6757010B1 (ja) 2019-10-29 2019-10-29 動作評価装置、動作評価方法、動作評価システム

Publications (2)

Publication Number Publication Date
JP6757010B1 true JP6757010B1 (ja) 2020-09-16
JP2021071773A JP2021071773A (ja) 2021-05-06

Family

ID=72432436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196328A Active JP6757010B1 (ja) 2019-10-29 2019-10-29 動作評価装置、動作評価方法、動作評価システム

Country Status (1)

Country Link
JP (1) JP6757010B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093886B2 (en) * 2018-11-27 2021-08-17 Fujifilm Business Innovation Corp. Methods for real-time skill assessment of multi-step tasks performed by hand movements using a video camera
WO2023243044A1 (ja) * 2022-06-16 2023-12-21 日本電信電話株式会社 修正箇所優先順位生成方法、修正箇所優先順位生成装置およびプログラム
JP7359349B1 (ja) 2022-07-07 2023-10-11 Co-Growth株式会社 評価支援システム、情報処理装置の制御方法、及び情報処理装置の制御プログラム
WO2024062882A1 (ja) * 2022-09-20 2024-03-28 株式会社Ollo プログラム、情報処理方法、及び情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
WO2017150211A1 (ja) * 2016-03-03 2017-09-08 コニカミノルタ株式会社 行動認識装置及び行動学習装置並びに行動認識プログラム及び行動学習プログラム

Also Published As

Publication number Publication date
JP2021071773A (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6757010B1 (ja) 動作評価装置、動作評価方法、動作評価システム
Thar et al. A proposal of yoga pose assessment method using pose detection for self-learning
KR100772497B1 (ko) 골프 클리닉 시스템 및 그것의 운용방법
US11113988B2 (en) Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same
CN109191588A (zh) 运动教学方法、装置、存储介质及电子设备
KR102320960B1 (ko) 사용자 신체 맞춤형 홈 트레이닝 동작 안내 및 교정 시스템
CN114022512A (zh) 运动辅助方法、装置及介质
CN114140722A (zh) 引体向上运动的评估方法、装置、服务器及存储介质
CN113409651B (zh) 直播健身方法、系统、电子设备、存储介质
Kinger et al. Deep learning based yoga pose classification
JP6868673B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR20170140756A (ko) 동작 교본 저작 장치, 동작 자가 학습 장치 및 방법
Sharma et al. Digital Yoga Game with Enhanced Pose Grading Model
Lobo et al. Yoga Correction Using Machine Learning
WO2022196059A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2024057773A (ja) 行動分析システム及び行動分析方法
US20240058685A1 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium storing program
US20240046510A1 (en) Approaches to independently detecting presence and estimating pose of body parts in digital images and systems for implementing the same
WO2023162159A1 (ja) 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体
JP7310929B2 (ja) 運動メニュー評価装置、方法、及びプログラム
KR20090058803A (ko) 비디오운동 강습방법
Jian et al. DL-Shuttle: Badminton Coaching Training Assistance System Using Deep Learning Approach
JP2024032585A (ja) 運動指導システム、運動指導方法、およびプログラム
Mazlan FitAI: Home Workout Posture Analysis using Computer Vision
KR20210086766A (ko) 품새 연습 장치 및 품새 연습 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191029

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200820

R150 Certificate of patent or registration of utility model

Ref document number: 6757010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250