JP6757010B1 - 動作評価装置、動作評価方法、動作評価システム - Google Patents
動作評価装置、動作評価方法、動作評価システム Download PDFInfo
- Publication number
- JP6757010B1 JP6757010B1 JP2019196328A JP2019196328A JP6757010B1 JP 6757010 B1 JP6757010 B1 JP 6757010B1 JP 2019196328 A JP2019196328 A JP 2019196328A JP 2019196328 A JP2019196328 A JP 2019196328A JP 6757010 B1 JP6757010 B1 JP 6757010B1
- Authority
- JP
- Japan
- Prior art keywords
- partial
- motion
- evaluation
- moving image
- whole
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
したがって、特許文献1によって得られる評価は、指導者の評価とは大きく異なる。
トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備える、
動作評価方法である。
第1実施形態を説明する。
第1実施形態の動作評価システムの構成を説明する。図1は、第1実施形態の動作評価システムの構成を示すブロック図である。図2は、図1の動作評価システムの機能ブロック図である。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10の構成を説明する。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、撮影アプリケーション)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
サーバ30の構成を説明する。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理の実行結果
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
第1実施形態の概要を説明する。図3は、第1実施形態の概要の説明図である。
サーバ30は、検出された複数の部分動画を参照して、トレーニの全体動作及び部分動作の少なくとも1つを評価する。
第1実施形態のデータ構造を説明する。以下のデータは、記憶装置31に記憶される。
本実施形態のユーザ情報データベースを説明する。図4は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「クライアントID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
・性別
・年齢
・職業(介護士、医師、スポーツ選手等)
本実施形態の動作種別情報データベースを説明する。図5は、本実施形態の動作識別情報データベースのデータ構造を示す図である。
動作種別情報データベースは、「全体動作ID」フィールドと、「全体動作名」フィールドと、「部分動作ID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
・介護関連動作(一例として、手洗い、立ち上がり介助、歩行介助等)
・医療関連動作(一例として、縫合、切開等)
・スポーツ関連動作(一例として、投球、走行、歩行等)
本実施形態の部分動作情報データベースを説明する。図6は、本実施形態の部分動作情報データベースのデータ構造を示す図である。
部分動作情報データベースは、「部分動作ID」フィールドと、「部分動作名」フィールドと、「モデルID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
部分動作情報データベースは、全体動作識別情報に関連付けられている。
本実施形態の全体動画情報データベースを説明する。図7は、本実施形態の全体動画情報データベースのデータ構造を示す図である。
全体動画情報データベースは、「全体動画ID」フィールドと、「全体動画」フィールドと、「評価結果」フィールドと、を含む。各フィールドは、互いに関連付けられている。
全体動画情報データベースは、ユーザ識別情報に関連付けられている。
本実施形態の評価条件データテーブルを説明する。図8は、本実施形態の評価条件データテーブルのデータ構造を示す図である。
評価条件データテーブルは、「評価指標」フィールドと、「評価スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
評価条件データテーブルは、部分動作識別情報に関連付けられている。つまり、評価条件は、部分動作毎に用意される。
・「有無」…部分動画の有無
・「順番」…全体動画における部分動画の順番
・「期間」…部分動画の長さ
・「開始時間」…全体動画の開始時点から部分動画の開始時点までの経過時間
例えば、部分動画が無い(つまり、部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画が有る(つまり、部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の順番が誤りである(つまり、所定の順番に従って部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画の順番が正しい(つまり、所定の順番に従って部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の長さが所定の期間閾値Pth未満である(つまり、所定の期間だけ部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画の長さが期間閾値Pth以上である(つまり、所定の期間だけ部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の開始時間STが所定の第1開始時間閾値Sth1未満である(つまり、所定タイミング迄に部分動作が実行された)場合には、部分動作の評価スコアは「0」である。部分動画の開始時間STが第1開始時間閾値Sth1以上であり、且つ、第2開始時間閾値Sth2(>Sth1)未満である(つまり、所定期間内に部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
第1実施形態の情報処理を説明する。
第1実施形態の検出モデルの生成処理を説明する。図9は、第1実施形態の検出モデルの教師データの説明図である。
学習用動画は、対象動画Y、及び、対象動画とは異なる非対象動画Xnのランダムな組合せである。
正解データは、各学習用動画における対象動画Yの位置を示す時系列データである。
第1実施形態の動作の評価処理を説明する。図10は、第1実施形態の動作の評価処理のシーケンス図である。図11は、図10の評価の詳細なフローチャートである。図12は、図10の情報処理において表示される画面例を示す図である。図13は、図11の部分動画の検出の説明図である。図14は、第1実施形態の部分評価情報のデータ構造を示す図である。
図10の処理は、ユーザを識別するユーザ識別情報を用いて撮影アプリケーションを起動することによって開始する。
具体的には、プロセッサ12は、画面G10(図12)をディスプレイに表示する。
操作オブジェクトB10a〜B10cは、それぞれ、全体動作名「手洗い」、「立ち上がり介助」、又は、「歩行介助」を指定するためのユーザ指示を受け付けるためのオブジェクトである。操作オブジェクトB11a〜B11cには、それぞれ、全体動作名「手洗い」、「立ち上がり介助」、及び、「歩行介助」の全体動作識別情報が割り当てられている。ユーザが操作オブジェクトB10a〜B10cの何れかを操作すると、プロセッサ12は、操作された操作オブジェクトB10a〜B10cの何れかに割り当てられた全体動作識別情報を、評価の対象となる全体動作識別情報(以下「対象全体動作識別情報」という)として受け付ける。
操作オブジェクトB10dは、動画の撮影を開始するためのユーザ指示を受け付けるためのオブジェクトである。操作オブジェクトB10dが操作されると、プロセッサ12は、カメラ15に動画の撮影を開始させる。
具体的には、ユーザが操作オブジェクトB10a及びB10dを操作すると、プロセッサ12は、カメラ15に動画の撮影を開始させる。
ユーザが動画の撮影を終了するためのユーザ指示をクライアント装置10に与えると(例えば、動画の撮影を終了するためのユーザ指示を受け付ける操作オブジェクト(不図示)を操作すると)、プロセッサ12は、全体動画を記憶装置11に記憶し、且つ、画面G11(図12)をディスプレイに表示する。
動画オブジェクトMOV11は、記憶装置11に記憶された全体動画のサムネイル画像のオブジェクトである。
操作オブジェクトB11は、全体動画をサーバ30にアップロードするためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11を操作すると、プロセッサ12は、記憶装置11に記憶された全体動画をサーバ30にアップロードする。
具体的には、ユーザが操作オブジェクトB11を操作すると、プロセッサ12は、評価リクエストデータをサーバ30に送信する。評価リクエストデータは、以下の情報を含む。
・撮影アプリケーションを起動するときに指定されたユーザ識別情報
・ステップS111で受け付けられた対象全体動作識別情報
・ステップS112で記憶装置11に記憶された全体動画
具体的には、プロセッサ32は、動作種別情報データベース(図5)を参照して、評価リクエストデータに含まれる対象全体動作識別情報に関連付けられた「部分動作ID」フィールドの情報(つまり、ユーザが指定した動作種別の全体動作を構成する部分動作の部分動作識別情報(以下「対象部分動作識別情報」という))を特定する。
プロセッサ32は、部分動作情報データベース(図6)を参照して、各対象部分動作識別情報に関連付けられた「モデルID」フィールドの情報(つまり、対象部分動作識別情報に対応する部分動作(以下「対象部分動作」という)を検出するための検出モデルのモデル識別情報)を特定する。
具体的には、プロセッサ32は、ステップS1311で特定された各検出モデルに対して、評価リクエストデータに含まれる全体動画を入力する。プロセッサ32は、各検出モデルの出力に基づいて、各部分動画を検出する。
図13に示すように、各検出モデル(モデル識別情報「M11」〜「M14」)は、対象全体動作識別情報「T01」(全体動作名「手洗い」)に対応する全体動作を構成する部分動作(「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、及び、「すすぐ」)に対応する部分動画P11〜P14の尤度をそれぞれ時系列で出力する。
プロセッサ32は、出力された尤度に基づいて、各部分動画P11〜P14の開始時間ST1〜ST4、及び、終了時間ET1〜ET4を特定する。一例として、プロセッサ32は、尤度と所定の尤度閾値を比較することにより、開始時間ST1〜ST4、及び、終了時間ET1〜ET4を特定する。
プロセッサ32は、部分動画P11〜P14の対象部分動作識別情報、部分動画P11〜P14の開始時間ST1〜ST4、及び、終了時間ET1〜ET4の組合せを記憶装置31に記憶する。
具体的には、プロセッサ32は、ステップS1312で記憶装置31に記憶された各対象部分動作識別情報に関連付けられた評価条件データテーブル(図8)を特定する。
プロセッサ32は、特定した評価条件データテーブルを参照して、「評価指標」フィールドの情報(例えば、各部分動作を含む部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間)に対応する「評価スコア」フィールドの情報(つまり、評価スコア)を特定する。これにより、部分評価情報(図14)が得られる。
より具体的には、プロセッサ32は、以下の少なくとも1つを全体動作の評価スコアとして決定する。
・部分動作の評価スコアの合計値
・部分動作の評価スコアの平均値
・当該合計値又は当該平均値に対応する指標(例えば、ランク)
この場合、プロセッサ32は、部分動画P11が検出され、部分動画P11の順番が評価条件に示される順番と同一であり、部分動画P11の期間がPth以上であり、開始時間STが第1開始時間閾値Sth1〜第2開始時間閾値Sth2の間に含まれる場合、部分動画P11の評価スコアを「4」に決定する。
この場合、ステップS1313は省略可能である。
具体的には、プロセッサ32は、評価リクエストデータに含まれるユーザ識別情報に関連付けられた全体動画情報データベース(図7)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「全体動画ID」フィールド…新規の全体動画識別情報
・「全体動画」フィールド…評価リクエストデータに含まれる全体動画
・「評価日時」フィールド…ステップS131の実行日時に関する情報
・「部分評価」フィールド…ステップS1313で得られた部分評価情報
・「全体評価」フィールド…ステップS1314で得られた全体評価情報
具体的には、プロセッサ32は、評価レスポンスデータをクライアント装置10に送信する。評価レスポンスデータは、以下の情報を含む。
・ステップS1312の実行結果(つまり、部分動画の検出結果)に関する情報
・ステップS1313の実行結果(つまり、部分評価情報)
・ステップS1314の実行結果(つまり、全体評価情報)
具体的には、プロセッサ12は、画面G12(図12)をディスプレイに表示する。
表示オブジェクトA12aには、部分評価情報が表示される。
表示オブジェクトA12bには、全体評価情報が表示される。
画像オブジェクトIMG12は、部分動画の検出結果を時系列で示すオブジェクトである。
また、ステップS133では、評価レスポンスデータは、全体評価情報を含まなくても良い。この場合、ステップS114では、全体評価情報の表示は省略される。
第2実施形態を説明する。第2実施形態は、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて部分動作を評価する例である。なお、上記の実施形態と同様の説明は省略する。
第2実施形態の動作の評価処理を説明する。
具体的には、記憶装置31には、部分動作毎の部分動作評価モデルが記憶されている。各部分動作評価モデルは、部分動作識別情報に関連付けられている。
部分動作評価モデルには、各部分動作に含まれる要素動作(例えば、姿勢、表情、及び、発話の少なくとも1つ)毎の評価条件が記述されている。部分動作評価モデルは、例えば、予め定められたルール、又は、機械学習により生成された学習済モデルである。
プロセッサ32は、各要素動作の評価スコアを参照して、部分動作の部分動作評価情報を決定する。
より具体的には、プロセッサ32は、以下の少なくとも1つを部分動作の評価スコアとして決定する。
・要素動作の評価スコアの合計値
・要素動作の評価スコアの平均値
・当該合計値又は当該平均値に対応する指標(例えば、ランク)
・部分動画の有無
・部分動画の順番
・部分動画の期間
・各部分動画における部分動作の開始時間
プロセッサ32は、特定結果(例えば、笑顔のレベル)に基づいて、要素動作「表情」の評価スコアを計算する。
具体的には、プロセッサ32は、評価リクエストデータに含まれるユーザ識別情報に関連付けられた全体動画情報データベース(図7)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「全体動画ID」フィールド…新規の全体動画識別情報
・「全体動画」フィールド…評価リクエストデータに含まれる全体動画
・「評価日時」フィールド…ステップS131の実行日時に関する情報
・「部分評価」フィールド…ステップS1313で得られた部分評価情報
・「全体評価」フィールド…ステップS1314で得られた全体評価情報
ステップS133の後、クライアント装置10は、第1実施形態と同様に、評価結果の表示(S114)を実行する。
本実施形態の変形例を説明する。
本実施形態の変形例1を説明する。変形例1は、サーバ30が動作種別を判定する例である。
図15は、変形例1の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
具体的には、プロセッサ12は、画面G20(図16)をディスプレイに表示する。画面G20は、操作オブジェクトB10dを含む。
具体的には、プロセッサ12は、評価リクエストデータをサーバ30に送信する。評価リクエストデータは、以下の情報を含む。
・撮影アプリケーションを起動するときに指定されたユーザ識別情報
・ステップS112で記憶装置11に記憶された全体動画
具体的には、記憶装置31には、動作種別特定モデルが記憶されている。動作種別特定モデルには、動画の特徴量と動作種別との相関関係が記述されている。
プロセッサ32は、評価リクエストデータに含まれる全体動画を動作種別特定モデルに入力することにより、全体動画の動作種別(つまり、全体動作の種別)を特定する。
この場合、プロセッサ32は、ステップS1312で検出された複数の部分動画の少なくとも1つを動作種別特定モデルに入力することにより、全体動画の動作種別を特定する。
本実施形態の変形例2を説明する。変形例2は、全体動画に含まれるトレーニ以外の人物(以下「非トレーニ」という)の動作を考慮して、トレーニの動作を評価する例である。
本実施形態の変形例2の概要を説明する。図17は、変形例2の概要の説明図である。
非トレーニは、例えば、以下の少なくとも1つを含む。
・トレーニが介護者である場合の被介護者
・トレーニが医師である場合の患者
・トレーニがスポーツ選手である場合の相手選手
サーバ30は、検出された複数の部分動画(つまり、非トレーニの動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せ)を参照して、全体動作及び部分動作の少なくとも1つを評価する。
本実施形態の変形例2の情報処理を説明する。
プロセッサ32は、トレーニの表情及び非トレーニの表情の相関関係に関する評価条件テーブルと、抽出されたトレーニの表情及び非トレーニの表情の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、表情に関する評価スコア)を計算する。
プロセッサ32は、トレーニの発話及び非トレーニの発話の相関関係に関する評価条件テーブルと、抽出されたトレーニの発話及び非トレーニの発話の音声と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、発話に関する評価スコア)を計算する。
本実施形態の変形例3を説明する。変形例3は、全体動画に含まれる物体の動作を考慮して、トレーニの動作を評価する例である。
本実施形態の変形例3の概要を説明する。図18は、変形例3の概要の説明図である。
物体は、例えば、以下の少なくとも1つを含む。
・トレーニが介護者である場合の介護用品(一例として、可動式介護用ベッド)
・トレーニが医師である場合の医療機器(一例として、手術器具)
・トレーニがスポーツ選手である場合のスポーツ器具(一例として、ボール、バット、ラケット、ゴルフクラブ等)
サーバ30は、検出された複数の部分動画(つまり、物体の動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せ)を参照して、全体動作及び部分動作の少なくとも1つを評価する。
本実施形態の変形例3の情報処理を説明する。
プロセッサ32は、トレーニの発話及び物体の動作音の相関関係に関する評価条件テーブルと、抽出されたトレーニの発話及び物体の動作音の音声と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、発話に関する評価スコア)を計算する。
ステップS133の後、クライアント装置10は、第1実施形態又は第2実施形態と同様に、評価結果の表示(S114)を実行する。
本実施形態について小括する。
トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップ(例えば、ステップS1312)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価するステップ(例えば、ステップS1313〜S1314)を備える、
動作評価方法である。
検出するステップは、
複数の部分動作のそれぞれに対応する検出モデルを用いて、各部分動作の尤度を計算し、
各部分動作の尤度に基づいて、各部分動画を検出する、
動作評価方法である。
評価するステップは、検出された部分動画の数を参照して、全体動作を評価する、
動作評価方法である。
評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
トレーニの動作の種別に関する種別情報を取得するステップ(例えば、ステップS1311)を備え、
取得された種別情報を参照して、全体動画の種別を特定するステップ(S1311)を備える、
動作評価方法である。
全体動画及び部分動画の少なくとも1つを参照して、トレーニの動作の種別を特定するステップ(例えば、ステップS331)を備える、
動作評価方法である。
検出するステップは、特定された種別に応じた検出モデルを用いる、
動作評価方法である。
評価するステップは、特定された種別に応じた評価条件を参照して、各部分動画を評価する、
動作評価方法である。
評価するステップは、全体動画に含まれるトレーニ以外の人物の動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
評価するステップは、全体動画に含まれるトレーニ以外の物体の様子、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
評価するステップは、
部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
トレーニの動作を評価する動作評価装置(例えば、サーバ30)であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段(例えば、ステップS1312を実行するプロセッサ32)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価する手段(例えば、ステップS1313〜S1314を実行するプロセッサ32)を備える、
動作評価装置(例えば、サーバ30)である。
トレーニの動作を評価する動作評価システム1であって、
クライアント装置10と、サーバ30と、を備え、
クライアント装置10は、
一連の部分動作を含む全体動作が撮影された全体動画をサーバ30に送信する手段(例えば、ステップS113を実行するプロセッサ12)を備え、
サーバ30は、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段(例えば、ステップS1312を実行するプロセッサ32)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価する手段(例えば、ステップS1313〜S1314を実行するプロセッサ32)を備える、
動作評価システム1である。
その他の変形例を説明する。
例えば、クライアント装置10が上記の情報処理の全てのステップを実行可能である場合、クライアント装置10は、サーバ30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。
・ステップS111の実行前に記憶装置11に記憶されていた全体動画(つまり、図10の処理の実行前に撮影された全体動画)
・クライアント装置10のカメラ15以外のカメラ(例えば、ステップS111を実行するクライアント装置10と通信可能な外部カメラ)で撮影された全体動画
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
Claims (26)
- トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルのうち前記トレーニの動作の種別に応じた検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備える、
動作評価方法。 - 前記評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1に記載の動作評価方法。 - 前記トレーニの動作の種別に関する種別情報を取得するステップを備える、
請求項1又は2に記載の動作評価方法。 - 前記全体動画を参照して、前記トレーニの動作の種別を特定するステップを備える、請求項1又は2に記載の動作評価方法。
- 前記評価するステップは、前記トレーニの動作の種別に応じた評価条件を参照して、各部分動画を評価する、
請求項1〜4の何れかに記載の動作評価方法。 - トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備え、
前記評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
動作評価方法。 - 前記トレーニの動作の種別に関する種別情報を取得するステップを備える、
請求項6に記載の動作評価方法。 - 前記全体動画を参照して、前記トレーニの動作の種別を特定するステップを備える、請求項6に記載の動作評価方法。
- 前記評価するステップは、前記トレーニの動作の種別に応じた評価条件を参照して、各部分動画を評価する、
請求項7又は8に記載の動作評価方法。 - トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備え、
前記評価するステップは、前記検出された部分動画の数を参照して、前記全体動作を評価する、
動作評価方法。 - トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備え、
前記評価するステップは、
前記部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
動作評価方法。 - 前記トレーニの動作の種別に関する種別情報を取得するステップを備え、
前記取得された種別情報を参照して、前記全体動画の種別を特定するステップを備える、
請求項10又は11に記載の動作評価方法。 - 前記全体動画を参照して、前記トレーニの動作の種別を特定するステップを備える、請求項10又は11に記載の動作評価方法。
- 前記検出するステップは、前記特定された種別に応じた検出モデルを用いる、
請求項12又は13に記載の動作評価方法。 - 前記評価するステップは、前記特定された種別に応じた評価条件を参照して、各部分動画を評価する、
請求項12〜14の何れかに記載の動作評価方法。 - 前記検出するステップは、
前記複数の部分動作のそれぞれに対応する検出モデルを用いて、各部分動作の尤度を計算し、
各部分動作の尤度に基づいて、各部分動画を検出する、
請求項1〜15の何れかに記載の動作評価方法。 - 前記評価するステップは、前記全体動画に含まれる前記トレーニ以外の人物の動作、並びに、前記トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1〜16の何れかに記載の動作評価方法。 - 前記評価するステップは、前記全体動画に含まれる前記トレーニ以外の物体の様子、並びに、前記トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1〜17の何れかに記載の動作評価方法。 - トレーニの動作を評価する動作評価装置であって、
機械学習によって生成された検出モデルのうち前記トレーニの動作の種別に応じた検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備える、
動作評価装置。 - トレーニの動作を評価する動作評価装置であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
前記評価する手段は、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
動作評価装置。 - トレーニの動作を評価する動作評価装置であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
前記評価する手段は、前記検出された部分動画の数を参照して、前記全体動作を評価する、
動作評価装置。 - トレーニの動作を評価する動作評価装置であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
前記評価する手段は、
前記部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
動作評価装置。 - トレーニの動作を評価する動作評価システムであって、
クライアント装置と、サーバと、を備え、
前記クライアント装置は、
一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
前記サーバは、
機械学習によって生成された検出モデルのうち前記トレーニの動作の種別に応じた検出モデルを用いて、前記全体動画から、各部分動作に対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備える、
動作評価システム。 - トレーニの動作を評価する動作評価システムであって、
クライアント装置と、サーバと、を備え、
前記クライアント装置は、
一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
前記サーバは、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
前記評価する手段は、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
動作評価システム。 - トレーニの動作を評価する動作評価システムであって、
クライアント装置と、サーバと、を備え、
前記クライアント装置は、
一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
前記サーバは、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
前記評価する手段は、前記検出された部分動画の数を参照して、前記全体動作を評価する、
動作評価システム。 - トレーニの動作を評価する動作評価システムであって、
クライアント装置と、サーバと、を備え、
前記クライアント装置は、
一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
前記サーバは、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備え、
前記評価する手段は、
前記部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
動作評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019196328A JP6757010B1 (ja) | 2019-10-29 | 2019-10-29 | 動作評価装置、動作評価方法、動作評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019196328A JP6757010B1 (ja) | 2019-10-29 | 2019-10-29 | 動作評価装置、動作評価方法、動作評価システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6757010B1 true JP6757010B1 (ja) | 2020-09-16 |
JP2021071773A JP2021071773A (ja) | 2021-05-06 |
Family
ID=72432436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019196328A Active JP6757010B1 (ja) | 2019-10-29 | 2019-10-29 | 動作評価装置、動作評価方法、動作評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6757010B1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11093886B2 (en) * | 2018-11-27 | 2021-08-17 | Fujifilm Business Innovation Corp. | Methods for real-time skill assessment of multi-step tasks performed by hand movements using a video camera |
WO2023243044A1 (ja) * | 2022-06-16 | 2023-12-21 | 日本電信電話株式会社 | 修正箇所優先順位生成方法、修正箇所優先順位生成装置およびプログラム |
JP7359349B1 (ja) | 2022-07-07 | 2023-10-11 | Co-Growth株式会社 | 評価支援システム、情報処理装置の制御方法、及び情報処理装置の制御プログラム |
WO2024062882A1 (ja) * | 2022-09-20 | 2024-03-28 | 株式会社Ollo | プログラム、情報処理方法、及び情報処理装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014104360A1 (ja) * | 2012-12-28 | 2014-07-03 | 株式会社東芝 | 動作情報処理装置及び方法 |
WO2017150211A1 (ja) * | 2016-03-03 | 2017-09-08 | コニカミノルタ株式会社 | 行動認識装置及び行動学習装置並びに行動認識プログラム及び行動学習プログラム |
-
2019
- 2019-10-29 JP JP2019196328A patent/JP6757010B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021071773A (ja) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6757010B1 (ja) | 動作評価装置、動作評価方法、動作評価システム | |
Thar et al. | A proposal of yoga pose assessment method using pose detection for self-learning | |
KR100772497B1 (ko) | 골프 클리닉 시스템 및 그것의 운용방법 | |
US11113988B2 (en) | Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same | |
CN109191588A (zh) | 运动教学方法、装置、存储介质及电子设备 | |
KR102320960B1 (ko) | 사용자 신체 맞춤형 홈 트레이닝 동작 안내 및 교정 시스템 | |
CN114022512A (zh) | 运动辅助方法、装置及介质 | |
CN114140722A (zh) | 引体向上运动的评估方法、装置、服务器及存储介质 | |
CN113409651B (zh) | 直播健身方法、系统、电子设备、存储介质 | |
Kinger et al. | Deep learning based yoga pose classification | |
JP6868673B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
KR20170140756A (ko) | 동작 교본 저작 장치, 동작 자가 학습 장치 및 방법 | |
Sharma et al. | Digital Yoga Game with Enhanced Pose Grading Model | |
Lobo et al. | Yoga Correction Using Machine Learning | |
WO2022196059A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2024057773A (ja) | 行動分析システム及び行動分析方法 | |
US20240058685A1 (en) | Information processing device, information processing method, and non-transitory computer-readable storage medium storing program | |
US20240046510A1 (en) | Approaches to independently detecting presence and estimating pose of body parts in digital images and systems for implementing the same | |
WO2023162159A1 (ja) | 動作生成装置、動作生成システム、動作生成方法、及び非一時的なコンピュータ可読媒体 | |
JP7310929B2 (ja) | 運動メニュー評価装置、方法、及びプログラム | |
KR20090058803A (ko) | 비디오운동 강습방법 | |
Jian et al. | DL-Shuttle: Badminton Coaching Training Assistance System Using Deep Learning Approach | |
JP2024032585A (ja) | 運動指導システム、運動指導方法、およびプログラム | |
Mazlan | FitAI: Home Workout Posture Analysis using Computer Vision | |
KR20210086766A (ko) | 품새 연습 장치 및 품새 연습 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191029 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200323 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6757010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |