JP2021071773A - Motion evaluation device, motion evaluation method, and motion evaluation system - Google Patents

Motion evaluation device, motion evaluation method, and motion evaluation system Download PDF

Info

Publication number
JP2021071773A
JP2021071773A JP2019196328A JP2019196328A JP2021071773A JP 2021071773 A JP2021071773 A JP 2021071773A JP 2019196328 A JP2019196328 A JP 2019196328A JP 2019196328 A JP2019196328 A JP 2019196328A JP 2021071773 A JP2021071773 A JP 2021071773A
Authority
JP
Japan
Prior art keywords
partial
motion
evaluation
moving image
whole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019196328A
Other languages
Japanese (ja)
Other versions
JP6757010B1 (en
Inventor
宏輝 藤原
Hiroki Fujiwara
宏輝 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019196328A priority Critical patent/JP6757010B1/en
Application granted granted Critical
Publication of JP6757010B1 publication Critical patent/JP6757010B1/en
Publication of JP2021071773A publication Critical patent/JP2021071773A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a motion evaluation device capable of realizing the same evaluation as an instructor evaluation using the dynamic image photographing a training state.SOLUTION: A motion evaluation method to evaluate a trainee motion comprises a step to detect a partial dynamic image corresponding to each of a plurality of partial motions from whole dynamic image photographing the whole motion including a series of the partial motions, using a detecting model generated by machine learning, and comprises a step to evaluate at least one of the whole motion and the partial motion in reference to the plurality of detected partial dynamic images.SELECTED DRAWING: Figure 3

Description

本発明は、動作評価装置、動作評価方法、動作評価システムに関する。 The present invention relates to an operation evaluation device, an operation evaluation method, and an operation evaluation system.

様々な分野(例えば、介護、医療、スポーツ等の分野)で、トレーニングの様子の動画を撮影し、且つ、当該動画を利用して専門知識を有する指導者が指導することにより、学習を効率化する取り組みが行われている。 Streamline learning by shooting videos of training in various fields (for example, nursing care, medical care, sports, etc.) and using the videos to provide guidance by instructors with specialized knowledge. Efforts are being made.

トレーニングを実施するトレーニは、指導者の指導を受けられないときに、自ら撮影したトレーニングの様子を含む動画を自ら学習する場合がある。トレーニングの様子が撮影された動画を用いた学習は、トレーニの学習効率の向上の観点で有用である。 The trainee who conducts the training may learn the video including the state of the training taken by himself / herself when he / she cannot receive the guidance of the instructor. Learning using videos of training is useful from the viewpoint of improving the learning efficiency of trainees.

例えば、特許文献1には、スポーツの分野において、画像から推定される被検者の関節間の距離と基準長さとの比に基づいて、被検者の動作状態を示す値を計算し、且つ、当該動作状態を示す値に基づいて被検者の動作を評価する技術が開示されている。 For example, in Patent Document 1, in the field of sports, a value indicating the operating state of a subject is calculated based on the ratio of the distance between the joints of the subject estimated from the image and the reference length, and , A technique for evaluating the movement of a subject based on a value indicating the operation state is disclosed.

国際公開WO2019082376号公報International Publication WO2019082376 Gazette

実際のトレーニングでは、指導者は、個別の動作だけではなく、一連の動作を全体的に評価する。 In actual training, the instructor evaluates a series of movements as a whole, not just individual movements.

しかし、特許文献1では、動作を個別に評価するものであるが、一連の動作を全体的に評価するものではない。
したがって、特許文献1によって得られる評価は、指導者の評価とは大きく異なる。
However, in Patent Document 1, although the operation is evaluated individually, the series of operations is not evaluated as a whole.
Therefore, the evaluation obtained by Patent Document 1 is significantly different from the evaluation of the leader.

本発明の目的は、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することである。 An object of the present invention is to realize an evaluation equivalent to that of an instructor by using a moving image of a state of training.

本発明の一態様は、
トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備える、
動作評価方法である。
One aspect of the present invention is
It is an operation evaluation method that evaluates the operation of the trainee.
Using a detection model generated by machine learning, a step is provided to detect a partial moving image corresponding to each of a plurality of partial movements from a whole moving image in which a whole motion including a series of partial motions is shot.
It comprises a step of evaluating at least one of the whole motion and the partial motion with reference to the detected plurality of partial motions.
This is an operation evaluation method.

本発明によれば、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 According to the present invention, it is possible to realize an evaluation equivalent to that of an instructor by using a moving image of a state of training.

第1実施形態の動作評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the operation evaluation system of 1st Embodiment. 図1の動作評価システムの機能ブロック図である。It is a functional block diagram of the operation evaluation system of FIG. 第1実施形態の概要の説明図である。It is explanatory drawing of the outline of 1st Embodiment. 本実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of this embodiment. 本実施形態の動作識別情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the operation identification information database of this embodiment. 本実施形態の部分動作情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the partial operation information database of this embodiment. 本実施形態の全体動画情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the whole moving image information database of this embodiment. 本実施形態の評価条件データテーブルのデータ構造を示す図である。It is a figure which shows the data structure of the evaluation condition data table of this embodiment. 第1実施形態の検出モデルの教師データの説明図である。It is explanatory drawing of the teacher data of the detection model of 1st Embodiment. 第1実施形態の動作の評価処理のシーケンス図である。It is a sequence diagram of the evaluation process of the operation of 1st Embodiment. 図10の評価の詳細なフローチャートである。It is a detailed flowchart of the evaluation of FIG. 図10の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 図11の部分動画の検出の説明図である。It is explanatory drawing of the detection of the partial moving image of FIG. 第1実施形態の部分評価情報のデータ構造を示す図である。It is a figure which shows the data structure of the partial evaluation information of 1st Embodiment. 変形例1の情報処理のシーケンス図である。It is a sequence diagram of the information processing of the modification 1. 図15の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 変形例2の概要の説明図である。It is explanatory drawing of the outline of the modification 2. 変形例3の概要の説明図である。It is explanatory drawing of the outline of the modification 3.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.

(1)第1実施形態
第1実施形態を説明する。
(1) First Embodiment The first embodiment will be described.

(1−1)動作評価システムの構成
第1実施形態の動作評価システムの構成を説明する。図1は、第1実施形態の動作評価システムの構成を示すブロック図である。図2は、図1の動作評価システムの機能ブロック図である。
(1-1) Configuration of Operation Evaluation System The configuration of the operation evaluation system of the first embodiment will be described. FIG. 1 is a block diagram showing a configuration of an operation evaluation system according to the first embodiment. FIG. 2 is a functional block diagram of the operation evaluation system of FIG.

図1に示すように、動作評価システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the operation evaluation system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信するコンピュータ(「情報処理装置」の一例)である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is a computer (an example of an "information processing device") that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供するコンピュータ(「動作評価装置」の一例)である。サーバ30は、例えば、ウェブサーバである。 The server 30 is a computer (an example of an "operation evaluation device") that provides the client device 10 with a response in response to a request transmitted from the client device 10. The server 30 is, for example, a web server.

(1−1−1)クライアント装置の構成
クライアント装置10の構成を説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、を備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, and a camera 15.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、撮影アプリケーション)のプログラム
The program includes, for example, the following program.
-OS (Operating System) program-Program of an application that executes information processing (for example, a shooting application)

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、これらの組み合わせである。 The processor 12 is configured to realize the function of the client device 10 by activating the program stored in the storage device 11. The processor 12 is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.

カメラ15は、画像(例えば、動画)を撮影するように構成される。 The camera 15 is configured to capture an image (eg, a moving image).

(1−1−2)サーバの構成
サーバ30の構成を説明する。
(1-1-2) Server Configuration The configuration of the server 30 will be described.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The program includes, for example, the following program.
・ OS program ・ Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Execution result of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 32 is configured to realize the function of the server 30 by activating the program stored in the storage device 31. The processor 32 is, for example, a CPU, an ASIC, an FPGA, or a combination thereof.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user's instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(1−2)第1実施形態の概要
第1実施形態の概要を説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Outline of First Embodiment An outline of the first embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the first embodiment.

図3に示すように、クライアント装置10は、サーバ30に全体動画を送信する。全体動画は、トレーニの全体動作が撮影された動画である。全体動作は、一連の複数の部分動作を含む。 As shown in FIG. 3, the client device 10 transmits the entire moving image to the server 30. The whole movie is a movie in which the whole movement of the traini is shot. The whole operation includes a series of multiple partial operations.

サーバ30は、機械学習によって生成された検出モデルを用いて、全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する。
サーバ30は、検出された複数の部分動画を参照して、トレーニの全体動作及び部分動作の少なくとも1つを評価する。
The server 30 uses the detection model generated by machine learning to detect the partial moving image corresponding to each of the plurality of partial motions from the whole moving image.
The server 30 evaluates at least one of the traini's overall operation and partial operation with reference to the detected plurality of partial moving images.

(1−3)データ構造
第1実施形態のデータ構造を説明する。以下のデータは、記憶装置31に記憶される。
(1-3) Data structure The data structure of the first embodiment will be described. The following data is stored in the storage device 31.

(1−3−1)ユーザ情報データベース
本実施形態のユーザ情報データベースを説明する。図4は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-1) User Information Database The user information database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the user information database of the present embodiment.

図4のユーザ情報データベースには、ユーザ情報が格納されている。ユーザ情報は、ユーザに関する情報である。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「クライアントID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
User information is stored in the user information database of FIG. User information is information about the user.
The user information database includes a "user ID" field, a "user name" field, a "user attribute" field, and a "client ID" field. Each field is associated with each other.

「ユーザID」フィールドには、ユーザ識別情報が格納される。ユーザ識別情報は、ユーザを識別する情報である。 User identification information is stored in the "User ID" field. User identification information is information that identifies a user.

「ユーザ名」フィールドには、ユーザ名に関する情報(例えば、テキスト)が格納される。 The Username field stores information about the username (eg, text).

「ユーザ属性」フィールドには、ユーザ属性情報が格納される。ユーザ属性情報は、ユーザの属性に関する情報である。ユーザの属性は、例えば、以下の少なくとも1つを含む。
・性別
・年齢
・職業(介護士、医師、スポーツ選手等)
User attribute information is stored in the "user attribute" field. User attribute information is information related to user attributes. The user's attributes include, for example, at least one of the following:
・ Gender ・ Age ・ Occupation (caregiver, doctor, athlete, etc.)

「クライアントID」フィールドには、クライアント識別情報が格納される。クライアント識別情報は、ユーザのクライアント装置10を識別する情報である。 Client identification information is stored in the "client ID" field. The client identification information is information that identifies the client device 10 of the user.

(1−3−2)動作種別情報データベース
本実施形態の動作種別情報データベースを説明する。図5は、本実施形態の動作識別情報データベースのデータ構造を示す図である。
(1-3-2) Operation type information database The operation type information database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the operation identification information database of the present embodiment.

図5の動作種別情報データベースには、動作種別情報が格納されている。動作種別情報は、動作の種別に関する情報である。
動作種別情報データベースは、「全体動作ID」フィールドと、「全体動作名」フィールドと、「部分動作ID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The operation type information database of FIG. 5 stores the operation type information. The operation type information is information related to the type of operation.
The operation type information database includes an "overall operation ID" field, an "overall operation name" field, and a "partial operation ID" field. Each field is associated with each other.

「全体動作ID」フィールドには、全体動作識別情報が格納される。全体動作識別情報は、全体動作を識別する情報である。 The overall operation identification information is stored in the "overall operation ID" field. The overall operation identification information is information that identifies the overall operation.

「全体動作名」フィールドには、全体動作名に関する情報(例えば、テキスト)が格納される。全体動作は、例えば、以下の少なくとも1つを含む。
・介護関連動作(一例として、手洗い、立ち上がり介助、歩行介助等)
・医療関連動作(一例として、縫合、切開等)
・スポーツ関連動作(一例として、投球、走行、歩行等)
The "Overall Action Name" field stores information about the overall action name (eg, text). The overall operation includes, for example, at least one of the following.
・ Nursing care-related actions (for example, hand washing, standing assistance, walking assistance, etc.)
・ Medical movements (for example, suturing, incision, etc.)
・ Sports-related movements (for example, pitching, running, walking, etc.)

「部分動作ID」フィールドには、全体動作を構成する部分動作を識別する部分動作識別情報が格納される。 The "partial operation ID" field stores partial operation identification information that identifies the partial operation that constitutes the entire operation.

(1−3−3)部分動作情報データベース
本実施形態の部分動作情報データベースを説明する。図6は、本実施形態の部分動作情報データベースのデータ構造を示す図である。
(1-3-3) Partial operation information database The partial operation information database of the present embodiment will be described. FIG. 6 is a diagram showing a data structure of the partial operation information database of the present embodiment.

図6の部分動作情報データベースには、部分動作情報が格納されている。部分動作情報は、部分動作に関する情報である。
部分動作情報データベースは、「部分動作ID」フィールドと、「部分動作名」フィールドと、「モデルID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
部分動作情報データベースは、全体動作識別情報に関連付けられている。
The partial operation information database of FIG. 6 stores partial operation information. The partial operation information is information related to the partial operation.
The partial operation information database includes a "partial operation ID" field, a "partial operation name" field, and a "model ID" field. Each field is associated with each other.
The partial operation information database is associated with the total operation identification information.

「部分動作ID」フィールドには、部分動作識別情報が格納される。部分動作識別情報は、全体動作を構成する部分動作を識別する情報である。 The partial operation identification information is stored in the "partial operation ID" field. The partial motion identification information is information for identifying the partial motions constituting the entire motion.

「部分動作名」フィールドには、部分動作名に関する情報(例えば、テキスト)が格納される。例えば、全体動作「手洗い」の部分動作は、「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、「すすぐ」等を含む。 The "partial action name" field stores information about the partial action name (eg, text). For example, the partial movement of the whole movement "hand washing" includes "washing the palm", "washing the back of the hand", "washing the fingertips", "rinsing" and the like.

「モデルID」フィールドには、モデル識別情報が格納される。モデル識別情報は、全体動画から部分動作に該当するフレーム(以下「部分動画」という)を検出する検出モデルを識別する情報である。 Model identification information is stored in the "model ID" field. The model identification information is information for identifying a detection model that detects a frame corresponding to a partial motion (hereinafter referred to as "partial moving image") from the whole moving image.

(1−3−4)全体動画情報データベース
本実施形態の全体動画情報データベースを説明する。図7は、本実施形態の全体動画情報データベースのデータ構造を示す図である。
(1-3-4) Overall video information database The overall video information database of the present embodiment will be described. FIG. 7 is a diagram showing a data structure of the entire moving image information database of the present embodiment.

図7の全体動画情報データベースには、全体動画情報が格納される。全体動画情報は、全体動画に関する情報である。
全体動画情報データベースは、「全体動画ID」フィールドと、「全体動画」フィールドと、「評価結果」フィールドと、を含む。各フィールドは、互いに関連付けられている。
全体動画情報データベースは、ユーザ識別情報に関連付けられている。
The whole moving image information database of FIG. 7 stores the whole moving image information. The whole video information is information about the whole video.
The overall video information database includes an "overall video ID" field, an "overall video" field, and an "evaluation result" field. Each field is associated with each other.
The overall video information database is associated with user identification information.

「全体動画ID」フィールドには、全体動画識別情報が格納される。全体動画識別情報は、全体動画を識別する情報である。 The entire moving image identification information is stored in the "overall moving image ID" field. The whole moving image identification information is information for identifying the whole moving image.

「全体動画」フィールドには、全体動画が格納される。 The entire video is stored in the "whole video" field.

「評価結果」フィールドには、評価結果情報が格納される。評価結果情報は、全体動画に含まれる全体動作及び部分動作に対する評価の結果に関する情報である。「評価結果」フィールドは、「評価日時」フィールドと、「部分評価」フィールドと、「全体評価」フィールドと、を含む。 Evaluation result information is stored in the "evaluation result" field. The evaluation result information is information regarding the evaluation result for the whole motion and the partial motion included in the whole moving image. The "evaluation result" field includes an "evaluation date and time" field, a "partial evaluation" field, and an "overall evaluation" field.

「評価日時」フィールドには、評価の日時に関する情報が格納される。 The "evaluation date and time" field stores information about the evaluation date and time.

「部分評価」フィールドには、部分評価情報が格納される。部分評価情報は、部分動作の評価結果に関する情報である。 Partial evaluation information is stored in the "partial evaluation" field. The partial evaluation information is information regarding the evaluation result of the partial operation.

「全体評価」フィールドには、全体評価情報が格納される。全体評価情報は、全体動作の評価結果に関する情報である。 The overall evaluation information is stored in the "overall evaluation" field. The overall evaluation information is information regarding the evaluation result of the overall operation.

(1−3−5)評価条件データテーブル
本実施形態の評価条件データテーブルを説明する。図8は、本実施形態の評価条件データテーブルのデータ構造を示す図である。
(1-3-5) Evaluation condition data table The evaluation condition data table of the present embodiment will be described. FIG. 8 is a diagram showing a data structure of the evaluation condition data table of the present embodiment.

図8の評価条件データテーブルには、評価条件情報が格納されている。評価条件情報は、全体動作及び部分動作の評価の際に参照される評価条件に関する情報である。
評価条件データテーブルは、「評価指標」フィールドと、「評価スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
評価条件データテーブルは、部分動作識別情報に関連付けられている。つまり、評価条件は、部分動作毎に用意される。
The evaluation condition information is stored in the evaluation condition data table of FIG. The evaluation condition information is information on the evaluation conditions referred to when evaluating the overall operation and the partial operation.
The evaluation condition data table includes an "evaluation index" field and an "evaluation score" field. Each field is associated with each other.
The evaluation condition data table is associated with the partial operation identification information. That is, the evaluation conditions are prepared for each partial operation.

「評価指標」フィールドには、評価指標情報が格納される。評価指標情報は、評価指標に関する情報である。評価指標は、例えば、以下を含む。
・「有無」…部分動画の有無
・「順番」…全体動画における部分動画の順番
・「期間」…部分動画の長さ
・「開始時間」…全体動画の開始時点から部分動画の開始時点までの経過時間
Evaluation index information is stored in the "evaluation index" field. The evaluation index information is information related to the evaluation index. The evaluation index includes, for example, the following.
・ "Presence" ... Presence or absence of partial video ・ "Order" ... Order of partial video in the whole video ・ "Period" ... Length of the partial video ・ "Start time" ... From the start time of the whole video to the start time of the partial video elapsed time

「評価スコア」フィールドには、評価指標毎の評価スコアに関する条件が格納されている。
例えば、部分動画が無い(つまり、部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画が有る(つまり、部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の順番が誤りである(つまり、所定の順番に従って部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画の順番が正しい(つまり、所定の順番に従って部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の長さが所定の期間閾値Pth未満である(つまり、所定の期間だけ部分動作が実行されなかった)場合には、部分動作の評価スコアは「0」である。部分動画の長さが期間閾値Pth以上である(つまり、所定の期間だけ部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
部分動画の開始時間STが所定の第1開始時間閾値Sth1未満である(つまり、所定タイミング迄に部分動作が実行された)場合には、部分動作の評価スコアは「0」である。部分動画の開始時間STが第1開始時間閾値Sth1以上であり、且つ、第2開始時間閾値Sth2(>Sth1)未満である(つまり、所定期間内に部分動作が実行された)場合には、部分動作の評価スコアは「1」である。
In the "evaluation score" field, conditions related to the evaluation score for each evaluation index are stored.
For example, when there is no partial motion (that is, the partial motion is not executed), the evaluation score of the partial motion is "0". When there is a partial moving image (that is, the partial motion is executed), the evaluation score of the partial motion is "1".
If the order of the partial moving images is incorrect (that is, the partial movements are not executed according to the predetermined order), the evaluation score of the partial movements is "0". When the order of the partial moving images is correct (that is, the partial movements are executed according to a predetermined order), the evaluation score of the partial movements is "1".
When the length of the partial moving image is less than the predetermined period threshold value Pth (that is, the partial operation is not executed for the predetermined period), the evaluation score of the partial operation is “0”. When the length of the partial moving image is equal to or greater than the period threshold value Pth (that is, the partial motion is executed for a predetermined period of time), the evaluation score of the partial motion is “1”.
When the start time ST of the partial moving image is less than the predetermined first start time threshold value Sth1 (that is, the partial operation is executed by the predetermined timing), the evaluation score of the partial operation is “0”. When the start time ST of the partial moving image is equal to or more than the first start time threshold value Sth1 and less than the second start time threshold value Sth2 (> Sth1) (that is, the partial operation is executed within a predetermined period), The evaluation score of the partial movement is "1".

(1−4)情報処理
第1実施形態の情報処理を説明する。
(1-4) Information Processing The information processing of the first embodiment will be described.

(1−4−1)検出モデルの生成処理
第1実施形態の検出モデルの生成処理を説明する。図9は、第1実施形態の検出モデルの教師データの説明図である。
(1-4-1) Detection Model Generation Process The detection model generation process of the first embodiment will be described. FIG. 9 is an explanatory diagram of teacher data of the detection model of the first embodiment.

本実施形態の検出モデルの生成処理を実行するために、教師データ、機械学習モデル、及び、サンプル部分動画を用意する。 In order to execute the generation process of the detection model of the present embodiment, the teacher data, the machine learning model, and the sample partial moving image are prepared.

図9に示すように、教師データは、複数の学習用動画、及び、複数の正解データの組合せである。
学習用動画は、対象動画Y、及び、対象動画とは異なる非対象動画Xnのランダムな組合せである。
正解データは、各学習用動画における対象動画Yの位置を示す時系列データである。
As shown in FIG. 9, the teacher data is a combination of a plurality of learning videos and a plurality of correct answer data.
The learning moving image is a random combination of the target moving image Y and the non-target moving image Xn different from the target moving image.
The correct answer data is time-series data indicating the position of the target moving image Y in each learning moving image.

検出モデルは、機械学習モデルに教師データを機械学習させることにより生成される。機械学習は、学習用動画を入力すると、正解データを出力するように機械学習モデルのパラメータを調整することにより実行される。これにより、学習用動画が入力されると、対象動画Yの尤度を時系列で出力するように構成された汎用モデルが生成される。 The detection model is generated by letting the machine learning model machine-learn the teacher data. Machine learning is executed by adjusting the parameters of the machine learning model so that the correct answer data is output when the learning video is input. As a result, when the learning moving image is input, a general-purpose model configured to output the likelihood of the target moving image Y in time series is generated.

対象動画Yが部分動画となるように、汎用モデルを転移学習させる。これにより、全体動画から部分動画を検出するための検出モデルが生成される。 The general-purpose model is transferred and learned so that the target moving image Y becomes a partial moving image. As a result, a detection model for detecting a partial moving image from the whole moving image is generated.

(1−4−2)動作の評価処理
第1実施形態の動作の評価処理を説明する。図10は、第1実施形態の動作の評価処理のシーケンス図である。図11は、図10の評価の詳細なフローチャートである。図12は、図10の情報処理において表示される画面例を示す図である。図13は、図11の部分動画の検出の説明図である。図14は、第1実施形態の部分評価情報のデータ構造を示す図である。
(1-4-2) Operation evaluation process The operation evaluation process of the first embodiment will be described. FIG. 10 is a sequence diagram of the operation evaluation process of the first embodiment. FIG. 11 is a detailed flowchart of the evaluation of FIG. FIG. 12 is a diagram showing an example of a screen displayed in the information processing of FIG. FIG. 13 is an explanatory diagram of detection of the partial moving image of FIG. FIG. 14 is a diagram showing a data structure of the partial evaluation information of the first embodiment.

以下の例では、クライアント装置10のユーザは、動作のトレーニングを実行するトレーニ(例えば、介護者、医師、スポーツ選手等)である。
図10の処理は、ユーザを識別するユーザ識別情報を用いて撮影アプリケーションを起動することによって開始する。
In the following example, the user of the client device 10 is a trainer (eg, a caregiver, a doctor, an athlete, etc.) who performs motion training.
The process of FIG. 10 is started by invoking the photographing application using the user identification information that identifies the user.

図10に示すように、クライアント装置10は、動作種別の指定の受付(S111)を実行する。
具体的には、プロセッサ12は、画面G10(図12)をディスプレイに表示する。
As shown in FIG. 10, the client device 10 executes the reception (S111) for designating the operation type.
Specifically, the processor 12 displays the screen G10 (FIG. 12) on the display.

画面G10は、操作オブジェクトB10a〜B10dを含む。
操作オブジェクトB10a〜B10cは、それぞれ、全体動作名「手洗い」、「立ち上がり介助」、又は、「歩行介助」を指定するためのユーザ指示を受け付けるためのオブジェクトである。操作オブジェクトB11a〜B11cには、それぞれ、全体動作名「手洗い」、「立ち上がり介助」、及び、「歩行介助」の全体動作識別情報が割り当てられている。ユーザが操作オブジェクトB10a〜B10cの何れかを操作すると、プロセッサ12は、操作された操作オブジェクトB10a〜B10cの何れかに割り当てられた全体動作識別情報を、評価の対象となる全体動作識別情報(以下「対象全体動作識別情報」という)として受け付ける。
操作オブジェクトB10dは、動画の撮影を開始するためのユーザ指示を受け付けるためのオブジェクトである。操作オブジェクトB10dが操作されると、プロセッサ12は、カメラ15に動画の撮影を開始させる。
The screen G10 includes operation objects B10a to B10d.
The operation objects B10a to B10c are objects for receiving a user instruction for designating the overall operation names "hand washing", "standing assistance", or "walking assistance", respectively. The operation objects B11a to B11c are assigned overall operation identification information of the overall operation names "hand washing", "standing assistance", and "walking assistance", respectively. When the user operates any of the operation objects B10a to B10c, the processor 12 converts the overall operation identification information assigned to any of the operated operation objects B10a to B10c into the overall operation identification information to be evaluated (hereinafter referred to as the overall operation identification information). Accepted as "object-wide operation identification information").
The operation object B10d is an object for receiving a user instruction for starting shooting of a moving image. When the operation object B10d is operated, the processor 12 causes the camera 15 to start shooting a moving image.

ステップS111の後、クライアント装置10は、全体動作の撮影(S112)を実行する。
具体的には、ユーザが操作オブジェクトB10a及びB10dを操作すると、プロセッサ12は、カメラ15に動画の撮影を開始させる。
ユーザが動画の撮影を終了するためのユーザ指示をクライアント装置10に与えると(例えば、動画の撮影を終了するためのユーザ指示を受け付ける操作オブジェクト(不図示)を操作すると)、プロセッサ12は、全体動画を記憶装置11に記憶し、且つ、画面G11(図12)をディスプレイに表示する。
After step S111, the client device 10 executes shooting (S112) of the entire operation.
Specifically, when the user operates the operation objects B10a and B10d, the processor 12 causes the camera 15 to start shooting a moving image.
When the user gives a user instruction to end the video recording to the client device 10 (for example, when operating an operation object (not shown) that accepts the user instruction to end the video recording), the processor 12 moves the entire processor 12. The moving image is stored in the storage device 11, and the screen G11 (FIG. 12) is displayed on the display.

画面G11は、動画オブジェクトMOV11と、操作オブジェクトB11と、を含む。
動画オブジェクトMOV11は、記憶装置11に記憶された全体動画のサムネイル画像のオブジェクトである。
操作オブジェクトB11は、全体動画をサーバ30にアップロードするためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11を操作すると、プロセッサ12は、記憶装置11に記憶された全体動画をサーバ30にアップロードする。
The screen G11 includes a moving object MOV11 and an operation object B11.
The moving image object MOV 11 is an object of thumbnail images of the entire moving image stored in the storage device 11.
The operation object B11 is an object that receives a user instruction for uploading the entire moving image to the server 30. When the user operates the operation object B11, the processor 12 uploads the entire moving image stored in the storage device 11 to the server 30.

ステップS112の後、クライアント装置10は、評価リクエスト(S113)を実行する。
具体的には、ユーザが操作オブジェクトB11を操作すると、プロセッサ12は、評価リクエストデータをサーバ30に送信する。評価リクエストデータは、以下の情報を含む。
・撮影アプリケーションを起動するときに指定されたユーザ識別情報
・ステップS111で受け付けられた対象全体動作識別情報
・ステップS112で記憶装置11に記憶された全体動画
After step S112, the client device 10 executes the evaluation request (S113).
Specifically, when the user operates the operation object B11, the processor 12 transmits the evaluation request data to the server 30. The evaluation request data includes the following information.
-User identification information specified when starting the shooting application-Overall operation identification information of the target received in step S111-Overall moving image stored in the storage device 11 in step S112

ステップS113の後、サーバ30は、図11のフローに従って評価(S131)を実行する。 After step S113, the server 30 executes the evaluation (S131) according to the flow of FIG.

図11に示すように、サーバ30は、検出モデルの決定(S1311)を実行する。
具体的には、プロセッサ32は、動作種別情報データベース(図5)を参照して、評価リクエストデータに含まれる対象全体動作識別情報に関連付けられた「部分動作ID」フィールドの情報(つまり、ユーザが指定した動作種別の全体動作を構成する部分動作の部分動作識別情報(以下「対象部分動作識別情報」という))を特定する。
プロセッサ32は、部分動作情報データベース(図6)を参照して、各対象部分動作識別情報に関連付けられた「モデルID」フィールドの情報(つまり、対象部分動作識別情報に対応する部分動作(以下「対象部分動作」という)を検出するための検出モデルのモデル識別情報)を特定する。
As shown in FIG. 11, the server 30 executes the determination of the detection model (S1311).
Specifically, the processor 32 refers to the operation type information database (FIG. 5), and the information in the "partial operation ID" field associated with the target-wide operation identification information included in the evaluation request data (that is, the user Specify the partial operation identification information (hereinafter referred to as "target partial operation identification information") of the partial operation that constitutes the entire operation of the specified operation type.
The processor 32 refers to the partial operation information database (FIG. 6) and refers to the information in the "model ID" field associated with each target partial operation identification information (that is, the partial operation corresponding to the target partial operation identification information (hereinafter, "" The model identification information) of the detection model for detecting (referred to as "target partial motion") is specified.

例えば、対象全体動作識別情報「T01」(全体動作名「手洗い」)の場合、対象部分動作識別情報「P11」〜「P14」(部分動作名「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、及び、「すすぐ」)、並びに、モデル識別情報「M11」〜「M14」が特定される(図6)。 For example, in the case of the target overall motion identification information "T01" (overall motion name "hand wash"), the target partial motion identification information "P11" to "P14" (partial motion names "wash the palm", "wash the back of the hand", " "Wash your fingertips" and "rinse"), and model identification information "M11" to "M14" are identified (FIG. 6).

ステップS1311の後、サーバ30は、部分動画の検出(S1312)を実行する。
具体的には、プロセッサ32は、ステップS1311で特定された各検出モデルに対して、評価リクエストデータに含まれる全体動画を入力する。プロセッサ32は、各検出モデルの出力に基づいて、各部分動画を検出する。
After step S1311, the server 30 executes partial moving image detection (S1312).
Specifically, the processor 32 inputs the entire moving image included in the evaluation request data for each detection model identified in step S1311. The processor 32 detects each partial moving image based on the output of each detection model.

より具体的には、対象全体動作識別情報「T01」(全体動作名「手洗い」)の場合、プロセッサ32は、モデル識別情報「M11」〜「M14」に対応する各検出モデルに対して、全体動画を入力する。
図13に示すように、各検出モデル(モデル識別情報「M11」〜「M14」)は、対象全体動作識別情報「T01」(全体動作名「手洗い」)に対応する全体動作を構成する部分動作(「手のひらを洗う」、「手の甲を洗う」、「指先を洗う」、及び、「すすぐ」)に対応する部分動画P11〜P14の尤度をそれぞれ時系列で出力する。
プロセッサ32は、出力された尤度に基づいて、各部分動画P11〜P14の開始時間ST1〜ST4、及び、終了時間ET1〜ET4を特定する。一例として、プロセッサ32は、尤度と所定の尤度閾値を比較することにより、開始時間ST1〜ST4、及び、終了時間ET1〜ET4を特定する。
プロセッサ32は、部分動画P11〜P14の対象部分動作識別情報、部分動画P11〜P14の開始時間ST1〜ST4、及び、終了時間ET1〜ET4の組合せを記憶装置31に記憶する。
More specifically, in the case of the target overall operation identification information "T01" (overall operation name "hand wash"), the processor 32 performs the entire detection model corresponding to the model identification information "M11" to "M14". Enter the video.
As shown in FIG. 13, each detection model (model identification information “M11” to “M14”) constitutes a partial operation corresponding to the target overall operation identification information “T01” (overall operation name “hand wash”). The likelihoods of the partial moving images P11 to P14 corresponding to (“washing the palm”, “washing the back of the hand”, “washing the fingertips”, and “rinsing”) are output in chronological order.
The processor 32 specifies the start times ST1 to ST4 and the end times ET1 to ET4 of each partial moving image P11 to P14 based on the output likelihood. As an example, the processor 32 identifies the start times ST1 to ST4 and the end times ET1 to ET4 by comparing the likelihood with a predetermined likelihood threshold.
The processor 32 stores in the storage device 31 a combination of the target partial motion identification information of the partial moving images P11 to P14, the start times ST1 to ST4 of the partial moving images P11 to P14, and the end times ET1 to ET4.

ステップS1312の後、サーバ30は、部分動作の評価(S1313)を実行する。
具体的には、プロセッサ32は、ステップS1312で記憶装置31に記憶された各対象部分動作識別情報に関連付けられた評価条件データテーブル(図8)を特定する。
プロセッサ32は、特定した評価条件データテーブルを参照して、「評価指標」フィールドの情報(例えば、各部分動作を含む部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間)に対応する「評価スコア」フィールドの情報(つまり、評価スコア)を特定する。これにより、部分評価情報(図14)が得られる。
After step S1312, the server 30 executes the partial operation evaluation (S1313).
Specifically, the processor 32 identifies the evaluation condition data table (FIG. 8) associated with each target partial operation identification information stored in the storage device 31 in step S1312.
The processor 32 refers to the specified evaluation condition data table and refers to the information in the "evaluation index" field (for example, the presence / absence of partial moving images including each partial operation, the order of each partial moving image, the period of each partial moving image, and each of them. Identify the information (ie, the evaluation score) in the "evaluation score" field that corresponds to the "start time of the partial movement in the partial video". As a result, partial evaluation information (FIG. 14) is obtained.

ステップS1313の後、サーバ30は、全体動作の評価(S1314)を実行する。 After step S1313, the server 30 executes an overall operation evaluation (S1314).

ステップS1314の第1例では、プロセッサ32は、ステップS1313で得られた部分評価情報を参照して、全体動作の評価スコア(つまり、全体評価情報)を決定する。
より具体的には、プロセッサ32は、以下の少なくとも1つを全体動作の評価スコアとして決定する。
・部分動作の評価スコアの合計値
・部分動作の評価スコアの平均値
・当該合計値又は当該平均値に対応する指標(例えば、ランク)
In the first example of step S1314, the processor 32 determines the evaluation score of the overall operation (that is, the overall evaluation information) with reference to the partial evaluation information obtained in step S1313.
More specifically, the processor 32 determines at least one of the following as an evaluation score for overall operation.
-Total value of evaluation score of partial movement-Average value of evaluation score of partial movement-The total value or the index corresponding to the average value (for example, rank)

一例として、動作種別が「手のひらを洗う」である場合、図8の評価条件データテーブルが参照される。
この場合、プロセッサ32は、部分動画P11が検出され、部分動画P11の順番が評価条件に示される順番と同一であり、部分動画P11の期間がPth以上であり、開始時間STが第1開始時間閾値Sth1〜第2開始時間閾値Sth2の間に含まれる場合、部分動画P11の評価スコアを「4」に決定する。
As an example, when the operation type is "wash the palm", the evaluation condition data table of FIG. 8 is referred to.
In this case, the processor 32 detects the partial moving image P11, the order of the partial moving images P11 is the same as the order shown in the evaluation conditions, the period of the partial moving image P11 is Pth or more, and the start time ST is the first start time. When it is included between the threshold value Sth1 and the second start time threshold value Sth2, the evaluation score of the partial moving image P11 is determined to be "4".

ステップS1314の第2例では、プロセッサ32は、ステップS1312で検出された部分動画の数に応じて、全体動作の評価スコアを決定する。
この場合、ステップS1313は省略可能である。
In the second example of step S1314, the processor 32 determines the evaluation score of the overall operation according to the number of partial moving images detected in step S1312.
In this case, step S1313 can be omitted.

ステップS131の後、サーバ30は、データベースの更新(S132)を実行する。
具体的には、プロセッサ32は、評価リクエストデータに含まれるユーザ識別情報に関連付けられた全体動画情報データベース(図7)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「全体動画ID」フィールド…新規の全体動画識別情報
・「全体動画」フィールド…評価リクエストデータに含まれる全体動画
・「評価日時」フィールド…ステップS131の実行日時に関する情報
・「部分評価」フィールド…ステップS1313で得られた部分評価情報
・「全体評価」フィールド…ステップS1314で得られた全体評価情報
After step S131, the server 30 executes the database update (S132).
Specifically, the processor 32 adds a new record to the overall moving image information database (FIG. 7) associated with the user identification information included in the evaluation request data. The following information is stored in each field of the new record.
-"Overall video ID" field ... New overall video identification information- "Overall video" field ... Overall video included in the evaluation request data- "Evaluation date and time" field ... Information about the execution date and time of step S131-"Partial evaluation" field ... Partial evaluation information obtained in step S1313 ・ "Overall evaluation" field ... Overall evaluation information obtained in step S1314

ステップS132の後、サーバ30は、評価レスポンス(S133)を実行する。
具体的には、プロセッサ32は、評価レスポンスデータをクライアント装置10に送信する。評価レスポンスデータは、以下の情報を含む。
・ステップS1312の実行結果(つまり、部分動画の検出結果)に関する情報
・ステップS1313の実行結果(つまり、部分評価情報)
・ステップS1314の実行結果(つまり、全体評価情報)
After step S132, the server 30 executes the evaluation response (S133).
Specifically, the processor 32 transmits the evaluation response data to the client device 10. The evaluation response data includes the following information.
-Information regarding the execution result of step S1312 (that is, the detection result of the partial moving image) -The execution result of step S1313 (that is, the partial evaluation information)
-Execution result of step S1314 (that is, overall evaluation information)

ステップS133の後、クライアント装置10は、評価結果の表示(S114)を実行する。
具体的には、プロセッサ12は、画面G12(図12)をディスプレイに表示する。
After step S133, the client device 10 executes the display of the evaluation result (S114).
Specifically, the processor 12 displays the screen G12 (FIG. 12) on the display.

画面G12には、評価レスポンスデータに含まれる情報が表示される。画面G12は、表示オブジェクトA12a〜A12bと、画像オブジェクトIMG12と、動画オブジェクトMOV11と、を含む。
表示オブジェクトA12aには、部分評価情報が表示される。
表示オブジェクトA12bには、全体評価情報が表示される。
画像オブジェクトIMG12は、部分動画の検出結果を時系列で示すオブジェクトである。
Information included in the evaluation response data is displayed on the screen G12. The screen G12 includes display objects A12a to A12b, an image object IMG12, and a moving object MOV11.
Partial evaluation information is displayed on the display object A12a.
Overall evaluation information is displayed on the display object A12b.
The image object IMG12 is an object that shows the detection result of the partial moving image in time series.

なお、ステップS133では、評価レスポンスデータは、部分評価情報を含まなくても良い。この場合、ステップS114では、部分評価情報の表示は省略される。
また、ステップS133では、評価レスポンスデータは、全体評価情報を含まなくても良い。この場合、ステップS114では、全体評価情報の表示は省略される。
In step S133, the evaluation response data does not have to include the partial evaluation information. In this case, in step S114, the display of the partial evaluation information is omitted.
Further, in step S133, the evaluation response data does not have to include the overall evaluation information. In this case, in step S114, the display of the overall evaluation information is omitted.

第1実施形態によれば、全体動画から部分動画を検出し、且つ、部分動画に関する評価条件を用いて、全体動作を評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 According to the first embodiment, the partial moving image is detected from the whole moving image, and the whole operation is evaluated by using the evaluation conditions related to the partial moving image. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

また、第1実施形態によれば、部分動作毎の検出モデルを用いて部分動画を検出する。これにより、適切に部分動作を検出することができる。 Further, according to the first embodiment, the partial moving image is detected by using the detection model for each partial operation. As a result, partial motion can be detected appropriately.

また、第1実施形態によれば、検出された部分動画の数に応じて、全体動作及び部分動作の少なくとも1つを評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 Further, according to the first embodiment, at least one of the total motion and the partial motion is evaluated according to the number of detected partial moving images. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

また、第1実施形態によれば、検出された部分動画の順番、各部分動画の期間、及び、各部分動作の開始時間の少なくとも1つを参照して、全体動作及び部分動作の少なくとも1つを評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 Further, according to the first embodiment, at least one of the total operation and the partial operation is referred to by referring to at least one of the detected order of the partial moving images, the period of each partial moving image, and the start time of each partial operation. To evaluate. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

また、第1実施形態によれば、予め指定されたトレーニの動作の種別に応じて、全体動作及び部分動作の少なくとも1つを評価する。これにより、より正確な評価を実現することができる。 Further, according to the first embodiment, at least one of the total operation and the partial operation is evaluated according to the type of the traini operation specified in advance. Thereby, more accurate evaluation can be realized.

また、第1実施形態によれば、検出された部分動作の種別に応じた検出モデルを用いて部分動画を検出する。これにより、適切に部分動画を検出することができる。 Further, according to the first embodiment, the partial moving image is detected by using the detection model according to the type of the detected partial motion. As a result, the partial moving image can be detected appropriately.

また、第1実施形態によれば、動作の種別に応じた評価条件を用いて部分動画を評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 Further, according to the first embodiment, the partial moving image is evaluated using the evaluation conditions according to the type of operation. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

(2)第2実施形態
第2実施形態を説明する。第2実施形態は、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて部分動作を評価する例である。なお、上記の実施形態と同様の説明は省略する。
(2) Second Embodiment The second embodiment will be described. The second embodiment is an example of evaluating a partial motion using a partial motion evaluation model corresponding to each of the plurality of partial motions. The same description as in the above embodiment will be omitted.

(2−1)動作の評価処理
第2実施形態の動作の評価処理を説明する。
(2-1) Operation Evaluation Process The operation evaluation process of the second embodiment will be described.

サーバ30は、第1実施形態(図11)と同様に、検出モデルの決定(S1311)〜部分動画の検出(S1312)を実行する。 The server 30 executes the determination of the detection model (S1311) to the detection of the partial moving image (S1312) in the same manner as in the first embodiment (FIG. 11).

ステップS1312の後、サーバ30は、部分動作の評価(S1313)を実行する。
具体的には、記憶装置31には、部分動作毎の部分動作評価モデルが記憶されている。各部分動作評価モデルは、部分動作識別情報に関連付けられている。
部分動作評価モデルには、各部分動作に含まれる要素動作(例えば、姿勢、表情、及び、発話の少なくとも1つ)毎の評価条件が記述されている。部分動作評価モデルは、例えば、予め定められたルール、又は、機械学習により生成された学習済モデルである。
After step S1312, the server 30 executes the partial operation evaluation (S1313).
Specifically, the storage device 31 stores a partial motion evaluation model for each partial motion. Each partial motion evaluation model is associated with partial motion identification information.
In the partial motion evaluation model, evaluation conditions for each element motion (for example, posture, facial expression, and at least one of utterances) included in each partial motion are described. The partial motion evaluation model is, for example, a predetermined rule or a trained model generated by machine learning.

プロセッサ32は、対象部分動作識別情報に関連付けられた部分動作評価モデルを参照して、ステップS1312で検出された各部分動画に対応する部分動作に含まれる要素動作の評価スコアを決定する。
プロセッサ32は、各要素動作の評価スコアを参照して、部分動作の部分動作評価情報を決定する。
より具体的には、プロセッサ32は、以下の少なくとも1つを部分動作の評価スコアとして決定する。
・要素動作の評価スコアの合計値
・要素動作の評価スコアの平均値
・当該合計値又は当該平均値に対応する指標(例えば、ランク)
・部分動画の有無
・部分動画の順番
・部分動画の期間
・各部分動画における部分動作の開始時間
The processor 32 refers to the partial motion evaluation model associated with the target partial motion identification information, and determines the evaluation score of the element motion included in the partial motion corresponding to each partial motion detected in step S1312.
The processor 32 determines the partial motion evaluation information of the partial motion by referring to the evaluation score of each element motion.
More specifically, the processor 32 determines at least one of the following as an evaluation score for partial operation.
-Total value of the evaluation score of the element movement-Average value of the evaluation score of the element movement-The total value or the index corresponding to the average value (for example, rank)
・ Presence / absence of partial video ・ Order of partial video ・ Period of partial video ・ Start time of partial operation in each partial video

一例として、動作種別が「歩行介助」であり、且つ、部分動作が「被介助者の手を取る」であり、評価対象となる要素動作が「表情」であり、且つ、要素動作の評価条件が「笑顔で被介助者の目を見る」である場合、プロセッサ32は、部分動画を解析することによって、トレーニの表情(例えば、笑顔のレベル)を特定する。
プロセッサ32は、特定結果(例えば、笑顔のレベル)に基づいて、要素動作「表情」の評価スコアを計算する。
As an example, the motion type is "walking assistance", the partial motion is "take the hand of the person being assisted", the element motion to be evaluated is "facial expression", and the evaluation condition of the element motion. When is "seeing the eyes of the person being assisted with a smile", the processor 32 identifies the traini's facial expression (eg, the level of smile) by analyzing the partial moving image.
The processor 32 calculates the evaluation score of the elemental motion "facial expression" based on the specific result (for example, the level of smile).

ステップS1313の後、サーバ30は、第1実施形態(図10)と同様に、全体動作の評価(S1314)を実行する。 After step S1313, the server 30 executes the evaluation of the overall operation (S1314) as in the first embodiment (FIG. 10).

ステップS1314の後、サーバ30は、図10のデータベースの更新(S132)を実行する。
具体的には、プロセッサ32は、評価リクエストデータに含まれるユーザ識別情報に関連付けられた全体動画情報データベース(図7)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「全体動画ID」フィールド…新規の全体動画識別情報
・「全体動画」フィールド…評価リクエストデータに含まれる全体動画
・「評価日時」フィールド…ステップS131の実行日時に関する情報
・「部分評価」フィールド…ステップS1313で得られた部分評価情報
・「全体評価」フィールド…ステップS1314で得られた全体評価情報
After step S1314, the server 30 executes the database update (S132) of FIG.
Specifically, the processor 32 adds a new record to the overall moving image information database (FIG. 7) associated with the user identification information included in the evaluation request data. The following information is stored in each field of the new record.
-"Overall video ID" field ... New overall video identification information- "Overall video" field ... Overall video included in the evaluation request data- "Evaluation date and time" field ... Information about the execution date and time of step S131-"Partial evaluation" field ... Partial evaluation information obtained in step S1313 ・ "Overall evaluation" field ... Overall evaluation information obtained in step S1314

ステップS2311の後、サーバ30は、第1実施形態(図10)と同様に、評価レスポンス(S133)を実行する。
ステップS133の後、クライアント装置10は、第1実施形態と同様に、評価結果の表示(S114)を実行する。
After step S2311, the server 30 executes the evaluation response (S133) as in the first embodiment (FIG. 10).
After step S133, the client device 10 executes the display of the evaluation result (S114) as in the first embodiment.

第2実施形態によれば、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて、部分動作を構成する複数の要素動作のそれぞれを評価し、且つ、各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する。これにより、全体動作及び部分動作の少なくとも1つをより詳細に評価することができる。 According to the second embodiment, each of the plurality of elemental motions constituting the partial motion is evaluated by using the partial motion evaluation model corresponding to each of the plurality of partial motions, and the evaluation result of each elemental motion is referred to. Then, at least one of the total movement and the partial movement is evaluated. Thereby, at least one of the total operation and the partial operation can be evaluated in more detail.

(3)変形例
本実施形態の変形例を説明する。
(3) Modification example A modification of the present embodiment will be described.

(3−1)変形例1
本実施形態の変形例1を説明する。変形例1は、サーバ30が動作種別を判定する例である。
図15は、変形例1の情報処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(3-1) Modification 1
A modification 1 of the present embodiment will be described. Modification 1 is an example in which the server 30 determines the operation type.
FIG. 15 is a sequence diagram of information processing of the first modification. FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG.

図15に示すように、クライアント装置10は、全体動作の撮影(S111)を実行する。
具体的には、プロセッサ12は、画面G20(図16)をディスプレイに表示する。画面G20は、操作オブジェクトB10dを含む。
As shown in FIG. 15, the client device 10 executes shooting (S111) of the entire operation.
Specifically, the processor 12 displays the screen G20 (FIG. 16) on the display. The screen G20 includes the operation object B10d.

ステップS111の後、クライアント装置10は、評価リクエスト(S112)を実行する。
具体的には、プロセッサ12は、評価リクエストデータをサーバ30に送信する。評価リクエストデータは、以下の情報を含む。
・撮影アプリケーションを起動するときに指定されたユーザ識別情報
・ステップS112で記憶装置11に記憶された全体動画
After step S111, the client device 10 executes the evaluation request (S112).
Specifically, the processor 12 transmits the evaluation request data to the server 30. The evaluation request data includes the following information.
-User identification information specified when starting the shooting application-The entire moving image stored in the storage device 11 in step S112

ステップS112の後、サーバ30は、動作種別の特定(S331)を実行する。
具体的には、記憶装置31には、動作種別特定モデルが記憶されている。動作種別特定モデルには、動画の特徴量と動作種別との相関関係が記述されている。
プロセッサ32は、評価リクエストデータに含まれる全体動画を動作種別特定モデルに入力することにより、全体動画の動作種別(つまり、全体動作の種別)を特定する。
After step S112, the server 30 executes the operation type identification (S331).
Specifically, the storage device 31 stores an operation type specific model. In the operation type specific model, the correlation between the feature amount of the moving image and the operation type is described.
The processor 32 specifies the operation type of the entire moving image (that is, the type of the overall operation) by inputting the whole moving image included in the evaluation request data into the operation type specifying model.

ステップS331の後、サーバ30は、第1実施形態(図10)又は第2実施形態と同様に、評価(S131)〜評価レスポンス(S133)を実行する。 After step S331, the server 30 executes the evaluation (S131) to the evaluation response (S133) in the same manner as in the first embodiment (FIG. 10) or the second embodiment.

ステップS133の後、クライアント装置10は、本実施形態(図10)と同様に、評価結果の表示(S114)を実行する。 After step S133, the client device 10 executes the display of the evaluation result (S114) in the same manner as in the present embodiment (FIG. 10).

なお、動作種別の特定(S331)は、部分動画の検出(S1312)の後に実行されても良い。
この場合、プロセッサ32は、ステップS1312で検出された複数の部分動画の少なくとも1つを動作種別特定モデルに入力することにより、全体動画の動作種別を特定する。
The operation type specification (S331) may be executed after the detection of the partial moving image (S1312).
In this case, the processor 32 specifies the operation type of the entire moving image by inputting at least one of the plurality of partial moving images detected in step S1312 into the operation type specifying model.

変形例1によれば、ユーザが指定することなく、動作の種別が特定される。これにより、動作の評価におけるユーザの負担を軽減することができる。 According to the first modification, the type of operation is specified without being specified by the user. This makes it possible to reduce the burden on the user in evaluating the operation.

(3−2)変形例2
本実施形態の変形例2を説明する。変形例2は、全体動画に含まれるトレーニ以外の人物(以下「非トレーニ」という)の動作を考慮して、トレーニの動作を評価する例である。
(3-2) Modification 2
A modification 2 of the present embodiment will be described. The second modification is an example of evaluating the movement of the traini in consideration of the movement of a person other than the traini (hereinafter referred to as “non-traini”) included in the whole moving image.

(3−2−1)変形例2の概要
本実施形態の変形例2の概要を説明する。図17は、変形例2の概要の説明図である。
(3-2-1) Outline of Modification Example 2 An outline of Modification 2 of the present embodiment will be described. FIG. 17 is an explanatory diagram of an outline of the modified example 2.

図17に示すように、変形例2では、全体動画に含まれる非トレーニの動作(全体動作及び部分動作の少なくとも1つ)、並びに、トレーニの動作(全体動作及び部分動作の少なくとも1つ)を参照して、トレーニの動作を評価する。
非トレーニは、例えば、以下の少なくとも1つを含む。
・トレーニが介護者である場合の被介護者
・トレーニが医師である場合の患者
・トレーニがスポーツ選手である場合の相手選手
As shown in FIG. 17, in the second modification, the non-trainer's motion (at least one of the total motion and the partial motion) and the trainee's motion (at least one of the total motion and the partial motion) included in the whole moving image are shown. Refer to it to evaluate the behavior of the trainee.
Non-traini includes, for example, at least one of the following:
・ Patients when the traini is a caregiver ・ Patients when the traini is a doctor ・ Opponents when the traini is an athlete

図17に示すように、変形例2では、クライアント装置10がサーバ30に全体動画を送信する。全体動画は、トレーニの動作(例えば、一連の部分動作を含む全体動作)、及び、非トレーニの動作(例えば、一連の部分動作を含む全体動作)の組合せに対応する。 As shown in FIG. 17, in the second modification, the client device 10 transmits the entire moving image to the server 30. The whole moving image corresponds to a combination of traini movements (for example, whole movements including a series of partial movements) and non-traini movements (for example, whole movements including a series of partial movements).

サーバ30は、機械学習によって生成された検出モデルを用いて、全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する。
サーバ30は、検出された複数の部分動画(つまり、非トレーニの動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せ)を参照して、全体動作及び部分動作の少なくとも1つを評価する。
The server 30 uses the detection model generated by machine learning to detect the partial moving image corresponding to each of the plurality of partial motions from the whole moving image.
The server 30 evaluates at least one of the total motion and the partial motion by referring to the plurality of detected partial moving images (that is, the non-traini motion and at least one combination of the traini's total motion and the partial motion). To do.

(3−2−2)情報処理
本実施形態の変形例2の情報処理を説明する。
(3-2-2) Information processing Information processing of the second modification of the present embodiment will be described.

変形例2の検出モデルは、動画の種別に応じて、トレーニの部分動作及び非トレーニの部分動作の組合せを検出するように構成される。 The detection model of the second modification is configured to detect a combination of a traini partial motion and a non-traini partial motion according to the type of moving image.

記憶装置31には、トレーニの姿勢及び非トレーニの姿勢の相関関係に関する評価条件テーブル、トレーニの表情及び非トレーニの表情の相関関係に関する評価条件テーブル、並びに、トレーニの発話及び非トレーニの発話の相関関係に関する評価条件テーブルの少なくとも1つが記憶されている。 The storage device 31 contains an evaluation condition table relating to the correlation between the traini's posture and the non-traini's posture, an evaluation condition table regarding the correlation between the traini's facial expression and the non-traini's facial expression, and the correlation between the traini's utterance and the non-traini's utterance. At least one of the evaluation condition tables related to the relationship is stored.

プロセッサ32は、ステップS1312(図11)において、記憶装置11に記憶されたルール又は機械学習モデルを用いて、部分動画から、トレーニの姿勢の画像、トレーニの表情の画像、及び、トレーニの発話の画像又は音声の少なくとも1つを抽出する。 In step S1312 (FIG. 11), the processor 32 uses the rule or machine learning model stored in the storage device 11 to display the image of the traini's posture, the image of the traini's facial expression, and the traini's utterance from the partial moving image. Extract at least one of the images or sounds.

プロセッサ32は、トレーニの姿勢及び非トレーニの姿勢の相関関係に関する評価条件テーブルと、抽出されたトレーニの姿勢及び非トレーニの姿勢の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、姿勢に関する評価スコア)を計算する。
プロセッサ32は、トレーニの表情及び非トレーニの表情の相関関係に関する評価条件テーブルと、抽出されたトレーニの表情及び非トレーニの表情の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、表情に関する評価スコア)を計算する。
プロセッサ32は、トレーニの発話及び非トレーニの発話の相関関係に関する評価条件テーブルと、抽出されたトレーニの発話及び非トレーニの発話の音声と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、発話に関する評価スコア)を計算する。
The processor 32 refers to the evaluation condition table regarding the correlation between the posture of the traini and the posture of the non-traini, and the extracted images of the posture of the traini and the posture of the non-traini, and at least one of the partial motion and the total motion. Calculate the evaluation score (that is, the evaluation score for posture).
The processor 32 refers to the evaluation condition table regarding the correlation between the facial expression of the traini and the facial expression of the non-traini, and the extracted images of the facial expression of the traini and the facial expression of the non-traini, and at least one of the partial motion and the total motion. Calculate the evaluation score (that is, the evaluation score for facial expressions).
The processor 32 refers to the evaluation condition table regarding the correlation between the traini's utterance and the non-traini's utterance, and the extracted traini's utterance and the non-traini's utterance voice, and at least one of the partial operation and the whole operation. Calculate the evaluation score (that is, the evaluation score for speech).

変形例2によれば、動作の評価において、非トレーニの動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。 According to the second modification, the correlation between the non-trainer's motion and the trainee's motion is considered in the evaluation of the motion. This makes it possible to evaluate the operation of the trainee under conditions close to the actual operating environment.

(3−3)変形例3
本実施形態の変形例3を説明する。変形例3は、全体動画に含まれる物体の動作を考慮して、トレーニの動作を評価する例である。
(3-3) Modification 3
A modified example 3 of this embodiment will be described. Modification 3 is an example of evaluating the movement of the traini in consideration of the movement of the object included in the whole moving image.

(3−3−1)変形例3の概要
本実施形態の変形例3の概要を説明する。図18は、変形例3の概要の説明図である。
(3-3-1) Outline of Modified Example 3 An outline of Modified Example 3 of the present embodiment will be described. FIG. 18 is an explanatory diagram of an outline of the modified example 3.

図18に示すように、変形例3では、全体動画に含まれる物体の動作(全体動作及び部分動作の少なくとも1つ)、並びに、トレーニの動作(全体動作及び部分動作の少なくとも1つ)を参照して、トレーニの動作を評価する。
物体は、例えば、以下の少なくとも1つを含む。
・トレーニが介護者である場合の介護用品(一例として、可動式介護用ベッド)
・トレーニが医師である場合の医療機器(一例として、手術器具)
・トレーニがスポーツ選手である場合のスポーツ器具(一例として、ボール、バット、ラケット、ゴルフクラブ等)
As shown in FIG. 18, in the modification 3, the motion of the object (at least one of the total motion and the partial motion) and the motion of the traini (at least one of the total motion and the partial motion) included in the whole moving image are referred to. Then, evaluate the operation of the traini.
The object includes, for example, at least one of the following:
・ Nursing care products when the trainee is a caregiver (for example, a movable nursing bed)
・ Medical equipment when the trainee is a doctor (for example, surgical instruments)
・ Sports equipment when the trainer is an athlete (for example, balls, bats, rackets, golf clubs, etc.)

サーバ30は、機械学習によって生成された検出モデルを用いて、全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出する。
サーバ30は、検出された複数の部分動画(つまり、物体の動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せ)を参照して、全体動作及び部分動作の少なくとも1つを評価する。
The server 30 uses the detection model generated by machine learning to detect the partial moving image corresponding to each of the plurality of partial motions from the whole moving image.
The server 30 evaluates at least one of the total motion and the partial motion by referring to the plurality of detected partial moving images (that is, the motion of the object and at least one combination of the traini's total motion and the partial motion). ..

(3−3−2)情報処理
本実施形態の変形例3の情報処理を説明する。
(3-3-2) Information processing The information processing of the third modification of the present embodiment will be described.

変形例3の検出モデルは、動画の種別に応じて、トレーニの部分動作及び物体の部分動作の組合せを検出するように構成される。 The detection model of the third modification is configured to detect a combination of a traini's partial motion and an object's partial motion according to the type of moving image.

記憶装置31には、トレーニの姿勢及び物体の姿勢の相関関係に関する評価条件テーブル、並びに、トレーニの発話及び物体の発話の相関関係に関する評価条件テーブルの少なくとも1つが記憶されている。 The storage device 31 stores at least one of an evaluation condition table regarding the correlation between the posture of the traini and the posture of the object, and an evaluation condition table regarding the correlation between the utterance of the traini and the utterance of the object.

プロセッサ32は、ステップS1312(図11又は図16)において、記憶装置11に記憶されたルール又は機械学習モデルを用いて、部分動画から、トレーニの姿勢の画像、及び、トレーニの発話の画像又は音声の少なくとも1つを抽出する。 In step S1312 (FIG. 11 or 16), the processor 32 uses the rule or machine learning model stored in the storage device 11 to perform a partial moving image, an image of the traini's posture, and an image or voice of the traini's utterance. At least one of them is extracted.

プロセッサ32は、トレーニの姿勢及び物体の姿勢の相関関係に関する評価条件テーブルと、抽出されたトレーニの姿勢及び物体の姿勢の画像と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、姿勢に関する評価スコア)を計算する。
プロセッサ32は、トレーニの発話及び物体の動作音の相関関係に関する評価条件テーブルと、抽出されたトレーニの発話及び物体の動作音の音声と、を参照して、部分動作及び全体動作の少なくとも1つの評価スコア(つまり、発話に関する評価スコア)を計算する。
The processor 32 refers to the evaluation condition table regarding the correlation between the posture of the traini and the posture of the object and the extracted image of the posture of the traini and the posture of the object, and refers to at least one evaluation score of the partial motion and the total motion. (That is, the evaluation score for posture) is calculated.
The processor 32 refers to the evaluation condition table regarding the correlation between the traini's utterance and the motion sound of the object, and the extracted voice of the traini's utterance and the motion sound of the object, and at least one of the partial motion and the entire motion. Calculate the evaluation score (that is, the evaluation score for speech).

ステップS1312の後、サーバ30は、第1実施形態(図10)又は第2実施形態と同様に、データベースの更新(S132)〜評価レスポンス(S133)を実行する。
ステップS133の後、クライアント装置10は、第1実施形態又は第2実施形態と同様に、評価結果の表示(S114)を実行する。
After step S1312, the server 30 executes database update (S132) to evaluation response (S133) in the same manner as in the first embodiment (FIG. 10) or the second embodiment.
After step S133, the client device 10 executes the display of the evaluation result (S114) as in the first embodiment or the second embodiment.

変形例3によれば、動作の評価において、物体の動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。 According to the third modification, the correlation between the motion of the object and the motion of the trainee is considered in the evaluation of the motion. This makes it possible to evaluate the operation of the trainee under conditions close to the actual operating environment.

(4)本実施形態の小括
本実施形態について小括する。
(4) Summary of the present embodiment A summary of the present embodiment will be given.

本実施形態の第1態様は、
トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップ(例えば、ステップS1312)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価するステップ(例えば、ステップS1313〜S1314)を備える、
動作評価方法である。
The first aspect of this embodiment is
It is an operation evaluation method that evaluates the operation of the trainee.
Using the detection model generated by machine learning, a step (for example, step S1312) of detecting a partial moving image corresponding to each of a plurality of partial movements from a whole moving image including a series of partial movements is performed. Prepare,
A step (for example, steps S1313 to S1314) for evaluating at least one of the total motion and the partial motion is provided with reference to the plurality of detected partial moving images.
This is an operation evaluation method.

第1態様によれば、全体動画から部分動画を検出し、且つ、部分動画に関する評価条件を用いて、全体動作及び部分動作の少なくとも1つを評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 According to the first aspect, a partial moving image is detected from the whole moving image, and at least one of the whole motion and the partial motion is evaluated by using the evaluation conditions related to the partial moving image. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

本実施形態の第2態様は、
検出するステップは、
複数の部分動作のそれぞれに対応する検出モデルを用いて、各部分動作の尤度を計算し、
各部分動作の尤度に基づいて、各部分動画を検出する、
動作評価方法である。
The second aspect of this embodiment is
The steps to detect are
The likelihood of each partial motion is calculated using the detection model corresponding to each of the multiple partial motions.
Detect each partial video based on the likelihood of each partial motion,
This is an operation evaluation method.

第2態様によれば、部分動作毎の検出モデルを用いて部分動画を検出する。これにより、適切に部分動画を検出することができる。 According to the second aspect, the partial moving image is detected by using the detection model for each partial motion. As a result, the partial moving image can be detected appropriately.

本実施形態の第3態様は、
評価するステップは、検出された部分動画の数を参照して、全体動作を評価する、
動作評価方法である。
The third aspect of this embodiment is
The evaluation step is to evaluate the overall operation by referring to the number of detected partial videos.
This is an operation evaluation method.

第3態様によれば、部分動画の数に応じて評価を実行する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 According to the third aspect, the evaluation is performed according to the number of partial moving images. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

本実施形態の第4態様は、
評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
The fourth aspect of this embodiment is
The step to evaluate refers to at least one of the presence / absence of the partial motion corresponding to each partial motion, the order of each partial motion, the period of each partial motion, and the start time of the partial motion in each partial motion, and the overall operation. And evaluate at least one of the partial movements,
This is an operation evaluation method.

第4態様によれば、部分動画の順番及び期間、並びに、部分動作の開始時間の少なくとも1つに応じて評価を実行する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 According to the fourth aspect, the evaluation is performed according to the order and duration of the partial moving images and at least one of the start times of the partial movements. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

本実施形態の第5態様は、
トレーニの動作の種別に関する種別情報を取得するステップ(例えば、ステップS1311)を備え、
取得された種別情報を参照して、全体動画の種別を特定するステップ(S1311)を備える、
動作評価方法である。
A fifth aspect of this embodiment is
A step (for example, step S1311) for acquiring type information regarding the type of traini operation is provided.
A step (S1311) for specifying the type of the entire moving image is provided with reference to the acquired type information.
This is an operation evaluation method.

第5態様によれば、予め指定されたトレーニの動作の種別に応じて評価を実行する。これにより、より正確な評価を実現することができる。 According to the fifth aspect, the evaluation is executed according to the type of operation of the traini specified in advance. Thereby, more accurate evaluation can be realized.

本実施形態の第6態様は、
全体動画及び部分動画の少なくとも1つを参照して、トレーニの動作の種別を特定するステップ(例えば、ステップS331)を備える、
動作評価方法である。
The sixth aspect of this embodiment is
A step (for example, step S331) for specifying the type of traini operation is provided with reference to at least one of the whole moving image and the partial moving image.
This is an operation evaluation method.

第6態様によれば、ユーザが指定することなく、動作の種別が特定される。これにより、動作の評価におけるユーザの負担を軽減することができる。 According to the sixth aspect, the type of operation is specified without being specified by the user. This makes it possible to reduce the burden on the user in evaluating the operation.

本実施形態の第7態様は、
検出するステップは、特定された種別に応じた検出モデルを用いる、
動作評価方法である。
The seventh aspect of this embodiment is
The detection step uses a detection model according to the specified type.
This is an operation evaluation method.

第7態様によれば、第6態様と同様の効果が得られる。 According to the seventh aspect, the same effect as that of the sixth aspect can be obtained.

本実施形態の第8態様は、
評価するステップは、特定された種別に応じた評価条件を参照して、各部分動画を評価する、
動作評価方法である。
The eighth aspect of this embodiment is
The evaluation step is to evaluate each partial video by referring to the evaluation conditions according to the specified type.
This is an operation evaluation method.

第8態様によれば、動作の種別に応じた評価条件を用いて部分動画を評価する。これにより、トレーニングの様子が撮影された動画を用いて、指導者の評価と同等の評価を実現することができる。 According to the eighth aspect, the partial moving image is evaluated using the evaluation conditions according to the type of motion. As a result, it is possible to realize an evaluation equivalent to that of the instructor by using a moving image of the training.

本実施形態の第9態様は、
評価するステップは、全体動画に含まれるトレーニ以外の人物の動作、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
The ninth aspect of this embodiment is
The evaluation step evaluates at least one of the total movement and the partial movement by referring to the movement of a person other than the traini included in the whole video and at least one combination of the traini's total movement and the partial movement.
This is an operation evaluation method.

第9態様によれば、動作の評価において、非トレーニの動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。 According to the ninth aspect, the correlation between the non-traini movement and the traini movement is considered in the evaluation of the movement. This makes it possible to evaluate the operation of the trainee under conditions close to the actual operating environment.

本実施形態の第10態様は、
評価するステップは、全体動画に含まれるトレーニ以外の物体の様子、並びに、トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
The tenth aspect of this embodiment is
The evaluation step evaluates at least one of the total motion and the partial motion by referring to the appearance of the object other than the traini included in the whole movie and at least one combination of the total motion and the partial motion of the traini.
This is an operation evaluation method.

第10態様によれば、動作の評価において、物体の動作及びトレーニの動作の相関関係を考慮する。これにより、実際の動作環境に近い条件でトレーニの動作を評価することができる。 According to the tenth aspect, the correlation between the motion of the object and the motion of the trainee is considered in the evaluation of the motion. This makes it possible to evaluate the operation of the trainee under conditions close to the actual operating environment.

本実施形態の第11態様は、
評価するステップは、
部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する、
動作評価方法である。
The eleventh aspect of this embodiment is
The steps to evaluate are
Evaluate each of the multiple elemental actions that make up a partial action,
Evaluate at least one of the total motion and the partial motion by referring to the evaluation result of each element motion.
This is an operation evaluation method.

第11態様によれば、複数の部分動作のそれぞれに対応する部分動作評価モデルを用いて、部分動作を構成する複数の要素動作のそれぞれを評価し、且つ、各要素動作の評価結果を参照して、全体動作及び部分動作の少なくとも1つを評価する。これにより、全体動作及び部分動作の少なくとも1つをより詳細に評価することができる。 According to the eleventh aspect, each of the plurality of elemental motions constituting the partial motion is evaluated by using the partial motion evaluation model corresponding to each of the plurality of partial motions, and the evaluation result of each elemental motion is referred to. At least one of the total motion and the partial motion is evaluated. Thereby, at least one of the total operation and the partial operation can be evaluated in more detail.

本実施形態の第12態様は、
トレーニの動作を評価する動作評価装置(例えば、サーバ30)であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段(例えば、ステップS1312を実行するプロセッサ32)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価する手段(例えば、ステップS1313〜S1314を実行するプロセッサ32)を備える、
動作評価装置(例えば、サーバ30)である。
The twelfth aspect of this embodiment is
An operation evaluation device (for example, server 30) that evaluates the operation of the trainee.
Using the detection model generated by machine learning, a means for detecting a partial moving image corresponding to each partial motion from the entire moving motion including a series of partial motions (for example, a processor 32 for executing step S1312). )
A means (for example, a processor 32 that executes steps S1313 to S1314) for evaluating at least one of the total operation and the partial operation with reference to the detected plurality of partial moving images is provided.
It is an operation evaluation device (for example, a server 30).

第12態様によれば、第1態様と同様の効果が得られる。 According to the twelfth aspect, the same effect as that of the first aspect can be obtained.

本実施形態の第13態様は、
トレーニの動作を評価する動作評価システム1であって、
クライアント装置10と、サーバ30と、を備え、
クライアント装置10は、
一連の部分動作を含む全体動作が撮影された全体動画をサーバ30に送信する手段(例えば、ステップS113を実行するプロセッサ12)を備え、
サーバ30は、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段(例えば、ステップS1312を実行するプロセッサ32)を備え、
検出された複数の部分動画を参照して、全体動作及び部分動作の少なくとも1つを評価する手段(例えば、ステップS1313〜S1314を実行するプロセッサ32)を備える、
動作評価システム1である。
The thirteenth aspect of this embodiment is
It is an operation evaluation system 1 that evaluates the operation of the trainee.
A client device 10 and a server 30 are provided.
The client device 10
A means (for example, a processor 12 for executing step S113) for transmitting an entire moving image in which an entire operation including a series of partial operations is captured is provided to the server 30.
The server 30
Using the detection model generated by machine learning, a means for detecting a partial moving image corresponding to each partial motion from the entire moving motion including a series of partial motions (for example, a processor 32 for executing step S1312). )
A means (for example, a processor 32 that executes steps S1313 to S1314) for evaluating at least one of the total operation and the partial operation with reference to the detected plurality of partial moving images is provided.
This is an operation evaluation system 1.

第13態様によれば、第1態様と同様の効果が得られる。 According to the thirteenth aspect, the same effect as that of the first aspect can be obtained.

(5)その他の変形例
その他の変形例を説明する。
(5) Other Modification Examples Other modification examples will be described.

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
例えば、クライアント装置10が上記の情報処理の全てのステップを実行可能である場合、クライアント装置10は、サーバ30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。
Each step of the above information processing can be executed by either the client device 10 or the server 30.
For example, when the client device 10 can execute all the steps of the above information processing, the client device 10 functions as an information processing device that operates standalone without sending a request to the server 30.

本実施形態では、クライアント装置10が全体動画を撮影する例を示したが、本実施形態の範囲はこれに限られない。本実施形態は、以下の何れかの場合にも適用可能である。
・ステップS111の実行前に記憶装置11に記憶されていた全体動画(つまり、図10の処理の実行前に撮影された全体動画)
・クライアント装置10のカメラ15以外のカメラ(例えば、ステップS111を実行するクライアント装置10と通信可能な外部カメラ)で撮影された全体動画
In the present embodiment, an example in which the client device 10 shoots the entire moving image is shown, but the scope of the present embodiment is not limited to this. This embodiment can be applied to any of the following cases.
The entire moving image stored in the storage device 11 before the execution of step S111 (that is, the entire moving image taken before the execution of the process of FIG. 10).
An entire moving image taken by a camera other than the camera 15 of the client device 10 (for example, an external camera capable of communicating with the client device 10 that executes step S111).

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.

1 :動作評価システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: Operation evaluation system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Camera 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Claims (13)

トレーニの動作を評価する動作評価方法であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、複数の部分動作のそれぞれに対応する部分動画を検出するステップを備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価するステップを備える、
動作評価方法。
It is an operation evaluation method that evaluates the operation of the trainee.
Using a detection model generated by machine learning, a step is provided to detect a partial moving image corresponding to each of a plurality of partial movements from a whole moving image in which a whole motion including a series of partial motions is shot.
It comprises a step of evaluating at least one of the whole motion and the partial motion with reference to the detected plurality of partial motions.
Operation evaluation method.
前記検出するステップは、
前記複数の部分動作のそれぞれに対応する検出モデルを用いて、各部分動作の尤度を計算し、
各部分動作の尤度に基づいて、各部分動画を検出する、
請求項1に記載の動作評価方法。
The step to detect is
The likelihood of each partial motion is calculated using the detection model corresponding to each of the plurality of partial motions.
Detect each partial video based on the likelihood of each partial motion,
The operation evaluation method according to claim 1.
前記評価するステップは、前記検出された部分動画の数を参照して、前記全体動作を評価する、
請求項1又は2に記載の動作評価方法。
The evaluation step evaluates the overall operation with reference to the number of detected partial moving images.
The operation evaluation method according to claim 1 or 2.
前記評価するステップは、各部分動作に対応する部分動画の有無、各部分動画の順番、各部分動画の期間、及び、各部分動画における部分動作の開始時間の少なくとも1つを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1〜3の何れかに記載の動作評価方法。
The evaluation step refers to at least one of the presence / absence of a partial motion corresponding to each partial motion, the order of each partial motion, the period of each partial motion, and the start time of the partial motion in each partial motion. Evaluate at least one of the overall motion and the partial motion,
The operation evaluation method according to any one of claims 1 to 3.
前記トレーニの動作の種別に関する種別情報を取得するステップを備え、
前記取得された種別情報を参照して、前記全体動画の種別を特定するステップを備える、
請求項4に記載の動作評価方法。
A step of acquiring type information regarding the type of operation of the trainee is provided.
A step of specifying the type of the entire moving image by referring to the acquired type information is provided.
The operation evaluation method according to claim 4.
前記全体動画及び前記部分動画の少なくとも1つを参照して、前記トレーニの動作の種別を特定するステップを備える、
請求項4に記載の動作評価方法。
A step of identifying the type of operation of the traini with reference to at least one of the whole moving image and the partial moving image is provided.
The operation evaluation method according to claim 4.
前記検出するステップは、前記特定された種別に応じた検出モデルを用いる、
請求項5又は6に記載の動作評価方法。
The detection step uses a detection model according to the specified type.
The operation evaluation method according to claim 5 or 6.
前記評価するステップは、前記特定された種別に応じた評価条件を参照して、各部分動画を評価する、
請求項5〜7の何れかに記載の動作評価方法。
The evaluation step evaluates each partial moving image with reference to the evaluation conditions according to the specified type.
The operation evaluation method according to any one of claims 5 to 7.
前記評価するステップは、前記全体動画に含まれる前記トレーニ以外の人物の動作、並びに、前記トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1〜8の何れかに記載の動作評価方法。
The evaluation step refers to the movement of a person other than the traini included in the whole moving image, and at least one combination of the whole movement and the partial movement of the traini, and at least one of the whole movement and the partial movement. Evaluate one,
The operation evaluation method according to any one of claims 1 to 8.
前記評価するステップは、前記全体動画に含まれる前記トレーニ以外の物体の様子、並びに、前記トレーニの全体動作及び部分動作の少なくとも1つの組合せを参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1〜9の何れかに記載の動作評価方法。
The evaluation step refers to the appearance of an object other than the traini included in the overall moving image, and at least one combination of the overall motion and the partial motion of the traini, and at least one of the overall motion and the partial motion. Evaluate one,
The operation evaluation method according to any one of claims 1 to 9.
前記評価するステップは、
前記部分動作を構成する複数の要素動作のそれぞれを評価し、
各要素動作の評価結果を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する、
請求項1〜10の何れかに記載の動作評価方法
The evaluation step is
Each of the plurality of elemental movements constituting the partial movement is evaluated, and
With reference to the evaluation result of each element operation, at least one of the whole operation and the partial operation is evaluated.
The operation evaluation method according to any one of claims 1 to 10.
トレーニの動作を評価する動作評価装置であって、
機械学習によって生成された検出モデルを用いて、一連の部分動作を含む全体動作が撮影された全体動画から、各部分動作に対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備える、
動作評価装置。
It is an operation evaluation device that evaluates the operation of the trainee.
Using a detection model generated by machine learning, a means for detecting a partial moving image corresponding to each partial motion from a whole moving image including a series of partial motions is provided.
A means for evaluating at least one of the whole motion and the partial motion is provided with reference to the detected plurality of partial moving images.
Operation evaluation device.
トレーニの動作を評価する動作評価システムであって、
クライアント装置と、サーバと、を備え、
前記クライアント装置は、
一連の部分動作を含む全体動作が撮影された全体動画を前記サーバに送信する手段を備え、
前記サーバは、
機械学習によって生成された検出モデルを用いて、前記全体動画から、各部分動作に対応する部分動画を検出する手段を備え、
前記検出された複数の部分動画を参照して、前記全体動作及び前記部分動作の少なくとも1つを評価する手段を備える、
動作評価システム。
It is an operation evaluation system that evaluates the operation of the trainee.
It is equipped with a client device and a server.
The client device
A means for transmitting an entire moving image of a whole motion including a series of partial motions to the server is provided.
The server
A means for detecting a partial moving image corresponding to each partial motion from the whole moving image using a detection model generated by machine learning is provided.
A means for evaluating at least one of the whole motion and the partial motion is provided with reference to the detected plurality of partial moving images.
Operation evaluation system.
JP2019196328A 2019-10-29 2019-10-29 Motion evaluation device, motion evaluation method, motion evaluation system Active JP6757010B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019196328A JP6757010B1 (en) 2019-10-29 2019-10-29 Motion evaluation device, motion evaluation method, motion evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196328A JP6757010B1 (en) 2019-10-29 2019-10-29 Motion evaluation device, motion evaluation method, motion evaluation system

Publications (2)

Publication Number Publication Date
JP6757010B1 JP6757010B1 (en) 2020-09-16
JP2021071773A true JP2021071773A (en) 2021-05-06

Family

ID=72432436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196328A Active JP6757010B1 (en) 2019-10-29 2019-10-29 Motion evaluation device, motion evaluation method, motion evaluation system

Country Status (1)

Country Link
JP (1) JP6757010B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087437A (en) * 2018-11-27 2020-06-04 富士ゼロックス株式会社 Method, program, and system using camera system for evaluation of completion of task performed by body part of user
JP7359349B1 (en) 2022-07-07 2023-10-11 Co-Growth株式会社 Evaluation support system, information processing device control method, and information processing device control program
WO2023243044A1 (en) * 2022-06-16 2023-12-21 日本電信電話株式会社 Correction portion priority order generation method, correction portion priority order generation device, and program
WO2024062882A1 (en) * 2022-09-20 2024-03-28 株式会社Ollo Program, information processing method, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155693A (en) * 2012-12-28 2014-08-28 Toshiba Corp Movement information processor and program
WO2017150211A1 (en) * 2016-03-03 2017-09-08 コニカミノルタ株式会社 Action recognition apparatus, action learning apparatus, action recognition program, and action learning program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155693A (en) * 2012-12-28 2014-08-28 Toshiba Corp Movement information processor and program
WO2017150211A1 (en) * 2016-03-03 2017-09-08 コニカミノルタ株式会社 Action recognition apparatus, action learning apparatus, action recognition program, and action learning program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087437A (en) * 2018-11-27 2020-06-04 富士ゼロックス株式会社 Method, program, and system using camera system for evaluation of completion of task performed by body part of user
JP7392348B2 (en) 2018-11-27 2023-12-06 富士フイルムビジネスイノベーション株式会社 Methods, programs and systems for assessment of completion of tasks performed by body parts of a user using a camera system
WO2023243044A1 (en) * 2022-06-16 2023-12-21 日本電信電話株式会社 Correction portion priority order generation method, correction portion priority order generation device, and program
JP7359349B1 (en) 2022-07-07 2023-10-11 Co-Growth株式会社 Evaluation support system, information processing device control method, and information processing device control program
WO2024062882A1 (en) * 2022-09-20 2024-03-28 株式会社Ollo Program, information processing method, and information processing device

Also Published As

Publication number Publication date
JP6757010B1 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
JP6757010B1 (en) Motion evaluation device, motion evaluation method, motion evaluation system
KR100772497B1 (en) Golf clinic system and application method thereof
Thar et al. A proposal of yoga pose assessment method using pose detection for self-learning
US8314840B1 (en) Motion analysis using smart model animations
US11113988B2 (en) Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same
CN109191588A (en) Move teaching method, device, storage medium and electronic equipment
WO2017161734A1 (en) Correction of human body movements via television and motion-sensing accessory and system
TW201411507A (en) Method and system for motion comparison
KR102320960B1 (en) Personalized home training behavior guidance and correction system
KR20220028654A (en) Apparatus and method for providing taekwondo movement coaching service using mirror dispaly
US20160372002A1 (en) Advice generation method, advice generation program, advice generation system and advice generation device
CN114022512A (en) Exercise assisting method, apparatus and medium
Kinger et al. Deep learning based yoga pose classification
JP6868673B1 (en) Information processing equipment, information processing methods, and information processing programs
US11992745B2 (en) Method and system for assessing and improving wellness of person using body gestures
KR20170140756A (en) Appratus for writing motion-script, appratus for self-learning montion and method for using the same
CN113842622B (en) Motion teaching method, device, system, electronic equipment and storage medium
Sharma et al. Digital Yoga Game with Enhanced Pose Grading Model
Lobo et al. Yoga correction using machine learning
US20240046510A1 (en) Approaches to independently detecting presence and estimating pose of body parts in digital images and systems for implementing the same
JP2024057773A (en) Behavioral analysis system and behavioral analysis method
WO2022196059A1 (en) Information processing device, information processing method, and program
WO2023162159A1 (en) Motion generation device, motion generation system, motion generation method, and non-transitory computer readable medium
WO2023027046A1 (en) Program, information processing device, and information processing method
JP7310929B2 (en) Exercise menu evaluation device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191029

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200820

R150 Certificate of patent or registration of utility model

Ref document number: 6757010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250