JP2021026527A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2021026527A
JP2021026527A JP2019144369A JP2019144369A JP2021026527A JP 2021026527 A JP2021026527 A JP 2021026527A JP 2019144369 A JP2019144369 A JP 2019144369A JP 2019144369 A JP2019144369 A JP 2019144369A JP 2021026527 A JP2021026527 A JP 2021026527A
Authority
JP
Japan
Prior art keywords
image
model
subject
user instruction
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019144369A
Other languages
Japanese (ja)
Other versions
JP6647584B1 (en
Inventor
俊幸 前田
Toshiyuki Maeda
俊幸 前田
裕 坂根
Yutaka Sakane
裕 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019144369A priority Critical patent/JP6647584B1/en
Application granted granted Critical
Publication of JP6647584B1 publication Critical patent/JP6647584B1/en
Publication of JP2021026527A publication Critical patent/JP2021026527A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide an environment which can improve the learning effect of a trainee and the teaching efficiency of a trainer in coaching.SOLUTION: An information processing device comprises: means which extracts point cloud data for a plurality of feature points of a subject from a subject image of at least one subject; means which generates a model image of a subject model by referring to the point cloud data; means which generates a first composite image by overlapping the model image on the subject image; means which displays the first composite image on a display; means which acquires a user instruction corresponding to the user operation to the model image contained in the first composite image displayed on the display; means which changes the model image by referring to the user instruction; means which generates a second composite image by overlapping the model image after the change on the subject image; and means which displays the second composite image on the display.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.

近年、コーチングのニーズが増加傾向にある。例えば、介護の分野において介護者の増員のために、トレーナ(例えば、経験のある介護者)によるトレーニ(例えば、初心者)に対する介護動作のコーチングのニーズが高まっている。 In recent years, the needs for coaching have been increasing. For example, in the field of long-term care, there is an increasing need for trainers (for example, experienced caregivers) to coach trainees (for example, beginners) in long-term care movements in order to increase the number of caregivers.

例えば、特許文献1は、スポーツのフォームを効率的に学習する方法として、トレーニの動画像と、あらかじめ用意された手本の動画像と、を重ねて表示する方法を開示している。 For example, Patent Document 1 discloses a method of superimposing a moving image of a traini and a moving image of a model prepared in advance as a method of efficiently learning a sports form.

特開2006−230630号公報JP-A-2006-230630

一般に、学習効果を向上させるためには、トレーナがトレーニの動作を矯正することが有用である。 In general, it is useful for the trainer to correct the trainee's movements in order to improve the learning effect.

しかし、特許文献1のように、トレーニの動画像と手本の動画像を重ねて表示するだけでは、トレーナが修正のアドバイスを提供することはできない。そのため、コーチングにおけるトレーニの学習効果及びトレーナの指導効率が不十分である。 However, as in Patent Document 1, the trainer cannot provide correction advice only by superimposing the moving image of the trainer and the moving image of the model. Therefore, the learning effect of the trainer and the teaching efficiency of the trainer in coaching are insufficient.

本発明の目的は、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することである。 An object of the present invention is to provide an environment in which the learning effect of a trainer in coaching and the teaching efficiency of a trainer can be improved.

本発明の一態様は、
少なくとも1つの被写体の被写体画像から、前記被写体の複数の特徴点に関する点群データを抽出する手段を備え、
前記点群データを参照して、被写体モデルのモデル画像を生成する手段を備え、
前記被写体画像に前記モデル画像を重畳させることにより、第1合成画像を生成する手段を備え、
前記第1合成画像をディスプレイに表示させる手段を備え、
前記ディスプレイに表示された第1合成画像に含まれるモデル画像に対するユーザ操作に対応するユーザ指示を取得する手段を備え、
前記ユーザ指示を参照して、前記モデル画像を変更する手段を備え、
前記被写体画像に変更後のモデル画像を重畳させることにより、第2合成画像を生成する手段を備え、
前記第2合成画像を前記ディスプレイに表示させる手段を備える、
情報処理装置である。
One aspect of the present invention is
A means for extracting point cloud data relating to a plurality of feature points of the subject from a subject image of at least one subject is provided.
A means for generating a model image of a subject model with reference to the point cloud data is provided.
A means for generating a first composite image by superimposing the model image on the subject image is provided.
A means for displaying the first composite image on a display is provided.
A means for acquiring a user instruction corresponding to a user operation on a model image included in the first composite image displayed on the display is provided.
A means for changing the model image with reference to the user instruction is provided.
A means for generating a second composite image by superimposing the changed model image on the subject image is provided.
A means for displaying the second composite image on the display is provided.
It is an information processing device.

本発明によれば、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することができる。 According to the present invention, it is possible to provide an environment in which the learning effect of the trainer in coaching and the teaching efficiency of the trainer can be improved.

本実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of this embodiment. 図1の情報処理システムの機能ブロック図である。It is a functional block diagram of the information processing system of FIG. 本実施形態の概要の説明図である。It is explanatory drawing of the outline of this embodiment. 本実施形態のトレーニ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the traini information database of this embodiment. 本実施形態のトレーナ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the trainer information database of this embodiment. 本実施形態の合成画像情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the synthetic image information database of this embodiment. 本実施形態の合成画像の生成の処理のシーケンス図である。It is a sequence diagram of the process of generating the composite image of this embodiment. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 7. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 7. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 7. 本実施形態の合成画像の表示の処理のシーケンス図である。It is a sequence diagram of the process of displaying the composite image of this embodiment. 図11の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 変形例3の被写体モデルの変更の第1例の詳細なフローチャートである。It is a detailed flowchart of the first example of the change of the subject model of the modification 3. 図13の情報処理の説明図である。It is explanatory drawing of the information processing of FIG. 変形例3の被写体モデルの変更の第2例の詳細なフローチャートである。It is a detailed flowchart of the 2nd example of the change of the subject model of the modification 3. 変形例4の画面例を示す図である。It is a figure which shows the screen example of the modification 4.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成を説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing a configuration of an information processing system of the present embodiment. FIG. 2 is a functional block diagram of the information processing system of FIG.

図1に示すように、情報処理システム1は、第1クライアント装置10と、第2クライアント装置20と、サーバ30とを備える。
第1クライアント装置10、第2クライアント装置20、及び、サーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a first client device 10, a second client device 20, and a server 30.
The first client device 10, the second client device 20, and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

第1クライアント装置10及び第2クライアント装置20は、サーバ30にリクエストを送信するコンピュータ(「情報処理装置」の一例)である。第1クライアント装置10及び第2クライアント装置20は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The first client device 10 and the second client device 20 are computers (an example of an "information processing device") that transmit a request to the server 30. The first client device 10 and the second client device 20 are, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、第1クライアント装置10及び第2クライアント装置20から送信されたリクエストに応じたレスポンスを、第1クライアント装置10及び第2クライアント装置20に提供するコンピュータ(「情報処理装置」の一例)である。サーバ30は、例えば、ウェブサーバである。 The server 30 is a computer that provides the first client device 10 and the second client device 20 with a response in response to a request transmitted from the first client device 10 and the second client device 20 (an example of an "information processing device"). Is. The server 30 is, for example, a web server.

(1−1)第1クライアント装置の構成
第1クライアント装置10の構成を説明する。
(1-1) Configuration of First Client Device The configuration of the first client device 10 will be described.

図2に示すように、第1クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。 As shown in FIG. 2, the first client device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、第1クライアント装置10の機能を実現するように構成される。プロセッサ12は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又は、これらの組み合わせである。 The processor 12 is configured to realize the function of the first client device 10 by activating the program stored in the storage device 11. The processor 12 is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof.

入出力インタフェース13は、第1クライアント装置10に接続される入力デバイスからユーザの指示を取得し、且つ、第1クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ(一例として、タッチパネルディスプレイ)である。
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the first client device 10 and output information to an output device connected to the first client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display (for example, a touch panel display).

通信インタフェース14は、第2クライアント装置20とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the second client device 20 and the server 30.

(1−2)第2クライアント装置の構成
第2クライアント装置20の構成を説明する。
(1-2) Configuration of Second Client Device The configuration of the second client device 20 will be described.

図2に示すように、第2クライアント装置20は、記憶装置21と、プロセッサ22と、入出力インタフェース23と、通信インタフェース24とを備える。 As shown in FIG. 2, the second client device 20 includes a storage device 21, a processor 22, an input / output interface 23, and a communication interface 24.

記憶装置21は、プログラム及びデータを記憶するように構成される。記憶装置21は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 21 is configured to store programs and data. The storage device 21 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
-OS program-Program of an application (for example, a web browser) that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ22は、記憶装置21に記憶されたプログラムを起動することによって、第2クライアント装置20の機能を実現するように構成される。プロセッサ22は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 22 is configured to realize the function of the second client device 20 by activating the program stored in the storage device 21. The processor 22 is, for example, a CPU, an ASIC, an FPGA, or a combination thereof.

入出力インタフェース23は、第2クライアント装置20に接続される入力デバイスからユーザの指示を取得し、かつ、第2クライアント装置20に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ(一例として、タッチパネルディスプレイ)である。
The input / output interface 23 is configured to acquire a user's instruction from an input device connected to the second client device 20 and output information to an output device connected to the second client device 20.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display (for example, a touch panel display).

通信インタフェース24は、第2クライアント装置20とサーバ30との間の通信を制御するように構成される。 The communication interface 24 is configured to control communication between the second client device 20 and the server 30.

(1−3)サーバの構成
サーバ30の構成を説明する。
(1-3) Server Configuration The configuration of the server 30 will be described.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The program includes, for example, the following program.
・ OS program ・ Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Execution result of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、例えば、CPU、ASIC、FPGA、又は、これらの組み合わせである。 The processor 32 is configured to realize the function of the server 30 by activating the program stored in the storage device 31. The processor 32 is, for example, a CPU, an ASIC, an FPGA, or a combination thereof.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user's instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30と、第1クライアント装置10及び第2クライアント装置20との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the first client device 10 and the second client device 20.

(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
(2) Outline of the Embodiment The outline of the present embodiment will be described. FIG. 3 is an explanatory diagram of an outline of the present embodiment.

図3に示すように、トレーニは、第1クライアント装置10を使用する。トレーナは、第2クライアント装置20を使用する。 As shown in FIG. 3, the trainee uses the first client device 10. The trainer uses the second client device 20.

第2クライアント装置20は、以下の機能を有する。
・第1クライアント装置10から、少なくとも1つの被写体の被写体画像(静止画像又は動画像)を取得する機能
・被写体画像から、被写体の複数の特徴点に関する点群データを抽出する機能
・点群データを参照して、被写体モデルのモデル画像を生成する機能
・被写体画像にモデル画像を重畳させることにより、第1合成画像を生成する機能
・第1合成画像をディスプレイに表示させる機能
・ディスプレイに表示された第1合成画像に含まれるモデル画像に対するユーザ操作に対応するユーザ指示を取得する機能
・ユーザ指示を参照して、モデル画像を変更することにより、変更後のモデル画像を生成する機能
・被写体画像に変更後のモデル画像を重畳させることにより、第2合成画像を生成する機能
・第1クライアント装置10のディスプレイに第2合成画像を表示させる機能
The second client device 20 has the following functions.
-A function of acquiring a subject image (still image or moving image) of at least one subject from the first client device 10-A function of extracting point group data relating to a plurality of feature points of the subject from the subject image-Point group data Function to generate a model image of the subject model by reference ・ Function to generate the first composite image by superimposing the model image on the subject image ・ Function to display the first composite image on the display ・ Displayed on the display A function to acquire user instructions corresponding to user operations on the model image included in the first composite image-A function to generate a changed model image by changing the model image with reference to the user instruction-For the subject image A function to generate a second composite image by superimposing the changed model image-A function to display the second composite image on the display of the first client device 10.

(3)データベース
本実施形態のデータベースを説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of the present embodiment will be described. The following database is stored in the storage device 31.

(3−1)トレーニ情報データベース
本実施形態のトレーニ情報データベースを説明する。図4は、本実施形態のトレーニ情報データベースのデータ構造を示す図である。
(3-1) Traini Information Database The traini information database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the traini information database of the present embodiment.

図4のトレーニ情報データベースには、トレーニに関するトレーニ情報が格納される。
トレーニ情報データベースは、以下のフィールドを含む。各フィールドは互いに関連付けられている。
・「トレーニID」フィールド
・「トレーニ名」フィールド
・「クライアントID」フィールド
The traini information database of FIG. 4 stores traini information related to the traini.
The traini information database contains the following fields: Each field is associated with each other.
-"Traini ID" field- "Traini name" field- "Client ID" field

「トレーニID」フィールドには、トレーニ識別情報が格納される。トレーニ識別情報は、トレーニを識別する情報である。 The trainee identification information is stored in the "traini ID" field. The traini identification information is information that identifies the traini.

「トレーニ名」フィールドには、トレーニの名称(例えば、氏名又はニックネーム)に関する情報(例えば、テキスト)が格納される。 The "Traini Name" field stores information (eg, text) about the traini's name (eg, name or nickname).

「クライアントID」フィールドには、トレーニが使用する第1クライアント装置10を識別するクライアント識別情報が格納される。 In the "client ID" field, client identification information that identifies the first client device 10 used by the trainee is stored.

(3−2)トレーナ情報データベース
本実施形態のトレーナ情報データベースを説明する。図5は、本実施形態のトレーナ情報データベースのデータ構造を示す図である。
(3-2) Trainer information database The trainer information database of the present embodiment will be described. FIG. 5 is a diagram showing a data structure of the trainer information database of the present embodiment.

図5のトレーナ情報データベースには、トレーナに関するトレーナ情報が格納される。
トレーナ情報データベースは、以下のフィールドを含む。各フィールドは互いに関連付けられている。
・「トレーナID」フィールド
・「トレーナ名」フィールド
・「クライアントID」フィールド
Trainer information about the trainer is stored in the trainer information database of FIG.
The trainer information database contains the following fields: Each field is associated with each other.
-"Trainer ID" field- "Trainer name" field- "Client ID" field

「トレーナID」フィールドには、トレーナ識別情報が格納される。トレーナ識別情報は、トレーナを識別する情報である。 Trainer identification information is stored in the "Trainer ID" field. The trainer identification information is information that identifies the trainer.

「トレーナ名」フィールドには、トレーナの名称(例えば、氏名又はニックネーム)に関する情報(例えば、テキスト)が格納される。 The Trainer Name field contains information (eg, text) about the trainer's name (eg, name or nickname).

「クライアントID」フィールドには、トレーナが使用する第2クライアント装置20を識別するクライアント識別情報が格納される。 In the "client ID" field, client identification information that identifies the second client device 20 used by the trainer is stored.

(3−3)合成画像情報データベース
本実施形態の合成画像情報データベースを説明する。図6は、本実施形態の合成画像情報データベースのデータ構造を示す図である。
(3-3) Synthetic image information database The synthetic image information database of the present embodiment will be described. FIG. 6 is a diagram showing a data structure of the composite image information database of the present embodiment.

図6の合成画像情報データベースは、「画像ID」フィールドと、「トレーニID」フィールドと、「トレーナID」フィールドと、「ユーザコメント」フィールドと、を含む。 The composite image information database of FIG. 6 includes an "image ID" field, a "traini ID" field, a "trainer ID" field, and a "user comment" field.

「画像ID」フィールドには、画像識別情報が格納される。画像識別情報は、第2クライアント装置20によって生成された第2合成画像を識別する情報である。 Image identification information is stored in the "image ID" field. The image identification information is information for identifying the second composite image generated by the second client device 20.

「トレーニID」フィールドには、第2合成画像の基礎となる被写体画像に対応するトレーニのトレーニ識別情報が格納される。 In the "traini ID" field, traini identification information of the traini corresponding to the subject image that is the basis of the second composite image is stored.

「トレーナID」フィールドには、第2合成画像の基礎となるモデル画像に対する変更の指示を与えたトレーナのトレーナ識別情報が格納される。 The "Trainer ID" field stores the trainer identification information of the trainer that has given the instruction to change the model image that is the basis of the second composite image.

「ユーザコメント」フィールドには、ユーザコメントに関するユーザコメント情報が格納される。 User comment information about the user comment is stored in the "user comment" field.

(4)情報処理
本実施形態の情報処理を説明する。
(4) Information processing The information processing of the present embodiment will be described.

(4−1)合成画像の生成の処理
本実施形態の合成画像の生成の処理を説明する。図7は、本実施形態の合成画像の生成の処理のシーケンス図である。図8は、図7の情報処理において表示される画面例を示す図である。図9は、図7の情報処理において表示される画面例を示す図である。図10は、図7の情報処理において表示される画面例を示す図である。
(4-1) Process for generating a composite image The process for generating a composite image of the present embodiment will be described. FIG. 7 is a sequence diagram of the process of generating the composite image of the present embodiment. FIG. 8 is a diagram showing an example of a screen displayed in the information processing of FIG. 7. FIG. 9 is a diagram showing an example of a screen displayed in the information processing of FIG. 7. FIG. 10 is a diagram showing an example of a screen displayed in the information processing of FIG. 7.

図7の例では、トレーニは、第1クライアント装置10を使用する。トレーナは、第2クライアント装置20を使用する。 In the example of FIG. 7, the trainee uses the first client device 10. The trainer uses the second client device 20.

図7に示すように、第1クライアント装置10は、コーチングリクエスト(S110)を実行する。
具体的には、プロセッサ12は、画面P10(図8)をディスプレイに表示する。
As shown in FIG. 7, the first client device 10 executes a coaching request (S110).
Specifically, the processor 12 displays the screen P10 (FIG. 8) on the display.

画面P10は、操作オブジェクトB10と、フィールドオブジェクトF10a〜F10cと、を含む。
フィールドオブジェクトF10aは、記憶装置11に記憶された画像の中から、コーチングの対象となる画像(以下「被写体画像」という)の指定を受け付けるオブジェクトである。被写体画像は、コーチングの対象となるコーチング対象動作(例えば、介護動作)を実施しているときのトレーニの画像(以下「被写体画像」という)を含む。被写体画像は、静止画像又は動画像である。
フィールドオブジェクトF10bは、コーチングを担当するトレーナのトレーナ識別情報の指定を受け付けるオブジェクトである。
フィールドオブジェクトF10cは、コーチングの対象となるトレーニ(例えば、第1クライアント装置10を使用するトレーニ)のトレーニ識別情報の指定を受け付けるオブジェクトである。
操作オブジェクトB10は、サーバ30を介して被写体画像を第2クライアント装置20に送信するためのユーザ指示を受け付けるオブジェクトである。
The screen P10 includes an operation object B10 and field objects F10a to F10c.
The field object F10a is an object that accepts the designation of an image to be coached (hereinafter referred to as “subject image”) from the images stored in the storage device 11. The subject image includes an image of a trainee (hereinafter referred to as "subject image") when a coaching target motion (for example, a nursing care motion) to be coached is performed. The subject image is a still image or a moving image.
The field object F10b is an object that accepts the designation of trainer identification information of the trainer in charge of coaching.
The field object F10c is an object that accepts the designation of trainee identification information of the trainee (for example, the trainee using the first client device 10) to be coached.
The operation object B10 is an object that receives a user instruction for transmitting a subject image to the second client device 20 via the server 30.

トレーニがフィールドオブジェクトF10aに表示された複数の画像の中から任意の画像を指定し、フィールドオブジェクトF10bにおいてトレーナ識別情報を指定し、フィールドオブジェクトF10cにおいてトレーニ識別情報を指定し、且つ、操作オブジェクトB10を操作すると、プロセッサ12は、コーチングリクエストデータをサーバ30に送信する。コーチングリクエストデータは、以下の情報を含む。
・フィールドオブジェクトF10aにおいて指定された画像
・フィールドオブジェクトF10bにおいて指定されたトレーナ識別情報
・フィールドオブジェクトF10cにおいて指定されたトレーニ識別情報
The trainer specifies an arbitrary image from a plurality of images displayed on the field object F10a, specifies the trainer identification information on the field object F10b, specifies the trainer identification information on the field object F10c, and sets the operation object B10. Upon operation, the processor 12 transmits coaching request data to the server 30. The coaching request data includes the following information.
-Image specified in the field object F10a-Trainer identification information specified in the field object F10b-Trainer identification information specified in the field object F10c

ステップS110の後、サーバ30は、コーチング通知(S130)を実行する。
具体的には、プロセッサ32は、トレーニ情報データベース(図4)を参照して、ステップS110のコーチングリクエストデータに含まれるトレーニ識別情報に関連付けられた「トレーニ名」フィールドの情報(つまり、トレーナ名に関する情報)及び「クライアント識別情報」フィールドの情報(つまり、第1クライアント装置10のクライアント識別情報)を特定する。
プロセッサ32は、トレーナ情報データベース(図5)を参照して、ステップS110のコーチングリクエストデータに含まれるトレーナ識別情報に関連付けられた「トレーナ名」フィールドの情報(つまり、トレーナ名に関する情報)及び「クライアント識別情報」フィールドの情報(つまり、第2クライアント装置20のクライアント識別情報)を特定する。
プロセッサ32は、特定されたクライアント識別情報に対応する第2クライアント装置20にコーチング通知データを送信する。コーチング通知データは、以下の情報を含む。
・コーチングリクエストデータに含まれる被写体画像
・特定されたトレーニ名に関する情報
After step S110, the server 30 executes the coaching notification (S130).
Specifically, the processor 32 refers to the traini information database (FIG. 4) and refers to the information in the “traini name” field associated with the traini identification information included in the coaching request data in step S110 (ie, the trainer name). Information) and the information in the "Client Identification Information" field (that is, the client identification information of the first client device 10) is specified.
The processor 32 refers to the trainer information database (FIG. 5) and refers to the information in the "trainer name" field (that is, information about the trainer name) and the "client" associated with the trainer identification information included in the coaching request data in step S110. The information in the "Identification Information" field (that is, the client identification information of the second client device 20) is specified.
The processor 32 transmits coaching notification data to the second client device 20 corresponding to the specified client identification information. The coaching notification data includes the following information.
-Subject image included in coaching request data-Information about the identified trainee name

ステップS130の後、第2クライアント装置20は、被写体画像の表示(S120)を実行する。
具体的には、プロセッサ22は、画面P20(図9)をディスプレイに表示する。
After step S130, the second client device 20 executes the display of the subject image (S120).
Specifically, the processor 22 displays the screen P20 (FIG. 9) on the display.

画面P20は、表示オブジェクトA20a〜A20bと、操作オブジェクトB20と、を含む。
表示オブジェクトA20aには、コーチング通知データに含まれるトレーニ名に関する情報が表示される。
表示オブジェクトA20bには、画像IMG20が表示される。画像IMG20は、コーチング通知データに含まれる被写体画像である。
操作オブジェクトB20は、被写体モデルの生成(S121)の実行指示を受け付けるオブジェクトである。
The screen P20 includes display objects A20a to A20b and operation objects B20.
The display object A20a displays information about the trainee name included in the coaching notification data.
The image IMG20 is displayed on the display object A20b. The image IMG 20 is a subject image included in the coaching notification data.
The operation object B20 is an object that receives an execution instruction for generating a subject model (S121).

ステップS120の後、第2クライアント装置20は、被写体モデルの生成(S121)を実行する。
具体的には、記憶装置21には、モデル生成アルゴリズムが格納されている。モデル生成アルゴリズムには、被写体モデルを生成するためのルールが記述されている。被写体モデルとは、被写体(人物又は物体)の骨格の形状を表すモデルである。被写体モデルは、例えば、被写体の骨格のみで表現されるモデル、又は、被写体の骨格及び骨格に肉付けされた部位の組合せで表現されるモデルである。モデル生成アルゴリズムは、人物モデル生成アルゴリズムと、物体モデル生成アルゴリズムと、を含む。
人物モデル生成アルゴリズムは、被写体が人物である場合の骨格の特徴点を特定するためのルールが記述されている。
物体モデル生成アルゴリズムは、被写体が物体である場合の骨格の特徴点を特定するためのルールが記述されている。
After step S120, the second client device 20 executes subject model generation (S121).
Specifically, the storage device 21 stores a model generation algorithm. The model generation algorithm describes rules for generating a subject model. The subject model is a model that represents the shape of the skeleton of the subject (person or object). The subject model is, for example, a model represented only by the skeleton of the subject, or a model represented by a combination of the skeleton of the subject and a portion fleshed out in the skeleton. The model generation algorithm includes a person model generation algorithm and an object model generation algorithm.
In the human model generation algorithm, rules for identifying feature points of the skeleton when the subject is a person are described.
In the object model generation algorithm, rules for identifying feature points of the skeleton when the subject is an object are described.

ユーザが操作オブジェクトB20を操作すると、プロセッサ22は、モデル生成アルゴリズムを用いて、画像IMG20から点群データを抽出する。点群データは、被写体の複数の特徴点に関するデータである。点群データは、各特徴点の2次元座標を含む。2次元座標は、被写体画像の画像空間における座標系(以下「基準座標系」という)で規定される。
プロセッサ22は、各特徴点を結ぶ特徴線を生成する。
プロセッサ22は、複数の特徴点と、複数の特徴線と、各特徴点の2次元座標と、を合成することにより、モデル画像を生成する。
When the user operates the operation object B20, the processor 22 extracts the point cloud data from the image IMG 20 by using the model generation algorithm. The point cloud data is data relating to a plurality of feature points of the subject. The point cloud data includes the two-dimensional coordinates of each feature point. The two-dimensional coordinates are defined by a coordinate system (hereinafter referred to as "reference coordinate system") in the image space of the subject image.
The processor 22 generates a feature line connecting each feature point.
The processor 22 generates a model image by synthesizing a plurality of feature points, a plurality of feature lines, and two-dimensional coordinates of each feature point.

ステップS121の後、第2クライアント装置20は、第1合成画像の生成(S122)を実行する。
具体的には、プロセッサ22は、コーチング通知データに含まれる被写体画像に、ステップS121で得られたモデル画像を重畳させることにより、第1合成画像を生成する。
After step S121, the second client device 20 executes the generation of the first composite image (S122).
Specifically, the processor 22 generates the first composite image by superimposing the model image obtained in step S121 on the subject image included in the coaching notification data.

ステップS122の後、第2クライアント装置20は、被写体モデルの変更(S123)を実行する。
具体的には、プロセッサ22は、画面P21(図9)をディスプレイに表示する。
After step S122, the second client device 20 executes the subject model change (S123).
Specifically, the processor 22 displays the screen P21 (FIG. 9) on the display.

記憶装置21には、制約モデルが記憶されている。制約モデルには、被写体(人物又は物体)の動きの制約条件が記述されている。制約モデルは、人物制約モデルと、物体制約モデルと、を含む。 The constraint model is stored in the storage device 21. In the constraint model, constraints on the movement of the subject (person or object) are described. The constraint model includes a person constraint model and an object constraint model.

人物制約モデルには、人物の動作に関する制約条件が記述されている。人物制約モデルには、例えば、人物の姿勢の変化及び人物の位置について、ユーザによって指定されたノードの移動に応じて、ユーザによって指定されていないノードの移動が記述されている。制約条件は、例えば、以下の少なくとも1つを含む。
・人物の関節の可動角度の限界
・人物の関節の向きの限界
・人物の足は地面から離れない
・人物の重心は足の上方に配置される
In the person constraint model, constraint conditions related to the movement of a person are described. In the person constraint model, for example, the movement of a node not specified by the user is described in response to the movement of the node specified by the user with respect to the change in the posture of the person and the position of the person. The constraint condition includes, for example, at least one of the following.
・ Limitation of the movable angle of the person's joints ・ Limitation of the orientation of the person's joints ・ The person's feet do not leave the ground ・ The person's center of gravity is placed above the feet

物体制約モデルには、物体の動作に関する制約条件が記述されている。物体制約モデルには、物体の形状の変化及び物体の位置について、ユーザによって指定されたノードの移動に応じて、ユーザによって指定されていないノードの移動が記述されている。制約条件は、例えば、以下の少なくとも1つを含む。
・物体の可動域の限界
・物体の向きの限界
・物体の底面は地面から離れない
・物体の傾きの限界
In the object constraint model, constraint conditions related to the operation of the object are described. In the object constraint model, the movement of the node not specified by the user is described in accordance with the movement of the node specified by the user with respect to the change in the shape of the object and the position of the object. The constraint condition includes, for example, at least one of the following.
・ Limit of range of motion of object ・ Limit of orientation of object ・ Bottom of object does not move away from the ground ・ Limit of inclination of object

画面P21は、表示オブジェクトA20a及びA21と、操作オブジェクトB21と、を含む。
表示オブジェクトA21には、画像IMG21が表示される。画像IMG21は、ステップS122で得られた第1合成画像(つまり、被写体画像にモデル画像が重畳された画像)である。画像IMG21は、特徴点に対応するノードオブジェクトFNと、特徴線に対応するリンクオブジェクトFLと、を含む。ノードオブジェクトFNは、人物制約モデル又は物体制約モデルに記述された制約条件の範囲内において、移動可能に構成される。つまり、プロセッサ22は、被写体に応じた制約の範囲内のユーザ指示を取得する。
操作オブジェクトB21は、被写体モデルの変更の実行指示を受け付けるオブジェクトである。
The screen P21 includes display objects A20a and A21 and operation objects B21.
The image IMG21 is displayed on the display object A21. The image IMG 21 is a first composite image obtained in step S122 (that is, an image in which a model image is superimposed on a subject image). The image IMG 21 includes a node object FN corresponding to the feature point and a link object FL corresponding to the feature line. The node object FN is configured to be movable within the range of the constraint conditions described in the person constraint model or the object constraint model. That is, the processor 22 acquires the user instruction within the range of the constraint according to the subject.
The operation object B21 is an object that receives an execution instruction for changing the subject model.

ステップS123の第1例では、トレーナが、画面P21(図10)の画像IMG21に対して、全てのノードオブジェクトFNの位置を変更するためのタッチパネル操作(例えば、スワイプ、ピンチイン、ピンチアウト、及び、スライドの少なくとも1つ)を与えると、プロセッサ22は、全てのノードオブジェクトFNに対応する特徴点の座標を変更するためのユーザ指示を取得する。
このユーザ指示は、モデル画像の位置を変更するための指示に相当する。
In the first example of step S123, the trainer operates a touch panel (for example, swipe, pinch in, pinch out, and pinch out) to change the positions of all node objects FN with respect to the image IMG21 on the screen P21 (FIG. 10). Given at least one of the slides), the processor 22 acquires user instructions for changing the coordinates of the feature points corresponding to all node objects FN.
This user instruction corresponds to an instruction for changing the position of the model image.

ステップS123の第2例では、トレーナが、画面P21(図10)の画像IMG21に対して、一部のノードオブジェクトFNaの位置を変更するためのタッチパネル操作を与えると、プロセッサ22は、ノードオブジェクトFNaに対応する特徴点の座標を変更するためのユーザ指示を取得する。
このユーザ指示は、被写体が人物である場合、モデル画像の姿勢を変更するための指示に相当する。
このユーザ指示は、被写体が物体である場合、モデル画像の形状を変更するための指示に相当する。
In the second example of step S123, when the trainer gives the image IMG21 on the screen P21 (FIG. 10) a touch panel operation for changing the position of some node objects FNa, the processor 22 causes the node object FNa. Acquires a user instruction for changing the coordinates of the feature points corresponding to.
This user instruction corresponds to an instruction for changing the posture of the model image when the subject is a person.
This user instruction corresponds to an instruction for changing the shape of the model image when the subject is an object.

プロセッサ22は、取得されたユーザ指示に対応するノードオブジェクトFNの位置に応じて、ノードオブジェクトFNに対応する特徴点に割り当てられた2次元座標を変更する。
プロセッサ22は、ユーザ指示に対応するノードオブジェクトFNの位置に応じて、ノードオブジェクトFNに接続されたリンクオブジェクトFLを変更する。
被写体が人物である場合、被写体画像の画像空間における骨格モデルの位置及び姿勢の少なくとも1つが変更される。
被写体が物体である場合、被写体画像の画像空間における骨格モデルの位置及び形状の少なくとも1つが変更される。
The processor 22 changes the two-dimensional coordinates assigned to the feature points corresponding to the node object FN according to the position of the node object FN corresponding to the acquired user instruction.
The processor 22 changes the link object FL connected to the node object FN according to the position of the node object FN corresponding to the user instruction.
When the subject is a person, at least one of the positions and orientations of the skeleton model in the image space of the subject image is changed.
When the subject is an object, at least one of the positions and shapes of the skeleton model in the image space of the subject image is changed.

これにより、変更後のノードオブジェクトFN及びリンクオブジェクトFLの組合せに対応する被写体モデル(以下「変更後の被写体モデル」という)が得られる。 As a result, a subject model (hereinafter referred to as "changed subject model") corresponding to the combination of the changed node object FN and the link object FL can be obtained.

ステップS123の後、第2クライアント装置20は、第2合成画像の生成(S124)を実行する。
具体的には、プロセッサ22は、コーチング通知データに含まれる被写体画像に、ステップS123で得られた変更後の被写体モデルを重畳させることにより、第2合成画像を生成する。
After step S123, the second client device 20 executes the generation of the second composite image (S124).
Specifically, the processor 22 generates a second composite image by superimposing the changed subject model obtained in step S123 on the subject image included in the coaching notification data.

ステップS124の後、第2クライアント装置20は、ユーザコメントの受付(S125)を実行する。
具体的には、プロセッサ22は、画面P22(図10)をディスプレイに表示する。
After step S124, the second client device 20 executes the reception of user comments (S125).
Specifically, the processor 22 displays the screen P22 (FIG. 10) on the display.

画面P22は、表示オブジェクトA20a及びA22と、操作オブジェクトB22と、フィールドオブジェクトF22と、を含む。
表示オブジェクトA22には、画像IMG22が表示される。画像IMG22は、ステップS124で得られた第2合成画像である。
フィールドオブジェクトF22は、トレーナのユーザコメントに関するユーザ指示を受け付けるオブジェクトである。トレーナのユーザコメントは、例えば、トレーナによるトレーニに対する助言である。
操作オブジェクトB22は、第2合成画像データの送信(S126)の実行指示を受け付けるオブジェクトである。
The screen P22 includes display objects A20a and A22, an operation object B22, and a field object F22.
The image IMG 22 is displayed on the display object A22. The image IMG 22 is the second composite image obtained in step S124.
The field object F22 is an object that receives a user instruction regarding a trainer's user comment. The trainer's user comments are, for example, advice from the trainer to the trainee.
The operation object B22 is an object that receives an execution instruction for transmitting the second composite image data (S126).

ステップS125の後、第2クライアント装置20は、第2合成画像データの送信(S126)を実行する。
具体的には、トレーナがフィールドオブジェクトF22にユーザコメントを入力し、且つ、操作オブジェクトB22を操作すると、プロセッサ22は、第2合成画像データをサーバ30に送信する。第2合成画像データは、以下の情報を含む。
・ステップS124で得られた第2合成画像
・フィールドオブジェクトF22に入力されたトレーナのユーザコメントに関するユーザコメント情報
After step S125, the second client device 20 executes the transmission of the second composite image data (S126).
Specifically, when the trainer inputs a user comment to the field object F22 and operates the operation object B22, the processor 22 transmits the second composite image data to the server 30. The second composite image data includes the following information.
-Second composite image obtained in step S124-User comment information regarding the trainer user comment input to the field object F22.

ステップS126の後、サーバ30は、第2合成画像の保存(S131)を実行する。
具体的には、プロセッサ32は、合成画像情報データベース(図6)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
・「画像ID」フィールドには、新規の画像識別情報が格納される。
・「トレーニID」フィールドには、コーチングリクエストデータに含まれるトレーニ識別情報が格納される。
・「トレーナID」フィールドには、コーチングリクエストデータに含まれるトレーナ識別情報が格納される。
・「ユーザコメント」フィールドには、第2合成画像データに含まれるユーザコメント情報が格納される。
After step S126, the server 30 executes the saving of the second composite image (S131).
Specifically, the processor 32 adds a new record to the composite image information database (FIG. 6). The following information is stored in each field of the new record.
-New image identification information is stored in the "image ID" field.
-The trainee identification information included in the coaching request data is stored in the "traini ID" field.
-The trainer identification information included in the coaching request data is stored in the "Trainer ID" field.
-The user comment information included in the second composite image data is stored in the "user comment" field.

(4−2)合成画像の表示の処理
本実施形態の合成画像の表示の処理を説明する。図11は、本実施形態の合成画像の表示の処理のシーケンス図である。図12は、図11の情報処理において表示される画面例を示す図である。
(4-2) Processing of Displaying Composite Image The processing of displaying the composite image of the present embodiment will be described. FIG. 11 is a sequence diagram of processing for displaying the composite image of the present embodiment. FIG. 12 is a diagram showing an example of a screen displayed in the information processing of FIG.

図11に示すように、第1クライアント装置10は、表示リクエスト(S111)を実行する。
具体的には、プロセッサ12は、画面P11(図12)をディスプレイに表示する。
As shown in FIG. 11, the first client device 10 executes the display request (S111).
Specifically, the processor 12 displays the screen P11 (FIG. 12) on the display.

画面P11は、操作オブジェクトB11と、フィールドオブジェクトF11と、を含む。
フィールドオブジェクトF11には、表示可能な第2合成画像のファイル名のリストが表示される。リストに含まれる各ファイル名には、画像識別情報が割り当てられている。フィールドオブジェクトF11は、リストに含まれる第2合成画像の中から表示すべき第2合成画像(以下「表示対象画像」という)を指定するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB11は、フィールドオブジェクトF11に指定された表示対象画像を確定させるためのユーザ指示を受け付けるオブジェクトである。
The screen P11 includes an operation object B11 and a field object F11.
The field object F11 displays a list of file names of the second composite image that can be displayed. Image identification information is assigned to each file name included in the list. The field object F11 is an object that receives a user instruction for designating a second composite image to be displayed (hereinafter referred to as “display target image”) from the second composite image included in the list.
The operation object B11 is an object that receives a user instruction for determining the display target image specified in the field object F11.

ユーザがフィールドオブジェクトF11に表示されたリストに含まれる第2合成画像の中から任意の第2合成画像のファイル名を指定し、且つ、操作オブジェクトB11を操作すると、プロセッサ12は、表示リクエストデータをサーバ30に送信する。表示リクエストデータは、以下の情報を含む。
・フィールドオブジェクトF11で指定されたファイル名に割り当てられた画像識別情報
When the user specifies a file name of an arbitrary second composite image from the second composite image included in the list displayed on the field object F11 and operates the operation object B11, the processor 12 outputs the display request data. Send to server 30. The display request data includes the following information.
-Image identification information assigned to the file name specified by the field object F11

ステップS111の後、サーバ30は、表示レスポンス(S132)を実行する。
具体的には、プロセッサ32は、合成画像情報データベース(図6)を参照して、表示リクエストデータに含まれる画像識別情報に関連付けられたトレーナ識別情報及びユーザコメント情報を特定する。
プロセッサ32は、トレーナ情報データベース(図5)を参照して、特定したトレーナ識別情報に関連付けられたトレーナ名に関する情報を特定する。
プロセッサ32は、表示レスポンスデータを第1クライアント装置10に送信する。表示レスポンスデータは、以下の情報を含む。
・特定されたトレーナ名に関する情報
・表示対象となる第2合成画像
・特定されたユーザコメント情報
After step S111, the server 30 executes the display response (S132).
Specifically, the processor 32 refers to the composite image information database (FIG. 6) to identify trainer identification information and user comment information associated with the image identification information included in the display request data.
The processor 32 refers to the trainer information database (FIG. 5) to identify information about the trainer name associated with the identified trainer identification information.
The processor 32 transmits the display response data to the first client device 10. The display response data includes the following information.
-Information about the specified trainer name-Second composite image to be displayed-Specified user comment information

ステップS132の後、第1クライアント装置10は、第2合成画像の表示(S112)を実行する。
具体的には、プロセッサ12は、画面P12(図10)をディスプレイに表示する。
After step S132, the first client device 10 executes the display of the second composite image (S112).
Specifically, the processor 12 displays the screen P12 (FIG. 10) on the display.

画面P12は、表示オブジェクトA12a〜A12cを含む。 The screen P12 includes display objects A12a to A12c.

画面P12は、表示オブジェクトA12a〜A12cを含む。
表示オブジェクトA12aには、表示レスポンスデータに含まれるトレーナ名に関する情報が表示される。
表示オブジェクトA12bには、画像IMG22が表示される。画像IMG22は、表示レスポンスデータに含まれる第2合成画像である。
表示オブジェクトA12cには、表示レスポンスデータに含まれるユーザコメント情報に含まれるユーザコメントが表示される。
The screen P12 includes display objects A12a to A12c.
Information about the trainer name included in the display response data is displayed on the display object A12a.
The image IMG22 is displayed on the display object A12b. The image IMG 22 is a second composite image included in the display response data.
The display object A12c displays the user comment included in the user comment information included in the display response data.

本実施形態によれば、トレーナが使用する第2クライアント装置20が第2合成画像を生成する。第2合成画像は、トレーナの指示に応じた被写体モデルと被写体画像とが重畳された画像である。これにより、トレーナの指導効率を向上させることができる。
また、トレーニが使用する第1クライアント装置10は、トレーニに対して、第2合成画像を提示する。これにより、トレーニの学習効果を向上させることができる。
このように、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することができる。
According to this embodiment, the second client device 20 used by the trainer generates the second composite image. The second composite image is an image in which the subject model and the subject image according to the instruction of the trainer are superimposed. As a result, the training efficiency of the trainer can be improved.
In addition, the first client device 10 used by the traini presents the second composite image to the traini. Thereby, the learning effect of the traini can be improved.
In this way, it is possible to provide an environment in which the learning effect of the trainer in coaching and the teaching efficiency of the trainer can be improved.

また、本実施形態によれば、被写体が人物である場合、人物の骨格モデルの位置及び姿勢の少なくとも1つが変更された被写体モデルを生成する。これにより、人物に関するコーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 Further, according to the present embodiment, when the subject is a person, a subject model in which at least one of the positions and postures of the skeleton model of the person is changed is generated. As a result, the learning effect of the trainer and the teaching efficiency of the trainer in coaching about a person can be further improved.

また、本実施形態によれば、被写体が物体である場合、物体の骨格モデルの位置及び形状の少なくとも1つが変更された被写体モデルを生成する。これにより、物体に関するコーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 Further, according to the present embodiment, when the subject is an object, a subject model in which at least one of the positions and shapes of the skeleton model of the object is changed is generated. As a result, the learning effect of the trainer and the teaching efficiency of the trainer in coaching about the object can be further improved.

また、本実施形態によれば、タッチパネル操作を介して、被写体モデルを変更するためのユーザ指示を受け付ける。これにより、トレーナは直感的な操作で被写体モデルを変更することができる。その結果、トレーナの指導効率が更に向上する。 Further, according to the present embodiment, a user instruction for changing the subject model is received via the touch panel operation. This allows the trainer to intuitively change the subject model. As a result, the training efficiency of the trainer is further improved.

また、本実施形態によれば、制約条件の範囲内で被写体モデルを変更する。これにより、トレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 Further, according to the present embodiment, the subject model is changed within the range of the constraint condition. As a result, the learning effect of the trainer and the teaching efficiency of the trainer can be further improved.

(5)変形例
本実施形態の変形例を説明する。
(5) Modification Example A modification of the present embodiment will be described.

(5−1)変形例1
変形例1を説明する。変形例1は、3次元情報を含むモデル画像を生成する例である。
(5-1) Modification 1
Modification 1 will be described. Modification 1 is an example of generating a model image including three-dimensional information.

変形例1の記憶装置21には、3次元座標推定アルゴリズムが記憶されている。3次元座標推定アルゴリズムには、画像の特徴量に基づいて、画像の特徴点の2次元座標を3次元座標に変換するためのルールが記述されている。 The storage device 21 of the first modification stores a three-dimensional coordinate estimation algorithm. In the three-dimensional coordinate estimation algorithm, rules for converting the two-dimensional coordinates of the feature points of the image into the three-dimensional coordinates are described based on the feature amount of the image.

ステップS121(図7)において、プロセッサ22は、モデル生成アルゴリズムを用いて、画像IMG20から点群データを抽出する。
プロセッサ22は、3次元座標推定アルゴリズムを用いて、抽出された点群データに含まれる各特徴点の2次元座標を3次元座標に変換する。3次元座標は、基準座標系で規定される。
プロセッサ22は、各特徴点を結ぶ特徴線を生成する。
プロセッサ22は、複数の特徴点と、複数の特徴線と、各特徴点の2次元座標と、を合成することにより、モデル画像を生成する。
In step S121 (FIG. 7), the processor 22 uses a model generation algorithm to extract point cloud data from the image IMG 20.
The processor 22 uses a three-dimensional coordinate estimation algorithm to convert the two-dimensional coordinates of each feature point included in the extracted point cloud data into three-dimensional coordinates. The three-dimensional coordinates are defined by the reference coordinate system.
The processor 22 generates a feature line connecting each feature point.
The processor 22 generates a model image by synthesizing a plurality of feature points, a plurality of feature lines, and two-dimensional coordinates of each feature point.

ステップS123(図7)において、トレーナが、画面P21(図10)の画像IMG21に対して、一部のノードオブジェクトFNaの位置を変更するためのタッチパネル操作を与えると、プロセッサ22は、ノードオブジェクトFNaに対応する特徴点の3次元座標を変更するためのユーザ指示を取得する。
このユーザ指示は、モデル画像を回転させるための指示に相当する。
In step S123 (FIG. 7), when the trainer gives the image IMG21 on the screen P21 (FIG. 10) a touch panel operation for changing the position of some node objects FNa, the processor 22 causes the node object FNa. Acquire a user instruction for changing the three-dimensional coordinates of the feature point corresponding to.
This user instruction corresponds to an instruction for rotating the model image.

ステップS123(図7)において、プロセッサ22は、ステップS123で得られたユーザ指示に対応するノードオブジェクトFNaの位置に応じて、ノードオブジェクトFNaに対応する特徴点に割り当てられた3次元座標を変更する。
プロセッサ22は、ユーザ指示に対応するノードオブジェクトFNaの位置に応じて、ノードオブジェクトFNに接続されたリンクオブジェクトFLを変更する。
これにより、被写体画像の画像空間における骨格モデルの角度が変更される。
In step S123 (FIG. 7), the processor 22 changes the three-dimensional coordinates assigned to the feature points corresponding to the node object FNa according to the position of the node object FNa corresponding to the user instruction obtained in step S123. ..
The processor 22 changes the link object FL connected to the node object FN according to the position of the node object FNa corresponding to the user instruction.
As a result, the angle of the skeleton model in the image space of the subject image is changed.

変形例1によれば、トレーナの指示に応じて、3次元空間におけるモデル画像を生成する。これにより、3次元空間におけるコーチング(例えば、回転に関するコーチング)を提供することができる。その結果、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上可能な環境を提供することができる。 According to the first modification, a model image in the three-dimensional space is generated according to the instruction of the trainer. This makes it possible to provide coaching in a three-dimensional space (for example, coaching related to rotation). As a result, it is possible to provide an environment in which the learning effect of the trainer in coaching and the teaching efficiency of the trainer can be further improved.

(5−2)変形例2
変形例2を説明する。変形例2は、被写体画像が複数の被写体を含む例である。
(5-2) Modification 2
Modification 2 will be described. Modification 2 is an example in which the subject image includes a plurality of subjects.

変形例2の第1例では、ステップS121(図7)において、プロセッサ22は、被写体画像に含まれる全ての被写体に対応するモデル画像を生成する。 In the first example of the second modification, in step S121 (FIG. 7), the processor 22 generates a model image corresponding to all the subjects included in the subject image.

ステップS123(図7)において、プロセッサ22は、少なくとも1つの被写体(例えば、ユーザが任意に指定した被写体)に対応するモデル画像に対するユーザ指示を取得する。 In step S123 (FIG. 7), the processor 22 acquires user instructions for a model image corresponding to at least one subject (eg, a subject arbitrarily designated by the user).

変形例2の第2例では、ステップS121(図7)において、プロセッサ22は、被写体画像に含まれ複数の被写体のうち、ユーザが任意に指定した少なくとも1つの被写体に対応するモデル画像を生成する。 In the second example of the second modification, in step S121 (FIG. 7), the processor 22 generates a model image corresponding to at least one subject arbitrarily designated by the user among the plurality of subjects included in the subject image. ..

変形例2によれば、被写体画像が複数の被写体画像を含む場合であっても、本実施形態と同様の効果が得られる。 According to the second modification, the same effect as that of the present embodiment can be obtained even when the subject image includes a plurality of subject images.

(5−3)変形例3
変形例3を説明する。変形例3は、被写体画像が動画像(つまり、複数の被写体画像フレームから構成される画像)である場合の例である。
(5-3) Modification 3
Modification 3 will be described. Modification 3 is an example in which the subject image is a moving image (that is, an image composed of a plurality of subject image frames).

変形例3では、ステップS120(図7)の後、第2クライアント装置20は、被写体モデルの生成(S121)を実行する。
具体的には、プロセッサ22は、被写体画像フレーム毎のモデル画像のフレーム(以下「モデル画像フレーム」という)を生成する。これにより、複数のモデル画像フレームから構成されるモデル動画像が得られる。
In the third modification, after step S120 (FIG. 7), the second client device 20 executes subject model generation (S121).
Specifically, the processor 22 generates a frame of a model image for each subject image frame (hereinafter referred to as "model image frame"). As a result, a model moving image composed of a plurality of model image frames can be obtained.

ステップS121の後、第2クライアント装置20は、第1合成画像の生成(S122)を実行する。
具体的には、プロセッサ22は、コーチング通知データに含まれる被写体画像に、ステップS121で得られたモデル動画像を重畳させることにより、第1合成動画像を生成する。
After step S121, the second client device 20 executes the generation of the first composite image (S122).
Specifically, the processor 22 generates the first composite moving image by superimposing the model moving image obtained in step S121 on the subject image included in the coaching notification data.

(5−3−1)被写体モデルの変更の第1例
変形例3の被写体モデルの変更の第1例を説明する。第1例は、被写体画像を静止させたまま、被写体モデルに対する変更の指示を受け付ける例である。
図13は、変形例3の被写体モデルの変更の第1例の詳細なフローチャートである。図14は、図13の情報処理の説明図である。
(5-3-1) First Example of Changing the Subject Model The first example of changing the subject model of the modified example 3 will be described. The first example is an example of accepting a change instruction to the subject model while keeping the subject image stationary.
FIG. 13 is a detailed flowchart of the first example of changing the subject model of the modified example 3. FIG. 14 is an explanatory diagram of information processing in FIG.

図13に示すように、第2クライアント装置20は、モデル画像フレーム毎のユーザ指示の取得(S2230)を実行する。
具体的には、ユーザが、変更の対象となるモデル画像フレームに割り当てられた時刻(例えば、時刻T1)を指定すると、プロセッサ22は、時刻T1に対応するモデル画像フレーム(FLAME1)を表示オブジェクトA21(図9)に表示する。
ユーザが、モデル画像フレーム(FLAME1)に対して、全てのノードオブジェクトFN又は一部のノードオブジェクトFNaの位置を変更するためのタッチパネル操作を与えると、プロセッサ22は、ユーザの操作に対応するノードオブジェクトに対応付けられた特徴点の座標(2次元座標又は3次元座標)を変更するためのユーザ指示を取得する。
As shown in FIG. 13, the second client device 20 executes the acquisition of the user instruction (S2230) for each model image frame.
Specifically, when the user specifies the time (for example, time T1) assigned to the model image frame to be changed, the processor 22 displays the model image frame (FLAME1) corresponding to the time T1 as the display object A21. It is displayed in (Fig. 9).
When the user gives the model image frame (FLAME1) a touch panel operation for changing the positions of all the node objects FN or some of the node objects FNa, the processor 22 causes the node object corresponding to the user's operation. Acquire a user instruction for changing the coordinates (two-dimensional coordinates or three-dimensional coordinates) of the feature points associated with.

ステップS2230の後、第2クライアント装置20は、ユーザ指示に応じた被写体モデルの生成(S2231)を実行する。
具体的には、プロセッサ22は、ステップS2230で得られたユーザ指示に対応するノードオブジェクトFNの位置に応じて、モデル画像フレーム(FLAME1)のノードオブジェクトFNに対応する特徴点に割り当てられた座標を変更する。
プロセッサ22は、ユーザ指示に対応するノードオブジェクトFNの位置に応じて、ノードオブジェクトFNに接続されたリンクオブジェクトFLを変更する。
これにより、被写体モデルの動画像(以下「モデル動画像」という)が得られる。モデル動画像は、変更後のノードオブジェクトFN及びリンクオブジェクトFLの組合せに対応するモデル画像フレーム(以下「変更後のモデル画像フレーム」という)より構成される。
After step S2230, the second client device 20 executes the generation of the subject model (S2231) in response to the user instruction.
Specifically, the processor 22 sets the coordinates assigned to the feature points corresponding to the node object FN of the model image frame (FLAME1) according to the position of the node object FN corresponding to the user instruction obtained in step S2230. change.
The processor 22 changes the link object FL connected to the node object FN according to the position of the node object FN corresponding to the user instruction.
As a result, a moving image of the subject model (hereinafter referred to as "model moving image") can be obtained. The model moving image is composed of a model image frame (hereinafter referred to as "changed model image frame") corresponding to the combination of the changed node object FN and the link object FL.

S2231の後、第2クライアント装置20は、被写体モデルの補完(S2232)を実行する。
具体的には、記憶装置21には、補間アルゴリズムが記憶されている。補間アルゴリズムには、人物及び物体の動きのルールが記述されている。
プロセッサ22は、ステップS2231で得られた被写体モデルに補間アルゴリズムを適用することにより、変更後のモデル画像フレーム間に補間フレームを挿入する。補間フレームは、複数の変更後のモデル画像フレームに対応する被写体の動きを補間するフレームである。
これにより、変更後のモデル画像フレーム及び補間フレームの組合せから構成されるモデル動画像(以下「変更後のモデル動画像」という)が得られる。
After S2231, the second client device 20 executes subject model complementation (S2322).
Specifically, the storage device 21 stores the interpolation algorithm. The interpolation algorithm describes the rules for the movement of people and objects.
The processor 22 inserts the interpolation frame between the changed model image frames by applying the interpolation algorithm to the subject model obtained in step S2231. The interpolation frame is a frame that interpolates the movement of the subject corresponding to the plurality of modified model image frames.
As a result, a model moving image (hereinafter referred to as "changed model moving image") composed of a combination of the changed model image frame and the interpolation frame can be obtained.

ステップS2232の後、第2クライアント装置20は、図7の第2合成画像の生成(S124)を実行する。
具体的には、プロセッサ22は、コーチング通知データに含まれる被写体画像に、ステップS2232で得られた変更後のモデル動画像を重畳させることにより、第2合成動画像を生成する。
After step S2232, the second client device 20 executes the generation of the second composite image (S124) of FIG.
Specifically, the processor 22 generates a second composite moving image by superimposing the changed model moving image obtained in step S2232 on the subject image included in the coaching notification data.

(5−3−2)被写体モデルの変更の第2例
変形例3の被写体モデルの変更の第2例を説明する。第2例は、被写体画像を再生させたまま、被写体モデルに対する変更の指示を受け付ける例である。
図15は、変形例3の被写体モデルの変更の第2例の詳細なフローチャートである。
(5-3-2) Second Example of Changing the Subject Model A second example of changing the subject model of the modified example 3 will be described. The second example is an example of accepting a change instruction to the subject model while reproducing the subject image.
FIG. 15 is a detailed flowchart of the second example of changing the subject model of the modified example 3.

図15に示すように、第2クライアント装置20は、被写体画像の再生の開始(S3230)を実行する。
具体的には、ユーザが、表示オブジェクトA20b(図9)の所定領域にタッチパネル操作(例えば、タップ)を与えると、プロセッサ22は、被写体画像の再生を開始する。
As shown in FIG. 15, the second client device 20 executes the start of reproduction of the subject image (S3230).
Specifically, when the user gives a touch panel operation (for example, tap) to a predetermined area of the display object A20b (FIG. 9), the processor 22 starts reproducing the subject image.

ステップS3230の後、第2クライアント装置20は、変形例3の第1例(図13)と同様に、各モデル画像フレームに対するユーザ指示の取得(S2230)を実行する。これにより、ユーザ操作が与えられたときに表示されていたモデル画像フレームに対するユ−ザ指示が得られる。 After step S3230, the second client device 20 executes the acquisition of the user instruction (S2230) for each model image frame in the same manner as in the first example (FIG. 13) of the modification example 3. As a result, a user instruction for the model image frame that was displayed when the user operation is given can be obtained.

ステップS2230の後、第2クライアント装置20は、被写体画像の再生の停止(S3231)を実行する。
具体的には、ユーザが、操作オブジェクトB21(図10)を操作すると、プロセッサ22は、被写体画像の再生を停止する。
After step S2230, the second client device 20 executes the stop of reproduction of the subject image (S3231).
Specifically, when the user operates the operation object B21 (FIG. 10), the processor 22 stops the reproduction of the subject image.

ステップS3231の後、第2クライアント装置20は、変化例3の第1例(図13)と同様に、ユーザ指示に応じた被写体モデルの生成(S2231)、動きの補間(S2232)、及び、第2合成画像の生成(S124)を実行する。 After step S3231, the second client device 20 generates a subject model according to a user instruction (S2231), interpolates motion (S2232), and a second, as in the first example (FIG. 13) of the change example 3. 2 Generate a composite image (S124).

変形例3によれば、動画像に対応する被写体モデルを変更する。これにより、動きのコーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することができる。 According to the third modification, the subject model corresponding to the moving image is changed. This makes it possible to provide an environment in which the learning effect of the trainer in the coaching of movement and the teaching efficiency of the trainer can be improved.

また、変形例3によれば、変更後のモデル画像フレームの間を補間するための補間フレームを生成する。これにより、動きが滑らかなモデル動画像を提供することができる。 Further, according to the modification 3, an interpolation frame for interpolating between the changed model image frames is generated. This makes it possible to provide a model moving image with smooth movement.

変形例3の第2例によれば、動画像を再生しながら、動画像に対応する被写体モデルを変更する。これにより、動きのコーチングにおけるトレーナの指導効率を向上可能な環境を提供することができる。 According to the second example of the modification 3, the subject model corresponding to the moving image is changed while reproducing the moving image. As a result, it is possible to provide an environment in which the training efficiency of the trainer in motion coaching can be improved.

なお、変形例3では、2つのモデル画像フレーム(FLAME1〜FLAME2)に対するユーザ指示を取得する例を示したが、ユーザ指示に対応するモデル画像フレームの数はこれに限られない。変形例3は、3つ以上のモデル画像フレームに対するユーザ指示が与えられる場合にも適用可能である。 Although the modification 3 shows an example of acquiring user instructions for two model image frames (FLAME1 to FLAME2), the number of model image frames corresponding to the user instructions is not limited to this. Modification 3 is also applicable when user instructions are given for three or more model image frames.

変形例3の第2例では、被写体画像の再生の開始(S3230)の後に、モデル画像フレーム毎のユーザ指示の取得(S2230)を実行する例を示したが、ステップS3230及びS2230の実行順はこれに限られない。変形例2は、あるモデル画像フレームに対するユーザ指示を取得した後に、ステップS2230において、被写体画像の再生を開始しても良い。この場合、第2クライアント装置20は、ステップS3230の後、当該モデル画像フレーム以外のモデル画像フレームに対するユーザ指示を取得する。 In the second example of the third modification, an example in which the acquisition of the user instruction (S2230) for each model image frame is executed after the start of the reproduction of the subject image (S3230) is shown, but the execution order of steps S3230 and S2230 is Not limited to this. In the second modification, the reproduction of the subject image may be started in step S2230 after acquiring the user instruction for a certain model image frame. In this case, the second client device 20 acquires a user instruction for a model image frame other than the model image frame after step S3230.

(5−4)変形例4
変形例4を説明する。変形例4は、トレーニのユーザコメントを受け付ける例である。図16は、変形例4の画面例を示す図である。
(5-4) Modification 4
Modification 4 will be described. Modification 4 is an example of accepting a traini user comment. FIG. 16 is a diagram showing a screen example of the modified example 4.

変形例4のプロセッサ12は、ステップS111(図7)において、画面P41(図16)をディスプレイに表示する。 The processor 12 of the modification 4 displays the screen P41 (FIG. 16) on the display in step S111 (FIG. 7).

画面P41は、表示オブジェクトA41a〜A41bと、フィールドオブジェクトF41と、操作オブジェクトB41と、を含む。
フィールドオブジェクトF41には、第2合成画像データに含まれるユーザコメントが表示される。フィールドオブジェクトF41は、トレーニのユーザコメントに関するユーザ指示を受け付けるオブジェクトである。トレーニのユーザコメントは、例えば、トレーニによるトレーナに対する質問、及び、トレーナのユーザコメントに対するトレーニによる応答である。
操作オブジェクトB41は、フィールドオブジェクトF41に与えられたトレーニのユーザコメントを第2クライアント装置20に送信するためのユーザ指示を受け付けるオブジェクトである。
The screen P41 includes display objects A41a to A41b, a field object F41, and an operation object B41.
The field object F41 displays the user comment included in the second composite image data. The field object F41 is an object that receives a user instruction regarding a traini's user comment. The traini's user comments are, for example, a traini's question to the trainer and a trainer's response to the trainer's user comment.
The operation object B41 is an object that receives a user instruction for transmitting the trainee user comment given to the field object F41 to the second client device 20.

トレーニがフィールドオブジェクトF41にユーザコメントを入力し、且つ、操作オブジェクトB41を操作すると、プロセッサ12は、フィールドオブジェクトF41に入力されたユーザコメントをサーバ30に送信する。 When the trainee inputs a user comment to the field object F41 and operates the operation object B41, the processor 12 transmits the user comment input to the field object F41 to the server 30.

サーバ30は、第1クライアント装置10から送信されたユーザコメントを第2クライアント装置20に送信する。 The server 30 transmits the user comment transmitted from the first client device 10 to the second client device 20.

プロセッサ22は、サーバ30から送信されたユーザコメントをディスプレイ(例えば、画面P22(図10)のフィールドオブジェクトF22)に表示する。 The processor 22 displays the user comment transmitted from the server 30 on the display (for example, the field object F22 on the screen P22 (FIG. 10)).

変形例4によれば、トレーナのユーザコメントだけでなく、トレーニのユーザコメントも取得する。これにより、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上可能な環境を提供することができる。 According to the modification 4, not only the trainer's user comment but also the trainer's user comment is acquired. This makes it possible to provide an environment in which the learning effect of the trainer in coaching and the teaching efficiency of the trainer can be further improved.

(6)本実施形態の小括
本実施形態について小括する。
(6) Summary of the present embodiment A summary of the present embodiment will be given.

本実施形態の第1態様は、
少なくとも1つの被写体の被写体画像から、被写体の複数の特徴点に関する点群データを抽出する手段(例えば、ステップ)を備え、
点群データを参照して、被写体モデルのモデル画像を生成する手段を備え、
被写体画像にモデル画像を重畳させることにより、第1合成画像を生成する手段を備え、
第1合成画像をディスプレイに表示させる手段を備え、
ディスプレイに表示された第1合成画像に含まれるモデル画像に対するユーザ操作に対応するユーザ指示を取得する手段を備え、
ユーザ指示を参照して、モデル画像を変更する手段を備え、
被写体画像に変更後のモデル画像を重畳させることにより、第2合成画像を生成する手段を備え、
第2合成画像をディスプレイに表示させる手段を備える、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The first aspect of this embodiment is
A means (for example, a step) for extracting point cloud data relating to a plurality of feature points of the subject from a subject image of at least one subject is provided.
With a means to generate a model image of the subject model by referring to the point cloud data,
A means for generating a first composite image by superimposing a model image on a subject image is provided.
Provided with a means for displaying the first composite image on the display
A means for acquiring a user instruction corresponding to a user operation on a model image included in the first composite image displayed on the display is provided.
With a means to change the model image with reference to the user's instructions,
A means for generating a second composite image by superimposing the changed model image on the subject image is provided.
A means for displaying the second composite image on the display is provided.
An information processing device (for example, a second client device 20 or a server 30).

第1態様によれば、被写体画像と、トレーナの指示に応じて変更されたモデル画像と、を合成することにより、第2合成画像を生成し、且つ、第2合成画像をトレーニに表示する。これにより、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することができる。 According to the first aspect, the second composite image is generated by synthesizing the subject image and the model image changed according to the instruction of the trainer, and the second composite image is displayed on the trainee. This makes it possible to provide an environment in which the learning effect of the trainer in coaching and the teaching efficiency of the trainer can be improved.

本実施形態の第2態様は、
被写体は人物であり、
ユーザ指示を取得する手段は、各特徴点の座標を変更するユーザ指示を取得し、
モデル画像を生成する手段は、人物の骨格モデルのモデル画像を生成し、
変更する手段は、ユーザ指示を参照して、被写体画像の画像空間における骨格モデルの位置及び姿勢の少なくとも1つを変更する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The second aspect of this embodiment is
The subject is a person
The means for acquiring the user instruction is to acquire the user instruction for changing the coordinates of each feature point.
The means of generating a model image is to generate a model image of a human skeleton model and
The means for changing is to change at least one of the positions and orientations of the skeleton model in the image space of the subject image with reference to the user's instructions.
An information processing device (for example, a second client device 20 or a server 30).

第2態様によれば、人物の骨格モデルの位置及び姿勢の少なくとも1つが変更された被写体モデルを生成する。これにより、人物に関するコーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 According to the second aspect, a subject model in which at least one of the positions and postures of the skeleton model of the person is changed is generated. As a result, the learning effect of the trainer and the teaching efficiency of the trainer in coaching about a person can be further improved.

本実施形態の第3態様は、
被写体は物体であり、
ユーザ指示を取得する手段は、各特徴点の座標を変更するユーザ指示を取得し、
モデル画像を生成する手段は、物体の骨格モデルのモデル画像を生成し、
変更する手段は、ユーザ指示を参照して、被写体画像の画像空間における骨格モデルの位置及び形状の少なくとも1つの変更を実施する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The third aspect of this embodiment is
The subject is an object,
The means for acquiring the user instruction is to acquire the user instruction for changing the coordinates of each feature point.
The means for generating a model image is to generate a model image of the skeleton model of the object and
The means for changing is to change at least one of the positions and shapes of the skeleton model in the image space of the subject image with reference to the user's instructions.
An information processing device (for example, a second client device 20 or a server 30).

第3態様によれば、物体の骨格モデルの位置及び形状の少なくとも1つが変更された被写体モデルを生成する。これにより、物体に関するコーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 According to the third aspect, a subject model in which at least one of the positions and shapes of the skeleton model of the object is changed is generated. As a result, the learning effect of the trainer and the teaching efficiency of the trainer in coaching about the object can be further improved.

本実施形態の第4態様は、
モデル画像を生成する手段は、各特徴点の3次元座標を推定し、
ユーザ指示を取得する手段は、各特徴点の3次元座標を変更するユーザ指示を取得し、
変更する手段は、ユーザ指示を参照して、被写体画像の画像空間における被写体モデルの回転、位置の変更、及び、形状の変更の少なくとも1つを実施する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The fourth aspect of this embodiment is
The means for generating the model image is to estimate the 3D coordinates of each feature point and
The means for acquiring the user instruction is to acquire the user instruction for changing the three-dimensional coordinates of each feature point.
The means for changing is to perform at least one of rotation, position change, and shape change of the subject model in the image space of the subject image with reference to the user instruction.
An information processing device (for example, a second client device 20 or a server 30).

第4態様によれば、トレーナの指示に応じて、3次元空間におけるモデル画像を生成する。これにより、3次元空間におけるコーチング(例えば、回転に関するコーチング)を提供することができる。その結果、コーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することができる。 According to the fourth aspect, a model image in the three-dimensional space is generated according to the instruction of the trainer. This makes it possible to provide coaching in a three-dimensional space (for example, coaching related to rotation). As a result, it is possible to provide an environment in which the learning effect of the trainer in coaching and the teaching efficiency of the trainer can be improved.

本実施形態の第5態様は、
ユーザ指示を取得する手段は、タッチパネルディスプレイに表示された第1合成画像又は第2合成画像に含まれるモデル画像に対するタッチパネル操作に応じて、ユーザ指示を取得する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
A fifth aspect of this embodiment is
The means for acquiring the user instruction is to acquire the user instruction in response to the touch panel operation on the model image included in the first composite image or the second composite image displayed on the touch panel display.
An information processing device (for example, a second client device 20 or a server 30).

第5態様によれば、タッチパネル操作を介して、被写体モデルを変更するためのユーザ指示を受け付ける。これにより、トレーナは直感的な操作で被写体モデルを変更することができる。その結果、トレーナの指導効率が更に向上する。 According to the fifth aspect, the user instruction for changing the subject model is received via the touch panel operation. This allows the trainer to intuitively change the subject model. As a result, the training efficiency of the trainer is further improved.

本実施形態の第6態様は、
ユーザ指示を取得する手段は、被写体に応じた制約の範囲内のユーザ指示を取得する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The sixth aspect of this embodiment is
The means for acquiring the user instruction is to acquire the user instruction within the range of the constraint according to the subject.
An information processing device (for example, a second client device 20 or a server 30).

第6態様によれば、制約条件の範囲内で被写体モデルを変更する。これにより、トレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 According to the sixth aspect, the subject model is changed within the range of the constraint condition. As a result, the learning effect of the trainer and the teaching efficiency of the trainer can be further improved.

本実施形態の第7態様は、
ユーザ指示を取得する手段は、被写体画像が複数の被写体を含む場合、取得する手段は、ユーザによって指定された被写体に対応するモデル画像に対するユーザ指示を取得する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The seventh aspect of this embodiment is
When the means for acquiring the user instruction includes a plurality of subjects, the means for acquiring the user instruction acquires the user instruction for the model image corresponding to the subject specified by the user.
An information processing device (for example, a second client device 20 or a server 30).

第7態様によれば、被写体画像が複数の被写体画像を含む場合であっても、人物に関するコーチングにおけるトレーニの学習効果及びトレーナの指導効率を更に向上させることができる。 According to the seventh aspect, even when the subject image includes a plurality of subject images, the learning effect of the trainer and the teaching efficiency of the trainer in coaching about a person can be further improved.

本実施形態の第8態様は、
被写体画像は動画像であり、
第1合成画像を生成する手段は、複数の被写体画像フレームに複数のモデル画像フレームを重畳させることにより、第1合成動画像を生成し、
第2合成画像を生成する手段は、各被写体画像フレームに各変更後のモデル画像フレームを重畳させることにより、第2合成動画像を生成する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The eighth aspect of this embodiment is
The subject image is a moving image,
The means for generating the first composite image is to generate the first composite moving image by superimposing a plurality of model image frames on a plurality of subject image frames.
The means for generating the second composite image is to generate the second composite moving image by superimposing the model image frame after each change on each subject image frame.
An information processing device (for example, a second client device 20 or a server 30).

第8態様によれば、動画像に対応する被写体モデルを変更する。これにより、動きのコーチングにおけるトレーニの学習効果及びトレーナの指導効率を向上可能な環境を提供することができる。 According to the eighth aspect, the subject model corresponding to the moving image is changed. This makes it possible to provide an environment in which the learning effect of the trainer in the coaching of movement and the teaching efficiency of the trainer can be improved.

本実施形態の第9態様は、
第2合成画像を生成する手段は、複数の変更後のモデル画像フレームに対応する被写体モデルの動きを補間する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The ninth aspect of this embodiment is
The means for generating the second composite image interpolates the movement of the subject model corresponding to the plurality of modified model image frames.
An information processing device (for example, a second client device 20 or a server 30).

第9態様によれば、変更後のモデル画像フレームの間を補間するための補間フレームを生成する。これにより、動きが滑らかなモデル動画像を提供することができる。 According to the ninth aspect, an interpolation frame for interpolating between the changed model image frames is generated. This makes it possible to provide a model moving image with smooth movement.

本実施形態の第10態様は、
ユーザ指示を取得する手段は、第1合成動画像の再生中のユーザ操作に対応するユーザ指示を取得する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The tenth aspect of this embodiment is
The means for acquiring the user instruction is to acquire the user instruction corresponding to the user operation during the reproduction of the first composite moving image.
An information processing device (for example, a second client device 20 or a server 30).

第10態様によれば、動画像を再生しながら、動画像に対応する被写体モデルを変更する。これにより、動きのコーチングにおけるトレーナの指導効率を向上可能な環境を提供することができる。 According to the tenth aspect, the subject model corresponding to the moving image is changed while reproducing the moving image. As a result, it is possible to provide an environment in which the training efficiency of the trainer in motion coaching can be improved.

本実施形態の第11態様は、
ユーザ指示を取得する手段は、第1合成動画像に含まれる複数のモデル画像フレームのうち、ユーザ操作が与えられたときに表示されていたモデル画像フレームに対するユーザ指示を取得し、
モデル画像を変更する手段は、取得されたユーザ指示に対応するモデル画像フレームの被写体モデル画像を変更する、
情報処理装置(例えば、第2クライアント装置20又はサーバ30)である。
The eleventh aspect of this embodiment is
The means for acquiring the user instruction is to acquire the user instruction for the model image frame displayed when the user operation is given among the plurality of model image frames included in the first composite moving image.
The means for changing the model image is to change the subject model image of the model image frame corresponding to the acquired user instruction.
An information processing device (for example, a second client device 20 or a server 30).

第11態様によれば、動画像を再生しながら、動画像に対応する被写体モデルを変更する。これにより、動きのコーチングにおけるトレーナの指導効率を向上可能な環境を提供することができる。 According to the eleventh aspect, the subject model corresponding to the moving image is changed while reproducing the moving image. As a result, it is possible to provide an environment in which the training efficiency of the trainer in motion coaching can be improved.

本実施形態の第12態様は、
コンピュータ(例えば、第2クライアント装置20又はサーバ30)を、上記の何れかの各手段として機能させるためのプログラムである。
The twelfth aspect of this embodiment is
This is a program for causing a computer (for example, the second client device 20 or the server 30) to function as any of the above means.

(7)その他の変形例
その他の変形例を説明する。
(7) Other Modification Examples Other modification examples will be described.

記憶装置11は、ネットワークNWを介して、第1クライアント装置10と接続されてもよい。記憶装置21は、ネットワークNWを介して、第2クライアント装置20と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the first client device 10 via the network NW. The storage device 21 may be connected to the second client device 20 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

サーバ30は省略可能である。この場合、第1クライアント装置10及び第2クライアント装置20は、サーバ30を経由することなく通信可能である。 The server 30 can be omitted. In this case, the first client device 10 and the second client device 20 can communicate without going through the server 30.

コーチング対象動作は介護動作に限られない。コーチング対象動作は、以下の動作も含む。
・スポーツの動作
・調理の動作
・対面営業の動作
・アナウンスの動作
・美容師又は理容師の動作
・その他の動きのある職業の動作
The coaching target movement is not limited to the nursing care movement. The coaching target operation includes the following operations.
・ Sports movements ・ Cooking movements ・ Face-to-face sales movements ・ Announcement movements ・ Cosmetologist or barber movements ・ Other movements of occupational movements

本実施形態では、第2合成画像(つまり、被写体画像と変更後の被写体モデル画像とを重畳表示させた画像)をトレーニに提示する例を示したが、本実施形態の第2合成画像はこれに限られない。本実施形態は、被写体画像、変更前の被写体モデル画像、及び、変更後の被写体モデル画像が重畳表示された第2合成画像をトレーニに提示する場合にも適用可能である。 In the present embodiment, an example of presenting the second composite image (that is, an image in which the subject image and the changed subject model image are superimposed and displayed) is presented to the trainee, but the second composite image of the present embodiment is this. Not limited to. The present embodiment is also applicable to the case where the subject image, the subject model image before the change, and the second composite image on which the changed subject model image is superimposed and displayed are presented to the trainee.

本実施形態では、トレーニのリクエストに応じて第2合成画像を表示する例を示したが、本実施形態はこれに限られない。本実施形態は、トレーナのリクエストに応じて、第2合成画像を表示する場合(例えば、第2クライアント装置20がステップS111を実行する場合)にも適用可能である。 In the present embodiment, an example of displaying the second composite image in response to the trainee's request is shown, but the present embodiment is not limited to this. This embodiment can also be applied to the case where the second composite image is displayed in response to the trainer's request (for example, when the second client device 20 executes step S111).

本実施形態では、被写体モデルがノードオブジェクトFN及びリンクオブジェクトFLの組合せである例を示したが、本実施形態は、これに限られない。本実施形態は、ノードオブジェクトFNを含まない被写体モデルにも適用可能である。 In the present embodiment, an example in which the subject model is a combination of the node object FN and the link object FL is shown, but the present embodiment is not limited to this. This embodiment can also be applied to a subject model that does not include the node object FN.

本実施形態では、第2クライアント装置20がステップS121〜S125(図7)を実行する例を示したが、本実施形態は、これに限られない。本実施形態は、サーバ30がステップS121〜S125を実行する場合にも適用可能である。この場合、ステップS130及びS126は省略可能である。 In the present embodiment, an example in which the second client device 20 executes steps S121 to S125 (FIG. 7) is shown, but the present embodiment is not limited to this. This embodiment is also applicable when the server 30 executes steps S121 to S125. In this case, steps S130 and S126 can be omitted.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.

1 :情報処理システム
10 :第1クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
20 :第2クライアント装置
21 :記憶装置
22 :プロセッサ
23 :入出力インタフェース
24 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

1: Information processing system 10: First client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 20: Second client device 21: Storage device 22: Processor 23: Input / output interface 24: Communication interface 30 : Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Claims (12)

少なくとも1つの被写体の被写体画像から、前記被写体の複数の特徴点に関する点群データを抽出する手段を備え、
前記点群データを参照して、被写体モデルのモデル画像を生成する手段を備え、
前記被写体画像に前記モデル画像を重畳させることにより、第1合成画像を生成する手段を備え、
前記第1合成画像をディスプレイに表示させる手段を備え、
前記ディスプレイに表示された第1合成画像に含まれるモデル画像に対するユーザ操作に対応するユーザ指示を取得する手段を備え、
前記ユーザ指示を参照して、前記モデル画像を変更する手段を備え、
前記被写体画像に変更後のモデル画像を重畳させることにより、第2合成画像を生成する手段を備え、
前記第2合成画像を前記ディスプレイに表示させる手段を備える、
情報処理装置。
A means for extracting point cloud data relating to a plurality of feature points of the subject from a subject image of at least one subject is provided.
A means for generating a model image of a subject model with reference to the point cloud data is provided.
A means for generating a first composite image by superimposing the model image on the subject image is provided.
A means for displaying the first composite image on a display is provided.
A means for acquiring a user instruction corresponding to a user operation on a model image included in the first composite image displayed on the display is provided.
A means for changing the model image with reference to the user instruction is provided.
A means for generating a second composite image by superimposing the changed model image on the subject image is provided.
A means for displaying the second composite image on the display is provided.
Information processing device.
前記被写体は人物であり、
前記ユーザ指示を取得する手段は、各特徴点の座標を変更するユーザ指示を取得し、
前記モデル画像を生成する手段は、前記人物の骨格モデルのモデル画像を生成し、
前記変更する手段は、前記ユーザ指示を参照して、前記被写体画像の画像空間における前記骨格モデルの位置及び姿勢の少なくとも1つを変更する、
請求項1に記載の情報処理装置。
The subject is a person
The means for acquiring the user instruction acquires a user instruction for changing the coordinates of each feature point, and obtains the user instruction.
The means for generating the model image generates a model image of the skeleton model of the person.
The changing means changes at least one of the positions and orientations of the skeleton model in the image space of the subject image with reference to the user instruction.
The information processing device according to claim 1.
前記被写体は物体であり、
前記ユーザ指示を取得する手段は、各特徴点の座標を変更するユーザ指示を取得し、
前記モデル画像を生成する手段は、前記物体の骨格モデルのモデル画像を生成し、
前記変更する手段は、前記ユーザ指示を参照して、前記被写体画像の画像空間における前記骨格モデルの位置及び形状の少なくとも1つの変更を実施する、
請求項1又は2に記載の情報処理装置。
The subject is an object
The means for acquiring the user instruction acquires a user instruction for changing the coordinates of each feature point, and obtains the user instruction.
The means for generating the model image generates a model image of the skeleton model of the object.
The changing means performs at least one change in the position and shape of the skeleton model in the image space of the subject image with reference to the user instruction.
The information processing device according to claim 1 or 2.
前記モデル画像を生成する手段は、各特徴点の3次元座標を推定し、
前記ユーザ指示を取得する手段は、各特徴点の3次元座標を変更するユーザ指示を取得し、
前記変更する手段は、前記ユーザ指示を参照して、前記被写体画像の画像空間における前記被写体モデルの回転、位置の変更、及び、形状の変更の少なくとも1つを実施する、
請求項1〜3の何れかに記載の情報処理装置。
The means for generating the model image estimates the three-dimensional coordinates of each feature point and
The means for acquiring the user instruction acquires a user instruction for changing the three-dimensional coordinates of each feature point, and obtains the user instruction.
The changing means performs at least one of rotation, position change, and shape change of the subject model in the image space of the subject image with reference to the user instruction.
The information processing device according to any one of claims 1 to 3.
前記ユーザ指示を取得する手段は、タッチパネルディスプレイに表示された第1合成画像又は第2合成画像に含まれるモデル画像に対するタッチパネル操作に応じて、前記ユーザ指示を取得する、
請求項1〜4の何れかに記載の情報処理装置。
The means for acquiring the user instruction acquires the user instruction in response to a touch panel operation on the model image included in the first composite image or the second composite image displayed on the touch panel display.
The information processing device according to any one of claims 1 to 4.
前記ユーザ指示を取得する手段は、前記被写体に応じた制約の範囲内のユーザ指示を取得する、
請求項1〜5の何れかに記載の情報処理装置。
The means for acquiring the user instruction acquires the user instruction within the range of the constraint according to the subject.
The information processing device according to any one of claims 1 to 5.
前記ユーザ指示を取得する手段は、前記被写体画像が複数の被写体を含む場合、前記取得する手段は、ユーザによって指定された被写体に対応するモデル画像に対するユーザ指示を取得する、
請求項1〜6の何れかに記載の情報処理装置。
When the subject image includes a plurality of subjects, the means for acquiring the user instruction acquires the user instruction for the model image corresponding to the subject specified by the user.
The information processing device according to any one of claims 1 to 6.
前記被写体画像は動画像であり、
前記第1合成画像を生成する手段は、複数の被写体画像フレームに複数のモデル画像フレームを重畳させることにより、第1合成動画像を生成し、
前記第2合成画像を生成する手段は、各被写体画像フレームに各変更後のモデル画像フレームを重畳させることにより、第2合成動画像を生成する、
請求項1〜7の何れかに記載の情報処理装置。
The subject image is a moving image and is
The means for generating the first composite image is to generate a first composite moving image by superimposing a plurality of model image frames on a plurality of subject image frames.
The means for generating the second composite image generates a second composite moving image by superimposing each changed model image frame on each subject image frame.
The information processing device according to any one of claims 1 to 7.
前記第2合成画像を生成する手段は、複数の変更後のモデル画像フレームに対応する被写体モデルの動きを補間する、
請求項8に記載の情報処理装置。
The means for generating the second composite image interpolates the movement of the subject model corresponding to the plurality of modified model image frames.
The information processing device according to claim 8.
前記ユーザ指示を取得する手段は、前記第1合成動画像の再生中のユーザ操作に対応するユーザ指示を取得する、
請求項8又は9に記載の情報処理装置。
The means for acquiring the user instruction acquires the user instruction corresponding to the user operation during the reproduction of the first composite moving image.
The information processing device according to claim 8 or 9.
前記ユーザ指示を取得する手段は、前記第1合成動画像に含まれる複数のモデル画像フレームのうち、前記ユーザ操作が与えられたときに表示されていたモデル画像フレームに対するユーザ指示を取得し、
前記モデル画像を変更する手段は、前記取得されたユーザ指示に対応するモデル画像フレームの被写体モデル画像を変更する、
請求項8に記載の情報処理装置。
The means for acquiring the user instruction acquires a user instruction for the model image frame displayed when the user operation is given among the plurality of model image frames included in the first composite moving image.
The means for changing the model image is to change the subject model image of the model image frame corresponding to the acquired user instruction.
The information processing device according to claim 8.
コンピュータを、請求項1〜11の何れかに記載の各手段として機能させるためのプログラム。

A program for causing a computer to function as each means according to any one of claims 1 to 11.

JP2019144369A 2019-08-06 2019-08-06 Information processing device and program Active JP6647584B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019144369A JP6647584B1 (en) 2019-08-06 2019-08-06 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019144369A JP6647584B1 (en) 2019-08-06 2019-08-06 Information processing device and program

Publications (2)

Publication Number Publication Date
JP6647584B1 JP6647584B1 (en) 2020-02-14
JP2021026527A true JP2021026527A (en) 2021-02-22

Family

ID=69568117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144369A Active JP6647584B1 (en) 2019-08-06 2019-08-06 Information processing device and program

Country Status (1)

Country Link
JP (1) JP6647584B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7047176B1 (en) 2021-09-10 2022-04-04 株式会社エクサウィザーズ Terminal devices, information processing methods, information processing systems, and programs
JP7432275B1 (en) 2023-07-28 2024-02-16 株式会社計数技研 Video display device, video display method, and program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022187952A (en) * 2021-06-08 2022-12-20 三菱ケミカルグループ株式会社 Program, method, and information processing device
WO2022034771A1 (en) 2020-08-11 2022-02-17 株式会社三菱ケミカルホールディングス Program, method, and information processing device
JP6884306B1 (en) * 2020-08-11 2021-06-09 株式会社三菱ケミカルホールディングス System, method, information processing device
JP6803036B1 (en) * 2020-08-26 2020-12-23 株式会社エクサウィザーズ Information processing methods, information processing devices, information processing systems, and programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237494A (en) * 2004-02-24 2005-09-08 Nihon Knowledge Kk Actual action analysis system and program
JP2010271536A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work training system and work training method, as well as recording medium with the work training method recorded thereon
JP2017146762A (en) * 2016-02-17 2017-08-24 株式会社Acw−Deep Image display type simulation service providing system and image display type simulation service providing method
JP2019012965A (en) * 2017-06-30 2019-01-24 富士通株式会社 Video control method, video control device, and video control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237494A (en) * 2004-02-24 2005-09-08 Nihon Knowledge Kk Actual action analysis system and program
JP2010271536A (en) * 2009-05-21 2010-12-02 Kanto Auto Works Ltd Work training system and work training method, as well as recording medium with the work training method recorded thereon
JP2017146762A (en) * 2016-02-17 2017-08-24 株式会社Acw−Deep Image display type simulation service providing system and image display type simulation service providing method
JP2019012965A (en) * 2017-06-30 2019-01-24 富士通株式会社 Video control method, video control device, and video control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7047176B1 (en) 2021-09-10 2022-04-04 株式会社エクサウィザーズ Terminal devices, information processing methods, information processing systems, and programs
JP2023040882A (en) * 2021-09-10 2023-03-23 株式会社エクサウィザーズ Terminal device, information processing method, information processing system, and program
JP7432275B1 (en) 2023-07-28 2024-02-16 株式会社計数技研 Video display device, video display method, and program

Also Published As

Publication number Publication date
JP6647584B1 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
JP6647584B1 (en) Information processing device and program
JP2015186531A (en) Action information processing device and program
US20210166461A1 (en) Avatar animation
Zou et al. Intelligent fitness trainer system based on human pose estimation
WO2019111521A1 (en) Information processing device and program
Eldar et al. Ergonomic design visualization mapping-developing an assistive model for design activities
Tharatipyakul et al. Pose estimation for facilitating movement learning from online videos
CN114782661A (en) Training method and device for lower body posture prediction model
US20230290132A1 (en) Object recognition neural network training using multiple data sources
JP2005111178A (en) Motion training display system
JP6868673B1 (en) Information processing equipment, information processing methods, and information processing programs
CN113051973A (en) Method and device for posture correction and electronic equipment
KR20240055025A (en) Inferred skeletal structures for practical 3D assets
CN116528759A (en) Information processing device, information processing method, and program
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
US20230068731A1 (en) Image processing device and moving image data generation method
Ruescas-Nicolau et al. Multimodal human motion dataset of 3D anatomical landmarks and pose keypoints
JPWO2019003429A1 (en) Human body model display system, human body model display method, communication terminal device, and computer program
De Almeida et al. Interactive makeup tutorial using face tracking and augmented reality on mobile devices
Sun Research on dance motion capture technology for visualization requirements
CN115023742A (en) Facial mesh deformation with detailed wrinkles
Brownridge Real-time motion capture for analysis and presentation within virtual environments
KR20110107707A (en) Online learning apparatus for augmented reality and method thereof
KR20210076559A (en) Apparatus, method and computer program for generating training data of human model
KR102559717B1 (en) Apparatus and Method for Generating 3D Human Model

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R150 Certificate of patent or registration of utility model

Ref document number: 6647584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250